Archivio mensile:aprile 2013

Il GeneChip: un sistema innovativo, semplice e rapido di analisi genetica.

E rieccomi qui a scrivere… scusate il ritardo ma ero troppo preso dalla situazione politico/economica italiana per dedicarmi alla scrittura. In un modo o nell’altro il governo si è fatto… e io ricomincio a scrivere!

Oggi voglio parlare di un argomento toccato durante un corso che ho fatto nella specialistica, e che mi ha colpito per la potenzialità, ma soprattutto per la semplicità di implementazione… il GeneChip.

Il mondo è vario... grazie alle infinite combinazioni di geni.

Il mondo è vario… grazie alle infinite combinazioni di geni.

Il GeneChip, o BioChip, o MicroArray a DNA, o come lo volete chiamare, è un dispositivo che sfrutta la fotoluminescenza (solitamente) per tracciare specifiche sequenze di DNA (in realtà RNA, ma è lo stesso) per effettuare una vera e propria analisi genetica, in modo da rintracciare malattie genetiche, disfunzioni o semplici caratteristiche cromosomiche in modo rapido ed efficace.

Solo per farvi capire la complessità del patrimonio cromosomico, basta pensare che solo il 1,5% del totale genoma umano codifica i geni, che sono tra i 20.000 e i 30.000, e che creano, attraverso l’espressione delle 23 coppie di cromosomi le milioni di differenze che ci sono tra due persone.

Le 23 coppie di cromosomi

Le 23 coppie di cromosomi

L’analisi del DNA, effettuata attraverso il DNA messaggero, chiamato RNA e che si può estrarre facilmente, è alla base della classificazione di molte malattie difficilmente valutabili.
Basti solo pensare che mentre per capire se una cellula è cancerogena o no servono una moltitudine di esami non definitivi molte volte, tramite l’analisi genetica si può capire in modo semplice ed intuitivo, come si può capire dalla figura sottostante.

Immagine

Attraverso il GeneChip quindi si possono diagnosticare disturbi genetici in poco tempo e con una procedura relativamente semplice. Come avviene una analisi genetica?
Il processo è molto intuitivo: si pone il materiale genetico sopra il chip, si aspetta che il chip si leghi al materiale genetico (spiegherò in seguito il processo preciso) e, utilizzando uno scanner e un software di analisi, si possono vedere le sezioni di DNA presenti nel campione.

Immagine

Le potenzialità sono enormi. Solo per farvi rendere conto, nella dimensione di un chip (1,28×1,28 cm) si possono effettuare più di cinque milioni di analisi contemporaneamente, ripetendo ogni analisi non una, ma milioni di volte!

Immagine

In particolare l’analisi avviene in un modo molto semplice, sfruttando RNA, che sarebbe il corrispondente del DNA, ma con singola elica.
Solo per rinfrescarvi la memoria, sono presenti 4 basi di RNA, che sono la guanina (G) che si lega con la citosina (C) e la adenina (A) che si lega con l’uracile (U).
Quest’ultimo è sostituito nel DNA originario dalla timina (T).
Quindi gli accoppiamenti sono G-C e A-U.
Vediamo ora passo passo come avviene l’analisi.

  1. Si estrae RNA dal campione che si vuole analizzare (umano o non)
  2. Si lega una molecola fluorescente al RNA da analizzare.
  3. Si pone sopra il GeneChip il materiale.
  4. A questo punto (in figura si capisce bene) si legheranno al GeneChip solo le parti di RNA corrispondenti secondo le leggi della biologia, mentre le altre non si legheranno e un successivo lavaggio le eliminerà dal chip, lasciando solo le sezioni legate.
  5. Rendendo fluorescente la zona, si osserveranno diverse “luci” in corrispondenza delle sezioni di RNA presenti.
  6. Avendo la mappa del chip si conosce ora con precisione che frammenti di RNA, e quindi di DNA, sono presenti nel campione.

Immagine

Come avete intuito quindi il GeneChip si presta a moltissimi usi, come il testing di cibi, di animali d’allevamento, test biologici per ambienti, per agricolutira, test di paternità, valutazione della pericolosità di medicine, ricerca di base ma soprattutto diagnosi di malattie umane.

Immagine

 

Per esempio è stato testato per la diagnosi della leucemia.
La cosa interessante, è che oltre a diagnosticare la presenza o meno della malattia, mostra direttamente anche il tipo di leucemia, come mostrato in un famoso articolo edito su Nature.
Infatti  le cellule staminali, durante le varie fasi di maturazione, danno origine a cellule di tipo mieloide e cellule di tipo linfoide: da queste si differenzieranno successivamente i globuli rossi o eritrociti, le piastrine e i globuli bianchi (leucociti e linfociti). Pertanto ci sono quattro tipi comuni di leucemia: la leucemia linfoblastica acuta (ALL), la leucemia linfocitica cronica (molto rara), la leucemia mieloide acuta (AML) e la leucemia mieloide cronica (MLL).

Immagine

 

Anche altre malattie sono state trattate e diagnosticate tramite GeneChip, come per esempio la fibrosi cistica o il più semplice daltonismo.

Solitamente i BioChip sono prodotti attraverso tecniche fotolitografiche industriali, ma un tipo particolare di chip al DNA merita di essere menzionato. Infatti usando la tecnica di Ink-Jet Printing (praticamente la stessa che usa la stampante che avete a casa), è possibile “stampare” un biochip.
Questo significa, in termini economici e tecnologici, la possibilità di avere un chip personalizzato a basso costo, cosa che non è possibile avere con la tecniche litografiche (che sono costose ma producono tanti campioni uguali).
Quindi molti laboratori si sono attrezzati per la realizzazione di questi chip “stampati”, secondo il processo mostrato in figura.

Immagine

 

Riassumendo, abbiamo visto di come sia costituito (a grandi linee) un GeneChip, e quali potenzialità hanno questi innovativi dispositivi, soprattutto dal punto di vista dell’efficacia e della personalizzazione.

Spero l’articolo vi sia piaciuto. Per domande o richieste non esitate a inviarmi una email a semplicementescienza@yahoo.it o scrivetemi su FB o Twitter.
Vorrei ringraziare il Prof. Thomas Brown dell’Università di Roma “Tor Vergata” e ricercatore del CHOOSE per avermi spiegato questo particolare argomento.
Nei prossimi articoli esaudirò una richiesta di un amico, che mi ha chiesto un articolo sulle celle solari “alternative” (in particolare quelle integrate nella case e basate su alghe) e video e foto della costruzione della mia prima macchina della verità… (di cui vi mostro la foto qui sotto). Ne vedremo delle belle!

Kit della macchina della verità appena comprata.

Kit della macchina della verità appena comprata.

Saluti,

MMarans.

I polimeri bioriassorbibili a memoria di forma possono rappresentare il futuro della medicina?

Negli ultimi anni è emersa una nuova classe di materiali in grado di modificare la propria forma se sottoposti ad un particolare stimolo esterno, che potrebbe essere un’alternativa più efficiente ed economica alle ben note leghe metalliche a memoria di forma (SMAs), soprattutto in campo biomedico.
Sono i polimeri a memoria di forma (SMPs).
Tali materiali polimerici ‘intelligenti’ sono molto interessanti per svariate applicazioni industriali; presentano inoltre molte applicazioni potenziali nel campo biomedicale, nella robotica, nell’ingegneria civile e come tessuti.
Rispetto alle SMAs  richiedono processi di produzione più economici, hanno una più bassa densità e presentano un maggior capacità di deformazione elastica (nella maggior parte dei casi di gran lunga superiore al 200%). Un confronto tra le proprietà delle leghe metalliche e quelle dei polimeri a memoria di forma è riportato nella figura sottostante.

Immagine

L’effetto di memoria di forma può essere osservato in polimeri che differiscono tra loro per struttura e composizione chimica, in quanto, differentemente dalle leghe metalliche, nei materiali polimerici tale comportamento non dipende da una caratteristica intrinseca del materiale. E’ quindi possibile sintetizzare diversi SMPs scegliendo  la composizione chimica che permette di ottenere i polimeri con le proprietà intrinseche, come le proprietà meccaniche, la temperatura di transizione, la biocompatibilità e la stabilità più idonea all’applicazione a cui devono essere destinati.
Si stanno studiando anche SMPs bioriassorbibili che permettono l’accumulo di immobilizzare e successivamente rilasciare in loco diversi tipi di farmaci che consentono, ad esempio di trattare le infezioni e ridurre la risposta infiammatoria.

Prima di entrare nel particolare delle applicazioni in cui questi strabilianti materiali possono essere usati, cerchiamo di capire brevemente come avviene questo bizzarro effetto.
L’effetto di memoria di forma nei materiali polimerici, infatti, dipende dalla struttura molecolare del polimero e dal particolare processo cui viene sottoposto tale materiale. Inizialmente il polimero viene sintetizzato e formato in una forma permanente attraverso le comuni procedure industriali utilizzate per la produzione delle plastiche. In un secondo momento si sottopone il materiale ad un processo costituito da due fasi distinte.
La prima, definita programming, consiste nella deformazione del polimero dalla forma permanente ad una forma temporanea  mediante l’applicazione di una forza; la forma temporanea deve essere mantenuta anche quando il polimero non è più sottoposto ad uno sforzo esterno.
Nella seconda fase, chiamata recovery, si sottopone il materiale ad uno stimolo particolare, a seguito del quale il SMP riassume la forma permanente. La velocità con cui si verifica deformazione dalla forma permanente alla forma temporanea nei polimeri è più elevata che nelle leghe metalliche.

Ciclo di Programming e Recovery

Ciclo di Programming e Recovery

Il processo di programming e recovery solitamente è indotto termicamente: in tale processo la forma temporanea viene fissata raffreddando il materiale al di sotto  di una certa temperatura di transizione.
I polimeri che presentano proprietà di memoria di forma indotte termicamente sono elastomeri costituiti da due fasi ben distinte.
Una fase, reversibile, è formata da catene chiamate switching segments che possono essere amorfe o cristalline. Quando il polimero viene raffreddato al di sotto della temperatura di transizione, i movimenti tra le catene vengono impediti poiché si verifica la transizione vetrosa o il processo di cristallizzazione: di conseguenza la forma temporanea si mantiene anche se il polimero non è più sottoposto ad una forza esterna.
L’altra fase, definita fase fissa, presenta invece una temperatura di fusione superiore a quelle massime raggiunte nel ciclo di programming e recovery ed è responsabile della formazione della forma permanente  nella fase di recovery dettate da interazioni di tipo fisico o di tipo chimico che fissano la forma permanente del polimero; tali interazioni vengono definite netpoint.

Immagine

Un altro possibile processo di programming e recovery sfrutta come stimolo la radiazione elettromagnetica. La forma temporanea è fissata inducendo la formazione di legami chimici mediante irraggiamento con radiazione UV caratterizzata da una specifica lunghezza d’onda. Irraggiando il polimero con una radiazione più energetica si rompono i legami formati nello step di programming ed il polimero riassume la forma definitiva.

Immagine

Inoltre sono stati proposti SMPs in cui si utilizzano altri stimoli come ad esempio un segnale elettrico, un segnale magnetico, della radiazione infrarossa o della radiazione X ed infine  l’immersione in acqua (come si può vedere in un esperimento del MIT di cui ho messo il video qui sotto), ma sono molto più rari e (spesso) scomodi da usare.

Dopo aver capito (più o meno) come avviene questo processo da un punto di vista chimico-fisico, passiamo alla parte più divertente: vedere le applicazioni che si sono ipotizzate con questi materiali, concentrandoci in particolare su quelle in cui sono usati come materiali bioriassorbibili per applicazioni mediche.
Infatti, i dispositivi a base di SMPs bioriassorbibili non richiedono una procedura chirurgica di rimozione; inoltre richiedono procedure di impianto meno invasive poiché i dispositivi possono essere introdotti nel corpo del paziente in forma compressa e successivamente recuperare la forma permanente in loco, al fine di assolvere la loro funzione, soprattutto se si prendono in considerazione quelli attivati termicamente che possiedono una temperatura di transizione nel range tra la temperatura ambiente e quella corporea (circa 37°C).
I materiali polimerici bioriassorbibili che presentano proprietà di memoria di forma fino ad ora proposti sono costituiti dai polimeri bioriassorbibili più usati in campo clinico, tra cui, ad esempio il PGA (acido poliglicolico), il PLA (acido polilattico), il PCL (poli ε-caprolattone), il PDS (poli diossanone). Sono stati sintetizzati polimeri costituiti da netpoint sia di tipo fisico sia di tipo chimico.

Immagine

Nella tabella sottostante riportiamo uno schema generale dei SMP biodegradabili proposti in letteratura in cui vengono descritte le proprietà di memoria di forma dei polimeri, le caratteristiche di degradazione in ambiente biologico, ed eventuali test di biocompatibilità effettuati in vitro o in vivo.Immagine

Tralasciamo per un attimo il campo medico, per introdurre le applicazioni che si possono realizzare con i polimeri a memoria di forma negli altri campi.
Una delle prime applicazioni industriali è stata proposta nel campo della robotica: sono state sviluppate delle pinze morbide da fornire in dotazione ai robot.
Un’altra curiosa applicazione studiata in India consiste nella produzione di tessuti ritraibili per fornire indumenti le cui maniche, se soggette all’alta temperatura (quindi con il sole o con il caldo), si arrotolano da sole.

Immagine

Senza parlare dell’applicazione per vistiti “auto indossanti”, come si può vedere dal video qui sotto, in cui si usa una famosissima “modella”.

Nel campo automobilistico si stanno studiando componenti che si “autoriparano” grazie ad un trattamento termico che permette di riportare il pezzo al suo stato originale.

Immagine

Come applicazione avanzata la D.A.R.P.A., l’agenzia per i progetti di ricerca avanzata per la difesa degli Stati Uniti, sta studiando un aircraft le cui ali, costruite con polimeri a memoria di forma, possono richiudersi su loro stesse.

Immagine

Come abbiamo già detto però il campo in cui si stanno studiando con maggior successo le applicazioni dei SMPs è quello biomedico.

In Cina sono in produzione delle ingessature con l’anima in SMPs che garantiscono una ottima adesione sulla pelle ed allo stesso tempo permettono di immobilizzare la zona. Per ovviare all’eventuale restringimento della struttura causato dall’innalzamento della temperatura in questo caso l’attivatore dell’effetto di memoria di forma non è il calore ma una sorgente a raggi X.

Dei ricercatori tedeschi e inglesi invece stanno studiando possibili applicazioni dei SMPs nell’ortodonzia: sono stati prodotti degli archi per ortodonzia polimerici, il cui effetto di memoria di forma è indotto dalla radiazione ultravioletta, e che possono essere una valida alternativa a quelli ad ora in commercio, costituiti da leghe metalliche a memoria di forma.

E’ stato proposto inoltre di utilizzare i SMPs per produrre stent pediatrici che permettano di superare le forti limitazioni delle leghe a memoria di forma in questo tipo di applicazioni: gli stent di SMAs una volta impiantati non sono infatti in grado di espandersi sufficientemente durante la crescita del paziente.

Sono stati sviluppati microattuattori per la rimozione di coaguli sanguigni prodotti in poliuretano con proprietà di memoria di forma. Tali dispositivi vengono inseriti in forma di filo (forma temporanea ottenuta per elongazione del polimero) mediante catetere fino al raggiungimento dell’occlusione del vaso; in loco riacquistano la forma originaria grazie al calore (generato attraverso irraggiamento con radiazione laser) permettendo di rimuovere il trombo e di ripristinare il flusso sanguigno.

Immagine

Molto recentemente sono state studiate potenziali applicazioni dei SMPs nella cura  di aneurismi.

Usando polimeri a memoria di forma, si è visto che è possibile occludere un aneurisma con tecniche non invasive, inserendo una schiuma di SMPs grazie ad un catetere a fibra ottica fino alla zona di rilascio, ed aspettando l’espansione della schiuma fino alla avvenuta occlusione.

Immagine

Per la cura di aneurismi sono stati usati anche SMPs a base di poliuretani, combinati con proprietà CHEM (Cold Hibernate Elastic Memory, ovvero schiume a memoria di forma sviluppate dalla Mitsubishi): queste schiume raffreddate vengono inserite in forma compressa all’interno dell’aneurisma stesso, poi grazie alla temperatura corporea, la schiuma si espande e occlude. Nella figura in basso sono riportati gli ottimi risultati prodotti dai test in vivo: si può osservare la chiusura dell’aneurisma sia da una vista superiore (A) che dalla sezione assiale (B).

Immagine

I dispositivi prodotti con i polimeri a memoria di forma permettono di sviluppare procedure di impianto poco invasive, non necessitano di una successiva procedura di rimozione ed eventualmente premettono l’incorporazione di farmaci che possono essere rilasciati in loco per trattare le infezioni e ridurre la risposta infiammatoria.

Nell’ambito delle suture bioriassorbibili intelligenti si sono ottenuti degli ottimi risultati grazie all’utilizzo di un copolimero formato da OCL (oligo-ε-caprolattondiolo) e da ODX (oligo-p-diossanon-diolo) che possiede delle straordinarie qualità, tra cui la bioriassorbibilità, una elongazione fino al 1000% prima della rottura ed una temperatura di transizione di circa 40°C.

Immagine

Gli autori di questo studio, in particolare, propongono una possibile soluzione al problema più gravoso della chirurgia endoscopica. In questo tipo di procedura infatti è molto difficile manipolare manualmente la sutura per fornire la corretta tensione al filo: se si comprime troppo il tessuto c’è rischio di necrosi dello stesso, mentre se la sutura è troppo lenta  si genera un tessuto che non presenta le adeguate proprietà meccaniche. Mediante test in vivo su animali è stata dimostrata l’efficacia di fili di sutura prodotti con l’SMP biodegradabile citato: utilizzando tale materiale è possibile progettare un filo di sutura intelligente la cui forma temporanea deformata mediante elongazione consenta una facile applicazione; quando il filo si trova in contatto con l’ambiente corporeo alla temperatura di 37°C, quindi al di sopra della temperatura di transizione, grazie all’effetto di memoria di forma ritorna alla sua forma permanente.

Immagine

Dal 2003 sono in commercio stent metallici a memoria di forma ricoperti esternamente da uno strato polimerico che permettono di rilasciare farmaci grazie ai quali è possibile combattere le infezioni e ridurre la probabilità di restenosi. Molto recentemente è stato dimostrato che è possibile utilizzare anche stent costituiti da SMPs bioriassorbibili che assolvono le medesime funzioni di drug delivery: infatti è possibile caricare tali polimeri con dei farmaci senza che quest’ultimi influenzino l’effetto di memoria di forma. E’ stato inoltre verificato che la biodegradabilità ed il rilascio graduale dei farmaci non si influenzano tra loro; inoltre la cinetica con cui il farmaco viene rilasciato nell’organismo non viene modificata dal processo di programming e ricovery.

Immagine

Ricapitolando, i polimeri a memoria di forma sono materiali intelligenti che, in determinate condizioni, sono in grado di mantenere una forma deformata in assenza di uno sforzo esterno, e poi di riacquistare la loro forma permanente qualora siano sottoposti ad un particolare stimolo. Questo comportamento è stato osservato in materiali polimerici dalla struttura chimica molto differente, che reagiscono a stimoli di natura molto diversa tra loro. Parte della ricerca si sta tuttora focalizzando sulla ricerca di stimoli differenti dal calore (quali ad esempio la presenza di un campo magnetico, l’irraggiamento con radiazione UV o l’immersione in acqua) che permettano di generare l’effetto di memoria di forma.
Per applicazioni biomedicali si stanno sviluppando polimeri biocompatibili che presentano una temperatura di transizione nell’intorno di quella corporea.
I risultati, spesso molto positivi, ottenuti da studi in vitro e in vivo su SMPs biocompatibili, ed eventualmente biodegradabili, e le loro uniche proprietà li rendono idonei per molti tipi di impianti, ed è quindi molto probabile che nei prossimi anni sia avviata e portata a termine con successo la fase di sperimentazione preclinica di questi impianti, a cui dovrebbe seguire l’introduzione dei dispositivi a base si SMPs nelle procedure cliniche.

Spero che l’articolo vi sia piaciuto.
Vorrei ringraziare pubblicamente la mia compagna di studi dell’Università, con la quale ho realizzato questa tesina un paio d’anni fa oltre a tanti altri progetti che magari in futuri vi presenterò, ovviamente in forma “alleggerita”.
Purtroppo l’esame in questione poi non l’ho concluso per problemi con la Professoressa che teneva il corso, ma l’argomento mi è sempre rimasto nel cuore, e spero interessi anche a voi, coraggiosi lettori.

Saluti,

MMarans.

La Coca-Cola fa male: verità o disinformazione?

Quando trovo vecchie relazioni da poter usare per dare a questo blog un’impronta un po’ più “tecnica”, non posso esimermi da usarle, in un modo o nell’altro.
Mi sono capitate sotto mano due relazioni molto interessanti, che vi vorrei proporre, inserite ovviamente in un contesto che risulti il più leggero possibile.

Spesso si sente dire “la Coca-Cola fa male”… ma in che senso?
Premetto che non sono un amante di questa bevanda. L’unica bevanda frizzante che bevo è quel nettare degli dei che viene estratto dal luppolo e dal malto d’orzo, oltre ad una bevanda australiana chiamata Lift e prodotta dalla stessa Coca-Cola Company, molto simile alla Fanta Lemon distribuita in Italia.

film_coke_1802

Tornando a noi… la Coca-Cola fa veramente male o no?
Non fraintendetemi, ogni bevanda gassata e zuccherata fa male, ma spesso vengono imputate alla nota bevanda americana caratteristiche dannose più uniche che rare: “fa venire l’ulcera peggio dell’Aulin!!!”… “contiene cocaina, da qui deriva il nome!!!”… “è la bevanda del demonio!”… “contiene tanta caffeina! Se la bevi poi non dormi!” … “la Coca-Cola toglie la ruggine, pensa cosa può fare al tuo stomaco!”.

Questi sono tutti falsi miti, o comunque sono cose non correlate direttamente alla sola bevanda inventata da John Pemberton.

John Pemberton

John Pemberton

I due composti che vengono maggiormente citati come dannosi per la salute sono la caffeina e l’acido fosforico.
Ovviamente viene spesso discusso cosa sia realmente il famoso Aroma 7X, ma come ogni vera leggenda metropolitana che si rispetti, basta documentarsi un pochino per scoprire che altro non è che un estratto dalla pianta della coca privato delle sostanze psicotrope (cioè della cocaina stessa). Ed ecco che cade già il primo mito: la Coca-Cola non contiene cocaina, anche se in effetti contiene l’aroma estratto dalle piante di coca. E’ come pensare che se uno ha una pianta di papaveri allora è un eroinomane!

Pianta di Coca

Pianta di Coca

Passiamo ora ai due componenti che vedremo in particolare in questo post: caffeina e acido fosforico.
In particolare vedremo la concentrazione di questi due composti attraverso due tecniche: la titolazione chimica tramite pHmetro e una tecnica chiamata HPLC.

Cominciamo prima con lo spiegare brevemente queste due tecniche analitiche.

La titolazione chimica tramite pHmetro è una tecnica che si usa per calcolare la concentrazione di un dato componente in una soluzione, una volta tarato il sistema. La strumentazione che solitamente si usa è composta da un pHmetro con un elettrodo (in realtà sono due elettrodi uno dentro l’altro, in modo che il riferimento sia contenuto direttamente nell’elettrodo di misura, come si vede in figura), da una pompa da vuoto per degassare la Coca-Cola, da diversi bechers e matracci per contenere le diverse soluzioni e da una buretta per effettuare la titolazione.

Immagine
Per effettuare la misura vera e propria quindi abbiamo dovuto tarare il sistema con una soluzione acquosa di acido fosforico.
Infatti quando poniamo in acqua questo acido, avviene una reazione di equilibrio tra l’acido e le sue basi associate (una per ogni dissociazione):

Immagine

Essendo la terza costante (k3) trascurabile rispetto alle altre due, possiamo assumere che il comportamento del pH della soluzione, in funzione della concentrazione di acido segua l’andamento a due step che vedete qui sotto, con due punti di equivalenza che possiamo usare per tarare il sistema durante la titolazione.

Immagine

Per quanto riguarda il calcolo della concentrazione di acido fosforico nella Coca-Cola si sfrutta semplicemente la definizione di punto di equivalenza, che esplica come conoscendo l’aggiunta fatta di soda si possa ricavare la quantità di acido fosforico e quindi la sua concentrazione.
Nei punti di interesse il pH varia molto poco con l’aggiunta della base che si usa per realizzare una reazione acido-base (generalmente si usa della comune soda, NaOH). Possiamo quindi approssimare molto bene la nostra soluzione in queste condizioni con una soluzione tampone, in cui si può applicare la legge nota col nome di Henderson-Hasselbalch:

Immagine

Nel nostro caso il pH è uguale al pK dell’acido, per cui si semplifica tutto e si può ricavare in modo banale la concentrazione dell’acido.
Tralasciando la presa dei dati e i calcoli, voglio solo mostrarvi il grafico linearizzato che si ottiene per l’acido in acqua e l’acido nella bevanda.

Immagine

Da qui si può ricavare, con dei semplici conti che non riporterò, che la concentrazione di acido fosforico è di circa 0,6 g/l (circa 0,6%).
La concentrazione veritiera è in realtà di 0,3 g/l (circa 0,3%), questo dovuto al fatto che per quanto si possa degassare resterà comunque intrappolato all’interno del liquido dell’anidride carbonica, che renderà il sistema più acido poichè avverrà la seguente reazione con l’acqua:

Immagine

Per farci un’idea confrontiamo questo valore (0,3%) con il valore di altri acidi… per esempio l’acido citrico contenuto nel limone.
Nel limone, infatti, vi è l’altissima concentrazione di acido del 7% circa, quindi più di 20 volte tanto di quella della “demoniaca” Coca-Cola.
Quindi la Coca-Cola fa venire l’ulcera e toglie la ruggine, ma provate a farlo con un limone… il risultato vi sorprenderà!
Lo stesso succo d’arancia si aggira intorno all’un per cento di acido, quindi comunque tre volte l’acido contenuto nella Coca-Cola.
Tra l’altro l’acido fosforico è un comune conservante di molti alimenti, ma guarda caso se ne parla solo sulla bevanda americana.

Passiamo ora a vedere la concentrazione di caffeina, vera bestia nera delle leggende sulla Coca-Cola!

La Coca-Cola contiene caffeina… si! Ma quanta?
E’ questa la vera domanda… quanta ne contiene rispetto ad altre bevande come caffè, the o bevande energetiche tipo Red Bull?
Per rispondere a questa domanda abbiamo bisogno di usare un’altra tecnica analitica, chiamata HPLC.

La HPLC (High Performance Liquid Chromatography) a fase inversa si basa sull’interazione tra fase mobile (liquida) e stazionaria (una specie di spugna) all’interno di un tubo, detto capillare cromatografico.
Nel nostro caso come fase fissa abbiamo utilizzato il solido apolare chiamato C18 (il nome indica che è formato da una catena di diciotto carboni), mentre come fase mobile una soluzione (polare) al 20% di metanolo in acqua, combinazione che si rivela ottima per rapporto qualità-tempo in questo preciso caso.

La strumentazione per HPLC è costituita da due serbatoi per la fase mobile, da una pompa per “succhiare” dal serbatoio la soluzione eluente, da un iniettore (posizionabile su caricamento e iniezione) per poter inserire il campione, da una colonna cromatografica e da un detector interfacciato su un computer per poter vedere i dati raccolti e calcolare le aree dei picchi rilevati (e quindi le concentrazioni).

Immagine

Anche in questo caso si ha bisogno di avere una retta di calibrazione, che vi riporto qui sotto.

Immagine

Da qui, avendo i dati ricavati dall’esperimento e confrontandoli con la retta di calibrazione, si può ricavare che una lattina di Coca-Cola contiene circa 30-35 mg di caffeina.
Solo per confrontare, una tazzina di caffè si aggira intorno a 80 mg, così come una lattina di Red Bull, mentre una lattina di the ha il doppio della caffeina contenuta nella Coca-Cola a parità di volume.

Allora perchè si continua ad attaccare la Coca-Cola Company sulla sua bevanda più famosa?
Forse ci sono interessi economici talmente grandi in gioco che la diffamazione è l’arma più semplice ed efficace da usare?

Non sto dicendo che bere Coca-Cola faccia bene, ma che ci sono cose peggiori, cose che non vengono attaccate alla stregua di “veleno” come viene fatto per la bruna bevanda americana.
Se vi piace in fondo non posso dirvi altro che seguire lo slogan… “Enjoy Coca-Cola”.. con moderazione ovviamente!!!

Ora una domanda per i miei lettori: cosa ne pensate della Coca-Cola?
Pensate che ci sia veramente qualcosa dietro o che sia solo una montatura atta a far calare le vendite?
E sostenuta da chi? Dai concorrenti? Dagli ambientalisti? O da altri poteri in gioco?

coca-cola_logo51

Saluti,

MMarans.

PS: Per domande o altro potete contattarmi al seguente indirizzo email: semplicementescienza@yahoo.it.

Se l’articolo vi è piaciuto iscrivetevi alla pagina FB di SempliceMente Scienza, oppure seguitemi su Twitter.

Si parla tanto di Acido Ialuronico… ma chi lo conosce realmente?

L’acido ialuronico (che per comodità approssimerò a AI) è oramai entrato di diritto nel linguaggio comune.
Quante volte si sente parlare di AI durante i TG, o durante programmi in cui si parla (soprattutto) di medicina?

Spesso si pensa che sia un composto creato in laboratorio da brillanti scienziati che hanno pensato questa mirabolante struttura… ma non è così!
Infatti ognuno di noi ha all’interno del suo corpo una certa percentuale di AI, visto che questo materiale fa parte del tessuto connettivo.

Il tessuto connettivo, per chi non lo sapesse, è uno dei quattro tipi di tessuto che compongono il corpo umano.
Gli altri tre sono: tessuto epiteliale, tessuto muscolare e tessuto nervoso.

Nel tessuto connettivi rientrano tutti i diversi “componenti del corpo” che non sono pelle, nervi e muscoli.
In pratica abbiamo cartilagine,  ossa, adipe (cioè il “grasso”), il sangue, la linfa e tutte le altre sostanze che non possono essere classificate negli altri tre tipi di tessuti.

L’acido ialuronico è uno di questi. Più però che di dove si trovi nel corpo umano e di cosa faccia, questo articolo tratterà più su come si può utilizzare una volta estratto o sintetizzato chimicamente.
E’ un glicosaminoglicano anionico distribuito in tutto il tessuto connettivo, epiteliale e neurale.  È l’unico glicosaminoglicano ad essere sintetizzato nella membrana plasmatica invece che nell’apparato di Golgi, oltre ad essere uno dei componenti principali della matrice extracellulare (cioè tutto ciò che sta all’esterno delle cellule).
Il comportamento viscoelastico unico che possiede, la sua elevata biocompatibilità e la sua non immunogenicità lo rende perfetto per essere applicato in numerosi campi biomedici.

Acido Ialuronico

Acido Ialuronico

Chimicamente è definibile come un glicosaminoglicano dalla catena polisaccaridica non ramificata prodotta dall’aggregazione di migliaia di unità disaccaridiche formate a loro volta da residui di acido glucuronico (un derivato del glucosio) e N-acetilglucosamina, legati tra loro da legami glicosidici alternati β-1,4 e β-1,3. Nella configurazione beta è consentito a tutti i suoi gruppi ingombranti di essere in posizione equatoriale (stericamente favorevole), mentre tutti gli atomi di idrogeno occupano piccole posizione assiali stericamente meno favorevoli, che rende la struttura del disaccaride energicamente molto stabile.
Per capire meglio la struttura basta vedere la figura, ed immaginarla ripetuta molte (moltissime) volte.

Immagine2

HA può avere anche 25000 disaccaridi ripetuti nella sua lunghezza, ed ha un peso molecolare compreso tra 5kDa e 20MDa (in vivo).
Il peso molecolare medio nel liquido sinoviale umano è di 3-4 MDa, mentre quello estratto dal cordone ombelicale è di 3,14 MDa.
Il peso molecolare dell’acido ialuronico commerciale, però, non supera mai i 5 MDa.
(Il Dalton è un’unità di misura comunemente usata in biologia e corrisponde a una unità atomica, circa 10-27 Kg)
In vivo tutti i gruppi carbossilici dell’acido glucuronico e della N-acetilglucosamina sono completamente ionizzati conferendo alla molecola di acido ialuronico elevata polarità, e di conseguenza una elevata solubilità in acqua. Grazie a questa sua proprietà l’acido ialuronico è in grado di complessarsi con moltissime molecole di acqua raggiungendo un elevato grado di idratazione.

Struttura dell'acido ialuronico

Struttura dell’acido ialuronico

L’acido ialuronico è sintetizzato da una classe di proteine di membrana chiamate ialuronano-sintase, che creano AI legando alternativamente i due zuccheri che formano il disaccaride di base. AI è un componente importantissimo nella cartilagine articolare, dove forma aggregati in presenza di proteine di legame. Questi aggregati tendono ad assorbire l’acqua e sono i responsabili della resistenza a compressione della cartilagine. Il peso molecolare (e quindi la dimensione) dell’acido ialuronico diminuisce con l’età, ma aumenta la sua quantità nella cartilagine. La pelle fornisce una barriera meccanica per l’ambiente esterno, impedendo la penetrazione di agenti infettivi. Una volta feriti, i tessuti al di sotto sono esposti alle infezioni, pertanto una guarigione rapida ed efficace è di importanza fondamentale. La guarigione delle ferite è un processo complesso e comprende numerosi processi che interagiscono avviata dall’emostasi e la liberazione dei fattori di derivazione piastrinica. Le tappe successive sono l’infiammazione, formazione di tessuto di granulazione, la rimarginazione ed il rimodellamento. AI svolge un ruolo fondamentale nella mediazione di questi eventi. Contribuisce anche all’idrodinamica del tessuto, il movimento e la proliferazione cellulare, partecipando tramite interazione con il recettore CD44, posto sulla superficie cellulare.
L’acido ialuronico viene degradato principalmente da tre enzimi: ialuronidasi, BD-glucuronidasi e β-N-acetil-esosaminidasi. Dalla degradazione di acido ialuronico si formano oligosaccaridi ed acido ialuronico a basso peso molecolare.
È stato stimato che l’emivita di HA nella pelle è di circa 1 giorno, negli occhi poco più di un’ora, nella cartilagine 1-3 settimane e nell’umor vitreo 70 giorni.

Passiamo ora alla parte più interessante dell’articolo, cioè capire una semplice cosa… cosa ci faccio?
O più precisamente… cosa ci si può fare?

Alcune zone di utilizzo di AI

Alcune zone di utilizzo di AI

Il primo campo di utilizzo (anche storicamente) dell’acido ialuronico è quello oftalmico.
HA è un componente naturale dell’occhio, quindi trova  molte applicazioni di successo in chirurgia oftalmica. In particolare è utilizzato per iniezioni intraoculari, trapianto di cornea, chirurgia della cataratta, ed in casi di distacco della retina. Inoltre, soluzioni di HA sono usate per migliorare la viscosità di colliri e come coadiuvante nella riparazione di tessuto oculare.

images

La seconda applicazione principale dell’acido ialuronico è nella cura delle articolazioni colpite da artrite. Una articolazione sana permette il movimento senza attrito e dolore, perché per la sua natura viscoelastica e la capacità di formare matrici altamente idratate, HA agisce come lubrificante ammortizzando il giunto.
Tuttavia, quando si è colpiti da artrite, le articolazioni diventano rigide e dolorose.
Sebbene l’eziologia e la patogenesi dell’artrite reumatoide non sono ancora noti, si osserva il degrado progressivo di AI soprattutto nel liquido sinoviale.

KNEE OA COMPARE
La terapia a base di iniezioni di AI ha un effetto benefico sulla progressione dell’artrosi, e per questo sono stati proposti quattro meccanismi con il quale l’acido ialuronico esercita il suo effetto terapeutico:

(1)   Ripristino delle proprietà elastiche e viscose del liquido sinoviale
(2)   Stimolazione della proliferazione di condrociti, ed inibizione della degradazione cartilaginea
(3)   Azione anti-infiammatoria
(4)   Effetto analgesico dal momento della somministrazione

Alcuni studi comparati con placebo hanno messo in dubbio l’efficacia di iniezioni di acido ialuronico, consigliandolo soprattutto come ultima alternativa alla chirurgia.
Uso orale di acido ialuronico è stato recentemente suggerito, anche se la sua efficacia deve essere dimostrata. Attualmente, ci sono alcuni studi clinici preliminari che suggeriscono che la somministrazione orale di acido ialuronico ha un effetto positivo sulla osteoartrite, ma resta da vedere se c’è un reale beneficio al trattamento.

5409JFP_AppliedEvidence2-fig4

Passiamo ora ad altre applicazioni, che stanno prendendo piede negli ultimi tempi o su cui si stanno basando importanti studi.

Si è dimostrato, per esempio, che l’acido ialuronico è in grado di aumentare la compatibilità degli impianti cardiovascolari come protesi vascolari e stent. Le superfici trattate con un biomateriale reticolato a base di HA presentano adesione piastrinica ridotta e minore tendenza alla formazione di trombi.
Inoltre, derivati solfatati a base di HA possono agire come l’eparina prevenendo la coagulazione del sangue.

Stent

Stent

L’acido ialuronico è particolarmente importante nelle corde vocali a causa del trauma costante causato dalle vibrazioni, ed è quindi usato per la riparazione di ferite o cicatrici sulle stesse. Tuttavia, un grave inconveniente di utilizzare AI per il trattamento dei disturbi vocali è che il suo tempo di permanenza all’interno corde vocali è molto breve (per esempio l’emivita nel coniglio è solo di 3-5 giorni). Per superare questo ostacolo, la struttura molecolare di HA deve essere modificato al fine di aumentare il tempo di permanenza; dopo queste modifiche il materiale continua ad essere presente anche dopo un anno dall’applicazione.

Ultimamente è stato usato AI per importantissime ricerche di Drug Delivery.
Particelle di AI presentano vantaggi rispetto ad altri sistemi usati per la somministrazione dei farmaci, soprattutto considerando l’immunogenicità e la biodegradabilità. Ad esempio si è aumentata l’efficacia della somministrazione di un farmaco anti-tubercolare. La tubercolosi (TBC) colpisce 1,8 miliardi di persone in tutto il mondo. Sfere con un diametro di 2-5 mm sono state preparate con oflloxacin (un farmaco per la TBC) e ialuronato di sodio. Le microsfere sono state trasportate più facilmente al polmone attraverso un aeratore e si è dimostrata la maggiore efficacia rispetto ad altre vie di somministrazione. L’acido ialuronico è spesso utilizzato come marcatore tumorale per la sua correlazione con il recettore CD44, che viene sovra espresso durante il processo tumorale.
In questo modo lo si può anche essere usato per monitorare la progressione della malattia.
La maggior parte dei farmaci anti-tumorali vengono ora distribuiti in tutto il corpo e sono tossici anche per le cellule sane.
In uno studio italiano è stato studiato il Paclitaxel, un noto agente antitumorale adottato principalmente per il trattamento di cancro al seno e alle ovaie, che però ha lo svantaggio di essere molto poco solubile. Per superare questi problemi sono state effettuate varie ricerche. Tra le diverse strategie proposte, è molto interessante la coniugazione del Paclitaxel ad acido ialuronico.
In questo modo si produce una solubilizzazione migliore del farmaco ed una maggiore stabilizzazione, una localizzazione specifica e il rilascio controllato.

Drug Delivery

Drug Delivery

Preparazioni di AI sono inoltre attualmente comunemente utilizzati in dermatologia e chirurgia estetica, inoltre l’acido ialuronico è un ingrediente comune in molti prodotti cosmetici, dove è ampiamente utilizzato per le sue proprietà viscoelastiche e per l’eccellente biocompatibilità.
Gel a base di AI sono più efficaci nel mantenere le correzioni rispetto ai prodotti a base collagene. A differenza di questi ultimi, l’acido ialuronico è estremamente elastico, e fornisce l’elasticità necessaria dagli spazi in cui viene iniettato, come ad esempio le rughe del viso o le cicatrici, il potenziamento muscolare delle corde vocali o la ricostruzione della laringe. I preparativi AI sono inoltre molto più durevoli.
Vi ricordo che per approfondire il campo della cosmesi e affini, e per sapere degli ultimi prodotti, potete visitare questo blog.

Applicazioni di AI nel campo cosmetico

Applicazioni di AI nel campo cosmetico

Uno degli aspetti più importanti dell’ingegneria tissutale è la scelta del materiale per la produzione dello scaffold, i supporti dove avviene l’adesione e la crescita cellulare al fine di produrre nuovi tessuti. Un campo di ricerca in continuo sviluppo è quello degli idrogel (reticoli polimerici idrofili) costituiti da materiali di derivazione biologica, in modo da stimolare naturalmente la morfogenesi e la differenziazione cellulare, essendo un ambiente molto simile a quello fisiologico.
Si possono produrre questi idrogel anche con AI, poiché è un materiale perfettamente biocompatibile e perché consente un assorbimento fino al 1000% del loro peso in acqua dando loro caratteristiche simili a tessuti. L’ideale sarebbe produrre idrogel non tossici, che dovrebbero essere degradati dagli enzimi di dei tessuti dopo è stata completata la riparazione.
Idrogel a base di AI vengono usati per diversi scopi, solitamente legati a PEG, PEO o altri composti biocompatibili.

Riassumendo, quindi, l’acido ialuronico è stato usato per più di venti anni in molti ambiti biomedici.
Grazie alla sua biocompatibilità, biodegradabilità, e facilità di manipolazione, è stato studiato in molti campi, da quelli prettamente chirurgici, soprattutto in oftalmologia ed ortopedia, a quelli più commerciali come la cosmesi.
Le future applicazioni cliniche di questo stupendo materiale sono sotto gli occhi di tutti, con gli incoraggianti risultati degli studi sull’utilizzo di HA per drug delivery, ingegneria tissutale e targeting tumorale.

Spero che vi sia piaciuto l’argomento.

Saluti,

MMarans.

Stazione HAARP, scie chimiche e rettiliani: dove finisce la realtà e comincia la fantasia?

Ho visto che è piaciuto molto l’articolo sulla Fusione Fredda. Sono molto contento di questo.
Vorrei solo puntualizzare, visto che è stata citata da diverse fonti, che si tratta della trasposizione della mia tesina di liceo (ebbene si! Già all’epoca ero interessato di queste cose) e che quindi i dati che riporto non sono proprio freschi… ma risalgono a più di dieci anni fa.

E’ bene però riconoscere una scienza “di confine” (o pseudo-scienza) da una totale bufala senza capo ne coda… per esempio oggi vorrei parlare di Teorie del Complotto, in particolare della stazione HAARP e di scie chimiche.

teoria-complotto

Molti di voi staranno pensando: “Ma come? Prima ci dici che la Fusione Fredda rappresenta il futuro e poi parli mali di altre teorie pseudo-scientifiche come viene considerata proprio la Free Energy?”

Bè… non è che sia proprio la stessa cosa. Come avete visto nell’articolo che ho postato due giorni fa, il processo di fusione fredda, oltre ad avere comunque delle basi scientifiche e delle equazioni, ha perfino diversi esperimenti documentati che ne attestano la validità.

Anche se può essere considerata oggigiorno una pseudo-scienza dalla Comunità, credo che la stessa non possa non pensare che possa, in un futuro più o meno lontano, diventare una reale soluzione al problema energetico.
Ed è proprio in questo punto che si differenzia dalla Teoria di cui vi parlerò oggi: non ci sono evidenze scientifiche, equazioni o dimostrazioni di quello che viene detto riguardo la stazione HAARP, le scie chimiche, i rettiliani e tutte le altre bellissime invenzioni che fanno a capo ad un solo uomo: David Icke.

David Icke

David Icke

David Icke, per chi non lo sapesse, è uno scrittore britannico, sconosciuto ai più fino al 1990, quando dichiarò che una medium lo annunciò come guaritore mandato a sanare la Terra.
Secondo la stessa visione, avrebbe dovuto lasciare le gioie terrene per scrivere libri, in modo tale da annunciare al mondo che un giorno ci sarà un terremoto in cui il mare sommergerà la terra. L’anno dopo, non contento, si autoproclamò “Figlio di una Divinità”.
Scocciato perché dei giornalisti gli chiesero se fosse malato di mente e ridicolizzato davanti a tutto il mondo, scomparve per un breve periodo.
Un anno prima della fine del millennio, Icke scrisse un altro libro, intitolato “The Biggest Secret: The Book That Will Change the World”, in cui annunciavo che il pianeta sarebbe controllato da un Nuovo Ordine Mondiale, manovrato segretamente da una razza di umanoidi rettiliani che lui definì la “Fratellanza Babilonese”.
Ovviamente il successo della serie TV “Visitors” spianò la strada a queste macchinazioni.
Questi rettiliani, pur facendo parte di una società segreta, erano riconoscibili ovviamente al solo Icke, in una sorta di vortice di pazzia autolesionista. Oltre a Bush e Clinton, e i vari Rothschild e Rockfeller, disse persino che la pacifica e carina Regina Madre fosse in realtà un rettiliano “travestito”.
Come si può notare dalla figura sottostante la cosa è abbastanza ovvia.

La Regina d'Inghilterra... o la Regina rettiliana?

La Regina d’Inghilterra… o la Regina rettiliana?

Lo stesso Icke, sempre per la salvezza della Terra dal dominio dei rettiliani, annunciò diverse cose, che sono proprio quelle di cui intendo parlare in questo post. In particolare le scie chimiche della stazione HAARP.

Stazione HAARP

Stazione HAARP

La High Frequency Active Auroral Research Program è un’installazione statunitense, situata in Alaska, con il compito di analizzare l’atmosfera e le comunicazioni radio.
Quello che Icke e altri “complottisti” credono, e sostengono senza uno straccio di prova, è il fatto che le scie chimiche di condensazione che si formano nell’atmosfera (per esempio quando passa un aereo) siano composte da agenti biochimici, per plasmare le nostre menti o (nel caso specifico della stazione HAARP) per immettere nell’atmosfera delle sostanza clima-alteranti.
La teoria delle scie chimiche, nata nel 1996 negli USA, si basa ovviamente sul nulla. Una delle asserzioni più divertenti, a mio parere, è quella che non potrebbero essere scie di condensazione “normali” perché queste si formano solo a temperature inferiori a -40°C, sopra a 8000 metri di quota e con umidità relativa di almeno il 70%… cosa che potrebbe smentire qualsiasi persona si occupi minimamente di meteorologia o di ingegnere aerospaziale.

Scie Psicotroniche che escono da una aereo

Scie Psicotroniche che escono da una aereo

Quale sarebbe però lo scopo finale delle scie chimiche? E che rapporto le lega alla stazione HAARP e ai rettiliani?

La risposta è “ovvia” se seguite il mio discorso: la stazione HAARP è la base principale del piano, in cui sostanze misteriose ma contenenti bario, alluminio e silicio che compongono le scie “psicotroniche”, formano una specie di coppia di elettrodi che possono formare un sistema di controllo mentale sulle persone di tutto il mondo.
Questo processo ovviamente viene indotto dalle onde elettromagnetiche della stazione HAARP, che è a sua volta sotto il controllo del governo rettiliano. Ovviamente ogni “potente” è a conoscenza del piano rettiliano, e gli scettici non hanno aperto gli occhi o, peggio, sono già sotto il controllo dei rettiliani. Non si capisce bene però cosa rende queste persone (pseudo-ricercatori spesso senza uno straccio di titolo) esenti dal controllo della stazione HAARP.
Perfino il “bravissimo” politico italiano Domenico Scillipoti portò un’interrogazione parlamentale sulla stazione HAARP e le scie elettrochimiche, purtroppo messo in ridicolo dal resto del parlamento… Che anche il nostro governo sia sotto lo scacco dei rettiliani?

Ma la stazione HAARP sarebbe davvero un covo di “cattivoni”… non solo sarebbero in grado di controllare le nostre menti con le scie psicotroniche volute dai rettiliani, ma le onde emesse hanno anche un potere sui terremoti.
Esiste un video in rete che spiega brevemente il processo. Lo linko qui sotto:

Ovviamente questa cosa è ancora più fantascientifica delle scie elettrochimiche.
Che una stazione per rivelazioni climatiche possa interferire con i terremoti è una cosa fuori dal comune.
Mi ricorda la famosa affermazione dei pastafariani secondo cui “il riscaldamento globale, i terremoti e gli uragani e gli altri disastri naturali sono conseguenza diretta della diminuzione del numero dei pirati fin dal XIX secolo. È stato fornito un grafico che prova la proporzionalità inversa tra il numero dei pirati e la temperatura globale.” Grafico che vi riporto qui sotto.

Grafico che dimostra la correlazione tra Pirati e Riscaldamento Globale

Come vedete non è vero che una correlazione implica necessariamente un rapporto di causalità tra due eventi. In fondo è una cosa che capisce anche un bambino.

Ho trovato comunque in rete (posto in cui non si impara mai abbastanza sul pensiero umano) diversi siti e blog che parlano dell’argomento. Cito qui sotto il migliore… in un articolo in cui si cerca di far capire cosa sia sbagliato dei ragionamenti sul modello di quello che abbiamo fatto noi:

“Falso 1: Nessuno scienziato ha mai confutato la teoria del complotto HAARP, tanto che fu proprio questo particolare a far insospettire ancora di più i cospirazionisti.”

… come se scienziati rispettosi si mettessero davvero a pensare a queste cose con tutte le cose serie su cui si può far ricerca. Comunque ad essere precisi il CICAP ha fatto un vero e proprio articolo che smentisce questa cosa. Riporto qui le conlcusioni: “… semplicemente analizzando le caratteristiche di HAARP e le potenze emesse si dimostra facilmente che nessuna delle applicazioni potenzialmente pericolose di questo impianto è anche solo lontanamente realizzabile. La maggior parte delle teorie non hanno proprio senso, i meccanismi con cui HAARP dovrebbe ad esempio modificare il clima, creare terremoti, impulsi elettromagnetici, black-out11 o controllare la mente delle persone, non sono compatibili con le basilari leggi della fisica. Ma anche le cose meno inverosimili richiederebbero potenze da migliaia a milioni di volte quella che un qualsiasi impianto di quelle dimensioni è in grado di emettere.”

“Falso 2: HAARP non è un’arma elettromagnetica, ma a radiofrequenze per migliorare le comunicazioni militari. I terremoti sono solo un effetto collaterale o, al più, un test.”

Sinceramente non ho capito qui cosa intendesse… che sia anch’io controllato dai rettiliani? Mi sorge il dubbio…

“Falso 3: Per “speculazione” si intende un qualche tipo di truffa per estorcere denaro da coloro che si fanno abbindolare da una favoletta o da un mito. Io racconto questa storia da anni, ma non ho mai visto il becco di un quattrino, nessuno di coloro che criticano HAARP lo fa per mettersi in mostra o trarne beneficio, anzi, semmai, è il contrario, vengono denigrati.”

Non direttamente, non lui, ma chi ha inventato tutta la storia sicuramente… per esempio la persona di cui si parla al “Falso 4” che vedete qui sotto?

“Falso 4: Non si tratta di una bufala! David Icke è un personaggio molto particolare, nel senso che quelli che porta sono dei piccoli insegnamenti, che, si badi bene, vanno presi a piccole dosi.”

David Icke è un personaggio particolare? Secondo quale punto di vista?

Concludo questo articolo dicendo una cosa semplice, ma che spero si entrata nella vostra testa dopo aver letto questo post, sicuramente più leggero dei precedenti.
Documentatevi, ma su fonti attendibili. Leggete, ma con occhio critico. Pensate, ma fatelo con la vostra testa.

Spero che questo articolo un po’ diverso vi sia piaciuto. Sono sempre graditi commenti e consigli.

Saluti,
MMarans.

Osservare il mondo microscopico: il SEM.

L’uomo fin dall’antichità è sempre stato affascinato dall’infinitamente grande e dall’infinitamente piccolo.
Mentre però con gli studi di greci ed egizi sull’astronomia il “macro-mondo” fu piano piano compreso a fondo (fino ad arrivare a Keplero), restava sempre un mistero quello che accadeva nel “micro-mondo”.
Forse il più grande problema era proprio il non poter osservare in modo accurato e preciso una parte dell’universo che ci circonda.
Grazie alle scoperte dell’ottica e la costruzione dei primi microscopi basati sulla luce, infatti, per quanto si potesse arrivare ad ingrandire un oggetto, non si poteva comunque superare il limite di Abbè (cioè la risoluzione massima), che per un microscopio ottico tradizionale (che sfrutta cioè la luce visibile) è di 0,2 μm.

size_compCome si poteva arrivare ad osservare oggetti più piccoli del micron?
La soluzione venne trovata dal fisico tedesco, Ernst Ruska (premio nobel nel 1986 proprio per questa scoperta), nel 1931, con la creazione del primo microscopio elettronico.
Sfruttando gli elettroni invece che la luce come sorgente, infatti, il limite di Abbè crollava fino ad arrivare ad essere di un decimo di nanometro!

Nella Microscopia Elettronica a Scansione (SEM) la superficie del campione viene spazzolata da un fascio elettronico, ed il fascio riemesso viene raccolto e proiettato su di uno schermo.
Quando un fascio elettronico colpisce un campione, diversi tipi di elettroni e onde sono emessi dal campione, come si può vedere nella figura sottostante; tra questi, i più importanti per quanto riguarda l’analisi SEM sono essenzialmente due:

  1. Elettroni Retrodiffusi (BSE: BackScattered Electron)
  2. Elettroni Secondari (SE: Secondary Electron)

Immagine2

Gli elettroni retrodiffusi sono gli elettroni appartenenti al fascio che dopo un certo numero di urti, elastici e non, escono dal campione.
Hanno energia compresa tra zero e quella degli elettroni incidenti, e provengono da una profondità di circa 0,5-1 µm.
Il numero di BSE dipende dal numero atomico Z del materiale che si analizza, mentre non dipende dall’energia del fascio, secondo la seguente legge:
Immagine3
con le costanti C che dipendono dal materiale e dalle condizioni.
In questo modo si può analizzare il tipo di materiale che si sta analizzando, visto che il coefficiente in generale seguirà la curva che si può osservare nella figura riportata sotto.

Andamento del coefficiente di retrodiffusione in funzione del numero atomico

Numero di BSE in funzione del numero atomico

Gli elettroni retrodiffusi quindi permettono sia di avere informazioni topografiche sia di vedere la variazione del numero atomico medio delle diverse zone scandagliate.
Gli elettroni secondari (SE), invece, sono quelli che vengono riemessi dal campione stesso ed hanno energia inferiore a 50 eV.
La probabilità di formazione di un elettrone secondario segue un andamento del tipo:
Immagine5dove λ vale circa 1-10 nm. La profondità di emissione vale circa 5 volte λ, da cui si ricava facilmente che la regione di provenienza dei SE è al massimo 50 nm. Gli elettroni secondari danno principalmente la sola informazione morfologica.

Strumentalmente un SEM è formato da diversi componenti, tra i quali i più importanti sono la sorgente di elettroni, le l

  • enti magnetiche, il sistema di pompe da vuoto e i diversi rivelatori.
Schema illustrativo di un SEM

Schema illustrativo di un SEM

Quindi selezionando il tipo di rivelatore si può osservare la morfologia del campione (cosa usata quasi sempre) o il tipo di materiale che si sta osservando (funzione usata di rado).

Vediamo ora alla parte più divertente… le foto che si possono catturare con un SEM.
Innanzitutto nella figura che trovate sotto potete osservare come si presenta un moderno microscopio elettronico.
hitachi_su-70_sem

Ora come promesso una carrellata di immagini SEM, a partire da una realizzata direttamente da me.
Con questo vi saluto, spero che l’articolo risulti interessante.

PS: Per chi fosse interessato la NASA ha messo in rete un programmino interessante: VirtualMicroscope, un simulatore di SEM.

Buona giornata,

MMarans.

Diverse foto SEM di crescite di CNTs

Diverse foto SEM di crescite di CNTs

Neurone

Neurone

Sensore per Gas costituito da un filo di Pt da 50 nm di diametro

Sensore per Gas costituito da un filo di Pt da 50 nm di diametro

Fiocco di neve

Fiocco di neve

Virus dell'influenza A

Virus dell’influenza A

Fusione Fredda: Pericolo o Salvezza?

Oggi voglio parlare di un argomento che mi è stato a cuore da sempre: il processo di fusione fredda.
Sconosciuto ai più, è un processo ipotetico (o pseudo-tale) che potrebbe risolvere il più importante problema che avremo da qui ai prossimi cento anni: l’Energia.
Ogni giorno sentiamo parlare di Energia… in fondo è uno dei più grandi problemi del nostro tempo è l’energia…  ma cosa si intende per Energia?
Energia è vita, è sopravvivenza, è speranza, ma energia è anche guerra, distruzione, potere; in tutto il mondo ci sono e ci saranno proteste, guerre, idee, ma la verità è che l’energia è controllo, e le persone che controllano l’energia sono i ricchi ed i potenti della Terra: presidenti, industriali, ministri, persone che esercitano su di noi il controllo e che per questo non ci lasceranno l’energia, né ora né mai.

Immagine

Questo grafico mostra le attuali e le future fonti d’energia indicando la quantità d’energia prodotta.
Tra 5, 10 o anche 20 anni, ma comunque prima di quanto possiamo immaginare, il petrolio sarà antieconomico da prelevare e quindi verrà man mano abbandonato a favore d’altre fonti energetiche. E questo è il punto cruciale. Quale sarà questa nuova fonte?

  • Carbone: ci sono ancora enormi giacimenti, ma inquina moltissimo, qualsiasi tecnologia si utilizzi: è un residuo fossile ricco di carbonio quindi come minimo produrrà enormi quantità di gas serra, e questo non è accettabile.

    Centrale a Carbone

    Centrale a Carbone

  • Gas naturale: ce n’è ancora ma anche questo andrà ben presto ad esaurirsi, il mondo ha sete di energia e il gas ha una bassa densità energetica (produce poca energia).
  • Energia nucleare: questa produce energia ad alta densità e quanta se ne vuole.
    Il problema maggiore è la sicurezza delle centrali, unito all’enorme quantità di rifiuti radioattivi che si vengono a creare, la movimentazione di tutti questi rifiuti che sono un continuo e reale pericolo non solo per l’umanità ma per la vita dell’intero pianeta. Basta ricordarsi che l’uomo si trovò davanti al suo totale fallimento il 25 aprile del 1986, quando a Chernobyl accadde una cosa che segnò per sempre la storia dell’umanità: durante lo spegnimento del reattore 4 della centrale della città sovietica, si perse il controllo del nocciolo, che esplose.
    Oltre ai morti immediati, ne seguirono altri 1.000 nei mesi successivi.
    Sono morte, fino ad oggi, secondo l’OMS, circa 4.000 persone, ma ne risultano 270.000 contaminate.

    Centrale Nucleare

    Centrale Nucleare

  • Energia “pulita”: la cosiddetta energia “pulita”, idroelettrica, geotermica, eolica, solare, delle maree, non potrà mai produrre l’energia necessaria al sostentamento mondiale, ed, anzi, potrebbe provocare un aumento della forbice tra i paesi industrializzati e quelli del terzo mondo; infatti, quest’energia, basterebbe per i paesi industrializzati, che farebbero alzare il prezzo e così ne acquisirebbero il monopolio, e per questo non è una risposta coerente al problema energetico.
    Sarebbe bello, sarebbe una vera speranza, riuscire a produrre l’energia per il fabbisogno mondiale tramite energia pulita, ma non è una cosa auspicabile, se non su piccola scala e con soldi a fondo perduto dati dalle istituzioni per lo scopo.
    In linea teorica si potrebbe fare, basta vedere l’immagine sottostante, ma realizzare una vera “Casa Ecologica” comporterebbe un grande dispendio di risorse e tempo, per non parlare della totale rivoluzione catastale, legislativa e territoriale di cui si avrebbe bisogno per arrivare al risultato.
    E’ più una speranza che una vera soluzione, almeno parlando nel breve-medio termine e con città costruite e non da costruire partendo da zero… penso proprio che su questo argomento, come sulle Torri Solari, ci farò un bell’articolo tra non molto tempo, sicuramente inserendo dentro uno dei miei progetti preferiti, il Venus Project e parlando di economia delle risorse.

    Casa Ecologica

    Casa Ecologica

  • L’idrogeno……… l’idrogeno non è una fonte energetica!!!
    Può essere visto come un accumulatore, un metodo di conservazione dell’energia prodotta con qualche altro mezzo, sia esso pulito (solare, eolico, geotermico) o classico (carbone, petrolio, gas).
    Ma allora, come e perché si parla tanto di “idrogeno pulito”, “emissioni zero”, “futuro all’idrogeno”?
    Il mezzo è la disinformazione (l’arma non convenzionale più utilizzata in questi anni), che può essere venduta dai media grazie alla sostanziale ignoranza della gente su questi argomenti piuttosto tecnico-scientifici. Il movente che porta a spacciare queste bugie è molto, molto importante per lo status quo attuale e si può riassumere in una sola parola: CONTROLLO.
    L’idrogeno non si può fare in casa, è complesso da maneggiare, ci vogliono enormi tecnologie e capitali per tutta la struttura che lo crea lo regge e lo sfrutta: ha bisogno di un sistema per essere utilizzato. Esattamente come è accaduto ed accade tutt’oggi per il petrolio, infatti, il sistema idrogeno è monopolizzabile, è controllabile e quindi crea una merce che può essere venduta; si può decidere il prezzo al quale venderlo, si può decidere di ottenerlo bruciando carbone o la foresta amazzonica e bisogna trasportarlo, bisogna costruire condotti, distributori, centrali dove crearlo, stoccarlo. Insomma una copia precisa del sistema petrolifero.
Stazione di distribuzione di idrogeno per autovetture

Stazione di distribuzione di idrogeno per autovetture

Si dice che l’idrogeno verrà prodotto da fonti pulite e se così fosse sarebbe veramente pulito.E’ vero, ma purtroppo la quantità di idrogeno che si potrebbe creare con fonti rinnovabili è troppo poca e costosa per poter essere seriamente adottata come mezzo principale, tranne in casi come quello islandese, dove grazie alla ricchissima presenza di energia geotermica ed idrica si potranno veramente ottenere grandi quantità di idrogeno in maniera pulita. Ma questi casi sono purtroppo rari e circoscritti a pochissime realtà.

E allora? Dovremo ritrovarci ancora una volta di fronte ad un monopolio energetico che faccia il bello ed il brutto tempo come e quando vuole? No! Una soluzione già esiste, non è l’unica ma sicuramente è la più importante, quella che potrà veramente portare l’umanità da un sistema energetico limitato e monopolistico all’abbondanza di energia pulita, sicura e localizzata. Vi sembra impossibile? Ha un nome, un nome che grazie all’accurato lavoro dei media e del potere economico vi farà venire un risolino sulle labbra: FUSIONE FREDDA.

Il 23 marzo 1989 gli elettrochimici Martin Fleischman e Stanley Pons, dell’università dello Utah annunciarono di aver rivelato un processo di fusione degli atomi di deuterio (un isotopo dell’idrogeno) in acqua (D2O), a temperatura ambiente, in cella elettrolitica con catodo di palladio.  Il tempestivo interesse dei mezzi di comunicazione di massa lasciò supporre due cose: o era davvero una scoperta fondamentale, oppure era la classica bufala che veniva spacciata per scoop.  In ogni caso in tutto il mondo si cercò di riprodurre l’esperimento, per vedere di cosa si trattasse. Fu chiaro da subito un grosso problema: la riproducibilità dell’esperimento non era garantita, c’era qualcosa che sfuggiva.

Martin Fleischmann e Stanley Pons

Martin Fleischmann e Stanley Pons

Una caratteristica fondamentale della ricerca scientifica è la riproducibilità: quando è chiaro quali sono le condizioni in cui si manifesta un certo fenomeno (pressione, temperatura, purezza dei materiali, etc) l’esperimento deve potersi ripetere con una sua regolarità, e questo non avveniva con il “reattore freddo”.
Il 22 aprile del 1989 (a meno di un mese dalla pubblicazione del lavoro di Fleishman e Pons), il fisico italiano Francesco Scaramuzzi (tra l’altro scrittore di un bellissimo libro gratuito sull’argomento), dell’ENEA di Frascati, presentò una relazione in cui dimostrò l’emissione di neutroni da parte di sistema deuterio-titanio.
Si trattava di un sistema diverso da quello utilizzato dai due statunitensi ma sembrava dimostrare inequivocabilmente la possibilità di reazioni nucleari degli isotopi dell’idrogeno, se posti in opportune condizioni insieme a metalli come il palladio od il titanio. Infatti l’emissione di neutroni sarebbe altrimenti inspiegabile per motivi esclusivamente chimici.
Se da un lato questa era un’ottima notizia, poichè sembrava confermare la possibilità di reazioni nucleari “fredde”, dall’altro riportava in primo piano il problema dei rifiuti radioattivi, poichè l’emissione di neutroni è una grossa fonte di radioattività. La relazione di Scaramuzzi ed altri risultati spingevano ancora di più a tentare di riprodurre l’esperimento iniziale, od alcune sue varianti. I risultati continuarono ad essere incerti e ciò allontanò quasi subito l’interesse dei più scettici e dei media, che si portarono appresso l’interesse della popolazione mondiale.
Anche nei laboratori che ottenevano i risultati migliori gli esperimenti non andarono sempre nel verso sperato.
Ciononostante le ricerche proseguirono, ed alcune industrie giapponesi decisero di investire i loro soldi nel campo. Produssero anche dei brevetti, ma sempre con le caratteristiche di imprevedibilità di funzionamento.

L’unica cosa che fu chiara da subito è che la realizzazione della fusione fredda non capovolge nessuna delle leggi della fisica a noi note: si tratta solo di una reazione di catalizzazione, molto importante per i nostri scopi tecnologici, forse, ma assolutamente ininfluente sulla nostra comprensione generale del mondo.
Passarono gli anni e l’interesse del pubblico diminuì. Lo spettro di una crisi energetica era stato sempre presente negli anni ottanta, ma venne dimenticato ben presto negli anni novanta. La gente aveva già una fonte di energia abbondante ed economica: è il petrolio, perchè parlare d’altro?

Cerchiamo ora di capire meglio come avviene questo processo: si prendono due elettrodi, uno di platino e uno di palladio, si mettono in una soluzione elettrolitica contenente acqua pesante (D2O), il tutto in un contenitore di vetro ben isolato dall’esterno. Si apporta elettricità al sistema e l’effetto sarà che il deuterio si accumulerà in grande quantità nel palladio, che per la sua struttura funziona.
All’interno del palladio gli atomi di deuterio si accumulano in spazi sempre più ristretti, così gli atomi saranno costretti ad essere sempre più vicini, sempre più vicini, fino al punto di fondersi, dando origine ad atomi di elio e neutroni di scarto, con emanazione di calore. Il sistema si può immaginare come una spugna molto porosa.

Reazione alla base della fusione fredda

Reazione alla base della fusione fredda

Il processo della fusione nucleare e dell’emissione di calore inizia soltanto dopo un circa un’ora e solo quando il numero di atomi di deuterio superano quelli del palladio.
Il rendimento che si ottiene è di circa il 1000 %. In questo modo si ricava calore da fusione nucleare a temperatura ambiente con strumenti e conoscenze utilizzabili quasi da chiunque poiché il materiale che si usa è quello di un semplice laboratorio chimico.
Inoltre il costo è veramente irrisorio poiché si parla di cifre intorno ai 300 euro per ottenere circa 10 Kwh per ben 500 anni! La fusione fredda è energia ad alta densità che si può ottenere in modo semplice.

Schema di un ipotetico reattore a fusione fredda

Schema di un ipotetico reattore a fusione fredda

Questo vuol dire che si può avere tutta l’energia che ci serve ovunque ci serve senza alcun bisogno di doverla trasportare. Si può creare in sito. Non ha bisogno di centralizzazione. Non esisterà mai una centrale a fusione fredda.
Ho bisogno d’acqua calda? Non ho bisogno neppure di uno scaldabagno poiché con una “pila” a fusione fredda della grandezza di un’unghia posta su ogni rubinetto di casa mia potrò avere acqua calda quando e quanta ne voglio!
Un pò d’anni fa Carlo Rubbia (nobel per la fisica per la scoperta dell’interazione bosonica Z e W e tra gli ideatori delle Torri Solari) disse queste testuali parole: “Se la fusione fredda funziona vuol dire che Dio è stato molto, molto buono con noi”.

Negli ultimi anni poi sono state sviluppate nuove tecniche che in verità hanno maggiormente aumentato il mistero, come l’uso di particolari accorgimenti sugli elettrodi soprattutto l’uso di acqua normale.
Risultati sorprendenti mostrano rendimenti energetici addirittura del 900% utilizzando acqua del rubinetto, senza usare materiali impossibili come il deuterio o il palladio e senza spreco di soldi: per pochi soldi potremmo avere ognuno in casa il proprio generatore d’energia, un energia pulita e a basso costo, e a qualcuno questo non va assolutamente bene.

Non dico che tutto questo non può essere smentito, ma che andrebbe verificato realmente, non limitando i fondi verso questo filone di ricerca, ma anzi puntando ogni nostro sforzo nel raggiungere questo traguardo, che potrebbe portare ad una nuova era dell’uomo sul pianeta.
Ed è proprio qui che si creano i problemi: ci sono in ballo ricchissimi brevetti e il Premio Nobel. Le teorie della “Scienza” sentono in pratica il profumo dei soldi. Non secondario é il problema economico: cosa succederebbe, tra l’altro, se tale reazione nucleare arrecasse del benessere a tutta la popolazione mondiale e nello stesso tempo risolvesse il crescente inquinamento del pianeta?
Ci accorgiamo purtroppo che il vero problema é l’uomo.
Sicuramente il suo spirito è malato. Uno spirito che ha portato la scienza in un vicolo cieco dove scegliere se stare dalla parte del profitto o dalla parte della energia per tutti.

Vi lascio con un video che ho trovato in rete da scaricare e vedere.
Per ulteriori informazioni vi segnalo un sito molto bello, quello del ProgettoMeg.

Saluti,

MMarans.

worldsoutsidereality

«Scientific journalism is too important to be left to journalists» Richard Dawkins

Cavolate in libertà

Nessuna opera che non abbia un carattere goliardico può essere un capolavoro.

Pianeta Musica

"Nulla più della musica ha il poter di evocare un’atmosfera, di accendere un ricordo, di far rivivere un attimo con intensità. Un frammento di musica, può giungerci all’improvviso, cosi come un profumo, mentre camminiamo per strada, e subito un’ondata di ricordi e emozioni si rovescia su di noi. La musica infatti, ci accompagna in ogni momento e in ogni età, costituisce la colonna sonora del film che è la vita."

Il Ragno

Pensieri di una femminista razionalista

Misiòt!

Di tutto un po'...

Bicocca ERP lab

Cognitive Electrophysiology Lab - University of Milan-Bicocca

profnatale

informatica....mente

Baker Street Boy

Il mare è il cimitero del castello d'If

il pianeta delle scimmie

scienza, ambiente, energia, tecnologia

Lampadinaccesa

Blog Scientifico

La Scienza spiegata... SempliceMente!!!

IlaInn

Conoscere il Cosmetico : è un Dovere!

SempliceMenteScienza

La Scienza spiegata... SempliceMente!!!