Il "trasferimento della mente" o “mind uploading” è l'ipotetico processo di trasferimento o, per meglio dire, di copia, di una mente cosciente da un cervello a un substrato non biologico (ad esempio un computer). Il mind uploading e le questioni ad esso collegate sono tra i “temi caldi” della filosofia transumanista, che ho introdotto, qualche tempo fa, in questo post. Oggi ho intenzione di provare a illustrarvi (senza alcuna pretesa di completezza!) gli argomenti che fanno apparire questa pratica, per quanto futuribile, realizzabile, almeno basandosi sulle conoscenze scientifiche attuali. Ho già detto in passato che le neuroscienze ci suggeriscono come la nostra coscienza soggettiva , in altre parole la nostra mente, non sia altro che un processo che ha luogo nel nostro cervello; anzi si potrebbe dire che la mente sia l’attività del cervello (o per lo meno di certe sue parti). Questa convinzione è generalmente condivisa da coloro che hanno una visione naturalistica e materialistica, in altre parole, “scientifica” del mondo. Come si è già detto in questi due post (qui e qui), infatti, la posizione filosofica opposta, il dualismo, che vede una netta separazione tra mente e cervello appare ormai scientificamente insostenibile. L’altra ipotesi alla base del mind uploading, è che le memorie, la personalità e più in generale tutto ciò che rende unica ogni persona sia immagazzinato e codificato nella struttura fisica della immensa rete di neuroni del cervello. Anche questa idea è ormai vastamente accettata dalla comunità neuroscientifica e sta alla base della nascente scienza della “connettomica” di cui si è già parlato spesso (ad esempio qui e qui). La base strutturale di memoria e personalità è dimostrata, ad esempio, dal fatto che i pazienti chirurgici posti in stato di arresto circolatorio in ipotermia profonda (“Profound Hypothermia and Circulatory Arrest” (PHCA)) durante un operazione hanno attività cerebrale completamente assente per periodi di anche un ora. Nonostante questo, dopo essere stati rianimati essi conservano memoria e personalità completamente intatte. Per chiarire meglio la relazione tra mente e cervello che emerge dalle neuroscienze voglio riportare ancora una volta la bellissima metafora usata dal fisico e neuroscienziato Sebastian Seung in una conferenza che è stata argomento di un passato post: i pensieri e la coscienza soggettiva (come schemi di attività neurale) stanno al connettoma (la struttura fisica del nostro cervello) come l'acqua di un ruscello di montagna sta al suo letto di pietre. Per restare nella metafora, il caso descritto sopra di una persona che rimane priva di attività cardiaca e cerebrale per poi essere rianimata è equivalente a quando il ruscello, rimasto in secca per qualche tempo, vedesse il suo letto, ancora intatto, nuovamente percorso dal flusso dell’acqua. Considerando la mente come un processo si arriva a supporre la sua “indipendenza funzionale dal substrato”. Se quello che conta è l’attività del cervello che, come ci indicano le neuroscienze, è un processo di elaborazione dell’informazione, non ha importanza che quest’elaborazione venga eseguita da neuroni biologici o da un qualunque dispositivo calcolatore costruito dall’uomo (questa equivalenza funzionale risulta evidente nel caso delle neuroprotesi). Cercherò di chiarire questo concetto con un esempio, un esperimento mentale, che altro non è se non la descrizione di una ipotetica procedura di “uploading graduale” proposta da Hans Moravec (la traduzione riportata qui sotto è tratta un ottimo articolo di approfondimento disponibile su Estropico.org):
“Un chirurgo robot è equipaggiato con un manipolatore che si divide ricorsivamente e sempre più finemente in subdiramazioni, fino a risultare costituito da miliardi di dita sensibili di scala nanometrica. Il paziente siede comfortabilmente (sebbene probabilmente con la sua testa serrata in una morsa) e sveglio, mentre il chirurgo penetra col suo manipolatore nella testa del paziente. Le minuscole dita del manipolatore cominciano a scostare via cellule di tessuto, esponendo il cervello ma suturandone, mano a mano, i vasi sanguinei così che le dita non lavorino creando troppa confusione. Con i sensori elettrici e chimici posizionati sulla punta delle dita, il manipolatore monitora l'attività di tutte le cellule esposte del cervello. Quando il computer del robot ha memorizzato tutto quello che esse stanno facendo [e la loro struttura fisica], configura una simulazione per riprodurre la loro attività. Il manipolatore rimuove queste cellule e, ancora una volta per mezzo delle sue “magiche” nanodita, connette il rimanente tessuto celebrale alla simulazione. Livello dopo livello esso procede in questa maniera fino a che la testa del paziente, rimasto cosciente durante tutta la procedura, è svuotata ed è tutta “trasferita” nella simulazione. “
Per ora una simile procedura è decisamente fantascienza, tuttavia questo "gedankenexperiment" rende chiaramente l’idea di come la sostituzione graduale dei neuroni biologici con dei loro equivalenti computazionali (la simulazione) possa conservare l’identità e la coscienza soggettiva del paziente. In generale però l’uploading può anche non essere graduale; questo è vero ad esempio nell’”uploading tramite procedura microtomica“, un procedimento di questo tipo appare di più facile realizzazione dal punto di vista tecnologico rispetto al precedente. Sempre prendendo spunto dall’articolo reperibile su Estropico.org:
“Il cervello del paziente è trattato con un fissante chimico oppure congelato alla temperatura dell'azoto liquido. Successivamente viene sezionato in strati molto sottili; ogni strato è sottoposto a scansione, ad esempio, tramite un microscopio elettronico in modo da mappare l’intero cervello con risoluzione nanometrica (proprio come nel protocollo sperimentale per la connettomica che vi ho descritto qui). Infine questi dati vengono utilizzati da un computer per ricostruire una accuratissima simulazione del cervello del paziente su un substrato artificiale. Quando la simulazione viene viene fatta “girare” ed interfacciata con adeguati imput sensoriali, oltre che, eventualmente, ad un corpo robotico, il paziente, ormai “uplodato” in un supporto non biologico, riprende conoscenza esattamente con la stessa personalità e ricordi che aveva prima di sottoporsi alla procedura.”
E’ questa la speranza di coloro che decidono far preservare in azoto liquido il proprio corpo dopo la morte. Il fine di questa pratica, detta crionica (a cui abbiamo già accennato nel post in cui si parlava della conferenza di Seung citata prima), è infatti, proprio quello di preservare le strutture del cervello che conservano l’informazione sulla personalità e sull’io del defunto. In questo modo, in un futuro più o meno lontano, grazie al progresso di scienza e tecnologia, qualcuno potrebbe eseguire una procedura simile a quella descritta sopra per “svegliare” i pazienti congelati, regalando loro quella che potremmo chiamare "immortalità cibernetica". Come spiega Seung nella conferenza appena citata (e nel suo recente libro "Connectome"), proprio la connettomica potrebbe testare la validità scientifica delle attuali procedure crioniche, valutandone l’efficacia nel preservare intatto il connettoma. Sull'interessante sito della "Brain Preservation Foundation" (qui il link) potrete trovare molte informazioni a questo proposito. Per chi invece volesse approfondire ulteriormente argomenti come mind uploading e crionica rimando alle rispettive sezioni su Estropico Blog, al sito del"LIFEXT Group" o al relativo Forum (sezione Mind uploading e sezione Crionica).
Crosspostato su Estropico Blog.
Pensieri, notizie e riflessioni sulla scienza e la tecnologia all’intersezione tra fisica, chimica e biologia
lunedì 27 febbraio 2012
Mind uploading - Trasferire la mente in un computer
domenica 26 febbraio 2012
Neutrini, che confusione!
Risale a questo mercoledì la notizia della scoperta di un possibile errore nelle misure dell'esperimento OPERA. Queste sembravano indicare l'esistenza di neutrini viaggianti a velocità superiori a quella della luce, fatto che, se confermato, rimetterebbe in discussione uno degli assunti fondamentali della teoria della relatività, uno dei pilastri concettuali della fisica moderna. Tutta questa vicenda ha suscitato, e sta suscitando, un gran clamore mediatico, che porta con sé un grandissimo numero di commenti superficiali e gratuiti. Tutto questo, purtroppo, mostra ancora una volta quanto poco l'opinione pubblica e la maggior parte dei media conoscano la scienza ed il suo modo di funzionare (dietro a questi esempi di cattiva comunicazione ci sono fraintendimenti analoghi a quelli di cui avevo parlato in questo post). Per questo motivo, e per fare un po' di chiarezza, ho deciso di riportare qui i link di alcuni articoli ben fatti e scritti da persone competenti in modo che chi fosse interessato a saperne di più su questa storia possa approfittarne. In primis consiglio la lettura di "Su Einstein che batte neutrini 1-0 e altre simili sciocchezze" di Giuliana Galati sul suo bel blog "A little Skeptic", per ulteriori informazioni e approfondimenti raccomando anche "Prima di annunciare un risultato eccezionale, meglio controllare tutti i connettori" sull'interessantissimo blog "Borborigmi di un fisico renitente" e "Riflessioni su neutrini e dintorni" di Roberto Battiston.
venerdì 24 febbraio 2012
Linearità
E' un po’ che non mi concedo un post umoristico per cui voglio rimediare subito. Ciò che state per vedere gira tra gli studenti di fisica del secondo anno qui a Torino. Se nella vostra vita avete studiato un po’ di geometria e algebra lineare o comunque avete avuto a che fare con la matematica a livello universitario, penso che lo apprezzerete! ;). A pochi giorni dal termine del festival di San Remo ho l'onore di presentarvi l'ultima fatica de "Il complesso", anche detto a+ib, con a= M. Teresa Ascione, b= M. Altavilla e c(cameraman) = Gabriele Blasco. (Potete trovare il testo della canzone sulla pagina di youtube del video).
mercoledì 22 febbraio 2012
Un futuro di vetro - A day made of glass 2
Nel post precedente, parlando delle mille possibili applicazioni del grafene, ho citato l'elettronica integrata in vetri e specchi; ciò che voglio mostrarvi oggi è proprio un video che mostra le potenzialità di questo tipo di tecnologia nel trasformare la nostra vita quotidiana nei prossimi anni. L’anno scorso "A day made of glass", cortometraggio pubblicitario della Corning (l’azienda produttrice del "Gorilla Glass" utilizzato dagli iPhone), che ipotizzava un "futuro tecnologico di vetro", aveva avuto un successo clamoroso catturando l’immaginazione di milioni di persone. In questi giorni è stata rilasciata la seconda puntata, "A Day made of Glass 2". Detto questo non mi resta che augurarvi buona visione e lasciare che vi immergiate in questa affascinante "giornata di vetro" che potrebbe diventare realtà quotidiana nel giro di pochi anni.
martedì 21 febbraio 2012
Grafene - Un materiale per il futuro
Il grafene è senza dubbio uno dei materiali più rivoluzionari su cui, attualmente, si concentra la ricerca scientifica e tecnologica. A testimonianza del grande interesse che la comunità scientifica nutre nei confronti di questo materiale basti ricordare che, nel 2010, i fisici Andre Geim e Konstantin Novoselov sono stati insigniti del premio Nobel per la Fisica proprio "per i pionieristici esperimenti riguardanti il grafene". Questo materiale, composto da fogli di carbonio disposti a "nido d’ape" e spessi un solo atomo, ha infatti proprietà straordinarie; non solo dal punto di vista elettrico, ma anche da quello ottico, termico e meccanico. Le proprietà uniche del grafene potrebbero far fare grandi balzi in avanti alla tecnologia in quasi qualunque campo con applicazioni che vanno dall'elettronica pieghevole e superveloce alle interfacce neurali biocompatibili. Per darvi un idea delle potenzialità di questo materiale voglio citarvi due recenti notizie riguardanti proprio le applicazioni del grafene ai biosensori per l'elettrofisiologia e all'elettronica.
Poco più di un mese fa alcuni ricercatori della "Technische Universität München" hanno realizzato un piccolissimo dispositivo elettronico al grafene, in grado di captare e registrare i segnali elettrici prodotti dalle cellule. I risultati della loro sperimentazione sono riportati nella prestigiosa rivista "Advanced Materials". Da anni gli scienziati che lavorano nel campo della bioelettronica tentano di produrre sensori che siano in grado di ricevere, e, possibilmente, anche di trasmettere, segnali alle cellule. Storicamente i segnali elettrofisiologici prodotti delle cellule sono stati studiati soprattutto con dispositivi basati sulla tecnologia del silicio. Tuttavia, questo materiale, essendo rigido e incompatibile con i substrati flessibili oltre che inadatto a operare in ambienti acquosi come i sistemi biologici, non può essere integrato nei tessuti animali. Il grafene, al contrario, è chimicamente stabile e pertanto non reagisce con le altre molecole né subisce variazioni se messo a contatto con l’ambiente cellulare. E' per questo, oltre che per le sue ottime caratteristiche elettriche, che il grafene è un materiale davvero ideale per la produzione di sensori bioelettronici.
Ma è ovviamente l'elettronica per il "computing" il campo che il grafene potrebbe rivoluzionare in modo più radicale, anche in questo caso, sostituendo gradualmente il silicio. L'avvento dell'era dell'elettronica al grafene non solo farà fare un balzo in avanti a miniaturizzazione, velocità di calcolo ed efficienza energetica dei microprocessori ma potrebbe anche aprire la strada alla realizzazione di dispositivi elettronici pieghevoli e potenzialmente integrabili in quasi qualunque oggetto, da vetri e specchi fino a tessuti ed abiti. Un primo passo in questo senso risale alla scorsa estate, quando un team di ricercatori della IBM è riuscito a costruire il primo circuito integrato di grafene. Sfortunatamente questi transistor non potevano essere “compattati” a formare un circuito integrato perché il grafene, anche nel suo stato più isolante, faceva passare troppa corrente causando la fusione degli altri componenti del circuito in pochi secondi. All’inizio di questo mese però è stato pubblicato un articolo che offre una soluzione al problema. Assemblando più strati di grafene a formare transistor tridimensionali (cioè accostando strati di grafene non complanari ma sovrapposti verticalmente) è stato realizzato un nuovo dispositivo chiamato “transistor verticale a effetto tunnel di campo” che è adatto a realizzare circuiti integrati. Il Dottor Leonid Ponomarenko, uno degli autori dello studio, ha dichiarato: “abbiamo fornito un approccio concettualmente nuovo all’elettronica al grafene; il nostro transistor funziona già piuttosto bene, ma ritengo che ci sia spazio per molto miglioramento. Ad esempio si potrebbe ridurne la dimensione a pochi nanometri e si potrebbe fare in modo che operi a frequenze prossime ai teraherz”.
E' per cogliere al volo le grandi prospettive scientifiche, tecnologiche ed industriali aperte dal grafene che è nato il progetto europeo "Graphene-Driven Revolutions in ICT and Beyond" (Graphene) (a questo indirizzo il sito ufficiale). Il progetto Graphene è un altro dei candidati al finanziamento FET Flagship; il suo obbiettivo è quello di riunire una comunità interdisciplinare di ricercatori europei che, in collaborazione con l'industria, punti a sviluppare tecnologie radicalmente innovative nel campo dell'ITC ("information and communication technology"). Questo permetterebbe di sfruttare appieno le proprietà di questo straordinario materiale per dare vita ad una vera e propria rivoluzione tecnologica che vedrebbe l'Europa in prima linea.
Voglio concludere questo post con un bel servizio di "Super Quark" che contiene una interessante intervista a Valeria Nicolosi, una giovane ricercatrice italiana emigrata all'estero che parteciperà, insieme al gruppo da lei diretto, al progetto Graphene.
Poco più di un mese fa alcuni ricercatori della "Technische Universität München" hanno realizzato un piccolissimo dispositivo elettronico al grafene, in grado di captare e registrare i segnali elettrici prodotti dalle cellule. I risultati della loro sperimentazione sono riportati nella prestigiosa rivista "Advanced Materials". Da anni gli scienziati che lavorano nel campo della bioelettronica tentano di produrre sensori che siano in grado di ricevere, e, possibilmente, anche di trasmettere, segnali alle cellule. Storicamente i segnali elettrofisiologici prodotti delle cellule sono stati studiati soprattutto con dispositivi basati sulla tecnologia del silicio. Tuttavia, questo materiale, essendo rigido e incompatibile con i substrati flessibili oltre che inadatto a operare in ambienti acquosi come i sistemi biologici, non può essere integrato nei tessuti animali. Il grafene, al contrario, è chimicamente stabile e pertanto non reagisce con le altre molecole né subisce variazioni se messo a contatto con l’ambiente cellulare. E' per questo, oltre che per le sue ottime caratteristiche elettriche, che il grafene è un materiale davvero ideale per la produzione di sensori bioelettronici.
Ma è ovviamente l'elettronica per il "computing" il campo che il grafene potrebbe rivoluzionare in modo più radicale, anche in questo caso, sostituendo gradualmente il silicio. L'avvento dell'era dell'elettronica al grafene non solo farà fare un balzo in avanti a miniaturizzazione, velocità di calcolo ed efficienza energetica dei microprocessori ma potrebbe anche aprire la strada alla realizzazione di dispositivi elettronici pieghevoli e potenzialmente integrabili in quasi qualunque oggetto, da vetri e specchi fino a tessuti ed abiti. Un primo passo in questo senso risale alla scorsa estate, quando un team di ricercatori della IBM è riuscito a costruire il primo circuito integrato di grafene. Sfortunatamente questi transistor non potevano essere “compattati” a formare un circuito integrato perché il grafene, anche nel suo stato più isolante, faceva passare troppa corrente causando la fusione degli altri componenti del circuito in pochi secondi. All’inizio di questo mese però è stato pubblicato un articolo che offre una soluzione al problema. Assemblando più strati di grafene a formare transistor tridimensionali (cioè accostando strati di grafene non complanari ma sovrapposti verticalmente) è stato realizzato un nuovo dispositivo chiamato “transistor verticale a effetto tunnel di campo” che è adatto a realizzare circuiti integrati. Il Dottor Leonid Ponomarenko, uno degli autori dello studio, ha dichiarato: “abbiamo fornito un approccio concettualmente nuovo all’elettronica al grafene; il nostro transistor funziona già piuttosto bene, ma ritengo che ci sia spazio per molto miglioramento. Ad esempio si potrebbe ridurne la dimensione a pochi nanometri e si potrebbe fare in modo che operi a frequenze prossime ai teraherz”.
E' per cogliere al volo le grandi prospettive scientifiche, tecnologiche ed industriali aperte dal grafene che è nato il progetto europeo "Graphene-Driven Revolutions in ICT and Beyond" (Graphene) (a questo indirizzo il sito ufficiale). Il progetto Graphene è un altro dei candidati al finanziamento FET Flagship; il suo obbiettivo è quello di riunire una comunità interdisciplinare di ricercatori europei che, in collaborazione con l'industria, punti a sviluppare tecnologie radicalmente innovative nel campo dell'ITC ("information and communication technology"). Questo permetterebbe di sfruttare appieno le proprietà di questo straordinario materiale per dare vita ad una vera e propria rivoluzione tecnologica che vedrebbe l'Europa in prima linea.
Voglio concludere questo post con un bel servizio di "Super Quark" che contiene una interessante intervista a Valeria Nicolosi, una giovane ricercatrice italiana emigrata all'estero che parteciperà, insieme al gruppo da lei diretto, al progetto Graphene.
lunedì 20 febbraio 2012
OCSO - Le nuove "pagine gialle" della scienza online
Da qualche giorno è nato l'OCSO: l’"Osservatorio sulla Comunicazione della Scienza Online", un database dove sono indicizzati tutti i siti e blog che trattano di scienza in lingua italiana. Queste "Pagine Gialle" della comunicazione scientifica potrebbero diventare una grande risorsa per gli appassionati di scienza in rete. Come scrive l'autore sul sito:
"L’Osservatorio sulla Comunicazione della Scienza Online (OCSO) nasce come un modesto tentativo di organizzare le risorse di comunicazione della scienza disponibili su internet esclusivamente in lingua italiana. Vuole diventare uno strumento per mettere in evidenza i protagonisti della comunicazione della scienza online, un punto di incontro per i comunicatori della scienza ma anche per chi è appassionato o curioso di scienza."
Questo bel progetto è frutto del lavoro di Emiliano Peña, che per la sua tesi di master presso l’Università di Padova (disponibile qui) ha setacciato la rete alla ricerca di blogger, ricercatori e giornalisti autori della divulgazione scientifica online. A questo indirizzo (o cliccando sul badge nella colonna in basso a destra) potete vedere la scheda di "Scienza di Frontiera" con una breve intervista al sottoscritto a proposito del blog che state leggendo.
"L’Osservatorio sulla Comunicazione della Scienza Online (OCSO) nasce come un modesto tentativo di organizzare le risorse di comunicazione della scienza disponibili su internet esclusivamente in lingua italiana. Vuole diventare uno strumento per mettere in evidenza i protagonisti della comunicazione della scienza online, un punto di incontro per i comunicatori della scienza ma anche per chi è appassionato o curioso di scienza."
Questo bel progetto è frutto del lavoro di Emiliano Peña, che per la sua tesi di master presso l’Università di Padova (disponibile qui) ha setacciato la rete alla ricerca di blogger, ricercatori e giornalisti autori della divulgazione scientifica online. A questo indirizzo (o cliccando sul badge nella colonna in basso a destra) potete vedere la scheda di "Scienza di Frontiera" con una breve intervista al sottoscritto a proposito del blog che state leggendo.
venerdì 17 febbraio 2012
HCP - L'approccio "macro" alla connettomica
In numerosi post precedenti si è parlato di connettomica (ad esempio qui e qui). In queste occasioni abbiamo sempre definito il connettoma come una "mappa" delle migliaia di miliardi di connessioni tra i neuroni di un cervello. Questo tipo di connettoma a livello di singoli neuroni e sinapsi viene spesso chiamato connettoma "neurale". Le potenzialità scientifiche insite nello studio di questo tipo di connettoma, come già abbiamo detto più volte sono immense, tuttavia, almeno al momento, la mappatura del cervello con una risoluzione spaziale sufficiente all'acquisizione di un connettoma neurale rimane una sfida tecnologica ardua. Esiste un altro tipo di connettoma, più facilmente accessibile con la tecnologia attuale, il connettoma "regionale". Un connettoma di questo tipo anziché mappare le connessioni tra singole cellule neurali specifica i collegamenti tra le varie macro-regioni (come ad esempio le varie "aree" della corteccia celebrale") di un cervello. La risoluzione di un simile connettoma può variare molto, da frazioni di centimetro a qualche micrometro: un singolo pixel (o meglio "voxel", perché stiamo parlando di pixel tridimensionali) di un connettoma regionale può rappresentare migliaia o addirittura centinaia di migliaia di neuroni. Un simile "schema di connessione", nonostante la sua risoluzione relativamente bassa, promette di regalarci una vera e propria svolta nella comprensione del cervello. Infatti molti neuroscienziati pensano che numerosi processi di elaborazione dell'informazione alla base dell'intelligenza e delle funzioni cognitive superiori si svolgano proprio tra quelle micro-regioni del cervello dette "colonne corticali". Queste strutture di cui è composta l'intera neocorteccia costituirebbero una sorta di "unità funzionale universale" della corteccia cerebrale. Poiché la loro larghezza si aggira proprio sui proprio 500 µm, esse risultano distinguibili in un connettoma regionale. E' chiaro quindi come studiarne le interconnessioni sia di grande interesse, permettendo di scoprire quali "circuiti cerebrali" siano alla base di specifiche funzioni cognitive. Inoltre i connettomi regionali, a differenza di quelli neurali, sono realizzabili in vivo in modo "non distruttivo", rapido ed economico, tramite comuni scanner a risonanza magnetica. Questo permette di studiarne comodamente l'evoluzione nel tempo su modelli umani. Per chi fosse interessato ad approfondire questi discorsi è disponibile online (a questo indirizzo) lo storico ed interessante articolo, pubblicato su "PLoS Computational Biology", che nel 2005 ha coniato il termine "connettoma".
Attualmente è in corso di svolgimento un grande progetto di connettomica regionale: lo "Human Connectome Project" (HCP). Finanziato dall'americano "National Institute of Health", il suo scopo è proprio quello di accelerare il progresso della connettomica (regionale) umana migliorando le capacità di imaging e di analisi dei dati. Lo HCP inoltre mapperà completamente i macrocircuiti regionali di 1200 adulti sani usando metodi di neuroimaging all'avanguardia. Raccogliendo in contemporanea dati genetici e comportamentali su questi soggetti sarà anche possibile chiarire meglio la relazione tra comportamento, caratteristiche genetiche e struttura dei circuiti regionali. Il progetto verrà svolto in due fasi da un consorzio di 11 istituzioni. Nella fase I(della durata di due anni, dall'autunno 2010 alla primavera 2012), attualmente in corso, stanno venendo sviluppate ed ottimizzate le tecniche di acquisizione ed elaborazione dati. Nella fase II (della durata di circa quattro anni, a partire dall'estate 2012) inizierà la raccolta dati che si svolgerà in parallelo con la loro elaborazione. I risultati saranno pubblicati ad intervalli regolari fino al completamento del progetto.
Attualmente è in corso di svolgimento un grande progetto di connettomica regionale: lo "Human Connectome Project" (HCP). Finanziato dall'americano "National Institute of Health", il suo scopo è proprio quello di accelerare il progresso della connettomica (regionale) umana migliorando le capacità di imaging e di analisi dei dati. Lo HCP inoltre mapperà completamente i macrocircuiti regionali di 1200 adulti sani usando metodi di neuroimaging all'avanguardia. Raccogliendo in contemporanea dati genetici e comportamentali su questi soggetti sarà anche possibile chiarire meglio la relazione tra comportamento, caratteristiche genetiche e struttura dei circuiti regionali. Il progetto verrà svolto in due fasi da un consorzio di 11 istituzioni. Nella fase I(della durata di due anni, dall'autunno 2010 alla primavera 2012), attualmente in corso, stanno venendo sviluppate ed ottimizzate le tecniche di acquisizione ed elaborazione dati. Nella fase II (della durata di circa quattro anni, a partire dall'estate 2012) inizierà la raccolta dati che si svolgerà in parallelo con la loro elaborazione. I risultati saranno pubblicati ad intervalli regolari fino al completamento del progetto.
martedì 14 febbraio 2012
Ping pong cosmico
Oggi voglio presentarvi "Urania" il notiziario di astronomia ed astronautica dell'INAF ("Istituto Nazionale di Astrofisica"; qui il bel sito ufficiale dell'ente). Urania è un interessante progetto di divulgazione attivo fin dal 2000. Sul nuovo sito (qui) potrete trovare, ogni settimana, un interessante video di news riguardanti il mondo della ricerca astronomica e spaziale. La puntata di questa settimana si intitola "Ping pong tra le stelle"; in questi mesi, grazie alle eccellenti prestazioni scientifiche del telescopio spaziale Kepler (di cui abbiamo già parlato qui), si stanno scoprendo decine di pianeti extrasolari di tipo terrestre, alcuni dei quali situati in sistemi stellari del tutto diversi dal nostro. In questo contesto si inserisce un sorprendente studio che, basandosi su complesse simulazioni effettuate tramite supercomputer, ha mostrato la possibilità dell'esistenza di pianeti intrappolati tra due stelle, che passano da una all’altra proprio come una pallina da ping pong. Un pianeta che si trova in un sistema binario, cioè formato da due stelle in orbita l'una attorno all’altra può sfuggire all’attrazione di una stella per essere subito catturato dall’attrazione dell’altra.
lunedì 13 febbraio 2012
RoboCom - La robotica a un punto di svolta?
Ormai diversi indicatori mostrano come l'industria della robotica si stia avviando su una strada di sviluppo esponenziale non diverso da quello descritto dalla legge di Moore per quanto riguarda l'elettronica. Tecnologie fondamentali come quelle di intelligenza artificiale, accumulo di energia, hardware, sensoristica e attuatori stanno migliorando a passo spedito, così come notevole è l'aumento dei profitti per le industrie del settore.
I robot ormai sono in grado di svolgere moltissimi compiti fino a poco tempo fa dominio esclusivo degli esseri umani. Molti si preoccupano già che l'ascesa dei robot possa causare la perdita di molti posti di lavoro. In proposito basti pensare al recente caso della Foxconn, gigante taiwanese dell'elettronica, che sostituirà moltissimi operai alla catena di montaggio con modernissimi robot, fino ad arrivare ad avere 300.000 unità operative entro il 2013 (qui un articolo in proposito de La Stampa). I robot nel mondo del business si possono classificare in due grandi categorie: industriali o di servizio. I robot industriali, molto raramente umanoidi, sono quelli che prendono parte al processo di produzione di moltissimi beni, dalle automobili al cibo, ad esempio assolvendo compiti ripetitivi di assemblaggio. Al momento il numero di robot industriali sorpassa di gran lunga il numero di quelli di servizio. Secondo il "World Industrial Robotics Report" del 2011 nel 2010 erano in funzione poco più di un milione di robot industriali. Mentre la prima categoria di robot domina la scena la robotica di servizio è in rapidissima ascesa. Le applicazioni per i robot appartenenti a questa seconda categoria comprendono l'agricoltura, la sanità, lo spazio, la sicurezza, l'intrattenimento e l'assistenza domestica, solo per citarne alcune. In molti dei campi citati sopra già oggi i robot fanno parte della quotidianità; dalla chirurgia robotica in molti ospedali agli aspirapolvere robotici "roomba". Molte compagnie start-up stanno creando prodotti innovativi che vanno da sofisticati assistenti multifunzionali ad avanzate protesi robotiche. Anche molte grandi industrie di robotica manifatturiera come KUKA e Bosch stanno cominciando ad espandersi in questo vivace settore.
In un contesto così carico di promesse si inserisce il progetto europeo "Robot Companions for Citizens" (RoboCom) (qui il sito ufficiale), candidato a ricevere il finanziamento di un miliardo di euro in dieci anni del progetto FET flagship, in concorrenza con altri progetti come lo HBP o ITFoM, a cui ho dedicato dei post in precedenza. L'obbiettivo del progetto è quello di arrivare a costruire macchine "senzienti" per assistere le persone, in particolare gli anziani. "Un compagno robotico vivrà nelle nostre case; sarà come un pet, potrà muoversi ed aiutare in casa senza rompere oggetti e riuscirà a riconoscere le nostre emozioni e ad interagire in base ad esse" ha affermato Paolo Dario, direttore dell'istituto di BioRobotica della scuola superiore Sant'Anna di Pisa e coordinatore europeo del progetto Robot Companions for Citizens. Il suo team lavora da tempo allo sviluppo di robot con prezzi abbordabili, in modo che "ogni casa possa averne uno". La chiave per realizzare queste straordinarie macchine, ha affermato sempre lo stesso Dario, sarà l'utilizzo di "nuovi materiali, nuovi tipi di attuatori, nuove fonti energetiche ma soprattutto nuovi sistemi di controllo e di intelligenza artificiale basati sul sistema nervoso". Questi robot di nuova generazione faranno affidamento su software o hardware "neuromorfo" del tipo di quello di cui abbiamo parlato in due precedenti post (qui e qui). Il progetto RoboCom attualmente conta più di 250 collaboratori in 8 paesi, tuttavia Dario si aspetta che questo numero possa presto crescere fino a più di 1200. Se RoboCom venisse selezionato come flagship, ha affermato il professore: "lo sviluppo di queste macchine senzienti, che altrimenti potrebbe richiedere dai 20 ai 30 anni, potrebbe essere completo in un solo decennio, fornendo una soluzione a uno dei più pressanti problemi sociali che affliggono la nostra società".
Crosspostato su Estropico Blog.
I robot ormai sono in grado di svolgere moltissimi compiti fino a poco tempo fa dominio esclusivo degli esseri umani. Molti si preoccupano già che l'ascesa dei robot possa causare la perdita di molti posti di lavoro. In proposito basti pensare al recente caso della Foxconn, gigante taiwanese dell'elettronica, che sostituirà moltissimi operai alla catena di montaggio con modernissimi robot, fino ad arrivare ad avere 300.000 unità operative entro il 2013 (qui un articolo in proposito de La Stampa). I robot nel mondo del business si possono classificare in due grandi categorie: industriali o di servizio. I robot industriali, molto raramente umanoidi, sono quelli che prendono parte al processo di produzione di moltissimi beni, dalle automobili al cibo, ad esempio assolvendo compiti ripetitivi di assemblaggio. Al momento il numero di robot industriali sorpassa di gran lunga il numero di quelli di servizio. Secondo il "World Industrial Robotics Report" del 2011 nel 2010 erano in funzione poco più di un milione di robot industriali. Mentre la prima categoria di robot domina la scena la robotica di servizio è in rapidissima ascesa. Le applicazioni per i robot appartenenti a questa seconda categoria comprendono l'agricoltura, la sanità, lo spazio, la sicurezza, l'intrattenimento e l'assistenza domestica, solo per citarne alcune. In molti dei campi citati sopra già oggi i robot fanno parte della quotidianità; dalla chirurgia robotica in molti ospedali agli aspirapolvere robotici "roomba". Molte compagnie start-up stanno creando prodotti innovativi che vanno da sofisticati assistenti multifunzionali ad avanzate protesi robotiche. Anche molte grandi industrie di robotica manifatturiera come KUKA e Bosch stanno cominciando ad espandersi in questo vivace settore.
In un contesto così carico di promesse si inserisce il progetto europeo "Robot Companions for Citizens" (RoboCom) (qui il sito ufficiale), candidato a ricevere il finanziamento di un miliardo di euro in dieci anni del progetto FET flagship, in concorrenza con altri progetti come lo HBP o ITFoM, a cui ho dedicato dei post in precedenza. L'obbiettivo del progetto è quello di arrivare a costruire macchine "senzienti" per assistere le persone, in particolare gli anziani. "Un compagno robotico vivrà nelle nostre case; sarà come un pet, potrà muoversi ed aiutare in casa senza rompere oggetti e riuscirà a riconoscere le nostre emozioni e ad interagire in base ad esse" ha affermato Paolo Dario, direttore dell'istituto di BioRobotica della scuola superiore Sant'Anna di Pisa e coordinatore europeo del progetto Robot Companions for Citizens. Il suo team lavora da tempo allo sviluppo di robot con prezzi abbordabili, in modo che "ogni casa possa averne uno". La chiave per realizzare queste straordinarie macchine, ha affermato sempre lo stesso Dario, sarà l'utilizzo di "nuovi materiali, nuovi tipi di attuatori, nuove fonti energetiche ma soprattutto nuovi sistemi di controllo e di intelligenza artificiale basati sul sistema nervoso". Questi robot di nuova generazione faranno affidamento su software o hardware "neuromorfo" del tipo di quello di cui abbiamo parlato in due precedenti post (qui e qui). Il progetto RoboCom attualmente conta più di 250 collaboratori in 8 paesi, tuttavia Dario si aspetta che questo numero possa presto crescere fino a più di 1200. Se RoboCom venisse selezionato come flagship, ha affermato il professore: "lo sviluppo di queste macchine senzienti, che altrimenti potrebbe richiedere dai 20 ai 30 anni, potrebbe essere completo in un solo decennio, fornendo una soluzione a uno dei più pressanti problemi sociali che affliggono la nostra società".
Crosspostato su Estropico Blog.
martedì 7 febbraio 2012
Aubrey de Grey e la lotta contro l'invecchiamento
Nel post di oggi voglio parlarvi di Aubrey de Grey, un noto ricercatore inglese che dedica la sua vita alla messa punto di strategie per fermare l'invecchiamento biologico. Prima di interessarsi alla biologia cellulare e molecolare e studiare da autodidatta la biogerontologia (la scienza che studia il processo biologico dell'invecchiamento), de Grey ha studiato informatica all'università di Cambridge, dove si è laureato nel 1985. Nel 1999 ricevuto un dottorato ad honorem dall'università di Cambridge per la pubblicazione della sua teoria sull'invecchiamento e i radicali liberi mitocondriali esposta nel libro "The Mitochondrial Free Radical Theory of Aging". Dal 2005 la sua attività si è concentrata su un dettagliato piano chiamato "Strategies for Engineered Negligible Senescence" (SENS, "Strategie per un invecchiamento trascurabile") che punta a sviluppare metodi per prevenire il declino fisico e cognitivo legato all'avanzare dell'età. Nel 2007 de Grey ha pubblicato il libro Ending Aging nel quale spiega a fondo gli aspetti scientifici, politici e sociali dell'agenda del SENS. Infine nel marzo 2009 ha fondato in California la SENS foundation, una organizzazione no-profit nella quale ricopre attualmente il ruolo di capo responsabile scientifico. La fondazione lavora per "sviluppare, promuovere e assicurare un accesso generalizzato alle soluzioni di medicina rigenerativa per combattere le disabilità e le malattie legate all'invecchiamento", concentrandosi sulla strategia da lui stesso messa a punto. Con il SENS Aubrey de Grey sfida uno degli assunti di base della condizione umana; che l'invecchiamento sia inevitabile. Il Biogerontologo inglese sostiene che l'invecchiamento sia a tutti gli effetti una malattia e come tale possa, e debba, essere "curato". Il suo piano per raggiungere questo incredibile obbiettivo è quello di individuare tutti i processi biologici patologici e le specie biochimiche che costituiscono, a livello molecolare, la base biologica dell'invecchiamento ed escogitare dei metodi per eliminarli. Come si più immaginare con un obbiettivo così ambizioso, un curriculum così insolito (e soprattutto una simile barba!;) ) Aubrey de Gray è un vero e proprio "magnete" per le controversie. A tutt'oggi non c'è pieno accordo nella comunità scientifica sulle idee di de Gray; diversi scienziati le considerano alla stregua di sogni, non realizzabili nel breve periodo. Per questo il SENS rientra a pieno titolo nella categoria della "fringe science" di cui ho parlato nel primo post di questo blog. L'opposizione del mondo accademico è stata particolarmente intensa nei primi anni; in un articolo della rivista scientifica Technology Review pubblicato nel 2005 gli autori hanno criticato l'intero progetto come "ovviamente" irrealizzabile, il che ha dato luogo ad un aspro dibattito con lo stesso de Grey. Tale dibattito ha portato alla SENS Challenge, ossia una sfida lanciata dalla stessa rivista che prevedeva un premio di 20.000 dollari a chiunque riuscisse a fornire una dimostrazione dell'infondatezza delle teorie del biogerontologo britannico che soddisfacesse determinati requisiti di scientificità. La rivista ha poi selezionato una giuria indipendente comprendente scienziati del calibro di Craig Venter e Nathan Myhrvolde. Le argomentazioni proposte contro le idee di de Gray sono state cinque ma nessuna di esse è stata giudicata in grado di superare la sfida. La reazione di de Grey è stata: «il risultato della SENS Challenge è un'accusa a quei gerontologi che hanno etichettato SENS come "non scientifico" in modo superficiale, senza studiarne i dettagli. I giudici della SENS Challenge hanno pienamente ragione nel descrivere il SENS come un progetto ingegneristico radicale e necessariamente speculativo, ma legittimo e meritevole di considerazione». Negli anni successivi sempre più scienziati hanno dato la loro approvazione e il loro appoggio alle idee di de Grey (in proposito basta guardare come tra i consiglieri scientifici della SENS foundation spicchino i nomi di ricercatori delle più rinomate istituzioni di ricerca a livello internazionale). Di recente ricerche come quella di cui abbiamo parlato in altri post hanno corroborato la validità degli approcci anti invecchiamento proposti dall'eccentrico biogerontologo, inoltre non si può non constatare come la "primavera della scienza della longevità" che ci troviamo a vivere in questi anni faccia sì che le tesi di de Grey appaiano sempre più fondate (in proposito potete leggere questi due vecchi post; "Medicina rigenerativa - Stampare organi" e "Sconfiggere l'invecchiamento - La prossima sfida per la scienza").
Ma vediamo un po’ più nel dettaglio quali sono le idee di de Grey. La convinzione di base (non completamente dimostrata ma ragionevole alla luce delle conoscenze scientifiche attuali) è che l'invecchiamento sia dovuto all'accumularsi, a livello molecolare e cellulare, di effetti collaterali prodotti dal metabolismo e che il metabolismo stesso non è in grado di eliminare. L'accumulo di tale "spazzatura" fa progressivamente diminuire l'efficienza dell'organismo, finché esso diventa incapace di difendersi dalle malattie o di mantenere in funzione gli organi vitali. La morte è semplicemente l'inevitabile effetto ultimo di tale accumulo. Le cause note dell'invecchiamento sono riconducibili a sette categorie e da oltre 20 anni non se ne scoprono altre, nonostante le continue ricerche e il netto miglioramento delle tecniche usate:
Rifiuti:
1) extracellulari (anno della scoperta: 1907)(responsabili ad es. del morbo di Alzheimer)
2) intracellulari (1959)(responsabili ad es. dell'arteriosclerosi)
Cellule:
3) cellule morte che non vengono rimpiazzate (1955)
4) cellule dannose che vengono accumulate (1965)(come ad es. il grasso viscerale)
Mutazioni:
5) nei cromosomi (1959)(responsabili dei tumori)
6) dei mitocondri (1972)(responsabili delle malattie mitocondriali)
7) legami reciproci extracellulari tra proteine (1981)(responsabili, ad es., dell'irrigidimento delle pareti arteriose)
De Grey ritiene che la via più rapida per conquistare la longevità non sia quella di rallentare o impedire l'accumulo di tali danni (che è l'approccio della gerontologia), perché ciò significa dover modificare il funzionamento del metabolismo e quindi dover arrivare prima alla comprensione di processi biologici molto complessi. Secondo lui una strategia più efficace consiste nell'accettare il fatto che tali danni si accumulino ma mettere a punto terapie in grado di riparare ognuno di essi prima che raggiungano un livello patologico. In tal modo chi si sottoponesse periodicamente a tali terapie potrebbe sperare di prolungare la propria vita per un tempo indefinito: ogni 20 - 30 anni il proprio orologio biologico verrebbe riportato indietro. Il SENS ha già teorizzato almeno una possibile soluzione per ognuna delle note categorie. Secondo de Grey le prime terapie potrebbero divenire disponibili entro una trentina d'anni. A tal proposito de Grey ha ideato il concetto di V.F.L. - Velocità di fuga della longevità. Secondo il biogerontologo le prime terapie che saranno disponibili non saranno in grado di riparare il 100% dei danni accumulati, ma solo di restituire alcuni decenni di vita. E' probabile però che le stesse terapie finirebbero per risultare sempre meno efficaci ad ogni successiva somministrazione (a causa del sempre maggior accumulo dei danni non ancora riparabili). Per ottenere di nuovo gli stessi risultati sarebbe dunque necessario un continuo miglioramento delle cure. In questo modo, nel giorno in cui il progresso tecnologico riuscisse a "battere in velocità" il progredire dell'invecchiamento, impedendogli indefinitamente di raggiungere livelli letali, diverrebbe possibile non morire più di vecchiaia: ogni nuovo potenziamento restituirebbe gli anni di vita necessari per poter beneficiare del potenziamento successivo. Secondo de Grey comunque ci vorranno secoli per poter arrivare a sviluppare una cura perfetta e poter persino scegliere la propria età biologica.
Voglio concludere questo post con una mia riflessione personale. E’ positivo avere dei progetti e obbiettivi a lungo termine, questi danno speranza in un futuro migliore per cui lottare. Progetti, obbiettivi e speranze sono qualcosa che, a mio parere, manca molto alla nostra società, soprattutto negli anni di crisi economica e sociale che ci troviamo a vivere. Le speculazioni su mind uploading, nanotecnologia molecolare e progetti come il SENS sono proprio questo, tracciano una possibile strada verso un futuro migliore e si prestano anche bene a diventare delle vere e proprie "roadmap", utili per lo sviluppo dei rispettivi campi.
Per questo penso che progetti come quello di Aubrey de Grey abbiano un valore intrinseco, aldilà del fatto che riescano poi a raggiungere i propri ambiziosissimi obbiettivi entro i tempi preventivati.
Fatta questa mia piccola riflessione non mi resta che lasciare la parola allo stesso de Grey e, come sempre, augurarvi buona visione!
Ma vediamo un po’ più nel dettaglio quali sono le idee di de Grey. La convinzione di base (non completamente dimostrata ma ragionevole alla luce delle conoscenze scientifiche attuali) è che l'invecchiamento sia dovuto all'accumularsi, a livello molecolare e cellulare, di effetti collaterali prodotti dal metabolismo e che il metabolismo stesso non è in grado di eliminare. L'accumulo di tale "spazzatura" fa progressivamente diminuire l'efficienza dell'organismo, finché esso diventa incapace di difendersi dalle malattie o di mantenere in funzione gli organi vitali. La morte è semplicemente l'inevitabile effetto ultimo di tale accumulo. Le cause note dell'invecchiamento sono riconducibili a sette categorie e da oltre 20 anni non se ne scoprono altre, nonostante le continue ricerche e il netto miglioramento delle tecniche usate:
Rifiuti:
1) extracellulari (anno della scoperta: 1907)(responsabili ad es. del morbo di Alzheimer)
2) intracellulari (1959)(responsabili ad es. dell'arteriosclerosi)
Cellule:
3) cellule morte che non vengono rimpiazzate (1955)
4) cellule dannose che vengono accumulate (1965)(come ad es. il grasso viscerale)
Mutazioni:
5) nei cromosomi (1959)(responsabili dei tumori)
6) dei mitocondri (1972)(responsabili delle malattie mitocondriali)
7) legami reciproci extracellulari tra proteine (1981)(responsabili, ad es., dell'irrigidimento delle pareti arteriose)
De Grey ritiene che la via più rapida per conquistare la longevità non sia quella di rallentare o impedire l'accumulo di tali danni (che è l'approccio della gerontologia), perché ciò significa dover modificare il funzionamento del metabolismo e quindi dover arrivare prima alla comprensione di processi biologici molto complessi. Secondo lui una strategia più efficace consiste nell'accettare il fatto che tali danni si accumulino ma mettere a punto terapie in grado di riparare ognuno di essi prima che raggiungano un livello patologico. In tal modo chi si sottoponesse periodicamente a tali terapie potrebbe sperare di prolungare la propria vita per un tempo indefinito: ogni 20 - 30 anni il proprio orologio biologico verrebbe riportato indietro. Il SENS ha già teorizzato almeno una possibile soluzione per ognuna delle note categorie. Secondo de Grey le prime terapie potrebbero divenire disponibili entro una trentina d'anni. A tal proposito de Grey ha ideato il concetto di V.F.L. - Velocità di fuga della longevità. Secondo il biogerontologo le prime terapie che saranno disponibili non saranno in grado di riparare il 100% dei danni accumulati, ma solo di restituire alcuni decenni di vita. E' probabile però che le stesse terapie finirebbero per risultare sempre meno efficaci ad ogni successiva somministrazione (a causa del sempre maggior accumulo dei danni non ancora riparabili). Per ottenere di nuovo gli stessi risultati sarebbe dunque necessario un continuo miglioramento delle cure. In questo modo, nel giorno in cui il progresso tecnologico riuscisse a "battere in velocità" il progredire dell'invecchiamento, impedendogli indefinitamente di raggiungere livelli letali, diverrebbe possibile non morire più di vecchiaia: ogni nuovo potenziamento restituirebbe gli anni di vita necessari per poter beneficiare del potenziamento successivo. Secondo de Grey comunque ci vorranno secoli per poter arrivare a sviluppare una cura perfetta e poter persino scegliere la propria età biologica.
Voglio concludere questo post con una mia riflessione personale. E’ positivo avere dei progetti e obbiettivi a lungo termine, questi danno speranza in un futuro migliore per cui lottare. Progetti, obbiettivi e speranze sono qualcosa che, a mio parere, manca molto alla nostra società, soprattutto negli anni di crisi economica e sociale che ci troviamo a vivere. Le speculazioni su mind uploading, nanotecnologia molecolare e progetti come il SENS sono proprio questo, tracciano una possibile strada verso un futuro migliore e si prestano anche bene a diventare delle vere e proprie "roadmap", utili per lo sviluppo dei rispettivi campi.
Per questo penso che progetti come quello di Aubrey de Grey abbiano un valore intrinseco, aldilà del fatto che riescano poi a raggiungere i propri ambiziosissimi obbiettivi entro i tempi preventivati.
Fatta questa mia piccola riflessione non mi resta che lasciare la parola allo stesso de Grey e, come sempre, augurarvi buona visione!
sabato 4 febbraio 2012
Neurospin - L'LHC delle neuroscienze
Entro il 2013 verrà completata la più potente macchina per imaging a risonanza magnetica mai realizzata. La progettazione e messa in opera di questa sorta di "LHC delle neuroscienze" si sta svolgendo nell'ambito del progetto Neurospin che si vuole proporre come una specie di CERN per studi sul cervello. Questo progetto sta portando alla costituzione, a Saclay Saint-Aubin, non lontano da Parigi, di un enorme centro di ricerca interamente dedicato alle neuroscienze. La mastodontica macchina che entrerà in finzione a Saclay sarà in grado di generare un campo magnetico di 11.7 tesla, per confronto basti pensare che i più potenti scanner MR usati negli ospedali, normalmente, arrivano a "soli" 3 tesla. In realtà, scanner da 11 tesla esistono già in altri laboratori, tuttavia questi possono essere utilizzati solo per studi su animali a causa delle ridotte dimensioni. Lo stesso centro di Saclay è dotato di uno di questi piccoli scanner da ben 17 tesla che, anche in questo caso, è il più potente al mondo della sua categoria. Realizzare uno scanner con campi di intensità così estreme, abbastanza grandi da essere utilizzabili per studi sull'uomo è una vera sfida poiché bisogna riuscire a rendere i campi uniformi su un volume di spazio relativamente esteso. Questa necessità rappresenta un notevole ostacolo ingegneristico che sta richiedendo un lungo e difficoltoso lavoro di ricerca e sviluppo tecnologico. Le bobine utilizzate nella macchina sono costituite da fili superconduttori di niobio-titanio (NbTi) lunghi varie centinaia di chilometri. Durante il funzionamento dello scanner questi saranno immersi in centinaia di litri di elio superfluido in modo da mantenerli alla bassissima temperatura di 1,8 kelvin. La sola bobina, una volta realizzata, peserà attorno alle 45 tonnellate. La macchina ospiterà una stretta apertura di circa 90 cm di diametro, appena sufficiente per farvi entrare un essere umano.
Le possibilità scientifiche aperte da un simile dispositivo ripagano ampiamente gli alti costi di realizzazione e mantenimento che richiederà il progetto. Grazie al nuovo scanner sarà possibile comprendere meglio la biochimica umana e studiare con un dettaglio senza precedenti le reazioni neurochimiche che sono alla base dei processi del pensiero. Utilizzando la spettroscopia NMR del carbonio tredici si potrà addirittura arrivare ad analizzare in tempo reale lo svolgimento di singole reazioni biochimiche nel corpo umano. L'intensissimo campo magnetico permetterà poi di raggiungere risoluzioni spaziali e temporali delle immagini tali, ad esempio, da permettere di risolvere gruppi di pochi neuroni all'interno del cervello. Già oggi gli scienziati di Neurospin stanno lavorando allo sviluppo di nuovi mezzi di contrasto per l'imaging molecolare e stanno sviluppando nuovi algoritmi di intelligenza artificiale indispensabili per gestire l'immensa mole di dati che verrà prodotta. Entro il 2014 l'obbiettivo è quello di spingere la risoluzione dello scanner attorno ai 10 micron. La possibilità di distinguere un simile dettaglio permetterà di sfruttare fruttuosamente la nuova macchina per gli scopi della connettomica (pur senza arrivare alla risoluzione nanometrica ottenibile con procedure distruttive, tramite microscopia elettronica). L'ineguagliato potere risolutivo della macchina potrebbe anche permettere di superare gli attuali limiti nelle possibilità di "lettura della mente" (di cui abbiamo già parlato in questo post) della risonanza magnetica funzionale (fMRI). Per chi volesse approfondire gli aspetti fisici ed ingegneristici di Neurospin consiglio la visione della presentazione che potete trovare qui. Per saperne di più sui programmi di ricerca portati avanti nell'ambito del progetto segnalo l'interessante documento reperibile a questo indirizzo.
Le possibilità scientifiche aperte da un simile dispositivo ripagano ampiamente gli alti costi di realizzazione e mantenimento che richiederà il progetto. Grazie al nuovo scanner sarà possibile comprendere meglio la biochimica umana e studiare con un dettaglio senza precedenti le reazioni neurochimiche che sono alla base dei processi del pensiero. Utilizzando la spettroscopia NMR del carbonio tredici si potrà addirittura arrivare ad analizzare in tempo reale lo svolgimento di singole reazioni biochimiche nel corpo umano. L'intensissimo campo magnetico permetterà poi di raggiungere risoluzioni spaziali e temporali delle immagini tali, ad esempio, da permettere di risolvere gruppi di pochi neuroni all'interno del cervello. Già oggi gli scienziati di Neurospin stanno lavorando allo sviluppo di nuovi mezzi di contrasto per l'imaging molecolare e stanno sviluppando nuovi algoritmi di intelligenza artificiale indispensabili per gestire l'immensa mole di dati che verrà prodotta. Entro il 2014 l'obbiettivo è quello di spingere la risoluzione dello scanner attorno ai 10 micron. La possibilità di distinguere un simile dettaglio permetterà di sfruttare fruttuosamente la nuova macchina per gli scopi della connettomica (pur senza arrivare alla risoluzione nanometrica ottenibile con procedure distruttive, tramite microscopia elettronica). L'ineguagliato potere risolutivo della macchina potrebbe anche permettere di superare gli attuali limiti nelle possibilità di "lettura della mente" (di cui abbiamo già parlato in questo post) della risonanza magnetica funzionale (fMRI). Per chi volesse approfondire gli aspetti fisici ed ingegneristici di Neurospin consiglio la visione della presentazione che potete trovare qui. Per saperne di più sui programmi di ricerca portati avanti nell'ambito del progetto segnalo l'interessante documento reperibile a questo indirizzo.
Iscriviti a:
Post (Atom)