Ogni giorno della nostra vita i nostri occhi e le nostre orecchie sono costantemente "bombardati" da stimoli sensoriali di tutti i tipi. Capire esattamente in che modo il nostro cervello trasformi tutto questo "diluvio" di rumori, suoni, forme e colori in una immagine rappresentativa del mondo che ci circonda è sicuramente una delle sfide più affascinanti delle neuroscienze. Se seguite questo blog da un po' di tempo allora forse ricorderete dei notevolissimi risultati raggiunti in questo campo lo scorso ottobre da un gruppo di scienziati dell'università di Berkley. Questi, a partire da scansioni fMRI (risonanza magnetica funzionale) del cervello di pazienti intenti a guardare dei video, erano riusciti a ricostruire le scene che i soggetti stavano osservando (qui il post in proposito).
Il documentario che vi voglio proporre con questo post è il quarto episodio della serie "Science Bytes" (di cui si è già parlato in questo post) e racconta come, nei mesi scorsi, un altro gruppo di ricercatori di Berkley sia riuscito ad applicare la stessa tecnica per ricostruire i suoni uditi dai soggetti sperimentali (sia umani che animali) a partire da registrazioni elettroencefalografiche effettuate con microelettrodi. Simili tecnologie potrebbero in futuro cambiare la nostra vita e in particolare quella di quei pazienti che, pur non avendo modo di muoversi o di comunicare, rispondono agli stimoli esterni.
Nessun commento:
Posta un commento