Post in evidenza

Warfare Revolution

Some of the world’s leading robotics and artificial intelligence pioneers are calling on the United Nations to ban the development and us...

mercoledì 11 febbraio 2009

IL NOSTRO FUTURO POSTUMANO 6

La rivista americana PcWorld, in occasione del suo 25imo anniversario ha prospettato il futuro dei prossimi 25 anni

Saremo sempre più cyborg, ibridi di carne e microchip, perennemente interconnessi, in grado di comunicare col pensiero. I computer saranno centinaia di miglaia di volte più potenti di quelli attuali, consumeranno un centesimo dell'energia e grazie alle ridottissime dimensioni potranno essere inseriti in qualsiasi cosa, auto e case, ma anche all'interno del corpo umano. Tutto sarà controllato dai computer.
La rete si trasformerà in un'immenso Metaverso alla Second Life dove al posto dei nickname ci saranno degli avatar super-sofisticati in grado di interagire in modo complesso. Non dovremo più cliccare.
Protagonista assoluta della tecno-mutazione sarà la nanotecnologia, che da qui a 5 anni diventerà dominante. Entro dieci, il silicio verrà abbandonato a favore di calcolatori ottico-quantistici che useranno la luce per la trasmissione dei dati, hard-disk minuscoli per la memorizzazione e apparecchi in grado di proiettare l'ologramma di un computer che potrà essere gestito con semplici gesti del corpo.
Immagine: Lo scenario tratteggiato da PcWorld è più o meno quello che ci dovrebbe accompagnare verso la cosiddetta "tecno-singolarità" (il punto oltre il quale il progresso tecnologico accelera oltre ogni capacità di comprendere e prevedere).

The Next 25 Years”, PCWorld, 31 gennaio 2008

Alla conferenza “Technology, Entertainment and Design” (TED), il MIT ha presentato il "sesto senso" digitale, un progetto che fonde insieme un proiettore mobile, una webcam e un cellulare per trasferire nelle mani dell'utente un controllo e un accesso alle informazioni sempre più intuitivo.

Indossando il prototipo, il “cyberman” dotato di sesto senso digitale può cliccare e manipolare tutto il manipolabile (a norma di legge), catturando gli input delle dita attraverso la webcam incorporata, oppure scattando foto con uno specifico movimento delle mani.

Grazie al dispositivo di comunicazione mobile e al proiettore, inoltre, è possibile recuperare on-line informazioni pertinenti all'ambiente e ai contenuti che circondano l'utente, come ad esempio nel caso dei prodotti sugli scaffali di un supermercato, e proiettarle su qualsiasi superficie, mano compresa. E ancora, si possono recuperare informazioni aggiuntive su un articolo letto su una rivista, notizie dell'ultim'ora su un volo da un biglietto aereo e così via.

Attualmente disponibile solo in forma di prototipo, il dispositivo di wearable computing del MIT è stato messo insieme con parti prese direttamente sul mercato commerciale e non è costato più di 300 dollari.

“Si tratta di un work-in-progress”, dice la ricercatrice del MIT Patty Maes, “tra dieci anni probabilmente avremmo un sesto senso impiantabile nel cervello”
Una sedia a rotelle automatizzata in grado di interpretare l'attività cerebrale e spostarsi verso il luogo desiderato.
La “neuro-sedia” a rotelle realizzata dal Laboratorio di intelligenza artificiale e robotica del Politecnico di Milano è basata un sistema di BCI (Bran Computer Interface) che analizza i segnali elettrici, rilevati da una cuffia dotata di elettrodi.
Sulla sedia è installato uno schermo su cui si illuminano, una alla volta, le parole relative all’ambiente domestico - come “cucina”, “bagno”, “salotto”. “Quando una persona osserva una parola illuminata e vi si concentra, il sistema riconosce la risposta cerebrale allo stimolo luminoso”, spiega Matteo Matteucci, tra i responsabili del progetto. Ogni parola, infatti, genera nel cervello una particolare attività (un’onda chiamata P300): riconosciuto il segnale, il computer elabora il percorso per giungere a destinazione. Poiché le onde cerebrali sono leggermente diverse per ognuno di noi, il sistema necessita di un addestramento individuale per associare, per esempio, la parola “cucina” ad una particolare forma della P300.
Grazie a due laser integrati nella sedia a rotelle, inoltre, il sistema è in grado di evitare gli ostacoli, mentre due telecamere puntate verso l’alto rilevano particolari disegni guida sul soffitto che segnalano i percorsi. "Si tratta ancora di un prototipo, in grado di funzionare, per adesso, solo in un ambiente chiuso", sottolinea Matteucci. Ma il progetto prevede di rendere la sedia funzionante anche in ambienti aperti.
In Giappone, ricercatori di neurochirurgia della Osaka University Medical School stanno sperimentando per la prima volta una BMI (Brain Machine Interface), un impianto invasivo che richiede un intervento chirurgico a cranio aperto, su pazienti umani.
Piazzando dei sensori direttamente sul tessuto cerebrale del soggetto è possibile leggere il pensiero e creare il movimento degli arti. I ricercatori hanno lavorato con quattro soggetti registrando l’attività delle onde cerebrali mentre erano inmpeganti a muovere braccia, gomiti e dita. In collaborazione con l’ Advanced Telecommunications Research Institute International, hanno sviluppato poi un metodo per analizzare le registrazioni e determinare le intenzioni di attività del soggetto con un’accuratezza superiore all’ 80%.
Il prossimo passo sarà di utilizzare i dati per controllare le braccia robotiche sviluppate dal Department of Precision Engineering della Tokyo University.
Ricercatori della Yale University, in collaborazione con il National Institute of Standards and Technology (NIST) sono impegnati nella realizzazione di bio-batterie, cellule organiche in grado di produrre un voltaggio elettrico.
Si tratta di versioni ottimizzate delle cellule chiamate elettrociti possedute dall’anguilla elettrica (electrophorus electricus): migliaia di queste cellule specializzate, che sono il risultato di milioni di anni di evoluzione possono generare potenziali elettrici fino a 600 V.
“Noi possiamo fare anche meglio”, ha dichiarato Xu Jian, un postdottorato associato al Dipartimento di Ingegneria Chimica di Yale. L’obiettivo dello studio è di realizzare elettro-cellule artificiali in grado di produrre voltaggi superiori del 30% rispetto a quelli prodotti naturalmente, creando una possibile fonte di alimentazione per protesi mediche che non rilasci tossine.
Il meccanismo è simile a quello delle cellule nervose: il contatto con un prodotto chimico fa scattare il segnale di apertura dei canali mentre il passaggio degli elettroni attraverso gli ioni di sodio, potassio e fluoro nell’acqua dà la scarica; i canali quindi si aprono e chiudono come in una pompa, consentendo alle cellule di tornare alle loro concentrazioni di ioni iniziale, in situazione di “riposo”.
Secondo David LaVan del NIST, ci sono almeno 7 differenti tipi di canali, ciascuno con diverse variabili per l’ottimizzazione del passaggio della scarica di corrente, così come la densità della membrana. Jian Xu ha sviluppato un complesso modello numerico per rappresentare la conversione delle concentrazioni di ioni e di impulsi elettrici.
In linea di principio, spiegano gli autori della ricerca, accatastando strati di cellule artificiali in un cubo di poco più di 4 mm di lato è possibile produrre potenza continua per circa 300 microwatts utile per un piccolo dispositivo. I singoli componenti di tali cellule artificiali, tra cui una coppia di membrane artificiali separati da un isolante e come già dimostrato potrebbero essere creati da proteine.

Un gruppo di scienziati cinesi capitanato dal Dottor Su Xuecheng ha annunciato di aver sperimentato con successo l'impianto di un chip nel cervello di comuni piccioni, allo scopo di controllarne i movimenti in volo. Grazie ad alcuni micro-elettrodi impiantati nella testa degli animali, i ricercatori sostengono di essere in grado di far virare, cabrare e picchiare a loro piacimento i volatili mediante dei semplici comandi impartiti da remoto.

Il Centro di Ricerca di Tecnologia Robotica dell'Università di Scienza e Tecnologia di Shandong già nel 2005 aveva sperimentato lo stesso impianto su . Gli scienziati hanno annunciato che presto estenderanno questi esperimenti anche agli esseri viventi, ricercando possibili applicazioni pratiche, ad esempio, nel campo delle protesi artificiali per arti umani e per il ripristino di funzioni motorie in individui portatori di handicap.

Sarà tuttavia, manco a dirlo, il settore della ricerca militare quello che investirà maggiormente nella tecnologia creata al Centro di Shandong: un gruppo di uccelli teleguidati si presterebbe a missioni di spionaggio o magari potrebbe essere impiegato come un veicolo di infezione batteriologica mirato. Le forze di polizia cinesi stanno già pensando di impiegare stormi di piccioni teleguidati per il controllo del territorio e la sorveglianza, fregandosene altamente dei diritti degli animali.

D'altronde, esperimenti tecnologici militari sugli animali sono noti almeno fin dagli anni '60. Il progetto "Acoustic Kitty" (Gattino Acustico) della CIA, per esempio, prevedeva l'impianto di un intero kit per la radiotrasmissione in un gatto: batterie, microfono e una antenna nella coda. Allo scopo di eliminare ogni forma di distrazione, il gatto veniva inoltre sottoposto ad operazioni chirurgiche per eliminare lo stimolo della fame. Il progetto venne abbandonato dopo il primo esperimento pratico di intercettazione ambientale: il povero -micio venne infatti investito da un taxi di passaggio pochi attimi dopo essere stato liberato.

“In Cina sviluppano piccioni cibernetici”, PuntoInformatico, 01 marzo 2007

“The cyborg animal spies hatching in the lab”, NewScientist, 06 marzo 2008

Steve Mann ha illustrato il potenziale cibernetico come tecnologia di liberazione nel suo libro "Cyborg: Digital Destiny and Human Possibility in the Age of the Wearable Computer" descrivendo una "realtà mediata" in cui i cyborg, con l'uso di una telecamera "eyetap" potranno filtrare "i detriti" del mondo reale, per esempio pubblicità e insegne al neon lampeggianti. Attivando il sistema di “realtà diminuita”, tutti gli oggetti indesiderati potranno essere sostituiti da immagini alternative utili o piacevoli, come mappe, istruzioni o consigli.

Mann ammette il rischio che questa tecnologia sia usata a scopo anti-libertario dalle società che la produrranno commercialmente, ma per lui, tecno-positivista, la trasformazione in cyborg costituisce una esperienza liberatoria, profondamente "empowering".

Più che la strada degli "smart objects" (oggetti intelligenti) dovremmo imboccare quella che porta a una evoluzione degli "smart beings" (soggetti intelligenti); invece che rendere intelligenti gli strumenti di cui ci serviamo dovremmo puntare sul potenziamento intellettivo e creativo di noi esseri umani. Solo in questo modo, nel futuro cyborg previsto da Mann, l'umanità sarà più libera, più sicura, più saggia, più… umana.

Kevin Warwick, professore di cibernetica dell'università di Reading, in Inghilterra, è noto per essere diventato il primo cyborg della storia dell'umanità.

Era il 24 agosto del 1998 quando un'equipe di medici britannici gli impiantò nel braccio sinistro un chip lungo due centimetri. Da quel momento, il segnale emesso dal chip veniva captato dal suo computer, che provvedeva a spalancare le porte, accendere le luci, leggere i messaggi, ecc.

I medici decisero di rimuovere il chip dall'osso di Warwick dopo dieci giorni per scongiurare pericoli di rigetto. Ma dal punto di vista cibernetico l'esperimento fu un successo completo. Tanto che in seguito fu coinvolta nell'esperimento anche la moglie, Irena.

Entrambi con un chip nel braccio, hanno scoperto nuovi modi di comunicare: una carezza sul braccio di Irena negli States veniva recepita dal chip e trasmessa al computer, Internet la trasmetteva oltre l'Atlantico, il computer di Kevin nel Regno Unito la recepiva e la trasmetteva al chip di lui, identica alla carezza ricevuta dalla moglie.

Il professor Warwick, entusiasta dell'esperimento, dichiarò: "Dimostreremo che è possibile controllare il movimento degli arti da lontano. Studieremo la trasmissione del dolore e dei sentimenti. Ci comunicheremo amore o rabbia senza bisogno di parlare o scrivere. Non esagero: stiamo abbattendo le barriere fra uomo e macchina".

La frontiera cyborg si è poi spostata ancora un po' più in là, un pezzettino di silicio di tre millimetri per tre sullo stesso braccio con cento elettrodi collegati al suo sistema nervoso e questo a un computer.

Per tre mesi Warwick ha studiato i segnali del sistema nervoso riuscendo a muovere a distanza una mano metallica collegata a un pc che catturava i suoi segnali nervosi trasformandoli in istruzioni per l'arto finto così come, da New York, collegato a Internet, ha inviato gli impulsi fino a Londra, dov'era un'altra mano: "come avere un corpo lungo un oceano" scrive Warwick nel libro "I, Cyborg" in cui racconta la sua esperienza.

“Wired 8.02: Cyborg 1.0”, febbraio 2000

Steve Austin è un famoso astronauta, chiamato a collaudare il velivolo sperimentale HL-10. Durante il collaudo subisce un grave incidente che gli causa la perdita delle gambe, di un braccio e di un occhio. I medici lo mantengono in vita fino al recupero della salute, quindi gli propongono di sottoporsi ad un esperimento di ricostruzione bionica.

Dotato di due gambe bioniche che gli permettono di correre ad alta velocità, di un braccio destro artificiale che gli conferisce grande potenza e di una vista che dall'occhio sinistro penetra nei muri, l'ex pilota della NASA viene ingaggiato dal governo per una serie di missioni assai delicate contro scienziati pazzi, politici corrotti e addirittura alieni infiltratisi tra i terrestri.

I sei milioni di dollari del titolo si riferiscono al costo dell'intervento chirurgico commissionato dall'OSI (Office of Strategic Information), l'agenzia governativa dalla quale dipenderà Austin.

Tratto dal romanzo "Cyborg" di Martin Caidi, pubblicato nel 1972, l'episodio pilota và in onda il 7 marzo 1973. Per interpretare il protagonista viene scelto l'attore Lee Majors, un noto stunt-man. La serie TV effettiva partirà il 18 Gennaio 1974, articolandosi in 5 stagioni, per un totale di 108 episodi.

Gli episodi della serie si allontaneranno gradualmente dall'idea originale per avvicinarsi, nelle ultime stagioni, al genere dei supereroi. La bionica, un connubio di biologia ed elettronica, già all'epoca studiava come riprodurre le funzioni del corpo umano attraverso la meccanica, l'elettronica, i mezzi tecnologici.

Nel serial si immaginava di essere già in possesso di una tecnologia tale da rendere possibile sostituire perfettamente arti, occhi ed orecchi umani con protesi bioniche (cyberware), integrate biologicamente con la rimanente parte umana (bodyware), originando un organismo cibernetico (cyborg).

Le parti bioniche, che si supponevano azionate da unità ad energia nucleare, sviluppavano una forza considerevole rispetto a quelle di un essere umano normale, conferendo all'uomo (e poi alla donna) bionici dei veri e propri superpoteri.

Ciò che rendeva avvincente il serial era il lato umano dei due cyborg, i loro drammi interiori, la difficoltà, soprattutto iniziale, ad accettare la diversità determinata dalla nuova condizione, il bisogno di vivere una vita serena e normale, le paure e le riflessioni, piuttosto che la sola esaltazione della forza fisica.

Steve Austin e Jaime Sommers, l'uomo e la donna da sei milioni di dollari, furoreggiarono in patria per tutti gli anni '70, mentre in Italia sono stati uno dei successi della TV anni '80.

Tornando alla “fantarealtà”, dopo Warwick, il primo uomo bionico è stato lo scozzese Campbell Aird, a cui nel 1998 è stato impiantato un braccio mobile meccanico, sviluppato dal team biomedico del Prosthetics Research and Development al Princess Margaret Rose Orthopaedic Hospital di Edinburgo, che gli consente funzioni prima impossibili.

Si tratta di un sistema intelligente che permette il controlo del movimento attraverso micro-switches e punti di pressione. Il Dr. David Gow,a capo del progetto di ricerca da 10 anni, ha detto: "E' bionico perché reinstaura una funzione biologica in termini prostetici per mezzo di energia elettrica".

Il braccio bionico impiantato a Campbell, chiamato "Edinburgh Modular Arm System", comprende microchips, mini-motori, ingranaggi, carrucole. Ruota all’altezza della spalla, si piega all’altezza del gomito, ruota e si torce all’altezza del polso, e può esercitare delle prese mediante dita artificiali.

Campbell indossa un cappelo contenente un insieme di microsensori che catturano i segnali elettrici che il suo cervello ancora invia ai muscoli del braccio mancante. Queste pulsazioni controllano ogni movimento del suo nuovo bodyware.

“The New Bionic Man Has Plastic Muscles And Silicon Senses”, popularmechanics, febbraio 1999

Successivamente, nel settembre del 2003, un braccio artificiale bionico che può essere mosso e controllato con il pensiero, realizzato in collaborazione con il Neural Engineering Center for Artificial Limbs (NECAL), è stato impiantato dagli specialisti del Rehabilitation Institute di Chicago su un paziente di 56 anni che due anni prima aveva perso entrambe le braccia all'altezza delle spalle in un incidente sul lavoro mentre riparava le linee dell'alta tensione.

Per poter utilizzare il braccio bionico, Jesse Sullivan ha dovuto sottoporsi a un intervento chirurgico preventivo per trasferire le terminazioini nervose tranciate dalla spalla ai muscoli del torace.

A sei mesi dall'innesto, i chirurghi hanno impiantato sulle terminazioni gli elettrodi collegati all'arto artificiale. ''Adesso - spiega Todd Kuiken, uno dei medici dell'istituto di Chicago - quando Sullivan pensa di stringere un oggetto, subito avviene uno scambio di informazioni tra i nervi delle spalle e i muscoli pettorali. I sensori applicati su queste aree trasmettono gli impulsi alla mano artificiale, attraverso sottilissimi cavi, che compie l’azione voluta".

Una tecnologia che in futuro potrebbe cambiare la vita di chi ha subito un'amputazione o è paralizzato. ''Per muovere qualcosa può bastare la forza del pensiero, sia che si tratti della sedia a rotelle, del mouse di un pc o di un arto artificiale", ha concluso l'esperto. Lo scopo cui mira quest’intervento, ancora ad uno stadio sperimentale, è permettere agli invalidi il controllo di strutture meccaniche (le protesi) nella maniera più naturale possibile.

“Introducing Jesse Sullivan, the World's First Bionic Man", RIC.org

Sempre grazie al lavoro del RIC e al braccio bionico neuro-controllato, Claudia Mitchell, 26 anni, ex marine, che ha perso il braccio sinistro in seguito ad una caduta in moto è diventata la prima donna bionica del mondo ,
La Mitchell ha mostrato le funzionalità della protesi durante una conferenza stampa a Washington, "dando il cinque" a Jesse Sullivan, il primo uomo bionico.
Grazie al nuovo arto artificiale, la Mitchell può svolgere attività di sostegno ad altri amputati dell'Esercito al National Naval Medical Center and Walter Reed Army Medical Center.
“Prima dell'intervento dubitavo di poter riavere indietro la mia vita", ha dichiarato, "questo braccio bionico e il Rehabilitation Institute of Chicago mi hanno restituito un'esistenza più gratificante di quanto avessi mai immaginato. Sono felice, fiduciosa e indipendente: come veterano militare, spero che la tecnologia bionica fornisca benefici a tutti i reduci di guerra con amputazioni".

“Claudia Mitchell la donna bionica”, Le Scienze

“World's First Bionic Woman Unveiled By Rehabilitation Institute Of Chicago”, ScienceDaily, 15 settembre 2006

Evan Reynolds, 19 anni, di Haslemere nel Surrey, ha iniziato ad utilizzare una protesi bionica dopo aver perso la mano in un incidente d’auto: I-Limb gli è costata circa 32.000 euro, ma non è una semplice protesi.
Evan può scrivere, tenere un frutto mentre mangia, giocare con una palla. I-Limb, sviluppata dalla scozzese Touch Bionics IMB è equipaggiata con un sistema unico di sensori che permettono all'utilizzatore di regolare la presa a seconda degli oggetti che afferra e di muovere separatamente le cinque dita.
Reynolds è il secondo paziente inglese cui sia stata impiantata una mano "bionica". Il ragazzo, dopo aver perso la mano in un incidente in automobile, si e' rivolto all'azienda che ha sviluppato la rivoluzionaria mano artificiale i-Limb, capace.
Evan, appassionato di sport e studente di biologia alla University of West of England in Bristol, dopo l'amputazione della mano ha cercato di continuare con la sua vita di sempre, ma ha dovuto rinunciare al sogno di arruolarsi nell'esercito, finchè il fratello ha visto in televisione un reportage sull'arto bionico della Touch Bionics.
La mano calza sul moncone di arto e grazie a dei sensori che captano le correnti mioelettriche nei muscoli della parte restante dell'arto, e le trasmettono alla mano artificiale, è in grado di avere articolazione completa di tutte le dita, prensilità e controllo della presa, rotazione del pollice opponibile a indice e medio, totale aderenza e presa di tutta la superficie del palmo e presa completa e di precisione.
Evan ha dichiarato: "Ora posso fare tutto quello che facevo prima con la mia mano. Pelare una carota, afferrare una palla, tenere una bottiglia d'acqua, mangiare le patatine da un sacchetto".
Nel mondo, già circa 450 persone, la maggior parte in America, sono tornate a una vita normale grazie alla mano della Touch Bionics, disponibile anche in Italia, sebbene a costo elevato.
I-Limb è il frutto di 20 anni di ricerca e sviluppo e nel 2008 è stata eletta dalla rivista Time tra le 50 principali innovazioni dell'anno.
Cinque anni dopo aver perso una gamba in Afghanistan a causa di una mina terrestre, il veterano di guerra americano Mike McNaughton è in grado perfino di correre e di fare il coach della squadra di calcio di suo figlio undicenne. Grazie ad una meraviglia high-tech, un ginocchio idraulico computerizzato che si auto-aggiusta ad ogni passo con una risposta nell’ordine dei millisecondi, Mcnaughton può correre insieme ai ragazzi e calciare la palla.
Nel dicembre del 2006, chirurgi plastici del Vienna General Hospital per la prima volta in Europa hanno impiantati un braccio protesico neuro-controllato - sviluppato dalla Otto Bock – al ventenne Christian Kandlbauer che aveva perso entrambe le braccia in uncidente.
Il team di dottori guidato dal Professor Manfred Frey ha sfruttato alcune fibre nervose rimaste intatte che sono state “redirette” verso muscoli del petto che mediante appositi sensori riescono a trasmettere i segnali dal cervello alla protesi.
(Credits: Waltraud Grubitzsch/epa/Corbis)
Gli arti artificiali in grado di prevedere ogni movimento assomigliando agli arti naturali sono ormai una realtà che comincia ad uscire dai laboratori. Arti sintetici confortevoli e convincenti come quello di McNaughton che preannunciano l’inizio dell’era bionica.
La tecnologia protesica emergente promette non solo grande potenza e flessibilità, ma anche pelle artificiale sensibile alla pressione o perfino arti legati al corpo controllati mentalmente. La ricostruzione di arti amputati ancora più forti e veloci di prima sta divenendo rapidamente una possibilità realistica. Aumentando la capacità di integrarsi con la carne le ossa e il sistema nervoso, la protesica sperimentale rischia di far diventare obsoleta la prospettiva di “perdere un arto”.
"È davvero eccitante essere coinvolti oggi nei progetti di protesica avanzata”, dice John Bigelow del laboratorio di fisica applicata alla Johns Hopkins University di Baltimora, che sta lavorando a braccia robotiche neuro-controllate.
Il nuovo sviluppo della bionica è stato reso possibile da componenti più piccoli e più progrediti che hanno permesso di comprimere più elementi hardware negli arti artificiali. Inoltre, dato l’aumento di amputati in America a causa dei crescenti tassi di diabete – che può provocare seri danni ai nervi e ai vasi sanguigni – e delle ferite riportate dai combattenti in Medio Oriente, sono stati aumentati gli investimenti nelle tecnologie bioniche.
Attualmente, sul mercato aperto, con 30,000 $ una persona che ha perso una gamba per malattia o a causa di un incidente, può comprarsi una protesi simile a quella di McNaughton, con tanto di software intelligente per l’adattamento all’andatura e ai vari tipi di terreno. Ci sono ad esempio la “C-Leg” della compagnia ortopedica tedesca Otto Bock, oppure la “Rheo Knee”, quella di McNaughton, della compagnia islandese Össur, che usano entrambe una combinazione di idraulica e motori più una fibra al carbonio per imitare le proprietà elastiche di ossa e tendini.
La Össur produce anche la “Cheetah Flex-Foot”¸ l’arto artificiale in fibra di carbonio a forma di J reso famoso dal corridore cyborg sudafricano Oscar Pistorius - conosciuto anche come “Blade Runner” o “l’uomo senza gambe più veloce del mondo” – che ad ogni appoggio restituisce il 90% dell'energia trasmessa alla pista anzichè il 60% come un piede umano.

I piedi protesici sono particolarmente difficili da realizzare. I muscoli dei piedi e delle caviglie naturali aumentano o smorzano continuamente forze quando necessario e l’elasticità dei loro tendini consente di camminare usando relativamente poca energia. “Gli amputati che hanno perso l’arto inferiore camminano più lentamente, usano più energia metabolica e sono meno stabili, anche su terreni piani”, dice Hugh Herr, direttore del Biomechatronics Group al Massachusetts Institute of Technology, che ha perso entrambi gli arti inferiori.
Per sormonare questo problema, il gruppo di Herr ha progettato un piede protesico, chiamato “iWalk PowerFoot One”, che sfrutta un motore elettrico e molle simili a dei tendini controllati da due microprocessori e sei sensori che misurano la posizione della caviglia e le forze che sono in azione.
Le protesi degli arti superiori sono invece rimaste un po’ indietro. Sia perché le amputazioni di braccia e mani sono meno comuni, sia perché le braccia hanno un più ampio range di movimento che non le gambe, rendendo più complessa la realizzazione dell’hardware necessario.
Sono in via di sviluppo anche intere braccia bioniche. La “Luke Arm”, ad esempio, sviluppata dal creatore del Segway Personal Transporter, Dean Kamen, alla compagnia di tecnologia medica Deka di Manchester nel New Hampshire con i cospicui finanziamenti della Defense Advanced Research Projects Agency, pensata per i numerosi veterani di guerra tornati amputati dalle guerre in Iraq e Afghanistan.
La Luke Arm, ispirata alla mano bionica di Luke Skywalker di Guerre Stellari, consente di agitare le mani, chiudere una chiave nella serratura ed eseguire movimenti delicati come prendere una tazza di caffè. È controllata da sensori mioelettrici o da un joystick personalizzabile controllato dal piede incorporato in una scarpa. Il feedback tattile è reso da un piccolo motore oscillante premuto contro la pelle che vibra a frequenze tanto maggiori quanto maggiore è la forza di presa.
Il progetto ha dovuto affrontare il difficile problema della connessione della macchina con il corpo del paziente. Realizzare un braccio è relativamente facile. La parte difficile è come collegarlo al sistema nervoso. “Quando lavori col sistema neurale”, dice Richard Roca, direttore dell’APL, “mentre fai l’ingegnere fai continuamente nuove scoperte scientifiche”.
L’APL in collaborazione con il RIC sta cercando di mettere a punto la tecnica per controllare un braccio meccanico mediante il sistema nervoso. Todd Kuiken, direttore del centro di ingegneria neurale del RIC, ha creato un portale verso il sistema nervoso “ricablando” la spalla. La procedura, chiamata “Targeted Muscle Reinnervation” (TMR), ridirige i fasci di nervi residui che prima erano connessi al midollo spinale alle 70.000 fibre nervose nel braccio. Dopo un’amputazione, questi nervi restano al loro posto e continuano a lavorare solo che non sono collegati a nulla di funzionale.
I muscoli pettorali anche restano intatti ma non sono abbastanza lunghi per poter guidare un braccio. Così, Kuiken ha rimosso chirurgicamente i nervi residui trasferendoli dalla loro locazione nel petto, dove sono stati reinnervati - fatti ricrescere – in un’area muscolare poco più piccola di un compact disc. Poi, Kuiken ha inserito degli elettrodi per catturare i segnali elettromagnetici dei muscoli e spedirli ad altri elettrodi all’interno della protesi ed essere trasformati dagli algoritmi per processare i segnali nei movimenti voluti dal paziente. Con questa tenica, si è riusciti a controllare il prototipo della DARPA attraverso i muscoli, come se la protesi fosse un’estensione della propria carne.
I ricercatori hanno scoperto che i nervi restaurati e rediretti sono in grado di fornire oltre alle funzioni muscolari anche sensazioni, così che i pazienti possono sentire un tocco sul loro petto come se qualcuno stesse toccando la loro mano mancante. Il team della Hopkins ha sfruttato questa scoperta con un dispositivo chiamato “tactor”, realizzato alla Northwestern University: piazzandolo il sul petto vicino agli elettrodi, si crea un loop di feeback completo.
I comandi a Luke vengono così impartiti per mezzo dell’attivazione intenzionale, da parte del paziente, dei nervi che forniscono la sensazione di muovere il braccio (il “phantom limb”) mettendo in azione i muscoli pettorali. Il paziente, in tal modo, ha la sensazione di usare un proprio arto grazie al biofeedback fornito dal sotto-sistema dei tactors, che genera vibrazioni sulla pelle (tecnica in uso anche per indurre effetti di percezione in dita artificiali con semplice finalità di riproduzione estetico-plastica). Alternativamente, il paziente può pilotare Luke per mezzo di joystick mossi dal piede.
Dunque, la combinazione del complesso schema di ricablaggio di Kuiken e la plasticità naturale del cervello riescono a simulare l’abilità di un braccio vero di sentire il tocco, il calore e il freddo.

“Phantom Limb Sensory Feedback Through Nerve Transfer Surgery”, American Academy of Orthotists and Prosthetists, Journal of Proceedings 2006

“Targeted muscle reinnervation allows prosthetic arms to brain's signals”, news-medical, 03 novembre 2007

“Utah Electrode Array to Control Bionic Arm”, medgadget, 24 maggio 2006

“The World's Most Advanced Bionic Arm”, Wired, 08 luglio 2007

“Johns Hopkins's APL and DARPA's Mechatronic Process”, designnews, 25 aprile 2008

photo: Mike McGregor

Alla Duke University di Durham, N.C., Jonathan Kuniholm gioca con “Air Guitar Hero”, una variazione del noto gioco Nintendo Wii che consente di misurarsi con musicisti veri usando un controllo a forma di chitarra. Ma Kuniholm gioca senza una chitarra, anzi, senza la sua mano destra, che ha perso in Iraq nel 2005.
Fa funzionare i controlli contraendo i muscoli nel suo avambraccio, creando impulsi elettrici che degli elettrodi trasferiscono nel gioco. Dopo circa un’ora, supera l’high score stabilito da Robert Armiger, un ingegnere della Johns Hopkins University che ha modificato Guitar Hero in modo da addestrare gli amputati ad usare le loro nuove protesi.
La ricerca di Armiger è parte di uno sforzo nazionale volto alla creazione di braccia protesiche neuro-controllate, il programma “Revolutionizing Prosthetics 2009” (RP2009).
La Defense Advanced Research Projects Agency (DARPA) ha investito nel programma almeno 70 milioni di dollari, nella speranza di poter aiutare gli amputati a compiere gesti, bere un bicchiere d’acqua, girare una chiave o anche pulire il guscio di un uovo.
Nella ricerca sono coinvolte numerose discipline scientifiche, oltre la bionica e la meccatronica (l’integrazione di meccanica, elettronica, ingegneria, informatica), la neuroscienza, l’ingegneria elettrica, la scienza cognitiva, la nanotecnologia e perfino la scienza del comportamento. Quando si concluderà il programma, alla fine del 2009, le varie tecnologie sviluppate dovranno passare l’esame dei test clinici supervisionati dalla FDA prima di poter essere commercializzate.
(courtesy of Johns Hopkins University Applied Physics Laboratory)
Di alcune si è già cominciato a parlare. Lo scorso ottobre, un ospedale canadese ha annunciato di aver usato parte del meccanismo di controllo del braccio della DARPA per guidare normali braccia protesiche in due pazienti, semplicemente scegliendo tra i migliori dispositivi protesici commercialmente disponibili.
Il dispositivo della DARPA è il primo braccio protesico al mondo realmente neuro-controllato. Gli ingegneri del programma vogliono una piattaforma quasi open-source per l’hardware e il software in modo da rimediare alla confusione babelica di design, fornendo uno strumento che chiunque possa usare.
Il programma è stato messo su dalla DARPA nel 2005 affidandolo a Geoffrey Ling, un neuroscienziato della Georgetown University di Washington che è anche colonnello nello U.S. Army. Ling ha diviso il programma in due parti distinte, una dele quali affidata alla direzione di Dean Kamen della Deka Research and Development Corp con l’obiettivo di creare un arto meccanico sofisticato usando meccanismi di controllo non-invasivi.
Il programma si propone di reinventare la protesica fino al punto da renderla biologicamente controllabile, restaurando il sistema di feedback sensorio dei mutilati così che possano percepire di nuovo le sensazioni di calore, freddo, le pressioni e la posizione dell’arto nello spazio. Tutte facoltà che devono essere adattate ad un “bodyware” con le sembianze, il peso, la forza, la destrezza, il movimento naturale e la resistenza di un vero braccio.

Popular Science - Neuro-Controlled Bionic Arm

“Revolutionizing Prosthetics 2009 Team Delivers First DARPA Limb Prototype”, Rehabilitation Institute of Chicago, 01 maggio 2007

“The Revolution Will Be Prosthetized”, IEEE spectrum, gennaio 2009

Più di 30 università, ognuna leader in un determinato campo, e 300 ricercatori stanno collaborando al programma.
La creazione di un arto artificiale in grado di interfacciarsi con il corpo di un mutilato richiede una conoscenza enciclopedica di svariate discipline. L’Applied Phisics Laboratory (APL) della John Hopkins University ha realizzato due prototipi meccanici descritti come una meraviglia della moderna ingegneria. Il Rehabilitation Institute of Chicago (RIC) ha sviluppato delle tecniche chirurgiche per predisporre i nervi restanti dei mutilati (“targeted reinnervation”) all’interfacciamento con l’elettronica del braccio protesico.
La Sigenics di Chicago ha sviluppato elettrodi impiantabili che trasmettono via wireless i segnali elettrici dai muscoli residui direttamente all’arto protesico. Ricercatori della University of New Brunswick in Canada hanno sviluppato degli algoritmi per processare i segnali in modo da decifrare i biopotenziali dei muscoli reinnervati in tempo reale. Ricercatori della University of Utah hanno sviluppato degli elettrodi che penetrano nel cervello per catturare gli impulsi nervosi alla sorgente. La Johns Hopkins University ha sviluppato un “Virtual Integration Environment” mediante il quale un mutilato può fare pratica guidando un braccio virtuale con i segnali nervosi.

Qualche tempo fa, i ricercatori della Duke University hanno registrato il brevetto di una tecnologia che consentirebbe di controllare gli oggetti a distanza con la forza del pensiero.

I “Blue Devils“ sono finanziati dalla DARPA con la prospettiva di sviluppare protesi futuristiche gestite da remoto ma anche, com'è facile ipotizzare, per la realizzazione di sistemi che permettano ai soldati di controllare droni e robot da guerra con nient'altro che il loro pensiero.

Gli scienziati si sarebbero resi protagonisti di una vera e propria evoluzione generazionale del concetto alla base delle attuali interfacce mente-macchina, realizzando sulla carta un "apparato per acquisire e trasmettere i segnali neurali e i metodi relativi". Il nuovo ritrovato sarebbe in grado di interpretare e trasmettere i comandi cerebrali ad apparati quali computer, protesi, persone e qualunque altro sistema collegabile con l'interfaccia.

Si parla poi espressamente di armi e sistemi di armamenti, droni variamente impiegati, dispositivi elettronici commerciali, televisori, radio e altri aggeggi potenzialmente in grado di migliorare la qualità della vita per i disabili.

Per non dire delle possibilità, suggeriscono i ricercatori, che il sistema offre agli scienziati di lavorare su scale di grandezza che ben poco hanno di umano, come l'infinitamente piccolo connesso con la manipolazione di atomi e molecole, un tipo di approccio alla nano-produzione sempre più importante in tempi di chip a 45 nanometri e transistori di grafene, che soppianta il silicio.

"Preferibilmente - si legge in una nota - il sistema di trasmissione comprende un'interfaccia wireless come la telemetria per mezzo dell'Ultra Wide Band (UWB)".

“Duke Patents Mind-Controlled Weapons”, wired blog, 20 marzo 2007

Si spera nella realizzazione di pelle artificiale sensitiva per rendere le protesi più confortevoli e integrate. Attualmente, le migliori coperture di pelle artificiale disponibili sono già sorprendentemente simili a quelle organiche, complete di pori e peli simulati, ma non forniscono un feedback tattile.
Ricercatori della NASA, del Nanomaterials Synthesis and Properties Group dell’Oak Ridge National Laboratory e del National Institute of Aerospace (NIA) hanno creato dei piccoli strati di pelle sottile e flessibile con una sensitivià tattile.
La pelle sintetica è fatta di un polimero composito gommoso forte, leggero e flessibile che incorpora dei nanotubi al carbonio che gi conferiscono proprietà piezoresistenti, ovvero la capacità di modificare la resistenza elettrica a seconda della pressione esercitata sul materiale. Misurando le modifiche della resistenza sullo strato di nanotubi, la pelle può rilevare diverse pressioni e tipi di contatto, uno sfioramento od un colpetto per esempio. “Anche questa semplice capacità sensitiva”, dice il ricercatore del NIA Cheol Park, “seppur lontana da quelle dellla pelle umana, rappresenta una sensazione rivoluzionaria per molti amputati".
Il team è attualmente impegnato nel cercare di trasmettere questi segnali ai nervi e al cervello e sta anche provando ad accrescere la soglia minima di sensitività del materiale.
Un altro modo per rendere più sensibile un arto artificiale è di attaccarlo permanentemente, o semi-permanentemente, al corpo. Al momento, anche i migliori design non prevedono questa possibilità. Ciò può causare diversi problemi: le prese possono diventare sudate e irritarsi e ogni danneggiamento costa in termini di controllo e di potenza, oltre che di soldi.
Usando tecniche sviluppate originalmente per impianti dentali, un team di ortopedisti guidati da Rickard Brånemark al Sahlgrenska Teaching University Hospital di Goteborg, in Svezia, ha impiantato delle estensioni in titanio in ossa residue della parte superiore di gambe o bracci, lasciando un puntello lungo 2 cm che sporge sulla pelle a cui si attacca l’arto protesico.
Questo sistema rende più facile attaccare o rimuovere l’arto artificiale e non interferisce con il movimento della giunzione principale.
Un altro problema è costituito dalle infezioni. Un team britannico sta provando a rendere le parti di titanio porose in modo da incoraggiare pelle, muscoli e ossa a crescere sul puntello e intorno così che la protesi sia effettivamente incorporata. In modo da "sigillare l’interfaccia e prevenire l’infezione”, dice Gordon Blunn della University College London, che ha progettato l’impianto.
Il prossimo passo consisterà nel connettere un arto artificiale direttamente al sistema nervoso, in modo da catturare i segnali cerebrali, decodificarli in tempo reale e dirigerli alla protesi. Saranno necessari anche input sensori da rispedire indietro al sistema nervoso centrale
Il gruppo di Bigelow sta sperimentando un nuovo braccio robotico, il “Proto 2”, particolarmente leggero e forte con ossa in fibra di carbonio e leghe super-forti, con una destrezza simile a quella di un braccio normale: contiene 25 motori e microprocessori che possono eseguire molti dei movimenti naturali con quasi la stessa velocità.
In America, alla fine del 2009 si procederà ai test clinici di due componenti cruciali: i mioelettrodi iniettabili, che consentono al mutilato di usare i segnali dei propri muscoli residui per guidare la protesi, e gli elettrodi impiantabili direttamente nei nervi periferici.
Il vero obiettivo è di creare un braccio artificiale per un uso quotidiano. È dura sopportare ogni giorno la routine di avere 20 elettrodi e un apparato di tactors nel petto connessi con dei cavi. Per questo si sta pensando a mettere gli elettrodi sotto la pelle e far funzionare il meccanismo di controllo con tecnologia wireless, impiantando dei micro-dispositivi, grandi quanto un chicco di riso, chiamati “Injectable MyoElectric Sensors” (IMES), nei muscoli per magnificare i segnali elettromagnetici delle contrazioni muscolari.
Questi dispositivi, sviluppati dai ricercatori del RIC Richard Weir e Jack Schorsch insieme al professore di ingegneria biomedica dell’Illinois Institute of Technology Philip Troyk, una volta approvati dalla FDA saranno sottoposti a test clinici alla fine del 2009, insieme a impianti molto più invasivi che bypassano i muscoli andando direttamente nei nervi periferici.
La DARPA è stata spesso accusata di finanziare progetti di ricerca fantascientifici, incapaci di trovare applicazioni nel mondo reale. Forse non è questo il caso. I frutti del programma Revolutionizing Prosthetics hanno già migliorato la protesica esistente. La chirurgia di reinnervazione mirata è già stata adottata in Canada. Lo scorso ottobre, Jacqueline Hebert, direttrice del programma di riabilitazione del Glenrose Rehabilitation Hospital di Alberta, ha annunciato che due pazienti sottoposti al procedimento chirurgico stanno iniziando a controllare le loro protesi mediante i muscoli neo-innervati. “I pazienti hanno contrazioni muscolari visibili nei loro bracci quando pensano di aprire o chiudere le mani”, ha detto la Hebert. Uno dei due pazienti sta anche cominciando a percepire sensazioni.

“Dean Kamen's Luke Arm Prosthesis Readies for Clinical Trials”, danshope, ottobre 2008

“The Cyberhand bionic hand feels and flexes”, engadget, 29 novembre 2005

“Teenager gets skywalker bionic arm”, gnews, 28 gennaio 2009

“Argus II Retinal Prosthesis System”, prodotto dalla Second Sight Medical Products Inc, è un sistema di seconda generazione che, dopo i primissimi test su pazienti in Messico, sarà sperimentato su dieci pazienti in America e poi anche in Europa su un maggior numero di persone, affette da malattie alla retina.

Il nuovo chip è stato progettato all'Università della California di Santa Cruz grazie ad un finanziamento dell’Artificial Retina Project del Dipartimento di Energia statunitense.
Argus II funziona impiantando il chip che costituisce la retina artificiale direttamente all’interno dell’occhio sopra la vecchia retina, in pazienti che hanno ancora dei nervi intatti collegati al cervello.
Il chip mediante un insieme di elettrodi che simulano le cellule nervose ottiche, spedisce una immagine ai centri visivi del cervello. La plasticità delle capacità cerebrali di processare l’immagine consente di adattare i segnali generati artificialmente.
Un sottile cavo collega la retina artificiale ad una antenna circolare montata intorno alla pupilla nella parte frontale interna dell’occhio. Una videocamera montata su un paio di occhiali trasmette con tecnologia wireless le immagini ad un microprocessore che elabora il segnale video e poi lo ritrasmette all’antenna nell’occhio, che invia segnali al cavo per stimolare direttamente i nervi ottici con gli elettrodi impiantati.
L’apparato di elettrodi è stato cast usando un processo CMOS a 1.2-micron su una matrice di 5.5x5.25 millimetri die che consuma 42 milliwatts e fornisce una risoluzione a 4-bit per ognuno dei 60 elettrodi impiantati.
L’Artificial Retina Project è figlio dell’oculista e bioingegnere Mark Humayun, L’obiettivo ultimo è di realizzare impianti che durino tutta una vita e con una risoluzione sufficiente per consentire ai pazienti di camminare senza assistenti, riconoscere i visi e leggere.

“Next-generation artificial retina focuses on clinical trials”, EEtimes, 26 giugno 2008

Ricercatori della University of Texas e della University of Michigan sono riusciti a realizzare il primo collegamento elettrico diretto tra cellule nervose e nano-pellicole fotovoltaiche, sfruttando le proprietà uniche delle nanoparticelle. Si parla già di possibili sviluppi di una nano-retina artificiale.

I ricercatori hanno usato un processo escogitato dal professore di ingegneria chimica della University of Michigan, Nicholas Kotov, autore di un articolo sulla ricerca apparso su Nano Letters (e anche del libro "Nanoparticle Assemblies and Superstructures"): il professore ha accumulato strati su strati di 2 tipi di nano-pellicole, una fatta di nanoparticelle di mercurio-tellurio, l'altra di un polimero carico positivamente chiamato “PDDA”. Poi è stato aggiunto uno strato di normale creta e aminoacidi, con in cima neuroni coltivati. Quando la luce illumina la prima nano-pellicola, questa produce elettroni, che poi si spostano nella seconda, producendo il movimento di una corrente elettrica. Quando poi la corrente raggiunge la membrana di neuroni questa invia un segnale al nervo.
In precedenza, segnali luminosi erano stati trasmessi alle cellule nervose usando del silicio (che ha la capacità di trasformare la luce in elettricità, infatti è impiegato nelle celle solari e nei sensori delle videocamere), ma i materiali nano-ingegnerizzati promettono maggiore efficienza e versatilità (e anche tossicità, ndr).
"In teoria è possibile manipolare le caratteristiche elettriche di queste nano-pellicole per ottenere proprietà come la sensitività al colore e differenti stimolazioni, quel tipo di cose necessarie allo sviluppo di una retina artificiale, che è il vero obiettivo della ricerca", dice Todd Pappas, scienziato della University of Texas, autore principale dell'articolo apparso su Nano Letters, "cose che non si possono fare con il silicio, che inoltre è molto meno compatibile con le cellule nervose".
Oltre la possibilità di una retina artificiale, che comunque richiederà ancora diversi anni, si aprono all'orizzonte altre applicazioni meno complesse, come ad esempio nuovi modi per connettere arti artificiali e altre protesi, oppure strumenti rivoluzionari per tomografie, diagnosi e terapie.
"La cosa fantastica è che questi nanomateriali possono essere attivati da remoto senza dover usare cavi, basta illuminarli", dice il Professor Massoud Motamedi, direttore del Center for Biomedical Engineering della University of Texas, co-autore dello studio.

“Nanoparticle Research Offers Hope of Artificial Retinas, Prostheses”, biosingularity, 4 marzo 2007

Era il 1784 quando Benjamin Franklin, stanco di dover continuamente cambiare paio di occhiali per vedere bene sia da vicino sia da lontano, inventava le lenti bifocali. Entrambi i suoi deficit visivi venivano così corretti dalla stessa lente, grazie ad aree differentemente graduate.

Ricercatori dell’Università dell'Arizona specializzati nelle problematiche della vista, stano lavorando a lenti futuriste fatte di un sottilissimo strato (5 micron, meno di un capello) di cristalli liquidi, inserito fra due strati di vetro.

I cristalli liquidi (LCD) sono composti organici che presentano caratteristiche tipiche sia dello stato solido sia di quello liquido; attivati da campi elettrici possono alterare la polarizzazione della luce che filtra attraverso di essi, e con il variare della temperatura cambiano anche colore. Grazie a queste caratteristiche sono oggi largamente usati nei display, dai cellulari ai televisori a schermo piatto, e sono perfetti per costruire lenti ad alta tecnologia: le molecole dei cristalli liquidi cambieranno orientamento, permettendo di commutare il punto focale con un semplice interruttore.

Un prototipo di occhiali di questo tipo è stato messo a punto dalla Pixeloptics, secondo cui i nuovi occhiali a cristalli liquidi saranno presto del tutto indistinguibili dagli occhiali normali. In un futuro più lontano, grazie agli avanzamenti di questa tecnologia, sarà possibile produrre occhiali dotati di autofocus, in grado di mettere a fuoco istantaneamente ciò che si sta guardando, come una moderna videocamera: il meccanismo sarà basato su un raggio laser a infrarossi per individuare l'oggetto da mettere a fuoco.

Le lenti hi-tech garantiranno una visione perfetta a qualsiasi distanza. Inoltre, grazie ai cristalli liquidi, si potranno programmare tramite un computer, in pochi secondi, gli occhiali da vista di ciascun cliente, eliminando l'attesa dovuta alla produzione delle lenti.

La Pixeloptics intende applicare lo stesso tipo di tecnologia anche alle lenti a contatto e persino alle lenti intra-oculari, da inserire chirurgicamente in caso di danni irreparabili al cristallino. Questo tipo di soluzione permetterebbe anche a persone colpite da malattie come la degenerazione maculare (che causa riduzioni permanenti del campo visivo) di far arrivare le immagini ad aree sane della retina, recuperando la funzionalità della vista.

Il Pentagono ha affidato alla Pixeloptics lo sviluppo del progetto da 3,5 milioni di dollari denominato "SuperVision", per dare ai soldati dell'esercito americano una vista superiore ai 10 decimi. Anche in questo caso, grazie agli LCD, sarà possibile eliminare microdifetti dell'occhio non correggibili tramite lenti tradizionali, per esprimere il massimo potenziale della retina. I marines otterrebbero così una vista perfetta in ogni condizione di luce e nelle situazioni di stress, per ridurre ad esempio i tragici errori del "fuoco amico".

“Pixeloptics To Develop SuperVision For US Military”, spacewar, 12 gennaio 2006

“Occhiali come televisori”, Panorama, 26 aprile 2006

La “realtà aumentata” promette la possibilità di usare immagini generate da supercomputer sovrapposte a quelle reali in modo da potenziare la vista.

Il modo convenzionale di aiutare le persone che soffrono della “visione tunnel” – la perdita della visione periferica che restringe il campo visuale come se si fosse dentro ad un tunnel - è di usare lenti che comprimono un ampio angolo di immagine nel ristretto campo visuale del paziente. Questa tecnica però rende difficile catturare i dettagli più fini e fa sembrare gli oggetti più lontani.

Per cercare una soluzione al problema, l’oculista e bioingegnere Eli Peli, della Harvard Medical School di Boston, ha inventato un dispositivo per fornire una “visione aumentata”. "È come mettere un cartone animato in cima alla vista regolare di una persona”, dice Peli.

Il sistema delinea il campo visuale in tutta la sua ampiezza e poi lo sovrappone alla visione tunnel. Per fare ciò, il dispositivo è stato equipaggiato di speciali lenti fornite di una piccola video camera e un display trasparente: la camera invia le immagini ad angolo ampio ad un computer indossabile grande quanto un pacchetto di sigarette che le processa identificando i contorni degli oggetti in una scena e ricavando altri dettagli; il risultato è una immagine ad ampio angolo contenente solo i controni degli oggetti che il computer invia al display sulle lenti aggiornandola 30 volte al secondo non appena la scena cambia per via dei movimenti della testa.

Sperimentando il sistema su soggetti sofferenti di visione tunnel, a cui è stato chiesto di riconoscere oggetti al di fuori del loro ristretto campo visivo, Peli ha potuto constatare che quasi tutti riuscivano a identificare rapidamente qualche oggetto (i risultati dello studio sono stati pubblicati su Investigative Ophthalmology & Visual Science).

Robert Massof, un oculista del Wilmer Eye Institute di Baltimora, dice che “si tratta probabilmente del miglior approccio possibile al problema”. Sia Peli che Massof ritengono che i dispositivi di visione aumentata potranno essere d’aiuto anche per altri problemi, ad esempio per aumentare il contrasto delle immagini e consentire a pazienti videolesi di riconoscere i visi.

“Augmented reality glasses tackle tunnel vision”, NewScientist, 31 agosto 2006

Il dispositivo chiamato “Cortically Coupled Computer Vision” (C3Vision) System, sviluppato da Paul Saida, bioingegnere del Laboratorio di Intelligent Imaging e Neural Computing della ColumbiaUniversity di New York, sponsorizzato dalla DARPA, punta alla realizzazione di una interfaccia cerebrale (headware) specializzata nel riconoscimento delle immagini che potenzi le normali capacità cognitive umane sfruttando la velocità di calcolo del cervello umano e quella dei computer.
«Il nostro sistema visivo è il miglior processore visuale che ci sia, stiamo soltanto cercando di accoppiarlo con le tecniche di visione computerizzata per rendere più efficiente la ricerca in grandi quantità di immagini», dice Sajda.
Non è difficile immaginare a cosa miri la DARPA: un agente con uno speciale casco per elettroencefalogramma collegato a un computer, che guarda la registrazione di un video di sorveglianza e identifica, inconsapevolmente, il volto di un criminale in un fotogramma. C3Vision capta i segnali del suo cervello e segnala il passaggio dell'immagine «sospetta». Infatti quando il cervello vede qualcosa di importante, anche all'interno di una mole gigantesca di immagini, emette dei segnali tipici, che possono essere rilevati. Si accorge anche di anomalie minime, per esempio un volto conosciuto o un'ombra, che rimangono però subconscie. Invece C3Vision, registrando i giusti picchi di attività cerebrale e rielaborandoli, li usa come farebbe un motore di ricerca come Google: segnala le immagini selezionate e le indicizza, cioè le dispone in ordine di importanza, pronte per un'analisi più approfondita.
Il nuovo sistema permetterebbe a una persona di monitorare filmati che scorrono a velocità dieci volte maggiore del normale. «La gente è straordinariamente accurata nell'identificare una particolare immagine, di Marilyn Monroe per esempio, contenuta in una serie di centinaia di foto che scorrono anche alla velocità di dieci o venti immagini al secondo», conferma Leif Finkel, bioingegnerie dell'Università della Pennsylvania.
Nei primi test della Columbia, i soggetti hanno individuato il 90% per cento delle immagini «sospette» tra centinaia di altre che scorrevano alla velocità di dieci al secondo.

“This Is a Computer on Your Brain”, Wired, 07 dicembre 2006

“Il meglio del cervello visivo”, chipsandsalsa, 27 luglio 2006

Credit: University of Washington
Un team di ricercatori dell'Università di Washington, guidato dal professor Babak Parviz, ha sviluppato delle lenti a contatto con materiale biocompatibile per ingrandire i dettagli di una porzione del campo visivo, ottenere istantaneamente informazioni sugli oggetti o le persone osservati e perfino navigare in Internet.
Grazie ad un microchip elettronico, ciò che viene generato dal display si sovrappone alle immagini ricevute dal mondo esterno, senza disturbare la normale visione. "Guardando attraverso una lente completa - spiega Parviz - vedreste una serie di informazioni o di immagini sovrapposte alla realtà": uno strumento utile per gli autisti, ad esempio, che potrebbero tenere sotto controllo la velocità del mezzo senza distogliere gli occhi dalla strada.

Superando i notevoli problemi dovuti all'integrazione dei materiali utilizzati per le lenti a contatto, organici e flessibili, con i circuiti elettrici, inorganici e contenenti sostanze potenzialmente tossiche, i ricercatori sono riusciti a produrre un dispositivo biologicamente sicuro, che potrà essere impiegato ad esempio per il controllo della strumentazione di volo da parte dei piloti d'aereo oppure per la creazione di ambienti virtuali altamente immersivi.
Il circuito elettronico è stato realizzato mediante una tecnica di assemblaggio nanotecnologica (lo spessore complessivo degli strati di conduttori impiegati è mille volte inferiore a quello di un capello umano) e poi incorporato su un foglio di materiale plastico biocompatibile. Grazie alla creazione di una sorta di immagine negativa, i componenti elettronici tendono ad aderire per capillarità in punti specifici del materiale plastico. La tecnica, nota come "auto-assemblaggio", consente ai ricercatori di non intervenire in questa fase, per evitare di danneggiare il substrato organico.
I test preliminari, effettuati su cavie da laboratorio, non hanno evidenziato alcuna forma di rigetto dopo circa 20 minuti dall'impiego della lente. Parviz conta di poter utilizzare un campo magnetico per comunicare con la lente e incorporarvi dei piccoli pannelli fotovoltaici per alimentarla.

“Le lenti a contatto del futuro hanno anche lo zoom”, solleviamoci, 19 gennaio 2008

“How to Build a Bionic Eye”, TechnologyReview, 25 gennaio 2008

Ricercatori canadesi, provando a curare un obeso con l'inserimento di elettrodi nel cervello, ne hanno accidentalmente potenziato la memoria.
Il successo, che si deve a Andres Lozano del Toronto Western Hospital, potrebbe aprire la strada a nuove terapie contro i deficit di memoria.
“La scoperta è importante”, ha commentato il presidente dell'Istituto Nazionale di Neuroscienze, “è un buon inizio verso applicazioni della stimolazione profonda per potenziare la memoria”.

“Scientists discover way to reverse loss of memory”, Indipendent, 30 gennaio 2008

(Credit: Joseph Lin)

Alla University of Stanford è in corso un progetto ambizioso per riprodurre la corteccia cerebrale su silicio. La “corteccia elettronica” potrebbe aiutare gli scienziati a comprendere come le parti più recentemente evolute del cervello riescono nelle loro più complesse performance computeristiche, in modo da riconoscere il linguaggio, le facce ecc.. E potrebbe condurre anche a più sofisticati impianti prostetici neurali.

"Il cervello umano riesce a svolgere, senza alcuno sforzo, compiti che nenanche le più potenti e sofisticate macchine digitali riescono a svolgere", dice Rodney Douglas, professore all'Institute of Neuroinformatics di Zurigo, "un modo per esplorare queste potenzialità è quello di sviluppare hardware che vadano nella stessa direzione".
I neuroni comunicano tra loro attraverso una serie di impulsi elettrici; i segnali chimici modificano le proprietà elettriche di ogni singola cellula, che, a turno, inducono un cambiamento elettrico nel successivo nerone nel circuito. Negli anni Ottanta, Carver Mead, un pioniere della micro-elettronica al California Institute of Technology, realizzò che gli stessi transistors usati per i chip dei computers potevano essere usati per costruire circuiti che imitassero le proprietà elettriche dei neuroni. Da allora, scienziati ed ingegneri usano questi neuro-transistors per costruire circuiti neurali sempre più complicati, modellando la retina, la coclea (la parte interiore dell'orecchio che traduce le onde sonore in segnali neurali) e l'ippocampo (parte del cervello cruciale per la memoria). Questo processo viene chiamato "neuromorphing".
Kwabena Boahen, neuroingegnere alla Stanford University, vorrebbe realizzare proprio un ambizioso progetto di neuromorphing: creare un modello al silicio della corteccia cerebrale. Il primo prototipo prevede una mother-board con 16 chips, ognuno contenente una griglia 256 x 256 di neuroni al silicio, pgni gruppo di neuroni predisposto in modo da imitare diversi tipi di cellule della corteccia cerebrale. Gli ingegneri possono anche programmare specifiche connessioni tra le cellule modellando l'architettura delle diverse parti della corteccia.
"La tecnologia ha maturato al punto che è possibile pensare simulazioni su larga scala", dice Terrence Sejnowski, a capo del Computational Neurobiology Laboratory del Salk Institute di La Jolla, in California. Sejnowski, in particolare, studia come il talamo, l'area del cervello che relaziona e integra informazioni provenienti da diverse parti del cervello, interagisce con la corteccia. "Attualmente riusciamo a fare piccole simulazioni di centinaia di migliaia di neuroni, ma è ancora troppo poco".
Una griglia neurale artificiale in grado di simulare il funzionamento di milioni di neuroni, dovrebbe raggiungere una velocità equivalente a 300 teraflops. "Per questo ci siamo indirizzati su una simulazione a livello hardware", dice Bohaen, "invece di far girare migliaia di istruzioni software, facciamo funzionare dei transistors come fossero dei veri neuroni".
Gli ingegneri sperano di usare le informazioni generate dalla corteccia elettronica in silicio in diversi modi, ad esempio per realizzare protesi neurali. "Il fatto che il sistema funzionerà in tempo reale ci permetterà di interfacciare la coerteccia elettronica con quella vera", dice Gert Cauwenberghs, neuroingegnere della University of California di San Diego, "e, in futuro, potrebbe diventare realtà una protesi in grado di rimpiazzare alcune funzioni motorie o sensorie danneggiate o perdute".

“Silicon Brains”, Technology Review, maggio 2007

“Building the Cortex in Silicon”, Technology Review, 12 febbraio 2007

Alla Università di St. Louis, Eric C. Leuthardt e Daniel Moran hanno impiantato nel cranio di un ragazzo di 14 anni affetto da epilessia una sofisticata brain-machine collegata ad un computer sul quale gira un programma denominato ”BCI2000 che coinvolge un videogame che reagisce agli stimoli rilevati dalla griglia tramite l'elettrocorticografia (ECoG).

Il giovane cyborg ha portato a termine una partita di Space Invaders con la sola forza del pensiero: gli è stato chiesto di effettuare alcuni movimenti ed emettere determinati suoni, in modo da poter capire da quale zona del cervello provenissero gli impulsi; poi, gli è stato chiesto di giocare ad una versione in 2D di Space Invaders imparando ad usare il cursore aiutandosi inizialmente con movimenti di mani e lingua e successivamente con il solo pensiero.

Un nuovo concept di interfaccia cerebrale adibita al controllo di videogiochi è scaturito dalla collaborazione di NeuroSky, già leader nella produzione di interfacce bio-sensoriali per uso consumer, e Square Enix, leader nel campo dell'entertainment digitale
“MindSet”, il prodotto della loro "unione", è a tutti gli effetti una Brain-Computer Interface che dialoga con il computer interagendo con il software nel corso del gioco. Il sistema, mostrato lo scorso ottobre al Tokyo Game Show 2008 di Makuhari (Giappone), è concepito per interagire facilmente con un ampio spettro di piattaforme di gioco, inclusi PC, console e cellulari e va ad aggiungersi ai molteplici sforzi finora profusi in questo senso da questo settore dell'industria.
MindSet ha l'aspetto di una cuffia con grandi padiglioni: in più vi è una staffa, simile a quelle utilizzate come sostegno per un microfono, nella quale alloggia un sensore e che si appoggia sulla fronte. Il sensore legge i dati encefalografici ed il sistema li elabora, rilevando lo stato di rilassamento, il grado di concentrazione ed altri parametri, gestiti poi dal game per condizionare dinamicamente lo svolgimento dell'azione.
"Benché lo scopo principale della demo sia di testare i risultati del nostro recente sviluppo, spero anche emergano nuovi scenari per il gaming", ha detto Ryutaro Ichimura, responsabile produzione di Square Enix. A conferma della crescente sinergia tra interfacce cerebrali e gaming si è espresso Stanley Yang, presidente di NeuroSky: "Il mercato tenta da anni di offrire anticipazioni su questo scenario nel gaming. Finalmente il controllo mentale del gioco sta iniziando a mettere radici".

“NeuroSky and Square Enix set to demo mind-controlled gaming”, engadget, 07 ottobre 2008

(Credit: Joshua Paul)
Nel 2001, al 25enne Matthew Nagle, con braccia e gambe paralizzate, fu impiantato chirurgicamente il “BrainGate”, un microchip che gli consente di muovere un cursore sullo schermo, giocare a semplici videogame, controllare un braccio robotico e controllare la televisione con la sola forza del pensiero, letteralmente.
Messo a punto dai ricercatori della Brown University, in collaborazione con altri tre atenei e con la società privata Cyberkinetics - Neurotechnology Systems, il chip, impiantato a diretto contatto con la corteccia cerebrale del ragazzo, legge i percorsi elettrici del cervello di Nagle, trasformando le reazioni sinaptiche in impulsi elettronici comprensibili da un computer:
Il sistema funziona talmente bene che Nagle è in grado di fare tutte le azioni sopra descritte mentre parla in contemporanea - sempre attraverso il microchip - con i ricercatori. Attualmente è possibile scrivere quindici parole al minuto grazie al microchip impiantato nel cervello, sostengono i ricercatori della Brown University, ovvero la metà della velocità media di scrittura a mano. Considerando la capacità dei calcolatori di raddoppiare la potenza elaborativa ogni due anni, nel 2012 sarà possibile scrivere da 110 a 170 parole al minuto, trasformando i comandi cerebrali in testo scritto o sintesi vocale con la stessa velocità tipica della comunicazione verbale.
Credit: Gerwin Schalk/Journal of Neural Engineering
Anche Gerwin Schalk, ricercatore presso il Wadsworth Center, sta sperimentando delle interfacce cerebrali basate sull’elettrocorticografia (ECoG) utilizzando elettrodi che non penetrano nel cervello. Il tempo richiesto al paziente per acquisire destrezza dovrebbe risultare sensibilmente minore rispetto ad una EEG. Inoltre, rispetto alla soluzione con singoli neuroni, la ECoG ha invece il vantaggio di essere meno rischiosa.
Il progetto europeo IPCA (Intelligent Physiological navigation and Control of web-based Applications), cofinanziato dalla Commissione Europea nell'ambito del programma IST (Information Society Technologies), si propone l'obiettivo di sviluppare un dispositivo utilizzabile da persone con gravi difficoltà motorie o di comunicazione per controllare varie applicazioni informatiche ed in particolare per navigare agevolmente in internet. Anche in questo caso il sistema è composto essenzialmente di due parti, una destinata alla registrazione dei segnali, l'altra alla decodifica ed alla trasmissione degli stessi.
La particolarità di questa soluzione è che per raccogliere i dati vengono utilizzati congiuntamente diversi tipi di sensori - non invasivi e già impiegati in altri ambiti - in grado di rilevare ognuno un particolare parametro fisiologico. Una delle sfide sarà rendere l'impiego di questi dispositivi il più naturale ed intuitivo possibile, come se fossero parte del corpo.

Alla School of Medicine della University of Pennsylvania si lavora ad una interfaccia, biologica per collegare il sistema nervoso del paziente ad un arto artificiale guidato dal pensiero (il lavoro, basato su anni di ricerche relative ai danni al midollo spinale, è stato pubblicato su Neurosurgery).

"Stiamo sviluppando un nuovo approccio nell'ambito delle interfacce cerebrali", dice Douglas H. Smith, Professore di Neurochirurgia e Direttore del Center for Brain Injury and Repair (CBIR) alla University of Pennsylvania, principale autore dello studio, "qualcosa di meno invasivo, che sia più facilmente accettato dal sistema nervoso".
L'idea è di usare regioni non danneggiate del tessuto nervoso per fornire segnali di comando in grado di guidare un dispositivo come un arto artificiale. La sfida è riuscire a far agire la protesi il più naturalmente possibile, stabilendo una comunicazione bidirezionale con il cervello del paziente. Ad esempio, convertire i segnali nervosi del paziente in movimenti della protesi attraverso stimoli sensori come temperatura o pressione, e mediante feedback, adattare i movimenti.
L'interfaccia proposta da Smith prevede tessuti nervosi viventi trapiantabili già accoppiati con elettrodi, in modo da integrare i tessuti artificiali con quelli del paziente e metterli in comunicazione con un dispositivo elettronico. Il team guidato da Smith ha usato un nuovo processo per estendere la crescita di fibre nervose chiamate "axoni" collegate a neuroni coltivati in un bio-reattore. Gli axoni possono trasmettere segnali elettrici attivi che vengono letti mediante un microchip che poi rispedisce indietro dei segnali sensori.
Al momento, Smith e colleghi stanno testando l'interfaccia su una spina dorsale danneggiata di un topo in cui hanno trapiantato degli axoni.
Ricercatori della University of Washington sono riusciti a controllare il movimento di un robot umanoide mediante segnali provenienti da un cervello umano.
Rajesh Rao, professore associato di computer science e ingegneria, e i suoi studenti hanno dimostrato che un individuo può "ordinare" al robot di muoversi verso specifiche locations e prendere degli specifici oggetti semplicemente generando le giuste onde cerebrali. "La dimostrazione suggerisce che un giorno", ha detto Rao, "potremo usare robot semi-autonomi per aiutare le persone disabili o per eseguire lavori di routine nelle nostre case".
La persona che ha inviato i comandi cerebrali al robot - uno studente del laboratorio di Rao - ha indossato un copricapo provvisto di 32 elettrodi che hanno letto i segnali nervosi, così come avviene per l'elettroencefalografia, e poi ha guardato il robot muoversi su uno schermo di un computer collegato con due telecamere montate sul robot.
"Un aspetto importante dell'esperimento è che abbiamo usato segnali rumorosi per controllare il robot", dice Rao, "e anche che abbiamo utilizzato una tecnica non-invasiva, ottenendo segnali cerebrali indirettamente da sensori posti sulla superficie del cranio".
Il prossimo passo sarà quello di implementare dei comandi più complicati e una maggiore autonomia nel robot, che dovrà essere in grado anche di adattarsi all'ambiente in cui si trova (il chè significa che dovrà essere dotato di una certa capacità di apprendimento).
Credit: The Cleveland FES Center
Al Functional Electrical Stimulation Center del Louis Stokes Veterans Affairs Medical Center, a Cleveland, hanno costruito un "brain chip", un dispositivo che registra i segnali cerebrali e li trasmette a dei cavi impiantati su muscoli paralizzati. Obiettivo del sistema, ancora in fase di sviluppo, "è di far muovere col pensiero e senza sforzo ai nostri pazienti gli arti paralizzati", dice Robert Kirsch, direttore associato del centro.
Tramite la Stimolazione Elettrica Funzionale, una corrente elettrica è applicata a specifici nervi o muscoli in modo da innescare contrazioni muscolari per muovere l’arto in modi specifici. Kirsch e colleghi hanno impiantato chirurgicamente nel petto o nell’addome di pazienti con gravi problemi al midollo spinale uno stimolatore tipo pacemaker connesso mediante cavi a 12 differenti muscoli, mentre un'altra serie di cavi registra l’attività dei muscoli sotto il controllo della volontà del paziente. I segnali sono poi usati per l’attività dei muscoli paralizzati.
I ricercatori della Cleveland stanno lavorando con il neuroscienziato della Brown University John Donoghue, che ha sviluppato il chip prodotto dalla Cyberkinetics impiantato a Mathhew Nagle e successivamente ad altri due pazienti. “La consideriamo l’unica tecnologia attualmente disponibile per fornire a pazienti con gravi danni cervicali la possibilità di controllare i propri arti”, dice Joseph Pancrazio, direttore del programma di ricerca su ingegneria neurale e neuroprotesica al National Institutes of Neurological Disorders and Stroke, che finanzia la ricerca.
Per il futuro, I ricercatori pensano all’integrazione di dispositivi mutipli. “Per realizzare pienamente il potenziale di questi sistemi”, dice ancora Pancrazio, “dobbiamo approntare un network che comprenda un sistema di ventilazione, un controllo per la vescica e uno per l’intestino”.
Courtesy of Todd Pappas, University of Texas
Ricercatori della University of Texas hanno dimostrato che stuoie di nanotubi al carbonio a parete singola possono essere utilizzati anche per inviare segnali elettrici ai neuroni, suggerendo un loro possibile utilizzo per interfacciare elettricamente impianti protesici neurali (headware per rimpiazzare nervi danneggiati o mancanti) e il corpo. Potranno cioè servire a stimolare o rimpiazzare nervi cellulari degli occhi, del cervello o della spina dorsale.
I ricercatori del Texas hanno cresciuto dei neuroni di topo su una spessa stuoia di nanotubi posti su fogli di plastica flessibile. "I neuroni hanno risposto positivamente ai nanotubi", ha detto Todd Pappas, direttore di neuroingegneria sensoria e molecolare alla University of Texas, a capo della ricerca. I nanotubi, assorbendo una importante proteina neurale hanno formato un tappeto su cui i nervi sono cresciuti rapidamente. Quando Pappas e il suo gruppo hanno mandato una carica elettrica alla stuoia di nanotubi, i neuroni hanno risposto con un altro segnale elettrico, una "azione potenziale", come viene chiamata, indicando di aver ricevuto il messaggio.
Attualmente, nel campo della protesica neurale si impiegano impianti cocleari che utilizzano degli elettrodi che rispondono al suono ed inviano segnali elettrici direttamente al cervello di persone con gravi problemi di udito. I neuroscienziati stanno anche sviluppando protesi retinali in grado di ridare la vista ai ciechi.
"L'interfaccia elettrica di solito consiste di elettrodi di metallo o rivestiti di silicio", dice Pappas, " se si dimostreranno sicuri per l'uso nel corpo, i nanotubi li soppianteranno".
Il problema è che questi impianti, nel lungo termine, possono causare infiammazioni e cicatrici perchè il corpo li tratta come materiali "alieni". Nel caso dei nanotubi, oltre ai vantaggi che presentano in termini di resistenza, flessibilità e conduttività, il problema può essere risolto ricoprendoli con molecole più familiari alle cellule del corpo. "I nanotubi a parete singola possono essere sufficientemente sottili e risultare compatibili con la contrazione muscolare degli occhi", dice Nicholas Kotov, professore associato di ingegneria chimica alla University of Michigan.
Per ovviare ad una delle maggiori cause della perdita di vista, la degenerazione maculare, che colpisce le cellule fotosensibili al centro della retina, Kotov ed Pappas vorrebbero utilizzare una combinazione di nanoparticelle e nanotubi al carbonio sensibili alla luce, convertire la luce in segnale elettrico e spedirlo ai nervi che comunicano tra l'occhio e il cervello (che rimangono intatti nei pazienti colpiti da degenerazione maculare). Secondo Kotov, "le nanoparticelle potranno fornire perfino la risoluzione del colore".
La cautela è tuttavia d'obbligo. Bisognerà prima di tutto assicurarsi della sicurezza di tali protesi. A tutt'oggi, gli effetti dei nanotubi in un corpo vivo non sono mai stati indagati, mentre da più parti sono giunti allarmi riguardo la potenziale tossicità di alcune nano-particelle.
Thomas Webster, professore associato di scienza dei materiali e ingegneria biomedica alla Brown University, sta conducendo alcuni dei primi esperimenti su nanotubi impiantati in animali vivi. Webster e ricercatori della Yonsei University di Seoul hanno iniettato una soluzione di nanotubi al carbonio e cellule staminali in aree danneggiate del cervello di ratti. I nanotubi sono serviti per stabilizzare le cellule staminali nell'area danneggiata e per spingerle a svilupparsi in neuroni. Bisognerà vedere come risponderanno le altre cellule e se i nanotubi avranno effetti tossici nel lungo termine.
Credit: Edward Keefer
Molti impianti neurali utilizzati per il trattamento sperimentale di malattie come la depressione e il morbo di Parkinson, e anche dispositivi proteSici più sofisticati, sfruttano elettrodi di metallo. Le maggiori limitazioni sono dovute al deterioramento nel tempo del metallo e alla difficoltà di realizzare elettrodi efficienti sia nel mandare che nel ricevere i segnali elettrici.
Un team di ricercatori del Southwestern Medical Center, alla University of Texas, guidato da Edward Keefer, sta lavorando allo sviluppo di elettrodi più efficienti rivestiti di nanotubi al carbonio che potrebbero consentire il monitoraggio dei neuroni che vengono stimolati, riducendo le interferenze e consumando meno energia.
“La protesica neurale, attualmente”, dice Ravi Bellamkonda, direttore del Neurological Biomaterials and Therapeutics Group al Georgia Tech, “riesce a spedire i segnali elettrici in modo efficiente ma non a riceverli”. Inoltre, le batterie dei dispositivi di stimolazione neurale impiantati usati per trattare il morbo di Parkinson durano solo 3 anni, perché sono costantemente accesi. Un dispositivo intelligente che si spenge automaticamente quando non necessario utilizzerebbe le stesse batterie per qualche anno in più.
La tecnica usata dal tema di Keefer per rivestire gli elettrodi di nanotubi è semplice: gli elettrodi vengono posti in una soluzione contenente i nanotubi; poi viene applicato un leggero voltaggio cghe consente di localizzare i nanotubi e fissarli. “È un modo efficace e rapido”, dice Joseph Pancrazio, un neuroscienziato del National Institute of Neurological Disorders and Stroke. Altri metodi usati per interfacciare i nanotubi con i neuroni hanno richiesto l’uso di speciali substrati e di temperature elevate.
Grazie al rivestimento di nanotubi, sarà possibile utilizzare elettrodi di dimensioni più ridotte e ridurre le interferenze. “L’elettrodo ideale”, dice Pancrazio, “dovrà essere abbastanza piccolo da interagire con solo un singolo neurone”. Ma riducendo le dimensioni dell’elettrodo, aumenta l’impedenza e diminuisce l’efficienza. I nanotubi dovrebbero ovviare anche a questo problema..
Il team di Keefer sta cercando di dare agli elettrodi anche capacità sensorie in modo da implementare un feedback con i neuroni. Ma per far questo servono elettrodi le cui proprietà elettriche non decadino rapidamente come negli elettrodi convenzionali. Poi, bisognerà testare la biocompatibilità sul lungo termine. Finora, il team di Keefer ha testato gli impianti su animali per un periodo di 60 giorni. Una delle ragioni per cui gli elettrodi convenzionali si deteriorano nel tempo, è la formazione di un tessuto cicatrizzato tra l’elettrodo e il neurone.
Il vantaggio di usare i nanotubi è la relativa facilità di modificazione chimica delle loro superfici, ad esempio attaccandovi delle proteine, il ché li rende potenzialmente molto più familiari ai tessuti organici.”Dobbiamo riuscire a modificare gli elettrodi in modo da renderli più confortevoli ai neuroni”, dice Keefer.
Un'equipe dell'Università di Edimburgo ha messo a punto una tecnica per ricostruire tessuti umani danneggiati facendo crescere neuroni sulla superficie di chips al silicio per computer (la ricerca è stata finanziata dall’Engineering and Physical Sciences Research Council).
Il team diretto dal professore Alan Murray, capo del dipartimento di ingegneria e elettronica dell'università scozzese, ha trovato il modo per sviluppare neuroni su un chip di silicone che, inseriti nel corpo umano, permetterebbero la ricostruzione di nervi e fibre muscolari danneggiati e potranno essere impiegati nel campo della protesica.
Durante il processo di manifattura dei chips, gli scienziati hanno stampato dei pattern finemente dettagliati su una superficie di silicio. I chips poi sono stati immersi in una mistura di proteine e I neuroni sono cresciuti lungo i patterns sulla superficie. La tecnica funziona anche con le cellule staminali.
Si spera che il metodo consentirà di far crescere qualsiasi tipo di tessuto, confezionato su misura, da impiantare come protesi nel corpo, ma anche di implementare i metodi per scoprire nuovi farmaci e ridurre il bisogno di compiere test su animali, poiché le nuove medicine potranno essere testate sui chips.
"È un piccolo ma importante passo verso lo sviluppo di impianti chirurgici realizzati mediante chips al silicio”, dice Murray, “una roba da fantascienza”.
I ricercatori del Weizmann Institute of Science a Rehovot (Israele) hanno costruito, usando neuroni umani prelevati dal cervello, una porta logica.
La porta è stata costruita con un network di neuroni su un substrato quadrato di 900 micrometri di lato con una larghezza del “ferro di cavallo” di 150 micrometri. Quando il “circuito” viene stimolato con una piccola dose di un farmaco, i neuroni mandano un segnale elettrico al sistema realizzato attorno; cambiando la larghezza dei due bracci è possibile controllare il numero di assoni che arrivano ai neuroni, regolando il comportamento del dispositivo come una porta logica AND.
La ricerca ha destato molto interesse a livello mondiale in quanto potrebbe spianare la strada all’introduzione a protesi neurali (headwares) per persone paralizzate.

“Interfacce che leggono nel pensiero”, mediazone, 13 dicembre 2005

A Brain-Controlled Humanoid Robot”, University of Washington

“A Brain Chip to Control Paralyzed Limbs”, Technology Review, 30 novembre 2006

“This Is Your Brain on Nanotubes”, Technology Review, 19 maggio 2006

Circuiti neurali nei computer”, BioBlog, 25 ottobre 2008

Erik Ramsey, a causa di un incidente d’auto, dall’età di 16 anni versa nella condizione conosciuta come sindrome “locked-in": benché riesca ancora a percepire le sensazioni, non può muoversi autonomamente e non è in grado di controllare i muscoli vocali per parlare. Può comunicare solo attraverso gli occhi
Grazie a un elettrodo impiantato nel cervello e ad uno speciale sintetizzatore vocale, ricercatori statunitensi guidati dal professor Frank Guenther sono riusciti a dotare Ramsey di una speciale protesi mediante cui decifrare i suoi pensieri.
In pratica, il pensiero è catturato dall'elettrodo, il quale provvede a inviare i segnali al sintetizzatore che riproduce il suono corrispondente.
A differenza di altre tecnologie utilizzate in precedenza per leggere l'attività cerebrale l'elettrodo in questione – sviluppato dal neuroscienziato Philip Kennedy, dell’azienda statunitense Neural Signals – è stato impiantato direttamente nell'area del cervello preposta all'elaborazione del linguaggio e, grazie a fattori neurotropici, incoraggerà lo sviluppo neuronale sia al suo interno che tutt'intorno.
Il software che consente di tradurre in suoni l'attività cerebrale combinato con un sintetizzatore vocale è stato sviluppato da Guenther nel corso di 15 anni di studi. «L'obiettivo da raggiungere nell'arco dei prossimi 5 anni - ha dichiarato il professore - è di produrre parole complete».
Il software traduce l’attività neurale In ciò che è conosciuto come “frequenze formanti”, le frequenze risonanti del tratto vocale prodotte dalla muscolatura vocale. Il programma di Guenther riconosce i pattern dei segnali neurali collegati a specifici movimenti di bocca, jaw e labbra e li traduce nelle frequenze sonore corrispondenti che mediante un altoparlante assumono la forma di parole.
Al momento il sistema è in grado di tradurre solamente le vocali contenute nelle parole che attraversano la mente dell'individuo, ma la speranza degli scienziati è di riuscire a sviluppare ulteriormente la tecnologia e far sì che un domani possa essere utilizzata per consentire l'elaborazione di intere frasi da parte di chiunque non è in grado di comunicare verbalmente. "L’elettrodo è in grado di catturare solo 56 segnali neurali distinti", dice Kennedy, "ma nel nostro cervello ci sono miliardi di cellule e trilioni di connessioni”.
Guenther sta esplorando dei metodi non-invasivi usando tecniche di risonanza magnetica funzionale (fMRI) che evidenziano le aree attive del cervello in risposta a specifiche sollecitazioni per eseguire azioni come nominare delle immagini o ripetere mentalmente vari suoni e parole.
"Per pazienti con determinati tipi di problemi relativi al linguaggio che hanno origine nel sistema nervoso periferico, questo approccio è molto promettente” dice Vincent Gracco, direttore del Center for Research on Language, Mind and Brain (CRLMB) alla McGill University

Un dispositivo costruito in plastica e titanio, grande quanto un pompelmo, chiamato “AbioCor”, prodotto dalla Abiomed, un’azienda con sede a Danvers nel Massachusetts.

AbioCor è il primo cuore artificiale completo che possa essere interamente racchiuso nell’organismo del paziente. Analoghi dispositivi prodotti in passato, come “Jarvik-7”, che aveva acquisito notorietà negli anni Ottanta, costringevano i pazienti a rimanere vincolati, non senza disagio, a un compressore d’aria. Viceversa, l’AbioCor non richiede l’impiego di tubi o di cavi inseriti sottocute.

Nel luglio 2001, Robert L. Tools, un ex-marine di 59 anni, è stato il primo paziente a ricevere il cuore artificiale. Nei nove mesi successivi, AbioCor è stato impiantato in altri sei pazienti, ma i test iniziali hanno dato risultati non esaltanti:. cinque dei sette pazienti che avevano subito il trapianto sono morti, due di essi a un giorno di distanza dall’intervento, uno entro due mesi dall’impianto e due entro cinque mesi. Lo stesso Tools è morto a novembre.

Poiché tutti i pazienti erano in gravissime condizioni quando si sono sottoposti alla sperimentazione - erano stati selezionati solo individui a cui fosse stata diagnosticata una sopravvivenza non superiore al mese - i rappresentanti della Abiomed sostengono che il cuore artificiale si stia dimostrando efficace, pur avendo ammesso che un difetto nel sistema di fissaggio del dispositivo all’organismo potrebbe aver causato la formazione dei trombi che hanno provocato la morte di tre dei pazienti.

L' ultimo modello di cuore bionico Abiocor è stato impiantato a 9 pazienti: due sono ancora in vita. È ben noto che la disponibilità di cuori da trapiantare è molto inferiore al numero di pazienti in lista d’attesa: per molti di essi, l’AbioCor potrebbe rappresentare la salvezza.

In Italia, il primo con un cuore artificiale definitivo è stato un pensionato di Parma, vissuto 14 mesi. Gli era stato impianto il «Lionheart», pompa meccanica senza fili con batterie esterne

Fatto principalmente di titanio e Angioflex™, la plastica poliuretana sviluppata dalla Abiomed, Abiocorpompa il sangue automaticamente, alimentato da batterie al litio interne, con un’autonomia di 8 ore, ed esterne, che ricaricano continuamente le prime.

L’alimentazione è trasferita mediante un dispositivo TET (Transcutaneous Energy Transmission) che trasmette l’energia attraverso la pelle senza perforare la superficie.

“The AbioCor Artificial Heart”, TIME, 19 novembre 2001

“Cuore bionico, muore il paziente del record”, Corriere, 09 febbraio 2003

È in via di sperimentazione un fegato artificiale per aiutare i pazienti a stabilizzarsi a sufficienza prima di un trapianto, o magari ad evitarlo.
"Non rimpiazza un fegato vero”, dice il Dr. Todd Frederick del California Pacific Medical Center, ma "può far guadagnare del tempo prezioso mentre il fegato originale viene recuperato”.
Il sistema “ELAD” (Extracorporeal Liver Assist Device) utilizza come componente biologica epatociti umani (Hepatoblastoma-Based ELAD). Nucleo del sistema è il bioreattore, che prevede una capsula in polisulfone (materiale plastico) all’interno della quale passa un fascio di fibre cave sostenute da una matrice di poliestere dotate di micropori: le cellule epatiche, risospese in un medium possono trovare posto all’interno delle fibre con flusso ematico/plasmatico nello spazio extracapillare, oppure viceversa. Il flusso ematico/plasmatico deve in ogni caso essere elevato, per mimare il flusso intraepatico.
L’aspetto più importante rimane la separazione fra il sangue del paziente e la componente biologica attraverso una membrana semipermeabile, sufficiente per impedire il contatto diretto fra cellule e sangue, ma anche per permettere lo scambio di macromolecole verso l’epatocita metabolicamente attivo e da questo al circolo.
La paziente Elizabeth Blaj, alla Scripps Clinic di San Diego, grazie a ELAD è stata tenuta in vita 5 giorni prima che arrivasse un fegato per il trapianto.
Per cercare di migliorare la “tenuta” di ELAD, gli scienziati stanno provando ad aggiungere cellule di fegato viventi - di maiali o di persone – nella speranza che il sistema riesca a simulare meglio le funzioni dell’organo.
Negli Stati Uniti, si registrano quasi 28.000 morti all’anno per malattie al fegato e poco meno di 6.000 trapianti. Poi c’è il sottogruppo delle persone con il fegato compromesso da malattie come l’epatite o la cirosi.
La Vital Therapies Inc., che produce ELAD, dice che tra i primi 49 pazienti studiati in Cina, ldove le malattie al fegato sono molto diffuse, l’85% di coloro a cui è stato impiantato ELAD è sopravvissuto.
"È una tecnologia difficile da testare”, dice il Dr. Winfred Williams del Massachusetts General Hospital che sta testando ELAD dopo che nel 2002 un suo paziente, Kevin Fitzmaurice di Boston, grazie al fegato artificiale si è risvegliato da un coma di 5 giorni.
Oscar Pistorius è ormai conosciuto come "la cosa più veloce che corre senza gambe". Nato nel 1986 a Pretoria, in Sudafrica, a undici mesi, per una grave malformazione congenita, dovette subire l'amputazione di entrambe le gambe sotto il ginocchio. La sua passione per lo sport lo portò a praticare rugby e pallanuoto, poi si dedicò all'atletica leggera ottenendo subito risultati di grande rilievo grazie a due protesi laminari di fibra di carbonio, da cui il soprannome “Blade Runner”.
Nel 2004, alle Paralimpiadi di Atene vinse il bronzo sui 100 metri e l'oro sui 200, battendo anche atleti amputati di una sola gamba. Da allora i suoi primati si sono moltiplicati, incoraggiandolo a partecipare, nel 2007 alla sua prima gara con atleti normodotati, ottenendo un ottimo risultato nei 400 piani, tanto che subito dopo la IAAF (Associazione Internazionale delle Federazioni di Atletica) modificò il regolamento delle gare, vietando l'uso di "qualunque dispositivo tecnico contenente molle, rotelle o altri elementi che avvantaggino l'atleta rispetto agli altri concorrenti". Era evidentemente un provvedimento ad personam contro Pistorius.
Gli esperti erano infatti arrivati alla conclusione che le protesi conferivano all'atleta sudafricano un notevole vantaggio sui "normodotati". Di conseguenza il 14 gennaio 2008 la richiesta di Pistorius di partecipare alla gara dei 400 metri piani alle Olimpiadi di Pechino fu respinta dalla IAAF. Ma la decisione fu rovesciata nel maggio di quest'anno dal Tribunale dello Sport, che non riconobbe i vantaggi che deriverebbero dalle protesi. La nuova sentenza consentiva all'atleta di partecipare alle Olimpiadi, ma Pistorius non potrà gareggiare comunque perché ha ottenuto un tempo di 46,25 secondi, superiore al tempo massimo di qualificazione di 45,55, e non è neppure rientrato nella staffetta sudafricana dei 4 x 400.
Secondo alcuni esperti, le gambe artificiali di Pistorius, che sono lamine di fibra di carbonio a forma di J chiamate “cheetah”, come la scimmia Cita di Tarzan, sono più lunghe del necessario, il che gli consente di coprire ad ogni passo una distanza superiore a quella media di un atleta normale. Inoltre ad ogni contatto col terreno le cheetah restituirebbero più energia delle gambe umane e non si stancherebbero perché non produrrebbero l'acido lattico che rallenta gli atleti normali. Pistorius e il suo allenatore respingono le accuse, sottolineando invece gli svantaggi delle protesi: la pioggia impedisce una buona aderenza, il vento le devia e, soprattutto, l'atleta deve produrre più sforzo alla partenza.
Le indagini condotte in varie occasioni dai periti hanno fornito esiti contrastanti: così, dopo la decisione della IAAF di bandire Pistorius dalle Olimpiadi, è giunto il verdetto contrario del Tribunale dello Sport. I vantaggi e svantaggi delle cheetah saranno certo soggetti a ulteriori valutazioni in futuro.
La vicenda di Pistorius, al di là degli aspetti sportivi e dei risvolti umani, offre molti spunti di riflessione sul rapporto naturale-artificiale e sull'ibridazione tra uomo e macchina e più in generale tra uomo e "altro". Con i trapianti classici siamo nel campo del meticciamento organico-organico, ma la medicina moderna ci presenta anche ibridazioni tra organico e non organico. Protesi e apparecchi sempre più raffinati, sempre più estranei alla storia biologica: braccia, gambe, peni e cuori artificiali che s'innestano su un tronco organico, prefigurando gli organismi “ciborganici” o cyborg. La bioingegneria ci propone ibridazioni di organico "naturale" con organico "artificiale" (si pensi alla pelle artificiale). Allo stesso tempo, l'umanità appare sempre più proiettata verso una sessualità di nuovo tipo, anzi verso una scomparsa della sessualità come strada regia della riproduzione. Disaccoppiando sessualità e riproduzione andiamo verso la produzione di noi stessi e rendiamo sempre più problematica l'identificazione dei generi, che ad alcuni appaiono ormai come un inutile relitto del passato.
Quanto sono lontani i tempi in cui i trapianti di organi ci parevano miracoli un tantino diabolici per quel residuo di sacralità intangibile che ancora aleggiava intorno al corpo! Nel frattempo questi interventi (i trapianti di cuore, fegato, reni, arti, le applicazioni di pelle sintetica, la dialisi, l'autotrasfusione, le pratiche di cosmesi e di chirurgia plastica...) sono diventati comuni, e sono stati affiancati da pratiche molto più audaci, come le terapie invasive basate sulle cellule staminali, che introducono nel corpo una sorta di colonia infestante, in grado di rigenerare qualunque tessuto e di rinnovare il soggetto, tramutandolo in altro, uguale a prima ma diverso da prima, capace di prestazioni nuove, di vita ulteriore, di sentimenti inauditi.

La distinzione tra naturale e artificiale diventa sempre più problematica.

“Il corpo umano ha perso la sua sacralità. L'uomo è sempre più cyborg”, Giuseppe Longo, L’Occidentale, 10 agosto 2008

Nel passaggio dalla società industriale, elettromeccanica, a quella postindustriale, elettro-informatica, la percezione del corpo e dell'io si trasforma, costringendo a una nuova antropologia che vede sullo sfondo il post-umano.
Il libro di Antonio Caronia “Il Corpo Virtuale dal corpo robotizzato al corpo disseminato nelle reti” (Muzzio Editore), esamina questa metamorfosi spaziando dall’immaginario fantascientifico alla rivoluzione elettronica e digitale, riflettendo sull’impatto profondo della tecnologia sul corpo umano e la nostra cultura.
Arnold Gehlen, filosofo e antropologo, ha parlato dell’uomo, nato all’inizio nudo e fragile, come “essere incompiuto” che costruisce con la tecnica e la cultura un “mondo virtuale” e una “seconda natura” per colmare le sue inadeguatezze nel mondo naturale in cui gli altri animali con i loro istinti specializzati riescono a batterlo nella sopravvivenza.
Creando un suo ambiente artificiale e trascendendo quello naturale per necessità l’uomo riesce non solo a sopravvivere ma anche a potenziare sue determinate facoltà: “L’uomo è organicamente l’essere manchevole; egli sarebbe inadatto alla vita in ogni ambiente naturale e così deve crearsi una seconda natura, un mondo di rimpiazzo, approntato artificialmente e a lui adatto, che possa cooperare con il suo deficiente equipaggiamento organico; e fa questo ovunque possiamo vederlo. Vive, per così dire, in una natura artificialmente disintossicata, resa maneggevole, trasformata in senso utile alla sua vita, ciò che è appunto la sfera della cultura. Si può anche dire che è costretto biologicamente al dominio sulla natura” [A. Gehlen, “L’uomo nell’età della tecnica”]
L’insufficienza biologica dell’uomo viene quindi colmata dal suo sviluppo culturale che si intreccia con quello tecnologico. Vivere il mondo per l’uomo non significa solo adattarsi (come è per l’animale) ma trasformare l’ambiente naturale in cui vive. Nel corso della storia umana nascono così simboli, miti, religioni, scienze, filosofie, arti, tutto ciò che solitamente comprendiamo nella dimensione culturale, tramite cui l’uomo si distingue qualitativamente rispetto agli altri animali.
Ma la rapidità e la profondità delle modificazioni indotte dalla tecnologia, negli ultimi tempi sta avendo un impatto enorme sull’ambiente, sulla società e sull’individuo, influenzando profondamente anche la cultura stessa. Mai come nell’attuale epoca iper-tecnologica la natura umana è apparsa un progetto e una questione aperta.
La tecnologizzazione del corpo rimette in discussione confini sacri, la nostra stessa nozione di identità vacilla mentre si scopre mutante, la credenza in una definitiva forma corporea umana è al tramonto. Le nuove tecnologie mettono in discussione quello che Caronia definisce come “lo strumento primario del nostro rapporto col mondo” e che sta a fondamento del nostro senso di identità: il nostro corpo.
Ci confrontiamo con entità artificiali create e animate da noi, con l’ibridazione tra l’organico e il non-organico e con la disseminazione del corpo virtuale nel ciberspazio.
Il mito dell’uomo artificiale, dall’homunculus alchemico al golem fino al robot, è il simbolo della sfida prometeica, della volontà di potenza positivistica, da una parte, che vede nella scienza possibilità sovrumane illimitate, della paura, dall’altra, di una alterità, un divenire “altro”, che minaccia di annullare l’uomo, mettendo a rischio la sua sopravvivenza.
L’uomo artificiale incarna, come nel Frankenstein di Mary Shelley, la hybris dell’uomo, la sua folle ambizione a volersi sostituire a Dio, prevaricando la natura. E, specularmente, l'inquietante presenza del “doppio”, che riproduce e replica artificialmente l’essere umano.
L’automa “assume su di sé tutto il carico di tragico destino che spetta a un essere ambiguo e ingannatore: un essere che inganna lo sguardo nella più segreta delle dimensioni, perché imita l’aspetto esteriore della vita e dell’intelligenza senza essere né vivo né intelligente”.
Mettendo in crisi la demarcazione tra naturale e artificiale, la tecnica, interviene a ristrutturare l’individuo e il suo corpo. Da questa azione metamorfica e simbiotica della tecnologia sul corpo umano che viene così invaso e colonizzato, fuoriesce quell’ibrido che chiamiamo cyborg.
Ma se protesi, innesti, chips, penetrano (invadono) il corpo naturale, dove si collocano i confini del nostro nuovo corpo, della nostra “nuova carne”? Quali sono i limiti del nostro nuovo “corpo virtuale e disincarnato”?.
Se il contatto sempre più intimo del corpo con le tecnologie elettromeccaniche intrusive ci fa pensare a un cambiamento della stessa “materia prima” biologica del corpo, le tecnologie digitali sembrano andare invece verso un’evanescenza del corpo, verso “una tendenziale scomparsa nella nuova immaterialità delle interazioni elettroniche”. Ai processi di replica del corpo e di invasione del corpo si affianca così anche quello di disseminazione del corpo che in questa ultima forma minaccia e stravolge il rapporto fondamentale tra corpo e identità.
Nelle realtà virtuali l’esperienza del nostro corpo “de-materializzato”, “dis-locato” e "frammentato" diventa evidente: “il corpo abbandona la sua dimensione organica e permanente, presentandosi piuttosto come qualcosa di transitorio”, diventa un simulacro virtuale di cui ci avvaliamo per interagire nell’ambiente digitale. Ma la realtà virtuale non è da intendere come spazio neutro bensì come spazio partecipativo in cui ognuno di noi diventa un “demiurgo”.
Sembra che le tecnologie digitali dissolvano la tradizionale dicotomia tra realtà e rappresentazione, o nietzschianamente tra "mondo vero" e "mondo apparente", l’opposizione tra naturale e artificiale, fra realtà e rappresentazione. Questa dimensione, iniziata con la televisione, comincia a realizzarsi più compiutamente con le tecnologie digitali”. In tale contesto, il corpo disseminato è un “corpo fluttuante” che perde la sua sacralità, la sua “origine immutabile e fondativa” e che “non è più adatto a sostenere un’identità forte e stabile”.
“Paradossalmente” dice l’autore “solo la fine della credenza in un’origine di unità e armonia con la natura rende possibile che il nuovo corpo artificiale e disseminato funzioni come strumento di contatto e di inserimento nel nuovo paesaggio tecnologico, nella nuova dimensione del mondo, in cui naturale e artificiale si confondono”.

LINKS

Kevin Warwick

Neural Engineering Center for Artificial Limbs (NECAL)

EDINBURGH MODULAR ARM SYSTEM

iWalk PowerFoot One

C-Leg

Rheo Knee

Heart Replacement

Defense Sciences Office - Revolutionizing Prosthetics

Welcome | Sigenics.com

Laboratorio di intelligenza artificiale e robotica

IPCA

Tunnel vision - Wikipedia

Targeted reinnervation - Wikipedia

Virtual Integration

YouTube - Air Guitar Hero

Vital Therapies, Inc



Mechatronics - Wikipedia



Oscar Pistorius - Wikipedia

Sprint Feet « Prosthetic Feet « Prosthetics - Ossur

YouTube - Dean Kamen's Robotic "Luke" Arm

Electrophorus electricus - wikipedia

Augmented reality - Wikipedia

Videos of augmented reality system







Brain-Computer Interfaces

Neuromorphic - Wikipedia

Neural Systems Group

Penn Medicine Center for Brain Injury and Repair (CBIR)

Electrocorticography - Wikipedia

The Speech Lab / Department of Cognitive and Neural Systems

Cyberkinetics - Neurotechnology Systems.

Wearable computer - Wikipedia

video of the cyborg insects

Acoustic Kitty - Wikipedia

Il crogiuolo bio(tecno)logiico







MERCANTI DI IMMORTALITA' 3

FANTASTIC VOYAGE 8

LA GUERRA DEI MONDI 10

NANOFOBIA




Posta un commento
Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank