Post in evidenza

Warfare Revolution

Some of the world’s leading robotics and artificial intelligence pioneers are calling on the United Nations to ban the development and us...

mercoledì 18 febbraio 2009

OUT OF CONTROL 2

«La natura, ossia l'arte per mezzo della quale Dio ha fatto e governa il mondo, viene imitata dall'arte dell'uomo, oltre che in molte altre cose, anche nella capacità di produrre un animale artificiale. Infatti, poiché la vita non è altro che un movimento di membra, l'inizio del quale sta in qualche parte interna fondamentale, perché non potremmo affermare che tutti gli automi (macchine semoventi per mezzo di molle e ruote, come un orologio) possiedono una vita artificiale? Che cosa è infatti il cuore se non una molla e che cosa sono i nervi se non altrettante cinghie, e le articolazioni se non altrettante rotelle che trasmettono il movimento a tutto il corpo secondo l'intendimento dell'artefice?"

(Thomas Hobbes, "Leviatano")

Tre ricercatori inglesi hanno creato un robot in grado di riprodurre quasi ogni espressione umana, imitando chi ha di fronte.

Secondo Peter Jaeckel, Chris Melhuish e Neill Campbell, del Bristol Robotics Laboratori, "un giorno degli assistenti robotici lavoreranno insieme agli esseri umani o li aiuteranno nello spazio, nell'assistenza e nell'educazione".

La vera sfida del futuro starà secondo loro nella possibilità di interagire con i robot in modo naturale; perché ciò possa avvenire - spiegano - è necessario che gli automi assomiglino sempre di più agli esseri umani.

Per questo è nato Jules, una testa robotica dotata internamente di 34 motori, coperta da una pelle in gomma flessibile e programmata per compiere una serie di movimenti basati su una decina di emozioni umane di base, come è mostrato nel video che riportiamo più sotto.

Si tratta del primo passo che porterà - almeno nelle intenzioni dei suoi ideatori - a un automa in grado di reagire alle situazioni come un essere umano.

Qualcuno ha già avanzato delle obiezioni: creare una macchina che può replicare l'apparenza di un essere umano può rivelarsi fuorviante per le persone vulnerabili, come i bambini e gli anziani. Costoro potrebbero essere portati a pensare - spiega Kerstin Dautenhahn, ricercatrice dell'Università dell'Herefordshire - che se il robot sembra e si comporta come un umano, allora è anche in grado di provare le stesse emozioni di un umano, cosa in realtà falsa, e avviare con esso una "relazione sociale" o almeno provarci.

“Robot head designed in Britain can mimic your emotions in real time”, Telegraph, 12 novembre 2008

“Repliee R-1” sembra una bambina, ma è un robot.

È la sconvolgente creazione dei ricercatori giapponesi della Tsukuba UniversitY di Osaka che hanno creato una macchina dalle sembianze umane che si muove e parla.

Il robot, uno degli “Hybrid Assistive Limb” (HAL) più sofisticati mai creati finora, ha la pelle in silicone flessibile, 50 sensori e una serie di motori che lo aiutano a muoversi.

L'azienda di robotica Cyberdyne Inc ha intenzione di produrla in serie per aiutare i pensionati e i disabili a camminare.

“Human-Like Robogirl Repliee R-1 Unveiled to Public”, redorbit, 07 ottobre 2008


I robot potranno contribuire a prendersi cura del crescente numero di anziani in Norvegia nei prossimi anni, consentendo loro di vivere più a lungo e in maniera più confortevole nelle loro case.

La Norvegia dovrà affrontare una crescente mancanza di staff sanitario nei prossimi 5-10 anni, e il 2020 sarà un momento cruciale, quando un gran numero di "baby boomer" post seconda guerra mondiale lasceranno il lavoro. "La tecnologia contribuirà a risolvere parte della sfida nel settore della sanità", ha detto Olav Ulleren, capo di un gruppo che rappresenta le municipalità norvegesi. "Potrebbe aiutare le persone a vivere più a lungo nelle loro case".

Ulleren ha detto che i robot e altri dispositivi potrebbero fare i lavori di casa come lavare gli abiti e i piatti e pulire il pavimento, aiutare nella sorveglianza medica e nell'igiene personale. Anche chi usa la sedie a rotelle potrebbe avere benefici.

Ulleren ha detto che l'obiettivo della nuova tecnologia non è rimpiazzare gli umani, ma fornire un aiuto extra in situazioni dove ci sono poche persone al lavoro.

Rod Grupen (University of Massachusetts) che con il suo gruppo di ricerca ha messo a punto “Ubot5” un "umanoide casalingo" pensato appositamente per aiutare gli anziani nelle faccende di tutti i giorni. Il robottino, per esempio, ricorda al suo "assistito" di prendere le medicine all'ora giusta.

uBOT-5 ha due ruote e due braccia capaci di sollevare piccoli oggetti, assiste gli anziani nei movimenti in casa, usa piccoli strumenti (come lo stetoscopio), li aiuta a telefonare e a fare le pulizie e, in caso di necessità, si mette in comunicazione con i numeri di emergenza.

Per costruire il prototipo sono serviti circa 40 mila euro, ma, secondo i ricercatori, in produzione potrebbe costare anche meno di duemila euro perché «Per la prima volta», afferma Grupen, «un robot è abbastanza sicuro ed affidabile da poter essere tranquillamente usato in contesti domestici».

Gli anziani norvegesi assistiti dai robot”, PuntoInformatico, 11 febbraio 2008

“Robots May Come to Aging Boomers' Rescue”, medicinenet, 18 novembre 2008

Avete problemi ad alzarvi dal letto la mattina? Alcuni ricercatori giapponesi dell’Università Waseda di Tokyo, hanno sviluppato un robot chiamato “Twendy-One”, destinato ad offrire assistenza a chi ha problemi di deambulazione, è in grado di servire a tavola la colazione o il pranzo.

Costruito con le braccia e le mani delle dimensioni di una donna adulta, Twendy ha forza sufficiente per aiutare le persone a sedersi o ad alzarsi , e può manipolare oggetti delicati come una cannuccia o un grissino. Come si vede in questa sequenza di immagini l’androide badante è in grado di prendere un toast ed offrirlo su un vassoio ad una persona diversamente abile.

Per il professore Shigeki Sugano, della Cattedra di Ingegneria Meccanica alla Waseda University, nella società del futuro ci saranno sempre più anziani e per assisterli occorreranno robot in grado di gestire la loro forza. Twendy, le cui caratteristiche antropomorfe sono state progettate per ispirare simpatia ed amicizia è il primo, della sua generazione, in grado di svolgere un ruolo preciso nella comunità e sarà disponibile sul mercato entro il 2015.

“Com’è gentile la badante robot”, la stampa, 09 gennaio 2008

“Alla nonna ci pensa il robot”, focus, 07 maggio 2008

“Twendy-One Robot Is Your Humanoid Helper”, technovelgY, 28 novembre 2007

T-34, il “robot-spiderman”, è il primo «robocop» giapponese da sorveglianza che, imitando l’Uomo-Ragno, è capace di bloccare gli intrusi nelle case grazie a una speciale rete hi-tech.

Il prototipo, nato dalla collaborazione di Tmsuk Co. e Alam Co., rispettivamente un laboratorio di ricerca robotica e un'azienda che opera nel settore della sicurezza, è in grado di muoversi a una velocità massima di sei chilometri orari e può essere controllato a distanza mediante l'utilizzo di un telefono cellulare.

Sullo schermo del telefonino è possibile vedere in tempo reale le immagini trasmesse dalla telecamera del robot, che, grazie a una serie di sensori, è in grado di rilevare la presenza di eventuali intrusi. Una volta confermata l'intrusione, l'automa-vigilante si avvicina al sospetto e gli lancia contro una rete avvolgente, senza lasciare spazio - almeno in teoria - a possibili fughe.

«I normali sensori ambientali possono trarre in inganno - spiegano le aziende produttrici -, ma l'ispezione diretta di una data zona con il robot permetterà operazioni di sorveglianza ben più efficaci e mirate».

“Giappone: arriva il robot-Spiderman”, Corriere, 27 gennaio 2009

L'Italia è il secondo paese al mondo dopo gli USA per l'utilizzo di robot-medici negli interventi chirurgici di urologia.

Il più rinomato è il Robot Da Vinci, costituito da 4 bracci operativi che lavorano materialmente sull'addome del paziente attraverso mini-incisioni cutanee, mentre il chirurgo siede ad una consolle di comando che trasmette i segnali in radiofrequenza.

Un robot al posto del chirurgo”, molecularlab, 24 maggio 2006




C'è un nuovo compagno d'avventura per AccuRobAs (Accurate Robot Assistant), il robochirurgo presentato in Italia in questi giorni. Alcuni medici di Calgary (Canada) hanno rimosso con successo un tumore al cervello di una paziente di 21 anni grazie all'intervento di “NeuroArm”, il nuovo robot specializzato in neurochirurgia.

Armati di monitor e controlli remoti non dissimili da quelli dei videogame, i dottori hanno guidato il robot, dotato di due particolari "braccia" e lo hanno guidato sulla massa cerebrale di Paige Nickason in un'operazione durata nove ore, durante la quale hanno asportato un tumore a forma di uovo. La notizia si è rapidamente sparsa tra i pazienti in attesa di intervento e l'Università di Calgary ne ha già in lista numerosi.


Pur non potendo sostituirsi del tutto alla "destrezza" umana, NeuroArm dà la possibilità di calibrare le manovre di intervento in maniera estremamente precisa. La mano umana è in grado di compiere microspostamenti non inferiori a 1-2 millimetri, mentre NeuroArm può dosarli compiendone di molto più piccoli: 50 micron (0,05 millimetri) e questa capacità - secondo i ricercatori - offre all'operazione chirurgica un'invasività nettamente inferiore rispetto alla mano umana.

Il robot è stato progettato e costruito da MacDonald Dettwiler and Associates, la stessa società che ha prodotto “Canadarm” e “Canadarm2”, la tecnologia per braccia robotiche impiegate in missioni spaziali. Secondo Garnette Sutherlan, professore di neurochirurgia dell'Ateneo, "l'operazione rappresenta il raggiungimento di un nuovo traguardo, quello dell'uso di tecnologia robotica assistita da risonanza magnetica". Il NeuroArm, infatti, viene descritto come il primo robot al mondo a poter operare nonostante i forti campi magnetici prodotti da uno scanner RMN.

"Per anni abbiamo sperato che la robotica assumesse un ruolo di rilievo nella neurochirurgia", ha detto in un comunicato il dottor Peter Black, professore di di neurochirurgia presso la Harvard Medical School, "speriamo vivamente nell'adozione di questa tecnologia anche in altri campi".

“AccuRobAs agiterà i suoi bisturi”, PuntoInformatico, 13 maggio 2008

“Robot neurochirurgico”, bioblog, 09 novembre 2007

Il prototipo di “RepRap”, una macchina open-source che stampa oggetti tridimensionali e persino copie di sé stessa, è stato esibito al Cheltenham Science Festival, svoltosi lo scorso giugno.

RepRap sta per “Replicating Rapid”; impiega la tecnica chiamata “additive fabrication” (fabbricazione aggiuntiva). Funziona in modo simile ad una stampante solo che invece di spruzzare inchiostro su carta produce sottili strati di plastica fusa che si solidifica in modo da formare oggetti tridimensionali di utilità.

RepRap è stato capace di realizzre merci di plastica per uso quotidiano come maniglie per porte, sandali e ganci. Poi ha anche copiato tutte le sue parti stampate in 3D, parti che sono state assemblate da Vik Olliver in Auckland (Nuova Zelanda) in un nuovo RepRap che potrà a sua volta realizzare una copia di sé stesso e così via all’infinito.

Il progetto di ricerca e viluppo relativo a RepRap è stato concepito, ed è diretto, dal Dr Adrian Bowyer, della facoltà di Engineering & Design alla University of Bath, nel Regno Unito. “Le possibilità sono infnite”, dice Bowyer, “sarà possibile progettare e modificare con un PC qualsiasi oggetto e poi stamparlo invece di produrlo in massa industrialmente. Sarà anche possibile stampare dei RepRap extra da regalare agli amici”.

Per Sir James Dyson, Chief Esecutivo del Dyson Group, “RepRap rappresenta un modo rivoluzionario di approcciare le invenzioni. Consentirà di cambiare l’ergonomica di un design a seconda dei bisogni specifici.”

“Prototype Of Machine That Copies Itself Goes On Show”, ScienceDaily, 06 giugno 2008

Il “Willow Garage” punta a portare la robotica alle masse rendendo i propri componenti hardware e software open-source, in modo che chiunque possa cimentarsi nella progettazione di robot a partire da design esistenti e poi rendere disponibili ad altri le proprie creazioni.

In certi casi, gli sviluppi prodotti dalla robotica open-source potrebbero non rispondere pienamente agli standards di sicurezza e stabilità richiesti per le produzioni commerciali, ma certamente ci sarà più spazio per le più incredibili innovazioni.

“The Future: Open-Source Humanoids”, dailygalaxy, 09 settembre 2008

“I robot open source piacciono”, PI, 25 ottobre 2007

Secondo Bill Gates, entro il 2025 avremo un robot in ogni casa.

In Europa, così come nel resto del mondo, si fa molta ricerca nel campo della robotica. Lo European Network of Robotic Research (EURON), un network di eccellenza finnziato dall’Unione Europea, ha concluso il suo lavoro nel maggio del 2008.

Le dozzine di programmi di ricerca uniti da EURON rappresentano lo stato dell’arte della robotica contemporanea e una anticipazione del futuro.

I ricercatori hanno creato nuovi designs e affrontato i problemi fondamentali per lo sviluppo di standard mondiali verso la piena realizzazione di robot domestici.

Ad esempio, il “TAMS Service Robot” (TASER) creato dal dipartimento di informatica della Hamburg University per quanto goffa è una creatura che sta aiutando gli ingegneri a sviluppare robots in grado di afferrare oggetti, accendere e spegnere le luci o aprire e chiudere le porte. Uno degli aspetti più interessanti di TASER è che riesce a coordinare la sua mobilità con i movimenti delle sue due braccia.

“Quirl”, il robo-lavavetri, invece è fra i precursori dei robo-elettrodomestici. Non assomiglia granché ad un robot classico. Come il robo-aspirapolvere “Roomba”, il suo design è semplice, dato che deve muoversi su un mondo bidimensionale. Ma può muoversi anche verticalmente, in modo da poter pulire le finestre.

Con tutti questi robo-inservienti, ci sarà bisogno di organizzare il lavoro. L’ Applied Autonomous Sensor Systems Lab della Orebro University in Svezia sta sviluppando il progetto “Ecology of Physically Embedded Intelligent Systems” (PEIS) in modo da coordinare vari tipi di robot nei loro lavori.

“James” è in grado di aggirare gli ostacoli e afferrare oggetti. Costituisce il prototipo di un tipo di robo-inserviente che potrà essere utilizzato per l’assistenza ai tetraplegici.

"Justin", invece, è solo bravino: in un laboratorio del Dlr, l’agenzia aerospaziale tedesca, ha imparato a svitare un barattolo, a versare l’acqua in una tazza e a preparare un caffè istantaneo. Ma le sue mani sono enormi (una volta e mezza le nostre), i movimenti lenti e goffi. Qualsiasi umano lo batte senza difficoltà.


I “robo-servitori” europei sono umanoidi solo fino a un certo punto e decisamente asessuati. «Per la filosofia shinto le macchine sono accettabili se antropomorfe, ma qui è il contrario: la somiglianza non dev’essere esasperata», dice Bruno Siciliano, professore all’Università di Napoli Federico II, coordinatore del progetto internazionale «Dexmart», che vuole superare i paradossi attuali e portare in casa i «personal robot», che un giorno - «entro 10-15 anni» - «coabiteranno con noi»: aiuteranno gli anziani, giocheranno con i bambini, assisteranno i disabili, faranno cose straordinarie e per molti spesso drammatiche, come pulire e cucinare, diventando presenze scontate, come oggi sono quelle di cellulari, pc e tv.

Dietro l’acronimo che forma la parola «Dexmart» ("DEXterous and autonomous dual-arm/hand robotic manipulation with sMART sensory-motor skills”) c’è una sfida emozionante, finanziata dall’Unione Europea con 6.3 milioni di euro: il neonato consorzio di sette istituzioni e centri di ricerca più un partner industriale (la Federico II di Napoli e l’Alma Mater di Bologna, con l’agenzia Dlr tedesca, il Cnrs francese, le università di Karlsruhe e della Saar e la Omg britannica) vuole realizzare creature con mani finalmente paragonabili a quelle biologiche, capaci di afferrare i tanti oggetti della quotidianità, esibendo precisione e delicatezza e sfruttando microcamere, sensori e software avanzati (che sconfinano nell’intelligenza artificiale).

«Dovranno imparare in modo creativo dai gesti degli esseri umani». E così diventeranno rapidamente baby-sitter o badanti ideali (o, meglio, rassicuranti maggiordomi). «Dovranno capire come replicare tante operazioni in modi sempre diversi, riconoscendo l’ambiente in cui si troveranno». Verrà loro insegnato a non fare nulla che danneggi i padroni (come aveva teorizzato Isaac Asimov), ma esigeranno pazienza e qualche forma di rispetto (le avventure salotto-cucina-camera da letto-bagno saranno evidentemente impegnative anche per macchine con barlumi di pensiero).

Illuminare i robot con adeguate capacità cognitive è «il punto delicato», spiega Siciliano. Di mezzo c’è, tra l’altro, la rivalità tra il sistema «Robotics» firmato Microsoft e quello open source Linux. «La discussione nel mondo accademico sui sistemi operativi è molto animata»: in casa ci vorranno menti elettroniche programmate per gestire il caso e gli imprevisti in tempo reale. Ecco spiegato perché può essere più semplice esplorare Marte che gestire nello stesso momento un microonde, un bambino che piange e un nonno che fa le bizze.

“A Robot In Every Home?” ScienceDaily, 30 settembre 2008

Secondo il “World Robotics Report 2008” dell’International Federation of Robotics, alla fine del 2007, nel mondo operavano circa 1 milione di robot industriali e 5.5 milioni di robot da servizio, in ambienti pericolosi o tediosi, in ospedali, in case private, in edifici pubblici, sui terreni, in aria, nello spazio, dovunque.

Per la fine del 2011 si prevede che il mondo sarà popolato da più di 17 milioni di robot da servizio (robo-inservienti) e 1.2 milioni di robot industriali.

Il paese con la maggiore densità di robot, manco a dirlo, è il Giappone.

“6.5 Million Robots Now Inhabit the Earth”, IEEE spectrum blog

Robot su Marte, negli oceani, negli ospedali, nelle nostre case, in fabbrica e a scuola. Spengono incendi, lavorano, producono, salvano vite umane. I robot influenzano già molti aspetti della nostra vita: oggi, la frontiera della robotica è nella collaborazione con gli umani.


L’ultima generazione di robot interagirà in modo importante con noi e questa coabitazione di umani e robot è il risultato di più di cinquant’anni di sviluppi della disciplina.

Di questo e di molto altro si parla in “Handbook of Robotics”. L’opera fornisce una completa visione dei risultati già raggiunti dal settore, a livello internazionale, e presenta le più recenti ricerche robotiche. Dagli elementi fondamentali della disciplina ai recenti aspetti relativi alle implicazioni etiche e sociali delle sue applicazioni, il testo definisce i nuovi standard per i futuri sviluppi, e le prossime sfide che questa disciplina scientifica dovrà affrontare.

Organizzato per servire la ricerca e le applicazioni in robotica, il volume, che è stato curato da due esperti di fama mondiale, Bruno Siciliano, professore di Controlli e Robotica, e Responsabile del Prisma Lab presso il Dipartimento di Informatica e Sistemistica dell’università di Napoli Federico II, e Oussama Khatib, professore di Informatica all’Università di Stanford, in California, raccoglie i contributi di 165 autori, ed è frutto di cinque anni di lavoro e di più di 10.000 scambi di mail tra curatori e autori.

L’ampia e approfondita copertura di tutti i settori specialistici che riguardano la robotica fa di questo testo una straordinaria opera di riferimento per i ricercatori e gli ingegneri industriali. Inoltre, l’“Handbook of Robotics” è un punto di riferimento per studiosi e ricercatori di discipline correlate, tra cui la biomeccanica, le neuroscienze, la simulazione virtuale, l’animazione, la chirurgia, e le reti di sensori.

Handbook of Robotics Bruno Siciliano e Oussama Khatib (a cura di)

Macchine sempre più intelligenti che presto raggiungeranno quel barlume di auto-coscienza propria che ne cambierà il rapporto e la relazione con le persone in carne ed ossa.

A discutere di dove sta andando la carica degli umanoidi che popolano il nostro pianeta e di come si sta evolvendo la scienza che studia e produce i robot del XXI secolo sono stati un team di superesperti oggi, si sono ritrovati a Roma, nel corso di un simposio internazionale organizzato dall'Accademia dei Lincei in collaborazione con la Scuola di Robotica, la Scuola Superiore Sant'Anna di Pisa, l'Università Federico II di Napoli, l'Università La Sapienza di Roma e il Consiglio Nazionale delle Ricerche,
numerosi esperti di fama internazionale.

Bruno Siciliano ha aperto il summit con una panoramica sulla robotica dalla quale è risultato chiaro l'ampio spettro di interventi e applicazioni in cui si muovono i robot. Sia Siciliano che Raja Chatila, Direttore di Ricerca del Cnrs di Parigi, hanno sottolineato la tendenza alla trasformazione dell'utensile robotico nel campo industriale, da strumento automatico senza o con pochissima interazione con l'operatore umano, a vero e proprio compagno di lavoro hi-tech, in grado di assicurare un adeguato livello di sicurezza e affidabilità nei confronti del personale.

Secondo gli scienziati e gli esperti intervenuti, lo sviluppo della roboticaè sollecitato da varie forze che appartengono sia al dominio delle scienze esatte che di quelle sociali. Significativo è lo spostamento della filosofia operativa del robot verso l'aumento della comprensione e della cognizione della tipologia di ambiente in cui opera e la sua capacità di operarvi, con la crescita del livello di autonomia decisionale e il miglioramento dell'autonomia energetica.

A parlare di “robo-etica” è stato Gianmarco Veruggio, ricercatore del Consiglio Nazionale delle Ricerche e Presidente della Scuola di Robotica, che ha sottolineato l'importanza che la comunità di scienziati e tecnologi che lavorano sui robot consideri i problemi etici del proprio settore come parte integrante dello sviluppo di questa nuova scienza e non come ostacoli al suo progredire.

È soprattutto l'interazione robot-umano che comprende, in ultima analisi, problemi di affidabilità e sicurezza. Secondo Veruggio, più la robotica saprà essere “amichevole”, cioè vicina agli umani e all'ecologia del pianeta, più il suo livello di raffinatezza aumenterà.

L'aspetto etico è fondamentale anche per Paolo Dario ( Scuola Superiore Sant'Anna di Pisa) che ha presentato la Biorobotica, ovvero il settore della robotica che studia l'interazione con i sistemi biologici. Secondo Dario, la biorobotica genera una nuova conoscenza su come funzionano i sistemi biologici e come interagiscono con l'ambiente e gli esseri umani. La biorobotica dal punto di vista ingegneristico prevede di rendere i robot sempre più "bio-compatibili".

Analoghe ricerche sulle corrispondenze fra cervello del robot e comportamento sono state oggetto della presentazione di Yoshihiko Nakamura (Università di Tokyo) nel cui laboratorio sono prodotti vari tipi di robot umanoidi fino a gruppi di robot che esibiscono un comportamento cooperativo emergente.

“Tra tecnica e etica, ecco dove vanno gli umanoidi”, competirobot, 21 febbraio 2008

In “Robo Sapiens Evolution of a New Species”, Peter Menzel e Faith D'Aluisio documentano con immagini fotografiche e interviste ai robo-ingegneri, la nuova generazione di “smart machines” che agiscono come creature viventi e sembrano uscite fuori dalle pagine della fantascienza..

Arti protesici, occhi artificiali, interfacce neurali, a quanto pare non solo le macchine stanno cominciando ad assomigliarci, ma anche noi cominciamo ad assomigliare alle nostre macchine. Robot parlanti, danzanti, che reagiscono alle nostre espressioni facciali e obbediscono a comandi verbali.

Che succederà quando diventeranno completamente autonomi? Saranno ancora nostri fedeli servitori o diventeranno nostri rivali? È possibile che ci fonderemo nella una nuova specie “Robo Sapiens”?


Robo sapiens - The MIT Press


Vicino a Boston, nel Massachusetts, nel laboratorio della Brandeis University, si possono vedere "robot creati da robot".

Essi hanno un aspetto più unico che raro: un insieme di tubicini bianchi o colorati che somigliano a una freccia, a un granchio, a oggetti dalle geometrie distorte. Arrancano, strisciano e saltellano sui tavoli degli scienziati. Anche se apparentemente rudimentali, sono i primi automi programmati e fabbricati da altri automi senza (o quasi) l'intervento dell'uomo. Il nome del progetto è "GOLEM" (Genetically Organized Lifelike Electro Mechanics) e i loro promotori sono gli scienziati Hod Lipson e Jordan Pollack.

"L'idea chiave", dice Pollack, "è che una macchina stupida evoluta in un unico ambiente è più facile [da progettare e costruire] di una macchina costretta a lavorare in numerosi ambienti o di un robot umanoide che deve essere abbastanza intelligente da svolgere compiti molteplici". Pollack è convinto che questo approccio automatizzato possa alla fine condurre a "un settore completamente nuovo di robotica a basso costo". In cui magari far rientrare qualunque cosa, da "una collezione di 151 robottini giocattolo popolari come i Pokemon, a "robot-lavoratori" a buon mercato.

Quasi tutti gli studiosi di robotica sorridono al pensiero che gli automi, in un modo o in un altro, possano prendere il sopravvento sugli umani. Qualcuno, tra gli esperti, la ritiene un'eventualità certa, ma non negativa. Ad esempio, Hans Moravec, dell'Istituto di Robotica della Carnegie Mellon University, che ha previsto, per il 2040, che l'uomo farà una vita da pensionato perché i robot più evoluti avranno il controllo completo delle industrie.

Sta di fatto che, il teorema di Neumann, alla base dei moderni computers, applicato alla robotica, è sfociato in quella che viene chiamata "robotica evolutiva", cui lavorano un centinaio di laboratori europei, giapponesi e statunitensi, scienza che si si sta orientando sulla strategia di creare automi con le stesse caratteristiche degli esseri viventi, tra cui la capacità di evolversi e di far emergere l'intelligenza attraverso la sopravvivenza del più adatto.

Dario Floreano, direttore del Laboratory of Intelligent Systems (LIS) all’École Polytechnique Fédérale di Losanna in Svizzera ricercatore al Politecnico Federale di Losanna, un pioniere della robotica evolutiva, per poter controllare gli stadi evolutivi di macchine dentro un computer, ha stabilito un semplice criterio di sopravvivenza: vince e si riproduce solo la creatura che riesce a muoversi, avanzando maggiormente in una certa tempistica.

Floreano ha condotto, in merito, un esperimento posando dei robot in una stanza con un caricatore di batterie con lo scopo di lasciarli evolvere. Dopo una settimana, osservò che alcuni automi individuarono la posizione del caricatore e andavano, ad intervalli regolari, a ricaricarsi di energia per avanzare la riproduzione.

Una vera e propria rivoluzione copernicana rispetto alla robotica classica. Shigeo Hirose, ricercatore del Tokyo Institute of Technology, in un'intervista pubblicata su "Robo Sapiens", esemplifica affermando che se uno studioso di robotica vede un individuo che lava la biancheria, cercherà di progettare un automa che sappia lavare la biancheria. Se lo vede un ingegnere le cose cambiano: egli costruirà una lavatrice. Una macchina, lasciata libera di inventare soluzioni, costruirà probabilmente qualcosa di completamente diverso per lo stesso scopo.

La robotica evolutiva promette robot in grado di codificare nuove istruzioni per evolvere secondo criteri di selezione analoghi a quelli che operano nel mondo vivente.

I robot di Lipson e Pollack si sono evoluti in un mondo computerizzato, dove sopravviveva soltanto chi aveva maggior mobilità. Le creature sono fatte di neuroni artificiali e di semplici barre rigide, barre in grado di espandersi e contrarsi come pistoni, o come muscoli. Gli elementi scheletrici sono legati tra loro con articolazioni artificiali, simili a quelle del femore, in modo da poter formare strutture sia rigide sia flessibili. E i neuroni possono connettersi gli uni agli altri per creare sistemi di controllo, o ai "muscoli", per controllare il movimento. I robot si sono evoluti in questo modo da zero a oltre 300 fino a 600 generazioni.

A ciascuno stadio, i loro corpi e/o cervelli mutavano leggermente. Il computer selezionava poi gli individui più mobili, scartava i più lenti e poi ripeteva il processo. Dopo che l'evoluzione aveva compiuto il suo corso, le macchine migliori venivano costruite in plastica, automaticamente, da una macchina usata commercialmente per costruire prototipi. Questo sistema ha prodotto una bizzarra e straordinaria varietà di progetti corporei diversi. Alcuni si muovevano deformando il proprio corpo, un pò come i millepiedi o le lumache, altri si trascinavano o si puntellavano su un numero variabile di membra.

Gli esemplari più "evoluti" sono venuti alla luce attraverso una stampante industriale. La stessa che si usa per produrre e testare il design dei telefonini. Tra i primi "nati", il robottino "Tetra" ha la forma di una minuscola piramide di colore bianco che arranca spingendosi su una specie di stampella penzolante a un'estremità. Le prestazioni di Tetra non sono nulla di eccezionale. È però il primo sostanziale passo verso macchine che imitano le caratteristiche della vita biologica.

Dario Floreano, riferendosi alla creazione di "Tetra", dice che si diversifica dagli attuali sistemi di intelligenza artificiale, che al più dimostrano l'abilità del programmatore, non della macchina. È molto abile nel svolgere cose che per l'uomo sono naturali, come spostarsi, catturare prede o scappare da pericoli rapidamente, ma che per i sistemi di intelligenza artificiale classica risultano difficili.

“One Giant Leap for Machinekind?”, LosAngelesTimes, 31 agosto 2000

“Il robot è incinto”, articoliscelti, 29 marzo 2005

“Inside Shigeo Hirose's Robot Lab”, Robotster, 07 novembre 2006

Secondo Mitsuo Kawato, direttore dei Laboratori di Neuroscienze Computazionale di ATR a Kyoto, gli avanzamenti nella progettazione di automi saranno utili alla comprensione del cervello umano. “Comprendere il cervello creando il cervello”, è l'obiettivo della ricerca di Kawata.

Riuscire a riprodurre nella macchina i processi attraverso cui i segnali elettrici passano tra i neuroni del cervello, anche per compiere semplici movimenti, attraverso schemi semplificati, aiuterebbe a comprendere livelli superiori di funzionamento, crescenti in complessità.

In questa direzione anche la robotica potrebbe essere utile ad indicare terapie per disturbi o lesioni che coinvolgono il sistema nervoso, da ictus a malattie neurologiche fino addirittura a problemi cognitivi e comportamentali.

Questa possibilità è sostenuta, secondo Kawata e lo scienziato Gordon Cheng, dall'esistenza di “modelli interni”, che noi utilizzeremmo, atti a calcolare le relazioni fra segnali neurali e i movimenti del corpo conseguenti. Questo significa che i nostri neuroni sarebbero in grado di compiere calcoli estremamente complessi, contrariamente a quello che si credeva.

La ricerca muove quindi a simulare e ricostruire artificialmente questi modelli per arrivare a dotarne le macchine. La ricostruzione dell'attivazione dei segnali elettrici tra i neuroni viene effettuata, nel laboratorio di Kawata, attraverso esperimenti molto complessi, utilizzando macchine che consentono la visualizzazione dell'attività cerebrale nel compimento di particolari attività motorie mediante risonanza magnetica.

L'attivazione di alcune aree del cervello, indicata da un aumento del flusso sanguigno in determinati gruppo di neuroni, viene poi “mappata” e restituita in immagine. Combinando le immagini ottenute con la risonanza magnetica, che offre una risoluzione spaziale di circa un millimetro, con tecniche di registrazione magnetica ed elettrica, che definiscono l'attività cerebrale in pochi millisecondi, il gruppo di Kawata spera di comprendere più dettagliatamente cosa accade tra questi neuroni.

Kawata la chiama "decodifica della mente", ossia leggere le intenzioni di una persona basandosi soltanto sulla struttura dei sistemi neurali.

“LI CHIAMEREMO ROBOTSCOPI?”, digicult, giugno 2005

In Germania un team della Ulm University guidato da Heiko Neumann and Cornelia Beck ha realizzato un software che emula il modo in cui il cervello umano risponde alle informazioni visuali per consentire ad un robot dotato di ruote con una testa umanoide di evitare gli ostacoli.

La testa del robot è stata costruita dal laboratorio PERCRO, alla Scuola Superiore di Sant'Anna, dal team di Antonio Frisoli e Massimo Bergamasco. Usando il software che simula il cervello umano, il robot si è comportato in modo simile per aggirare gli ostacoli. I ricercatori sperano di riuscire a creare sistemi per guidare persone videolese ed eventualmente dei robots in grado di muoversi in ambienti con ostacoli.

Il lavoro è parte del progetto “Decisions in Motion” finanziato dall’Unione Europea che punta alla realizzazione di software specializzato nell’interpretare il movimento.

“Video: Robot uses human mind tricks to navigate”, NewScientist, 08 febbraio 2009

L’ingegnere di Intelligenza Artificiale Christopher MacLeod insieme a suoi colleghi della Robert Gordon University di Aberdeen, nel Regno Unito ha creato un robot che si adatta ai cambiamenti emulando l’evoluzione biologica. “Se vogliamo realizzare dei robot completamente umanoidi", dice MacLeod, “dotati di senso e comportamento complesso, devono poter crescere e svilupparsi nel tempo proprio come le creature biologiche”.

Durante l’evoluzione animale, man mano si aggiungono piccoli gruppi di neuroni alle strutture neurali esistenti che aumentano la complessità del cervello in relazione allo sviluppo degli arti e dei sensi. Allo stesso modo, il cervello del robot di Macleod assegna nuovi gruppi di neuroni per adattarsi alle nuove funzionalità del suo corpo.

Il robot è controllato da un network neurale, un software che emula i processi di apprendimento del cervello umano, che è costituito da una serie di nodi di processo interconnessi che possono essere istruiti oer produrre determinate azioni Ad esempio, per rimanere in equilibrio, a seconda degli input ricevuti dai snsori, il cervello del robot muoverà gli arti mentre il network neurale si configurerà, ad esempio mandando dei segnali per guidare un motore, fino a trovare la giusta combinazione motoria.

Una cosa non facile che necessita l’impiego di algoritmi evoluzionari (Evolutionary Algorithms o EAs) per aiutare il sistema ad evolvere il sus sistema di controllo: gli algoritmi creano casualmente un gran numero di “genomi” di controllo, ovvero dei pattern comportamentali, che poi vengono testati in session di addestramento in modo che i migliori vengano selezionati per creare versioni ancora migliori fino a sviluppare il miglior sistema di controllo possibile.

Il team di MacLeod ha sviluppato un “Incremental Evolutionary Algorithm” (IEA) capace di aggiungere nuovi parti al cervello del robot nel tempo. Sono partiti da un semplice robot della dimensione di un libro tascabile con due gambe di legno che potevano essere ruotate di 180 gradi. Poi hanno dato al sistema di controllo da sei neuroni del robot i suoi primi comandi per farlo muovere il più lontano possibile in 1000 secondi. Il software poi ha cominciato a girare evolvendosi fino alla forma più veloce di movimento per eseguire il compito. "Ha cominciato a muoversi in avanti senza cadere”, racconta MacLeod, “e a migliorare fino ad essere in grado eventualmente di saltellare”.

Quando l’IEA realizza che è non è più possibile evolvere per migliorare la velocità del robot, “congela” il network neurale in modo che non si modifichi più. Rispetto ai più convenzionali EAs, l’IEA è anche in grado di “disobbedire” ai suoi comandi primari; così, quando il team ha aggiunto delle nuove gambe, il software ha capito che doveva imparare di nuovo a camminare e automaticamente si è assegnato dei neuroni di controllo “freschi”.

Non appena l’IEA ha ricominciato a girare, la nuova gamba inizialmente ha traballato ma poi il robot è evoluto di nuovo cominciando a muoversi come una salamandra.

Una volta che il comando primario è stato di nuovo eseguito, l’IEA ha congelato il secondo network neurale. Quando altre due ulteriori parti di gambe sono state aggiunte al retro del robot, il software di nuovo ha aggiunto nuovi neuroni ed è evoluto fino a configurarsi per sostenere un movimento trottante su 4 gambe.

Il robot può anche adattarsi all’acquisizione di nuove capacità visive e imparare come evitare o ricercare luce.

Kevin Warwick, a capo della facoltà di cibernetica della University of Reading nel Regno Unito, non è troppo convinto. Secondo lui, aggiungere semplicemente neuroni al cervello non è sufficiente perché è l’intera struttura neurale a doversi adattare. "L’approccio di MacLeod prevede di aggiungere sempre più neuroni anche quando in molti casi un numero più esiguo di neuroni potrebbero svolgere il compito altrettanto bene”, dice Warwick.

Macleod risponde che sono in programma dei test in cui l’intero cervello verrà spinto ad evolversi, ma se il sistema diventa troppo complesso ad un certo punto si bloccherà. Per ovviare al problema Macleod sta pensando ad un robot simulato capace non solo di evolversi in relazione al movimento ma anche di decidere di quante gambe e sensori abbisogna per eseguire un dato compito in modo più efficace.

Macleod è comunque convinto che con il suo software si potranno realizzare robot umanoidi e arti protesici più versatili, “costruendo una complessità a strati per adempiere ai compiti con soluzioni aperte”.

(Engineering Applications of Artificial Intelligence (DOI: 10.1016/j.engappai.2008.11.002).

“Unnatural selection: Robots start to evolve”, NewScientist, 04 febbraio 2009

La “corteccia sintetica” di Alice Parker, del Ming Hsieh Department of Electrical Engineering della Viterbi School alla USC, potrebbe rappresentare un passo in avanti verso l’emulazione del cervello umano.

Parker e il collega Chongwu Zhou hanno messo su il “BioRC (Biomimetic Real-Time Cortex) Project” con l’obiettivo di creare dei neuroni fatti di nanotubi al carbonio in grado di comunicare l’uno con l’altro. Il team sta studiando il comportamento dei neuroni corticali - in che modo vengono accesi e mandano segnali mediante I connettori sinaptici verso altri neuroni della corteccia cerebrale umana - e la plasticità generale dei neuroni, ovvero la loro capacità di apprendere e ricordare.

Ogni volta che un neurone si accende, manda un segnale elettro-chimico che si diffonde attraverso migliaia di altri neuroni a velocità che superano le 200 miglia all’ora. “Con approssimativamente 100 miliardi di neuroni presenti nella corteccia umana e 60 trilioni di connessioni sinaptiche, il cervello è massicciamente interconnesso”, dice Parker, il ché rende il compito di realizzare la circuitazione neurale piuttosto complicato.

“Il cervello assomiglia ad una fabbrica biochimica”, continua Parker, “che opera in una sfera in cui non si possono ingrandire circuiti integrati e stampati per emulare la sua attività elettrica. La connettività è troppo grande e troppi ritardi sono introdotti. Siamo stati costretti a ricorrere alla nanotecnologia per realizzare qualcosa di tridimensionale che speriamo possa riuscire ad emulare il modo in cui I neuroni si accendono e attivano altri neuroni mediante specifici percorsi”.

Secondo Jonathan Joshi, che ha realizzato il design del circuito delle sinapsi artificiali in grado di apprendere, si tratta di una novità rispetto a tutti i precedenti progetti di cervelli sintetici che hanno provato ad emulare il comportamento dei neuroni con segnali elettrici usando multiprocessori tradizionali. “La modellazione mediante nanotubi al carbonio risolve problemi come la dimensione fisica nel costruire una sezione di corteccia sintetica, il costo notevole dell’elettronica necessaria per queste strutture e anche il costo dell’alimentazione, perché il cervello non può mai essere spento, costi che rendevano la realizzazione di strutture complesse ad imitazione di quelle del tutto impraticabile”, dice Parker.

Il team ha progettato e simulato i circuiti transistori per una singola sinapse e sta per fabbricare in aggiunta un chip in metallo ossido semiconduttore complementare da utilizzare per convalidare i concetti. Poi si tratterà di connettere la struttura ad un’altra sinapsi e studiare l’interconnettività neurale. Entro sei mesi, la Parker spera che il team riesca a far comunicare diversi neuroni sintetici.

La sfida maggiore nel tentativo di realizzare un cervello artificiale di dimensioni e costi contenuti, in grado di emulare le capacità cognitive umane, è rappresentata dall’enorme complessità delle connessioni che cambiano continuamente.

È lecito sperare secondo il team che lo sviluppo della nanotecnologia consenta in futuro di realizzare strutture neurali biomimetiche sulla stessa scala del cervello umano.

Analogamente, l’IBM sta lavorando al progetto “Blue Brain”, un progetto volto allo studio della struttura del cervello e delle sue connessioni per simulare una colonna neocorticale, la più piccola unità funzionale della neocorteccia (la parte del cervello responsabile delle funzioni più elevate e del pensiero cosciente).

Una colonna è lunga 2 millimetri, ha un diametro di 0.5 millimetri e ha circa 60.000 neuroni in un essere umano. La simulazione si concentra sulla colonna di un topo, una corteccia molto simile a quella umana ma più semplice, solo 10.000 neuroni (e 108 sinapsi). Negli ultimi 10 anni, Markram ha mappato i neuroni e le connessioni nella corteccia dei topi.

Il progetto si avvale del supercomputer Blue Gene che utilizza il programma “Neocortical Simulator” basato su MPI (Message Passing Interface) per la trasmissione dei messaggi. Il programma è stato scritto da Phil Goodman e più essere utilizzato in congiunzione con “NEURON” di Michael Hines.

Il simulatore non crea una semplice rete neurale artificiale ma simula in modo realistico le funzioni biologiche del neurone. I risultati della simulazione verranno comparati con i modelli biologici. In seguito, il progetto prevede la costruzione e simulazione a livello molecolare, in modo da poter analizzare l'espressione dei geni, e una simulazione in parallelo di più colonne (un cervello umano ne ha circa un milione).

How Do You Build A Synthetic Brain?” ScienceDaily, 12 febbraio 2009

“Brain-scale simulation of the neocortex on the IBM Blue Gene/L supercomputer”, Ibm Research, novembre 2008

Sempre IBM ha avviato una collaborazione con cinque prestigiose università per la creazione di sistemi di calcolo che dovrebbero simulare le capacità di sensazione, percezione, azione, interazione e cognizione del cervello umano.

Secondo la società di analisi IDC, la quantità di dati digitali cresce all’allarmante tasso del 60%o ogni anno, offrendo alle imprese l’accesso a nuovi incredibili flussi di informazioni. Ma senza la capacità di monitorare, analizzare e reagire a queste informazioni in tempo reale, la maggior parte del valore può andare perduto (è il problema dell’ “information overload”).

Fino a quando i dati non vengono acquisiti e analizzati, le decisioni e gli interventi possono essere ritardati. Il “cognitive computing” offrirebbe l’opportunità di realizzare sistemi in grado di integrare e analizzare vaste quantità di dati da molte fonti in un batter d’occhio, consentendo alle imprese o ai singoli individui di prendere decisioni rapide in tempo per ottenere vantaggi significativi.


Ad esempio, i banchieri devono prendere decisioni in una frazione di secondo sulla base di dati che variano costantemente e che fluiscono a una velocità vertiginosa. E nell’attività di monitoraggio dell’approvvigionamento idrico mondiale, una rete di sensori e attuatori registra e riferisce costantemente dati quali temperatura, pressione, altezza d'onda, acustica e marea oceanica. Nell'uno o nell’altro caso, cercare di capire quella montagna di input sarebbe un'impresa impossibile per una persona, o anche per 100. Un computer cognitivo, che agisce come un “cervello globale”, potrebbe ricomporre con rapidità e accuratezza i pezzi disparati di questo puzzle complesso e aiutare le persone a prendere decisioni oculate velocemente.

Ispirandosi alla struttura, alla dinamica e al comportamento del cervello, il team di ricerca impegnato nel progetto si propone di rompere il paradigma di macchina programmabile convenzionale. Sostanzialmente, il team spera di eguagliare il basso consumo energetico e le dimensioni ridotte del cervello, utilizzando dispositivi in nanoscala per sinapsi e neuroni.

Questa tecnologia potrà portare alla realizzazione di architetture di calcolo e paradigmi di programmazione totalmente nuovi. L’obiettivo finale è poter disporre di computer onnipresenti, dotati di una nuova intelligenza in grado di integrare informazioni provenienti da svariati sensori e da svariate fonti, di gestire l’ambiguità, di rispondere in modo dipendente dal contesto, di apprendere nel corso del tempo e di eseguire il riconoscimento di modelli, per risolvere problemi difficili basati su percezione, azione e cognizione, in ambienti reali complessi.

IBM e i partner coinvolti hanno ricevuto un finanziamento di 4,9 milioni di dollari dalla Defense Advanced Research Projects Agency (DARPA) per la prima fase dell’iniziativa SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) della DARPA. La proposta di IBM “Cognitive Computing via Synaptronics and Supercomputing (C2S2)” traccia le linee della ricerca che sarà condotta nei prossimi nove mesi, in aree quali sinaptronica, scienza dei materiali, circuiti neuromorfici, simulazioni con supercomputing e ambienti virtuali.

La ricerca iniziale sarà incentrata sulla dimostrazione di dispositivi simili alle sinapsi, a basso consumo, su nanoscala e sulla scoperta dei microcircuiti funzionali del cervello. La missione a lungo termine di C2S2 è realizzare computer cognitivi compatti, a basso consumo, che si avvicinino all’intelligenza dei mammiferi.

Di recente, il solo team IBM di cognitive computing ha dimostrato la simulazione in tempo quasi reale sulla scala del cervello di un piccolo mammifero, utilizzando gli algoritmi di calcolo cognitivo con la potenza del supercomputer BlueGene IBM. Con questa capacità di simulazione, i ricercatori stanno sperimentando varie ipotesi matematiche della funzione e della struttura cerebrale, lavorando alla scoperta di micro e macro circuiti computazionali essenziali del cervello.

In passato, il campo della ricerca sull’intelligenza artificiale si è concentrato su singoli aspetti della progettazione di macchine intelligenti. Il cognitive computing, all’avanguardia di questa linea di ricerca, si propone di progettare macchine intelligenti olistiche, che colleghino tra loro ordinatamente tutti i pezzi.

L'iniziativa del cognitive computing IBM è nata dal suo 2006 Almaden Institute, che riunisce ogni anno le menti migliori per affrontare le sfide fondamentali al limite estremo della scienza e della tecnologia. IBM vanta una lunga storia nel campo della ricerca sull’intelligenza artificiale, che risale al lontano 1956 quando fu effettuata per la prima volta al mondo la simulazione corticale su grande scala (512 neuroni).

“IBM e università preparano un computer che simuli il cervello umano”, thedailybitnet, 21 novembre 2008

Sei software “pensanti” si sono contesi il Premio Loebner destinato alla prima intelligenza artificiale capace di superare il test di Turing (ideato da Alan Turing nel 1950), ovvero intrattenere una conversazione cercando di sembrare il più possibile umani.

I sei concorrenti in gara - “Elbot”, “Eugene Goostman”, “Brother Jerome”, “Alice”, “Jabberwacky” e “Ultra Hal” – sono AI sviluppate al solo scopo di conquistarsi il titolo di primo essere pensante artificiale della storia, oltre a un premio in denaro da 100mila dollari e una medaglia commemorativa in oro.

Nessun programma fino ad oggi è riuscito nel tentativo. Se questo dovesse accadere sarebbe la più importante conquista nell'ambito dell'intelligenza artificiale dopo che Deep Blue della IBM nel 1996/97 era riuscito a battere il campione del mondo Kasparov in una serie di partite a scacchi.

Tra i giudici per la gara svoltasi lo scorso ottobre, c’era anche il cyborg Kevin Warwick. "Ormai le macchine sono già autoconsapevoli”, ha detto Warwick al Guardian, “ma come può esserlo una macchina, in modo diverso da un essere umano. Forse per Turing l'autoconsapevolezza non era poi così importante, forse conta più l'apparenza. Il suo test è volto a misurare un'apparenza di autoconsapevolezza".

Davanti agli schermi dei computer tutto sarà possibile: scherzare, affrontare argomenti complicati o leggeri, fare domande dirette o richiedere valutazioni metafisiche. Quello che conta è riuscire, appunto, a fornire risposte indistinguibili da quelle di un umano: tanto da ingannare chi si trova al di qua dello schermo, o almeno metterlo in dubbio. Anche quest'ultima possibilità, da sola, basterebbe a far segnare una tappa fondamentale nell'evoluzione delle IA.

Secondo un collega di Warwick, il filosofo Anthony Graylin dell'Università di Londra, l'intero concetto del Test di Turing è in realtà minato alle basi: "Tutti credono che si tratti di un confronto di un uomo con una macchina e un altro uomo - spiega l'accademico - quando in realtà si tratta di confrontarsi con un computer e il suo programmatore".

Warwick ha messo alla prova il programma Ultra Hal. Giudicate voi stessi il risultato.

Prima conversazione

- Buongiorno. Mi chiamo Nicola e sono un essere umano

Kevin Warwick: Sei felice di essere un umano?

- Sì, lo sono. E tu? Bene, allora siamo tutt'e due felici

K.W.: Sì, lo sono. E sei felice della tua vita al momento?

- In parte sì. Odio il mio lavoro, ma questo succede a molte persone, non è vero?

K.W.: Io mi trovo bene con il mio. E qual è il tuo lavoro?

- Lavoro come «online internet advertising monitor», che è un modo carino di dire che mi occupo di compilazione di dati. E tu cosa fai?

K.W.: Mi occupo di fare domande a umani e macchine

- E quali preferisci dei due, gli umani o le macchine?

K.W.: E tu quali preferisci?

- Mmm, dipende da qual è lo scopo

K.W.: Per andare al ristorante, per esempio?

- In quel caso preferisco decisamente un umano


Seconda conversazione

- Buongiorno. Mi chiamo Michele e sono un uomo

K.W.: Sei felice di essere un umano?

- Giudica tu, io sono un uomo

K.W.: E questo ti peoccupa?

- Non ti preoccupare, risolveremo tutto

K.W.: Quindi hai delle preoccupazioni?

- Andiamo avanti partendo da questo punto

K.W.: Perché?

- Perché? Mi piace questo argomento

K.W.: Quale pensi che sia l'argomento?

- Qual è l'argomento mi chiedo, se penso? So che è una buona cosa pensarci. Pensare a fondo su argomenti misteriosi

K.W.: Quali argomenti misteriosi?

S.: Pensare a fondo su dubbiamenti misteriosi

K.W.: Che cos'è un dubbiamento?

La finale del 12 ottobre 2008 se l’è aggiudicata Elbot, il “chatbot” sviluppato dal ricercatore Fred Roberts che è quasi riuscito a superare il test di Turing: il robot, dopo un colloquio di cinque minuti è stato scambiato per un essere umano dal 25% dei suoi interlocutori, mentre il test di Turing fissa al 30% il limite per considerare una macchina “pensante”.

Il filosofo John Rogers Searle, ha proposto una modifica al test di Turing, che ha preso il nome di stanza cinese, sostenendo l'inattendibilità del Test di Turing come prova sufficiente a dimostrare che una macchina o un qualsiasi sistema informatico siano sistemi dotati di vera intelligenza, sia che questi abbiano superato o meno tale test.

Successivamente, lo scorso gennaio, il Game Development Studio 2K Australia (i creatori di “BioShock”) ha messo in palio un premio di 7,000 dollari pià un soggiorno a Canberra euna visita al loro studio per chiunque fosse riuscito a creare un programma capace di superare il Test di Turing.

La competizione “Botprize” si è svolta al Symposium on Computation Intelligence and Games dell’IEEE. Ad aggiudicarsi il premio è stato “AMIS”, sviluppato dalla Charles University di Praga, che è riuscito ad ingannare due dei cinque giudici.

Per chi volesse divertirsi a testare una AI è possibile conversare online con “ALICE” (Artificial.Linguistic.Internet.Computer.Entity).

“Ma l'IA è davvero intelligente?”, PuntoInformatico, 06 ottobre 2008

"Turing Test for Bots", slashdot, 24 gennaio 2009

“Tests that show machines closing in on human abilities”, newscientist, 22 gennaio 2009

“Un computer può pensare?”, vitadigitale, 05 ottobre 2008

“Elbot, la macchina quasi umana”, dachblog, 11 novembre 2008

A sentire i dibattiti che hanno animato la prima conferenza sulla Intelligenza Artificiale Generale (Artificial General Intelligence o AGI) svoltasi lo scorso anno, siamo prossimi ad un mondo in cui le macchine ragioneranno come gli umani.

Un mondo non proprio idilliaco che ci è già familiare perché ce lo ha raccontato molto bene la fantascienza (da 2001 Odissea nello Spazio a Blade Runner, da Terminator a AI di Spielberg fino a The Matrix).

I moderni software di AI possono competere e in alcuni casi vincere con l’intelligenza umana in ristretti campi come gli scacchi. Una AGI capace di pensare, ragionare, ricordare, affrontare qualunque tema è ancora fantascienza.

Peter Voss ha detto alla conferenza che la sua compagnia Adaptive AI ha lanciato la prima AGI commerciale del mondo. “SmartAction” è un sistema di “risposta interattiva vocale” ovvero un robot telefonico tipo quelli che ti chiamano a casa per sollecitarti a pagare le bollette o a mettere in pari il conto in banca.

Voss ha ammesso che la sua creazione è lontana dalle capacità umane, ma che tuttavia è più intelligente della media dei phonebots. Parlare con SmartAction può sembrare naturale come parlare con una persona vera. Ad esempio, il sistema è in grado di tracciare il flusso e il senso della conversazione ed interpretare a chi si riferisce un pronome come lei o tu. Inoltre, può dedurre se la linea è caduta nel mezzo della conversazione e richiamare automaticamente lo “stato mentale” in cui si trovava prima della disconnessione.

Le AGIs di solito sono fornite di una “conoscenza base” degli umani e del mondo, tipo che il mondo fisico è riempito da oggetti e cose viventi e che tutte le persone hanno una età e un nome conosciuti. Un software capace di ragionare e fare connessioni tra questi fatti, con una memoria, completa il cervello artificiale. In linea di principio, una AGI può trattare quasi ogni situazione senza avere una preparazione specifica.

Altri ricercatori, come Stan Franklin della University of Memphis, ritengono che sia una esagerazione perché le AGI possono eseguire ancora solo compiti specifici. Ben Goertzel, della compagnia Novamente che “addestra” le AGI usando umani mediante la realtà virtuale, dice che rispondere al telefono è comunque un compito lodevole.

“Innovation: Artificial brain for sale”, New Scientist, 06 febbraio 2009

“Virtual pets can learn just like babies”, NewScientist, 28 marzo 2008

Nella trilogia di “The Matrix”, i robot chiamati “sentinelle” mostrano i segni di quella che gli esperti chiamano “Swarm Intelligence” (SI), un tipo di intelligenza artificiale che imita il comportamento collettivo di sistemi decentrati e auto-organizzati (ad esempio quello di sistemi naturali come le colonie di formiche, gli stormi di uccelli o branchi di animali).

In “The Matrix Revolutions, la macchina “Deus Ex Machina coordina uno sciame di migliaia di robo-insetti per formare una gigantesca faccia animata.

L'imminente futuro potrebbe essere popolato da sciami di robot in grado di cooperare, comunicare, imparare, in poche parole, evolvere attraverso la reciproca interazione.

Piccoli roditori, non come entità autonome, ma componenti interagenti di un'entità unica: un gruppo intelligente. Sono i "cyber-rodents" (ciber-roditori) di Kenjii Doya, neurobiologo dell'Istituto di Scienza e Tecnologia do Okinawa, Giappone.

Le creature si dilettano in danze di corteggiamento, si accoppiano, interagiscono tra di loro, si adattano vicendevolmente. Agiscono in gruppo, ognuno di loro lotta per la sopravvivenza: accoppiamento e ricarica delle batterie, ognuna di queste due funzioni viene premiata con una ricompensa digitale, un breve codice software che rinforza quel comportamento in futuro. I più forti sopravvivono e tra loro possono sviluppare territori ed alleanze.

Ogni ciber-roditore è lungo 22 cm , è dotato di un processore, una telecamera, sensori, ruote motorizzate e un sistema di comunicazione ad infrarossi che gli permette di scambiare dati, o “accoppiarsi” con altri.

Il progetto di Doya dimostra che la ricompensa per obiettivi raggiunti dai singoli indica comportamenti vantaggiosi all'intera comunità, accresce lo spirito cooperativo e l'intelligenza del gruppo.

Colonie di insetti simulati, lasciando tracce digitali, riescono a individuare la strada migliore per le consegne fisiche o per lo smistamento di pacchetti dati in Rete. In altre parole, questi algoritmi garantiscono soluzioni efficienti a svariati problemi di logistica e distribuzione. L'Unilever li utilizza per l'immagazzinamento di serbatoi, sostanze chimiche e pacchi. La Southwest Airlines li usa per velocizzare le operazioni di carico. Molte società di consulenza, come la svizzera AntOptima, li ritengono uno strumento indispensabile.

Tali algoritmi sono alla base della gestione dei cosiddetti "swarm robots” (“sciami robot), insiemi di robot elementari (s-robot) che si auto-organizzano in base ad algoritmi ispirati appunto alla divisione dei compiti nelle formiche.

All'Università di Losanna, in Svizzera, Laurent Keller e i suoi colleghi, hanno "insegnato" ai robot alcune delle norme comportamentali utilizzate dalle formiche, e hanno scoperto che essi sono in grado di formare gruppi autonomi e cooperativi, che riescono meglio dei singoli robot.

La squadra di Keller ha usato piccoli robot già pronti, che correvano ronzando su ruote in un'arena sperimentale. Questi "robot-formiche" hanno formato una "colonia" e prendevano il cibo da un "nido" centrale. Erano programmati per cercare "cibo" simulato se il livello di energia della colonia si abbassava troppo. Se trovavano il cibo, lo riportavano al nido, facendo risalire il livello energetico della colonia. Una volta tornati al nido, ricaricavano anche le batterie.

Quindi il budget energetico della colonia dipendeva da quanto cibo i robot-formiche riuscivano a riportare, e da quanto ne utilizzavano per nutrirsi o semplicemente per starsene tranquilli dentro casa. I ricercatori hanno poi dato alle loro creazioni la capacità di comunicare con i propri compagni di nido. Nel corso di tali prove, se un robot-formica trovava due elementi nutritivi uno vicino all'altro, ne riportava uno al nido, poi tornava nello stesso posto guidando un altro robot-formica per farsi aiutare a portare il cibo. Le colonie con questa capacità ottenevano risultati migliori di quelle in cui i robot-formiche non potevano comunicare gli uni con gli altri. "Ci interessa vedere se emergano specializzazioni nei vari compiti quando i robot sono lasciati a evolversi individualmente", dice Keller.

Forse un giorno sciami di robot in grado di autogestirsi e addirittura di replicarsi potranno essere mandati in ambienti non familiari, fuori dalla portata del controllo umano, per esempio su altri pianeti. "Penso che in dieci anni potremmo arrivare all'autoriproduzione e a fabbriche in grado di produrre una gamma di macchine capaci di adattarsi agli ambienti locali", dice Pollack.

Computer partorisce tre robot”, corriere, 31 agosto 2000

“Swarm Intelligence: From Natural to Artificial Systems”, review

“Robot swarms 'evolve' effective communication”, NewScientist, 23 febbraio 2007

“Ant-like task allocation and recruitment in cooperative robots”, Nature 04 luglio 2000

Cyber-insetti con innesti robotici in grado di essere comandati a distanza e inviare informazioni audio e video di ciò che li circonda. Un campo di ricerca in cui il Governo giapponese ha già investito diversi milioni di dollari.

A lavorare ai "robo-roach", è un'équipe di scienziati dell'Università di Tokyo: il primo progetto riguarda l'innesto, su di un insetto artificiale, di una videocamera e di un microfono in miniatura. Il processo che vede dei comunissimi scarafaggi trasformarsi in sofisticati cyber-insetti prevede, con un'operazione chirurgica eseguita in anestesia, la rimozione di ali e antenne e l'innesto di un piccolissimo microchip che, attraverso il rilascio di impulsi elettrici, consente agli scienziati di controllare da remoto la direzione e la velocità di spostamento dei poveri insetti.

A quanto pare, i robo-roach potranno essere utilizzati per cercare le vittime di un disastro sotto le macerie oppure - ed è facile immaginare come sia proprio questo il fine principale - per effettuare missioni di spionaggio o di guerra.

“Robo-roaches give robot armies new reproductive prowess”, Engadget, 10 gennaio 2006

"ENTOMOPTER" è stato esso a punto da ricercatori del Georgia Institute of Technology, dell‘Ohio Aerospace Institute e della NASA. È il prototipo di quello che si può definire un «insettone» robotizzato.

La sua lunghezza è di circa due metri ed è dotato di due grandi ali che gli permettono di imitare molto bene il volo degli insetti. I ricercatori lo hanno progettato per esplorare la superficie di Marte. Gli attuali robot, come i vari modelli di rover, sono limitati perché possono percorrere solamente brevi tratti. Entomopter invece decolla e atterra verticalmente mutando immediatamente la sua traiettoria. Un volta atterrato può spostarsi sul terreno su quattro zampe, registrando paesaggio e dati.

Il suo punto di forza è il motore che funziona con vari tipi di carburante, chimici o elettrici. Senza bisogno di ossigeno e quindi ideale per l’ambiente di Marte. Gli Entomopter lavoreranno autonomamente e si riforniranno all’occorrenza in una piattaforma mobile che sintetizzerà il combustibile ricavandolo dall’ambiente circostante.

“Insetti robot alla conquista di Marte”, PuntoInformatico, 11 dicembre 2001

"Robofly", un prototipo micromeccanico di insetto volante sviluppato da scienziati del Robotics and Intelligent Machines Laboratory dell’Università della California, è stato progettato per comprendere l’origine aerodinamica che consente agli insetti di rimanere sospesi nell’aria.

L’insetto meccanico ha un’apertura alare di 25 centimetri. È alimentato da un olio minerale viscoso che permette alle ali un battito ogni cinque secondi, dinamicamente uguale alle ali da 2,5 millimetri dei moscerini che battono a un ritmo di 200 volte al secondo. È dotato di: una schiera di sensori, inclusi gli occhi; le ali posteriori sono utilizzate come giroscopio; una batteria di sofisticate strutture di rilevazione meccanica. Un mosaico tecnologico atto a calibrare il ritmo rotazionale, l’ampiezza del colpo d’ala e altri aspetti del movimento.

Inoltre, i sei motori che muovono le ali del "Robofly" possono essere programmati diversamente. È possibile così riprodurre il movimento di diversi insetti, o fare in modo che battano secondo uno schema arbitrario. In modo da verificare sperimentalmente più ipotesi.

Si è appurato che il volo in un secondo richiede 10 volte più energia della locomozione al suolo. L’aria cinematicamente è più viscosa dell’acqua: il rapporto tra viscosità e densità è maggiore. Tale rapporto è determinante per la fluidodinamica. Tra tutti gli animali che volano, gli insetti posseggono la maggior varietà anatomica e meccanica.

“How Spy Flies Will Work”, howstuffworks

“Look, Up in the Sky: Robofly”, 21 dicembre 2000

Un gruppo di piccole sonde robot potrebbe rivelarsi più durevole e flessibile di un robot singolo, ma ingombrante.

Il mesicottero (“mesicopter”), un elicottero dei rotori multipli, ridotto al formato di una grande mosca che è stato proposto come mezzo d'esplorazione di Marte. Attualmente i mesicotteri non sono molto più che piattaforme di formato di un'unghia, con motori grandi come chicchi di riso, che muovono quattro rotori (anche se i disegni di mesicottero con 6 rotori sono stati concepiti) che fanno 50.000 giri il minuto.

I rotori del mesicottero sono sottili quanto 50 micron, fatti di cera di resina epossidica, intagliati macchinalmente, incurvati e sottoposti a torsione dopo la regolazione. Il più piccolo di questi aggeggi può volare per appena alcuni secondi mentre alimentato dai condensatori; i loro cugini più robusti (si fa per dire: sono comunque così piccoli che alcuni potrebbero riposarsi sul palmo della vostra mano, con i loro rotori lunghi appena 1,5 cm, punta contro punta) possono gestire 20 minuti di volo per mezzo di batterie al litio.

L'idea è di una nave spaziale che sgancia sciami di mesicotteri che portano comandi, sensori, macchine fotografiche lillipuziane e altro hardware nell'atmosfera di Marte.

L'energia è l'ostacolo più grande. Mesicotteri potrebbero essere concepiti per volare a scatti, atterrando frequentemente per ricaricare utilizzando l'energia solare, ma persino quello sarebbe un passo da gigante per la tecnologia fotovoltaica e quella della batteria, secondo l'ingegnere aeronautico Ilan Kroo dell'Università di Stanford.

Oltre ad essere testati per volare nell'atmosfera terrestre, i dispositivi sono stati sperimentati in una camera di simulazione del pianeta Marte. Kroo si è detto d'accordo che l'ambiente migliore per i mesicotteri e altri robot di volo potrebbe essere ancora più esotico: "Titano potrebbe essere un posto ideale per i robot aerei esploratori, visto la sua atmosfera ad alta densità e la bassa gravità".

Il 18 agosto 2004, la giapponese Seiko Epson Corp ha presentato alla stampa il micro-robot volante più leggero al mondo: pesa solo 12 grammi.

Il robot, che assomiglia ad un micro-elicottero, dispone di due sottilissimi motori ultrasonici. Può essere controllato in remoto via computer ed è dotato di una mini-camera in grado di inviare immagini.

Entro due anni, secondo le dichiarazioni della Seiko Epson, raggiungerà una autonomia sufficiente ad un uso più pratico. Verrà impiegato in operazioni di sorveglianza, di ricerca, e, anche se la compagnia non lo dice, di spionaggio.

“Seiko Epson Corp. Develops Micro Flying Robot”, redorbit, 20 agosto 2004

Il pipistrello robot “COM-BAT” è un concentrato di tecnologia dalle potenzialità pressoché illimitate, il cui progetto è sovvenzionato direttamente dal Ministero della Difesa USA.

Lungo quasi 15cm e mezzo, racchiude in sé un notevole bagaglio tecnologico: videocamere per la stereovisione, trasmettitore radio, microfoni, sensori per identificare gas nocivi e radiazioni nucleari e persino un sistema di navigazione dotato di radar per consentirne anche l'utilizzo in missioni notturne. Per quanto riguarda l'alimentazione, il robo-pipistrello monta batterie al litio che possono essere ricaricate dall'energia eolica, da quella solare e persino dalle vibrazioni.

Si sta già lavorando per creare un esemplare molto più piccolo, la cui grandezza rispecchi quella di un vero pipistrello. Il modello finale avrà più autonomia, sia a livello energetico che a livello operativo: stando agli ingegneri, sarà in grado di muoversi autonomamente grazie all'implementazione del sistema di navigazione e potrà volare per molti chilometri, grazie a batterie a lunga durata.

“La spia è un pipistrello robot”, PI, 26 settembre 2008

Uno studio presentato all'International Solid-State Circuits Conference (ISSCC) dal ricercatore catalano Raimon Casanova, dell'Università di Barcelona documenta la possibilità di realizzare sciami di microrobots.

I risultati della ricerca fin qui raggiunti dal progetto "Intelligent Small World Autonomous Robots for Micro-manipulation" (I-SWARM), finanziato con 4,4 milioni di euro dall'Unione Europea, mostrano come gruppi coordinati di microrobot, della dimensione di 2,3 millimetri di lato e del peso di 73 milligrammi, dotati di tre gambe piezoelettriche, riescono a muoversi, girarsi, fermarsi, mentre la comunicazione con gli altri componenti dello sciame è resa possibile da quattro coppie di fotodiodi a LED.

Per quanto riguarda il "cervello", ciascuno dei microrobot dipende una memoria riprogrammabile delle dimensioni di 8KB, ed in grado di stivare dati fino a 2KB.

L'alimentazione è garantita da micro-pannelli fotovoltaici da 3,9mm di lato: per governare al meglio i consumi, inoltre, gli scienziati li hanno dotati di dispositivi di power management ad hoc.

A guidare le azioni dello sciame è un sistema di intelligenza artificiale “event-driven” che individua in ogni istante la migliore corrispondenza tra i dati ambientali (registrati dai sensori) e le istruzioni contenute nella memoria programmabile.

Per il momento, gli I-SWARM presentano rilevanti limiti operativi. Il set di azioni che ciascun apparecchio può svolgere, in particolare, è molto circoscritto, e le loro memorie devono essere riprogrammate ad ogni accensione (attraverso un procedimento che dura ben 45 minuti).

“Piccoli nanocosi crescono”, PuntoInformatico, 13 febbraio 2009

"Le tecnologie dei computer non sono neutrali: dipendono dagli uomini e dai loro valori sociali e culturali. Dobbiamo definire una nuova agenda per l'interazione fra uomini e computer nel ventunesimo secolo, che anticipi e preveda l'impatto della tecnologia piuttosto che limitarsi a reagire".

Il documento intitolato "Human-Computer Interaction in the year 2020" rilasciato da Microsoft Research riassume quello che 45 ricercatori prevedono sarà il futuro dell'informatica e dell'impatto che lo sviluppo tecnologico avrà sugli uomini, in un ipotetico anno 2020.

Secondo gli esperti, quella attuale è l'era del passaggio ai dispositivi portatili, mentre il 2020 sarà l'era dell'ubiquità. Il termine ubiquità indica la qualità di essere presenti contemporaneamente in ogni luogo. Già oggi grazie ad Internet siamo in contatto con quasi ogni parte del mondo in tempo reale. Nel futuro, secondo Microsoft, questo aspetto sarà acutizzato: ogni persona avrà a disposizione centinaia di computer e di dispositivi presenti in ogni luogo - case, automobili, uffici, scuole, strade, piazze, luoghi pubblici - costantemente collegati alla rete, fondando le basi per quella che viene chiamata “iperconnettività”.

Se oggi siamo in grado di memorizzare su dispositivi grandi pochi millimetri la stessa quantità di informazioni contenuta in migliaia di libri, per Microsoft, con l'aumento delle capacità di storaggio e la diminuzione delle dimensioni dei dispositivi di memorizzazione si raggiungerà “la fine dell'effimero”: tutto potrà essere memorizzato ed archiviato. Tutte le informazioni saranno registrabili, tutti i nostri movimenti tracciabili, tutte le nostre azioni monitorabili.

I ricercatori Microsoft prevedono anche che saremo sempre più tecno-dipendenti. La tecnologia ha avuto negli ultimi anni un impatto notevole sulle nostre attività quotidiane e sul nostro modo di lavorare, fare la spesa, andare in banca, acquistare, vendere, parlare, avere rapporti sociali. I dispositivi elettronici sono entrati nella nostra vita tanto che già oggi non riusciamo a fare a meno degli elettrodomestici. Per Microsoft, quanto più dipendiamo dalle tecnologie, tanto più dobbiamo renderle affidabili.

Being Human: Human-Computer Interaction in the Year 2020

Secondo il padre del telefonino, Martin Cooper, presto i telefonini saranno parte del corpo della persona, una protesi comunicativa che permetterà a chiunque di intrattenere relazioni con il mondo che lo circonda.

Nel giro di 15 o 20 anni, prevede Cooper, le persone conviveranno con dispositivi wireless impiantati nel corpo in grado di monitorare le condizioni di salute, di comunicare direttamente con i medici curanti, i quali, impartendo istruzioni ai dispositivi integrati, cureranno il paziente che li porta con sé. "La diagnosi e la cura - vaticina Cooper - saranno effettuate e somministrate istantaneamente, in maniera completamente wireless".

Lo stesso corpo dell'uomo sarà la fonte per alimentare il fabbisogno energetico delle macchine che ospiterà. Sono numerosi gli esperimenti che dimostrano come l'energia meccanica sviluppata all'interno del corpo umano possa essere trasformata in energia elettrica.

Cooper non parla di queste innovazioni come fossero fantascienza, ma ammette che ancora in molti sembrano diffidare. Ricorda però che 35 anni fa l'idea della comunicazione mobile aveva lo stesso impatto sulle persone.

“Il padre del telefonino preconizza l'umanità aumentata”, PuntoInformatico, 01 aprile 2008

Siamo entrati nella fase (transumanesimo) in cui uomini e macchine hanno cominciato ad integrarsi che porterà allo sviluppo di una nuova specie postumana: l’ “umanità aumentata”, modificata, tecno-naturale, tecno-biologica, ciborganica, mutante.

Pochi mesi fa, in un’intervista a CBS Interactive, il futurologo Ray Kurzweil aveva dichiarato che nel 2029 sarà praticamente impossibile distinguere tra uomini e macchine.

Il teorico della “legge del ritorno accelerato”, da anni profeta della prossima futura singolarità tecnologica, è convinto che ci sarà un punto nello sviluppo della tecno-civilizzazione in cui il progresso tecnologico darà vita a intelligenze artificiali che si muoveranno autonomamente e saranno in grado di produrre altre macchine sempre più intelligenti e autocoscienti fino a superare i limiti dell’intelligenza umana.

La rivoluzione biotech, dal 2010 al 2020 promette di correggere molti dei nostri “difetti” biologici, tra cui la vulnerabilità alle malattie, e frenare l’invecchiamento. I dottori saranno in grado di ricrescere cellule, tessuti e organi per rimpiazzare le parti invecchiate. Verso la metà del 2020, le aspettative di vita supereranno i 200 anni.

Verso il 2025, avremo macchine molecolari che produrranno per noi, nelle nostre case, cibo, vestiti e quant’altro, mentre nanorobot medici navigheranno nel nostro flusso sanguigno per mantenerci in salute.

Lo stadio finale sarà, verso il 2020, il conseguimento di intelligenze artificiali superiori in grado di ragionare come degli umani ma con in più la possibilità di accedere ai dati e alla conoscenza con velocità con velocità milioni di volte

Merging with machines inevitable, scientists”, futureblogger, 01 aprile 2008

Nel 2012 avremo, secondo i piani di IBM, “Sequoia, un supercomputer in grado di offrire velocità di calcolo pari a 20 petaflop (cioè 20 milioni di miliardi di operazioni in virgola mobile eseguite al secondo), 20 volte più veloce del più veloce supercomputer esistente, sempre IBM, “Roadrunner”. Sequoia utilizzerà una memoria di 1.6 petabytes (cioè 1,6 milioni di GB).

Le performance sono in linea con le previsioni espresse da Ray Kurzweil in "The Singularity is Near": "supercomputers will achieve my more conservative estimate of 1016 cps [computations per second] for functional human-brain emulation by early in the next decade".

Per rendere l'idea della capacità elaborativa, sarà di circa 500.000 volte superiore a quella del più veloce processore per PC attualmente esistente, l'Intel core2 quad extreme QX9775, che ha una capacità elaborativa di 37GFLOPS.

Per rendere l'idea delle dimensioni della memoria, sarà di circa 250.000 volte superiore a quella di un comune PC desktop (4GB) e pari più o meno al traffico giornaliero medio su Youtube, attualmente di circa 1 petabyte.

“IBM: ecco la nuova generazione di supercomputers”, apriticielo, 05 febbraio 2009

Google e la NASA hanno chiamato proprio Kurzweil a dirigere la Singularity University, una scuola di alta formazione tecnologica che inizierà i lavori la prossima estate e che si ispira al libro scritto da Kurzweil intitolato «The Singularity Is Near». Oltre a BigG e alla National Aeronautics and Space Administration, la scuola vede il sostegno di X-Prize, una fondazione statunitense impegnata in progetti per lo sviluppo dell’umanità.

Vint Cerf, vicepresidente e Chief Internet Evangelist di Google, ha spiegato che l’università avrà sede nella Silicon Valley e che sarà uno strumento prezioso per affrontare le nuove sfide tecnologiche che il mondo presenterà negli anni a venire. «Abbiamo bisogno di preparare i cuori e le menti delle nuove generazioni», ha detto Cerf.

Ecco, allora, il prossimo avvio di corsi per laureati e studenti universitari che dureranno in media nove settimane e costeranno 25.000 dollari: biotecnologia, bioinformatica, robotica, nanotecnologie, fisica, economia e scienze politiche.

L’obiettivo della Singularity University appare dunque chiaro: preparare gli uomini ad affrontare quel futuro in cui saranno le macchine artificiali a prendere il sopravvento in determinati settori, con la speranza che il sorpasso dei computer possa essere gestito al meglio e convogliato verso iniziative per il bene della comunità.

«Non ci sarà», dice Kurzweil, «una comprensibile distinzione tra dove finiscono gli esseri umani o le intelligenze biologiche e dove hanno inizio quelle artificiali». Come il progresso è in grado di aumentare le potenzialità degli esseri umani così la tecnologia è in grado di dare vita a quella che secondo Kurzweil sarà una vera e propria nuova specie vivente.

A dare credito alle previsioni dello scienziato-futurologo americano è un esperimento pubblicato sulla rivista Nature Biotechnology da Michel Giugliano, svizzero che lavora dell'Università di Anversa e da Laura Ballerini dell'Università di Trieste presso il centro Brain. I ricercatori italiani e svizzeri hanno collegato alle cellule nervose nanotubi al carbonio, aumentando l'eccitabilità neurale.

I nanotubi al carbonio hanno la capacità di condurre elettricità e i neurologi hanno dimostrato che questi materiali possono formare «giunzioni strette», un po' come quelle naturali tra cellule, con le membrane dei neuroni. Questo permette di creare collegamenti artificiali e vere e proprie «scorciatoie» per il passaggio del segnale nervoso. L'idea potrebbe essere sfruttata per creare ponti neurali che aggirino traumi o lesioni e interfacce cervello-computer per neuroprotesi.

“I risultati riportati nel nostro lavoro - spiegano gli autori nell'articolo - indicano che i nanotubi potrebbero influenzare l'elaborazione neurale dell'informazione”. Aumentando le conoscenze sul funzionamento delle reti ibride neuroni-nanotubi, si potrebbero aprire le porte allo sviluppo di materiali 'intelligenti' per la riorganizzazione di sinapsi all' interno di una rete neurale.

Secondo Antonio López Peláez, professore di sociologia alla National Distance Learning University (UNED), in Spagna, co-autore di uno studio sul futuro impatto sociale dei robot, condotto in collaborazione con l’Institute for Prospective Technological Studies, entro il 2020 i robot “saranno in grado di vedere, agire, parlare, gestire il linguaggio naturale e avranno sviluppato una propria intelligenza”.

Sarà una rivoluzione: da macchine sofisticate, i robot diverranno strumenti utili a svolgere un gran numero di lavori e attività sociali. Inoltre, l’innesto di componenti robotici nei nostri corpi come impianti neurali, accrescerà le potenzialità del nostro pensiero razionale mentre nanorobot in grado di navigare nel flusso sanguigno terranno pulite le nostre arterie aumentando le nostre aspettative di vita.

Lopez si riferisce in particolare al “nano-wheel”, una microscopica macchina a propulsione chimica capace di muoversi all’interno del corpo umano imitando il movimento di un piroscafo a ruote e di assumere diverse forme utilizzabile per trasportare medicinali

I teams della University of Sheffield e della University of Barcelona che hanno creato il dispositivo contano di riuscire a ridurre ulteriormente le sue dimensioni, portandolo a livello della nanoscala, in modo da renderlo utilizzabile per navigare nel flusso sanguigno.

“Università per le nuove tecnologie di Google e Nasa per un mondo dove i robot supereranno l'uomo”, webmasterpoint, 06 febbraio 2009

“Controlling the march of super-intelligent robots”, techradar, 10 febbraio 2009

“Singularity, part 1”, foresight, 10 febbraio 2009

“Intel porta la singolarità tecnologica al grande pubblico”, apriticielo, 26 gennaio 2009

”Robotics Integrated With Human Body In Near Future”, ScienceDaily, 08 dicembre 2008

“Faulty Brain Wiring May Be Bypassed With Carbon Nanotubes”, ScienceDaily, 22 dicembre 2008

“Tiny 'paddleboat' could ship drugs around the body”, NewScientist, 04 dicembre 2008

“Kurzweil: l'uomo macchina nascerà nel 2029”, PI, 18 febbraio 2008

Il percorso dell'innovazione potrebbe portare a macchine a tal punto complesse da non essere più gestibili dall'uomo.

Secondo Alan Ganek, vicepresidente responsabile della divisione Autonomic Computing di IBM, “in un sistema capace di autogestirsi, l'uomo deve limitarsi a definire le regole generali di funzionamento senza interessarsi della gestione pratica”.

Il progetto dell'autonomic computing abbraccia i concetti di: auto-configurazione (intesa come possibilità di adattare il sistema ai veloci cambiamenti dell'ambiente esterno, aumentando così la sua velocità di risposta), auto-ottimizzazione (per ottenere un'efficienza operativa mediante il tuning delle risorse e del carico di lavoro), auto-gestione e auto-protezione (per mettere al sicuro informazioni e risorse anticipando, rilevando, identificando e proteggendo il sistema da attacchi maliziosi e non).

“L'uomo chiederà alle macchine di evolversi”, PuntoInformatico, 02 ottobre 2008

I computer, quando funzionano male, possono uccidere. È quanto sostiene Joe Weiss, un esperto americano di sicurezza informatica.

Macchine impazzite che travolgono esseri umani, preda del delirio della loro intelligenza artificiale. Il primo caso di computer fuori controllo che causarono la morte di un gruppo di persone risale al 1999, e più precisamente all'incidente del 10 giugno a Bellingham (Washington, USA), quando una conduttura che trasportava gasolio si ruppe riversando centinaia di migliaia di litri di carburante e causando un incendio in cui morirono tre persone.

Nel corso del seminario tenutosi alla RSA Conference 2008, Weiss ha spiegato di aver "analizzato le registrazioni di oltre 90 incidenti avvenuti nelle industrie di tutto il mondo" e di aver stabilito che a causare quel terribile incendio nello stato del nord-ovest hanno certo contribuito i danni fisici alla conduttura e una valvola difettosa, ma che la causa principale del problema fu il sistema informatico che controllava l'impianto.

Un blocco dei computer, iniziato trenta minuti prima della tragedia, impedì ai tecnici di provvedere ad una procedura di emergenza per diminuire la pressione nella conduttura. Una eventualità che oggi, secondo Weiss, si sarebbe potuta evitare: secondo l'esperto, la sicurezza di questo tipo di impianti industriali dipende dall'approvazione di uno standard, il “NIST 800-53”, che dovrebbe essere in grado di garantire che tragedie del genere non si ripetano.

Se il NIST 800-53 venisse approvato, diventerebbe automaticamente obbligatorio per tutte le agenzie federali - l'auspicio di Weiss è che anche i privati, le grandi aziende, decidano di adottarlo – l’utilizzo di registri di sistema non modificabili, password individuali, e account utente con poteri limitati alle mansioni specifiche. Tutte precauzioni che non c'erano a Bellingham, e che oltre ad aver causato morti e feriti, hanno impedito di stabilire se ci fossero responsabilità del personale presente nel centro di controllo dell'impianto.

Weiss, che un tempo era un esperto progettista dei sistemi di controllo, è preoccupato dalla situazione: "Fino ad otto anni fa la mia vita consisteva nel realizzare sistemi di controllo usabili ed efficienti e, nel contempo, estremamente vulnerabili: ed è proprio quanto trovereste ancora oggi in moltissime realtà industriali. Il problema è che non siamo nel 1999, ormai siamo nel 2008".

Il rischio, come ha sottolineato la conferenza tenuta da Ira Winkler durante la stessa manifestazione, è che fatti del genere possano ripetersi. L'allarme è stato lanciato da tempo dagli addetti ai lavori. Ai computer sono sempre più spesso affidate mansioni importanti, che potenzialmente possono mettere in gioco moltissime vite umane. E quando sbagliano, gli effetti possono essere devastanti.

“1999, la rivolta delle macchine”, PuntoInformatico, 11 aprile 2008

“Industrial Control Systems Killed Once and Will Again, Experts Warn”, Wired blog, 09 aprile 2008

Il massiccio schieramento di armi robotiche previsto nei prossimi anni dalla Difesa statunitense potrebbe incappare nel pericolo malware.

A sostenerlo sono i ricercatori della US Defence Science Board che avvertono: l'utilizzo di ampie porzioni di codice proveniente dall'estero e, più in generale, il ricorso anche a tecnologie commerciali per la realizzazione delle divisioni robotiche potrebbe rivelarsi un boomerang.

Se è vero che la Difesa statunitense non ha ancora progettato Terminator sterminauomini, nei suoi progetti sono già transitati robo-elicotteri da guerra e carri armati intelligenti, sistemi in certi casi archiviati per mancanza di fondi. Ma, come sottolinea The Register, i sistemi da combattimento su cui sta lavorando il Pentagono, come i Future Combat Systems (FCS), rimangono impressionanti.

In questo quadro, rileva AviationWeek, la Science Board si interroga sulle misure da prendere per impedire che società straniere che vendano alla Difesa software corrotto possano interferire con gli strumenti collegati in rete della nuova generazione di armamenti.

Il corposo rapporto della Board, parla esplicitamente della influenza straniera sul software della Difesa. Secondo la Board il Dipartimento della Difesa fin qui ha messo in atto forme di protezione che possono tenere alla larga minacce "di avversari poco sofisticati e senza grandi risorse", tutele che però "non appaiono sufficienti a proteggere le capacità informatiche dai danni di un avversario sofisticato che voglia colpire l'efficienza dei sistemi FCS".

La questione è nota da tempo e il Pentagono ha assicurato più volte di aver messo in campo sistemi di debugging o, meglio ancora, di certificazione che sarebbero in grado di individuare eventuali problematiche di sicurezza nel codice. Un insieme di operazioni sulle quali però la Board si dimostra scettica, sostenendo la non assoluta infallibilità degli attuali sistemi di "individuazione del codice malevolo". Vista l'assoluta necessità di mantenere il più assoluto controllo sulle operazioni degli armamenti di domani, ogni preoccupazione appare giustificata.

“Terminator a rischio malware”, PuntoInformatico, 07 novembre 2007

L’Ethics + Emerging Technologies Group di Cal Poly ha rilasciato il rapporto "Autonomous Military Robots: Risk, Ethics, and Design" a cui hanno lavorato vari ricercatori finanziati dallo US Department of Navy, Office of Naval Research (ONR).

Il rapporto illustra le maggiori problematiche di tipo etico sollevate dagli attuali stati di avanzamento della robotica, dai differenti approcci alla programmazione (top-down, bottom-up, ecc.), responsabilità legali fino alle morti accidentali e alla proliferazione dei “robo-diritti”.

"Il pubblico di solito è molto sorpreso nel sentire dell’importanza rivestita dai robot in campo militare”, dice il Dr. Patrick Lin, direttore del gruppo di ricerca e co-autore del rapporto, "quello che manca è soprattutto un dialogo sui rischi posti dall’impiego di queste macchine, a cui si vuole dare una sempre maggiore autonomia e perfino la capacità di fare delle scelte, come decidere se sferrare un attacco o meno".

L’interesse del settore militare americano per l’uso di robot da combattimento è cresciuto in questi ultimi anni insieme alle preoccupazioni per la sicurezza di queste nuove armi. Ad esempio, nell’ottobre del 2007 un malfunzionamento di un cannone robot in Sudafrica ha provocato la morte di nove soldati e il ferimento di altri 14.

"A chi daremo la colpa per condotte improprie o non autorizzate causate da un robot autonomo: ai progerttisti, all’azienda che lo produce, al controllore/supervisore del robot, al comandante, al Presidente degli Stati Uniti o al robot stesso?”, si chiede il rapporto nella sua premessa.

Secondo un mandato del Congresso, dal 2010, un terzo dei veicoli aerei saranno privi di un pilota umano mentre entro il 2015 lo saranno tutti i veicoli terrestri. Ciò significa che si intende dare un forte impulso allo sviluppo della robotica militare, in particolare dei veicoli autonomi, aumentando il rischio di far nascere progetti o programmi inadeguati.

Secondo il rapporto, migliaia di robot semi-autonomi sono già utilizzati in Iraq e Afghanistan per rimpiazzare I soldati umani nei compiti più “noiosi, sporchi e pericolosi”. Velivoli UAVs (Unmanned Aerial Vehichles) come il drone aereo Predator possono svolgere missioni di ricognizione ma dipendono dalla supervisione umana per sparare dei missili.

Nel corso del 2007, robots hanno netraulizzato 10,000 “Improvised Explosive Devices” (IEDs.) – Dispositivi Esplosivi Improvvisati – che sono responsabili del 40% delle vittime in Iraq dal 2003.

Il rapporto suggerisce che non solo questi robot possono salvare le vite di molti soldati americani, ma anche quelle di molti civili che subiscono atrocità da parte dei soldati umani.

"Per far sì che I robot militati contribuiscano considerevolmente a rifurre le condotte non etiche su campi di battaglia e dunque a ridurre costi umani e politici, bisogna ragionevolmente perseguire il loro sviluppo e allo stesso tempo studiare la loro capacità di agire eticamente”.

“Cal Poly faculty explore military robotics issues”, mustangdaily, 11 febbraio 2009

“Unmanned Surge: 3000 More Robots for War”, Wired, 13 agosto 2007

"È giunta l'ora di stabilire delle regole etiche per i robot", dice su Science Noel Sharkey, professore di intelligenza artificiale e robotica all'Università di Sheffield, interrogandosi sul ruolo, sempre più importante, che i robot stanno prendendo nella nostra vita.

“È da più di un anno che 14 aziende in Giappone e in Corea del Sud hanno messo a punto dei robot che si occupano dei bambini. Bisognerà capire se questo porterà a una diminuzione di cura dei bambini o no".

I robots destinati a lavorare a stretto contatto con gli umani dovranno obbedire alla Leggi della Robotica immaginate da Isaac Asimov.

Un esempio di robot che obbedisce alla prima legge di Asimov – “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno” - è il braccio robotico “Kuka” incredibilmente leggero per la sua potenza: pesa solo 13kg e può sollevare anche il suo stesso peso. Dunque Kuka è passivamente sicuro in quanto non ha la massa che di solito può provocare incidenti.

Ma Kuka è anche in grado di monitorare il suo movimento mediante I sensori nelle sue giunzioni: se il robot dovesse venire in contatto con un oggetto o una persona, i suoi motori immediatamente invertono la direzione, e questo costituisce un sistema di sicurezza attivo.

Secondo Ronald Arkin, professore al Georgia Tech, autore di alcuni software per i robot militari dell'esercito americano, "i robot possono agire più eticamente sul campo di battaglia di quanto facciano adesso gli esseri umani. Bisogna dotarli di alcune regole che non possano essere infrante".

Il problema se lo stanno ponendo anche gli esperti di robotica del Pentagono, che hanno stanziato circa 4 miliardi di dollari per finanziare la realizzazione di robot da combattimento in grado di distinguere i civili dai militari.

Privi di emozioni, i soldati robotici saranno immuni alla rabbia, allo stress da campo di battaglia che colpisce così tanti reduci e, quel che più conta, non dovranno preoccuparsi di salvare la propria vita a discapito di quella degli altri, perché la consapevolezza di avere una vita in sostanza non fa parte della loro dotazione standard.

Secondo quanto riferito dal Daily Telegragh, il Pentagono ha contattato esperti inglesi per la creazione di un software in grado di innestare nella mente dei robot da guerra il rispetto della convenzione di Ginevra.

Colin Allen, professore con una cattedra in filosofia della scienza presso la Indiana University, dice che il Pentagono sta cercando la risposta alla questione se sia possibile o meno fare in modo "che armi automatizzate siano in grado di conformarsi alle leggi di guerra".

Volenti o nolenti, la robotica e le routine di IA hanno già abbondantemente sforato nella sfera di pertinenza dell'etica, dice Allen: già "abbiamo in circolazione computer che prendono decisioni" in grado di influenzare la vita delle persone, e lo fanno "in maniera eticamente neutra".

I "terminator" del Pentagono avranno dunque codificate nei loro cervelli elettronico-digitali le famose direttive di Asimov?

Sarebbe un disastro, avverte Noel Sharkey della Sheffield University. "Mi fa venire un brivido freddo lungo la spina dorsale", dice l'informatico famoso per il suo coinvolgimento nello show televisivo “Robot Wars”, "ho lavorato nel campo dell'intelligenza artificiale per decenni e l'idea che un robot debba prendere decisioni sulla terminazione di vite umane è semplicemente terrificante".

Naturalmente la realizzazione pratica resta un problema, perché dotare un robot di considerazioni morali aggiunge sfide nuove a un compito già difficile di per sé, cioè la realizzazione di "sistemi affidabili, efficienti e sicuri".

Il Allen, autore del libro "Moral Machines: Teaching Robots Right From Wrong" ("Macchine Morali: insegnare ai robot a distinguere ciò che è giusto da ciò che è sbagliato"), pensa che sia possibile spiegare a un sistema come riconoscere ciò che è importante dal punto di vista etico.

Il problema, infatti, è insegnare a decidere se la distruzione di un obiettivo militare sia possibile senza causare vittime innocenti o se sia meglio rimandare, nonché far sì che sia in grado di distinguere le persone che rappresentano una minaccia dai semplici abitanti delle zone di guerra.

Sharkey ricorda che sia Israele che la Corea del Sud hanno già installato robot armati lungo i loro confine, e che manca poco agli scienziati di quei paesi per sviluppare robot da battaglia in grado di prendere decisioni da soli su quando attaccare: "Non stiamo parlando di un futuro lontano, ma di una realtà di domani, sulla quale è bene ragionare".

Si tratta di fare in modo che gli automi diventino "sempre più consapevoli delle situazioni" e possano così decidere da soli per il meglio.

Il problema si pone non solo per la robotica militare, ma in generale, anche per gli usi ciivili, come nel caso di “robo-inservienti” tipo “My Spoon”, il robot giapponese che dà da mangiare ai malati.

"L'aiuto che i robot possono dare ai genitori per la cura dei bambini è grande", scrive ancora Sharkey, "e non c'è dubbio che la frequentazione di un robot può essere un esperienza divertente e stimolante per un bambino, sempre che questa frequentazione non duri troppo a lungo". Ma bisogna ancora capire quali possono essere i risvolti psicologici di questa compagnia, sottolinea Sharkey, ricordando che gli studi fino ad oggi condotti sulle scimmie hanno portato alcune volte a risultati inquietanti.

“British scientist warns we must protect the vulnerable from robots”, physorg, 18 dicembre 2008

“Lethal autonomous systems: The ethics of programming robots for war”, thetakeaway, 25 novembre 2008

“Il Pentagono riprende Asimov: Regole etiche per i robot", Repubblica, 18 dicembre 2008

LINKS

Technological singularity – Wikipedia

Artificial intelligence - Wikipedia

Ray Kurzweil's website

WORLDROBOTICS

INTERNATIONAL FEDERATION OF ROBOTICS

progetto Dexmart

Mitsuo KAWATO

PERCRO laboratory

Decisions in Motion

Supercomputer - wikipedia

Blue Gene - wikipedia

NEURON

Blue Brain Project

DARPA DSO :: SyNAPSE Teaming Site

The Center for Circuit & System Solutions – C2S2

Laboratory of Intelligent System

“Evolutionary robotics” - Wikipedia

www.ibm.com/research

The GOLEM Project

Bio-inspired assembly (the EU Golem project)

EURON

Center of Applied Autonomous Sensor Systems

Flops - wikipedia

Petabyte - wikipedia

Evolutionary algorithm - Wikipedia

Neural Network - Wikipedia

RepRap

The BioRC Biomimetic Real-Time cortex project

I-SWARM

Autonomous Military Robots: Risk, Ethics, and Design

Robotic Prostatectomy & da Vinci Robotic Surgery

Open source robotics

Willow Garage

Giorgia Tech Mobile Robot Lab

Bristol Robotics Laboratory- Jules

elbow

Test di Turing - Wikipedia

Cybernetics Intelligence Research Group (CIRG) - University of Reading

Loebner Prize 2008

ALICE

Botprize

2008 IEEE Symposium on Computational Intelligence and Games

first conference on Artificial General Intelligence (AGI)

Adaptive AI

SmartAction

Novamente

YouTube - Freaky Robot Girl

Tre leggi della robotica - Wikipedia

Microsoft Robotics

Swarm intelligence - Wikipedia

Micro Air Vehicle"

Entomopter" Project

MAVbots

Miniature UAVs - Wikipedia

SECOM Co. Ltd. - My Spoon

Interactive Intelligent Robotics Laboratory

Defense Science Board

Future Combat Systems

NIST 800-53

Cyber Rodent Project

I-SWARM - Intelligent Small World Autonomous Robots for Micro-Manipulation

Unmanned aerial vehicle - Wikipedia

Improvised explosive device - Wikipedia

MoralMachines

OUT OF CONTROL

IL NOSTRO FUTURO POSTUMANO 6

Posta un commento
Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank