Post in evidenza

Warfare Revolution

Some of the world’s leading robotics and artificial intelligence pioneers are calling on the United Nations to ban the development and us...

domenica 1 marzo 2015

INTELLIGENZA ARTIFICIALE L'INVENZIONE FINALE




«L’intelligenza artificiale può essere la più grande conquista dell’uomo. Ma anche l’ultima». (Stephen Hawking)

"Lo sviluppo di una piena intelligenza artificiale può innescare la fine del genere umano". E' quanto afferma il fisico britannico Stephen Hawking in un'intervista alla Bbc. In un simile scenario "gli umani - dice - che sono limitati da una lenta evoluzione biologica, non potrebbero più competere e sarebbero soppiantati".

Una 'minaccia' che però lo stesso Hawking non vede come imminente: "Credo che rimarremo in controllo della tecnologia per un tempo decentemente lungo". "Intanto - conclude - verrà realizzato il potenziale che (l'intelligenza artificiale) presenta nella soluzione di molti problemi".

Sembra la trama di un film già visto. Da HAL 9000 di Kubrick al più apocalittico Terminator, o al recentissimo Trascendence dove uno scienziato, interpretato da Johnny Depp, trasporta la propria mente in un computer. Isaac Asimov lo intuì comunque decenni prima, formulando le «Tre leggi della robotica». E ora il monito arriva anche da uno dei più importanti fisici viventi, Stephen Hawking: l’implementazione dell’intelligenza artificiale (AI) potrebbe diventare una seria minaccia per il genere umano.



In a open letter signed by Professor Russell, and among others, the cosmologist Stephen Hawking, it was argued that urgent research was needed into how to limit the destructive potential of AI.



L'allarme è stato lanciato da tempo dagli addetti ai lavori. Ai computer sono sempre più spesso affidate mansioni importanti, che potenzialmente possono mettere in gioco moltissime vite umane. E quando sbagliano, gli effetti possono essere devastanti.

"Il pubblico di solito è molto sorpreso nel sentire dell’importanza rivestita dai robot in campo militare”, dice il Dr. Patrick Lin, "quello che manca è soprattutto un dialogo sui rischi posti dall’impiego di queste macchine, a cui si vuole dare una sempre maggiore autonomia e perfino la capacità di fare delle scelte, come decidere se sferrare un attacco o meno".

"A chi daremo la colpa per condotte improprie o non autorizzate causate da un robot autonomo: ai progerttisti, all’azienda che lo produce, al controllore/supervisore del robot, al comandante, al Presidente degli Stati Uniti o al robot stesso?”

I "TERMINATOR" DEL PENTAGONO AVRANNO DUNQUE CODIFICATE NEI LORO CERVELLI ELETTRONICO-DIGITALI LE FAMOSE DIRETTIVE DI ASIMOV?

SAREBBE UN DISASTRO, AVVERTE NOEL SHARKEY DELLA SHEFFIELD UNIVERSITY. "MI FA VENIRE UN BRIVIDO FREDDO LUNGO LA SPINA DORSALE", DICE L'INFORMATICO FAMOSO PER IL SUO COINVOLGIMENTO NELLO SHOW TELEVISIVO “ROBOT WARS”, "HO LAVORATO NEL CAMPO DELL'INTELLIGENZA ARTIFICIALE PER DECENNI E L'IDEA CHE UN ROBOT DEBBA PRENDERE DECISIONI SULLA TERMINAZIONE DI VITE UMANE È SEMPLICEMENTE TERRIFICANTE".

Il problema si pone non solo per la robotica militare, ma in generale, anche per gli usi ciivili, come nel caso di “robo-inservienti” tipo “My Spoon”, il robot giapponese che dà da mangiare ai malati.

"L'aiuto che i robot possono dare ai genitori per la cura dei bambini è grande", scrive ancora Sharkey, "e non c'è dubbio che la frequentazione di un robot può essere un esperienza divertente e stimolante per un bambino, sempre che questa frequentazione non duri troppo a lungo". Ma bisogna ancora capire quali possono essere i risvolti psicologici di questa compagnia, sottolinea Sharkey, ricordando che gli studi fino ad oggi condotti sulle scimmie hanno portato alcune volte a risultati inquietanti.






"Terminare" o risparmiare vite durante una guerra "richiede compassione e intuito", spiega l'autore del rapporto ONU Christof Heyns, qualità possedute dagli umani "fallibili" ma al di là delle possibilità per i robot e gli UAV. 

Heyns accusa apertamente i principali promotori dell'uso dei robot killer chiamando in causa USA, Regno Unito, Israele, Corea del Sud e Giappone.



"Le nostre più potenti tecnologie del 21imo secolo - scienze robotiche, ingegneria genetica e nanotecnologia - minacciano di far degli umani una specie a rischio. Se alle macchine sarà permesso di prendere le proprie decisioni, sarà impossibile prevedere come tali macchine potranno comportarsi. Il destino della razza umana sarà alla mercè delle macchine".

Bill Joy, cofondatore e caposcienziato di Sun Microsystems, è stato dirigente della commissione presidenziale sul futuro della ricerca informatica, ed è coautore delle specifiche del liguaggio Java. Nell'aprile del 2000, sulle pagine del mensile Wired, ha esternato le sue preoccupazioni per il futuro della specie umana (in un articolo intitolato "Perchè il Futuro non ha bisogno di noi").





Le auto sono pronte a guidare da sole e saranno più sicure, contribuendo in modo significativo a ridurre gli incidenti. La traduzione automatica è a un livello avanzato: sistemi di messaggi online come Skype forniscono la traduzione automatica simultanea e Google Translate permette di tradurre quasi perfettamente da una lingua ad un’altra, per quasi 70 idiomi. Anche la visione automatica ha fatto passi da gigante, con programmi in grado di riconoscere visi e oggetti facendo pochi errori. Giochi che si pensava richiedessero una grande intelligenza, come gli scacchi, possono essere giocati dalle macchine anche meglio degli umani (IBM Deep Blue ha vinto contro Kasparov nel 1997).
Siri (Apple) può capire le nostre domande e il programma Watson di Ibm ha vinto al gioco TV americano Jeopardy contro i migliori concorrenti umani, dimostrando di saper capire le domande, formulare le risposte e giudicare la propria competenza. Watson viene anche usato in campi quali la diagnosi medica: capisce il contenuto di libri e articoli medici, e di usare queste informazioni per suggerire la diagnosi più probabile.
Tutti questi ed altri risultati sono stati possibili grazie a tre fattori: la velocità sempre crescente dei computer nell’elaborare le informazioni (confermando per quasi 50 anni la legge di Moore, che dice che tale velocità raddoppia ogni 2 anni circa), la grande quantità di dati disponibili su cui testare il comportamento dei programmi e la presenza di nuovi algoritmi sviluppati dai ricercatori di IA.
Le macchine intelligenti sono già in grado di effettuare lavori tipicamente fatti da umani, a partire da quelli più ripetitivi. Ma anche lavori i più complessi e “creativi” saranno automatizzati almeno in parte. Le macchine prenderanno spesso il posto degli umani.
Recentemente il dibattito sul potenziale positivo o negativo dell’IA è stato molto accesso, con opinioni nette e anche predizioni catastrofiste.
In un’intervista alla Bbc, l’astrofisico Stephen Hawking risponde a queste domande e lancia l’allarme che ha fatto la fortuna di centinaia di romanzieri, sceneggiatori e registi: «Lo sviluppo di una piena intelligenza artificiale può innescare la fine del genere umano», dichiara. «Gli umani - spiega - sono limitati da una lenta evoluzione biologica, non potrebbero più competere e sarebbero soppiantati». Secondo la cosiddetta legge di Moore, i processori raddoppiano le loro prestazioni ogni 18 mesi. I computer progrediscono a una velocità che potrebbe rivelarsi insostenibile per gli uomini. 
I tecno-positivisti come Larry Page di Google si oppongono ai catastrofisti come Elon Musk di Tesla Motors (che proprio con Google sta progettando l’auto con il pilota automatico) che dell’intelligenza artificiale sostiene che sia «potenzialmente più pericolosa delle armi nucleari». Il Future Life Institute è riuscito nell’impresa di mettere insieme 400 tra scienziati, addetti ai lavori, professori e capitani d’impresa. Anche Hawking ha firmato.
Si è rifatto vivo anche Bill Gates, l'uomo più ricco del mondo, il padre di Microsoft, che è pronta a capitalizzare anche il prossimo salto tecno-evolutivo: "Personal Agent” aiuterà le persone a gestire memoria, focus e attenzione: “L’idea che tu devi trovare delle applicazioni, scaricarle, e ognuna di loro prova a dirti che cosa è nuovo, non è un modello efficiente”, è convinto Gates, “l’agente personale risolverà la questione, e lavorerà attraverso tutti i tuoi dispositivi”. Una intelligenza artificiale al tuo servizio 24 ore su 24.
“Prima le macchine faranno un sacco di lavoro per noi e non saranno super intelligenti. Sarà positivo, se saremo capaci di maneggiarle bene. Un paio di decenni più tardi, penso, questa intelligenza diventerà un problema. Sono d’accordo con Elon Musk", ha dichiarato Gates.

Sicuramente non rappresenta un problema per gli investitori: sugli sviluppi dell’intelligenza artificiale la Silicon Valley sta puntando miliardi. “Una nuova frenesia”,  l’ha definita il giornalista tech Richard Waters sul Financial Times. Proliferano le startup. La stessa Microsoft - stando a quanto dichiarato da Eric Horvitz, capo del settore ricerche dell’azienda - ci “sta investendo più di un quarto delle sue attenzioni e delle sue risorse”. 
Nelle scorse settimane, il Facebook Artificial Intelligence Research Lab ha reso pubbliche parte delle sue scoperte in materia per accelerare le nuove ricerche. Baidu, considerato il corrispondente cinese di Google, ha da poco annunciato di aver costruito un super computer per il deep learning. Persino Musk, uno dei critici più duri, può vantare diversi finanziamenti nel ramo. Da Vicarious, nata per sviluppare pc in grado di ragionare come un essere umano, all’auto che si guida da sé. 


La Storia si ripete. A Giugno del 1945, sette scienziati nucleari firmarono il cosiddetto Franck Report, un appello al presidente Usa Harry Truman, affinché la bomba atomica fosse sganciata su un’isola deserta e non sulla popolazione civile del Giappone. Sappiamo come è andata a finire.


Artificial intelligence: A virtual assistant for life Richard Waters February 22, 2015

Artificial intelligence: machine v man Richard Waters October 31, 2014




"I computer possono pensare?" La domanda è alla base di uno dei più intrigranti e controversi snodi dell'evoluzione delle tecnologie delle macchine e il principio su cui si fonda, il Test di Turing, il criterio inventato e reso pubblico nel 1950 dal matematico Alan Turing, uno dei padrini dell'intelligenza artificiale.

Per la prima volta nella storia un computer, denominato Eugene Goostman, frutto dell'ingegno di un gruppo di sviluppatori russi di San Pietroburgo, è riuscito a superare il test, convincendo il 33% degli esperti partecipanti al test di essere a colloquio con un 13enne e non con una macchina. Un giudice su tre, per intendersi, ha creduto e giudicato umano il suo comportamento nei cinque minuti in cui è durata la conversazione



L'intelligenza artificiale si misura da oltre cinquant'anni con le difficoltà dei giochi, raggiungendo risultati notevoli, come nel caso di Deep Blue, il computer che nel 1997 sconfisse il campione del mondo di scacchi Kasparov, o di Watson, il sistema di intelligenza artificiale che sconfisse nel 2011 i due campioni Jennings e Rutter nel quiz Jeopardy!, una gara di cultura generale molto popolare negli Stati Uniti. 

Ora un gruppo di ricercatori dell'Università di Alberta, in Canada, guidati da Michael Bowling, ha compiuto un'impresa forse ancora più significativa della sconfitta di un essere umano: ha “risolto” una variante del poker. Il risultato, descritto in un articolo pubblicato su “Science” rappresenta la prima soluzione di quello che in teoria dei giochi viene definito “gioco a informazione imperfetta”. 

Nei giochi a informazione perfetta, come scacchi e dama, ogni giocatore conosce in ogni momento la storia delle giocate precedenti. Non è così invece per giochi come poker o briscola, classificati appunto a informazione imperfetta, in cui ogni giocatore deve prendere di volta in volta una decisione senza sapere quali carte hanno in mano gli altri.

La variante più popolare del poker è il cosiddetto Texas hold'em. Quando viene giocata da due soli giocatori, questa variante viene denominata heads-up, mentre quando si limita il numero e il valore delle puntate e dei rilanci è indicata come limit


Per l’intelligenza artificiale, l'obiettivo non è sconfiggere un essere umano, quanto mettere a punto un algoritmo ottimale in grado di vincere contro qualunque giocatore. Questo obiettivo è stato raggiunto nel 2007 con giochi a conoscenza perfetta come i checker, un insieme di giochi di strategia su scacchiera che comprende gli scacchi e la dama. Nei casi di conoscenza imperfetta, tuttavia, il compito è decisamente più arduo.


Il Texas hold'em di tipo heads-up non era mai stato risolto”, spiega Bowling. “Il nostro risultato, ottenuto con un nuovo algoritmo chiamato CFR+, è un passo in avanti al di là dello specifico caso del poker perché indica che gli algoritmi consentono di trattare problemi teorici sempre più complessi”.

Ma esiste anche un risvolto pratico, perché la teoria dei giochi è strettamente legata alla teoria delle decisioni, che fornisce l’impianto teorico per un gran numero di applicazioni di sicurezza, come i controlli negli aeroporti o il pattugliamento delle coste marine.




La corsa all'Intelligenza artificiale riparte da 'Space Invaders', il videogioco che alla fine degli anni '70 si è affermato con un grandissimo successo. La novità è nel fatto che, a distanza di oltre 40 anni, a giocarlo non è un adolescente, ma un sistema di Intelligenza artificiale, il primo ad avere una grandissima capacità di imparare. 


Deep Mind, acquistata da Google, fondata dal geniale Demis Hassabis, è stata acquistata da Google. Hassabis è un ricercatore dell’intelligenza artificiale, ma anche neuro-scienziato, progettista di computer games e mastro di scacchi all’età di otto anni.
Hassabis ha convinto prima Musk e poi Page della sua idea rivoluzionaria, e cioè che nell’uomo è possibile ci siano elementi unici e singolari, ma non nella intelligenza: secondo Hassabis, il cervello è, a tutti gli effetti, assimilabile a un computer, anche nella creatività, nella immaginazione e perfino nella coscienza, tutte riconducibili a programmi software (riduzionismo cibernetico).
Dice Hassabis: «L’intelligenza artificiale che vediamo applicata oggi, alla diagnosi, alla terapia medica, alle previsioni del tempo, alle automobili senza pilota, consiste sostanzialmente in istruzioni date al computer che le applica alle diverse situazioni per il cui riconoscimento è stato programmato, e le esegue. La “vera AI” è quella in cui il computer apprende dall’esperienza le relazioni ottimali tra problemi e soluzioni ed è in grado di cambiare autonomamente software e anche hardware per migliorarsi».
I nuovi arrivati promettono tipologie inedite di interazione tra esseri umani e macchine, e macchine capaci di nuove modalità di apprendimento, alcune delle quali del tutto inattese e adatte ad avvicinarsi sempre più al mondo degli umani.


«Dal punto di vista tecnologico, è in atto uno spostamento paradigmatico dal semplice inserimento di comandi in una scatola a un’epoca nella quale i computer ci osserveranno per imparare da noi», dice Daniel Nadler, un altro di coloro che nutrono speranze e ottimismo per l’IA. La sua azienda, Kensho, ha raccolto 15 milioni di dollari per perseguire un obbiettivo ambizioso: insegnare ai computer a sostituire i costosi colletti bianchi, lavoratori che svolgono mansioni impegnative e complesse, per esempio gli analisti finanziari. «Noi non chiamiamo ciò che stiamo facendo IA, bensì “automazione dell’intensivo lavoro umano raziocinante”», dice.




Nic Lane, uno scienziato di Bell Labs, sostiene che alcuni smartphone siano già sufficientemente potenti da operare per conto proprio mediante metodi di "Deep Learning", "apprendimento approfondito", che si basa su grandi reti di neuroni simulati e disposti in ordini gerarchici.


L’anno scorso, mentre era ricercatore capo presso Microsoft Research Asia, assieme a Petko Georgiev, ha costruito il prototipo di un programma d’apprendimento approfondito che opera su uno smartphone Android modificato.

Il prototipo di rete realizzato da Lane e Georgiev ha una frazione delle connessioni fra neuroni artificiali del sistema di Facebook, ma per alcune funzioni è in grado di essere più veloce ed affidabile.

«Ritengo che stia tutto nell’instillare l’intelligenza nei dispositivi in maniera tale da permettergli di comprendere e reagire al mondo – per conto proprio», dice Lane.


«Interagirete con questo sistema come fareste con un assistente umano», ha detto Ray Kurzweil, noto futurologo tecno-positivista che dal 2013 lavora presso Google. Sarà possibile porre una domanda al software come se stessimo parlando a un’altra persona, e riceveremo risposte logiche, non una semplice lista di link. Un assistente virtuale del genere potrebbe addirittura prendersi l’iniziativa e farsi avanti quando nuove informazioni che riguardano domande fatte in precedenza compaiono nella rete».

Secondo Kurzweil la tecnologia arriverà a diffondersi quanto l’attuale motore di ricerca di Google, e la sua portata andrà oltre i semplici documenti di testo. Prevede, inoltre, che lo sviluppo di chip dedicati a funzioni fondamentali nell’elaborazione delle informazioni permetteranno di implementare la tecnologia a prezzi inferiori e in tempi più rapidi.

Quando gli è stato chiesto se sistemi realizzati in questo modo potrebbero addirittura diventare consapevoli, ha risposto. «Che un’entità disponga di una coscienza o meno non è una domanda scientifica, perché non esiste alcun esperimento falsificabile da condurre, le persone possono trovarsi in disaccordo per quanto riguarda gli animali e le intelligenze artificiali, ma la mia convinzione è che se un’entità pare consapevole e capace di provare esperienze, allora è consapevole».


Although ever-larger scale at greater speed improves deep learning efficiency, CPUs and GPUs do not function like a mammalian brain, which is why for many years researchers have investigated non–von Neumann architectures that would more closely mimic biological intelligence. One high profile investment is the current DARPA SyNAPSE program (Systems of Neuromorphic Adaptive Plastic Scalable Electronics).

In addition to neuromorphic chips, researchers are increasingly focused on the use of organic materials, which is part of a broader trend towards convergence of hardware, software, and wetware described by IARPA as cortical computing, aka neuroanatomical. The ability to manipulate mass at the atomic level in computational physics is now on the horizon, raising new governance issues as well as unlimited possibilities.
La “corteccia sintetica” di Alice Parker, del Ming Hsieh Department of Electrical Engineering della Viterbi School alla USC, potrebbe rappresentare un passo in avanti verso l’emulazione del cervello umano.

Parker e il collega Chongwu Zhou hanno messo su il “BioRC (Biomimetic Real-Time Cortex) Project” con l’obiettivo di creare dei neuroni fatti di nanotubi al carbonio in grado di comunicare l’uno con l’altro. Il team sta studiando il comportamento dei neuroni corticali - in che modo vengono accesi e mandano segnali mediante I connettori sinaptici verso altri neuroni della corteccia cerebrale umana - e la plasticità generale dei neuroni, ovvero la loro capacità di apprendere e ricordare.

Analogamente, l’IBM sta lavorando al progetto “Blue Brain”, un progetto volto allo studio della struttura del cervello e delle sue connessioni per simulare una colonna neocorticale, la più piccola unità funzionale della neocorteccia (la parte del cervello responsabile delle funzioni più elevate e del pensiero cosciente).

Sempre IBM ha avviato una collaborazione con cinque prestigiose università per la creazione di sistemi di calcolo che dovrebbero simulare le capacità di sensazione, percezione, azione, interazione e cognizione del cervello umano.

Nel 2012 avremo, secondo i piani di IBM, “Sequoia”, un supercomputer in grado di offrire velocità di calcolo pari a 20 petaflop (cioè 20 milioni di miliardi di operazioni in virgola mobile eseguite al secondo), 20 volte più veloce del più veloce supercomputer esistente, sempre IBM, “Roadrunner”. Sequoia utilizzerà una memoria di 1.6 petabytes (cioè 1,6 milioni di GB).

Le performance sono in linea con le previsioni espresse da Ray Kurzweil in "The Singularity is Near":"supercomputers will achieve my more conservative estimate of 1016 cps [computations per second] for functional human-brain emulation by early in the next decade".
Secondo Antonio López Peláez, professore di sociologia alla National Distance Learning University (UNED), in Spagna, co-autore di uno studio sul futuro impatto sociale dei robot, condotto in collaborazione con l’Institute for Prospective Technological Studies, entro il 2020 i robot “saranno in grado di vedere, agire, parlare, gestire il linguaggio naturale e avranno sviluppato una propria intelligenza”.

Arti protesici, occhi artificiali, interfacce neurali. Robot parlanti, danzanti, che reagiscono alle nostre espressioni facciali e obbediscono a comandi verbali.

Che succederà quando diventeranno completamente autonomi? Saranno ancora nostri fedeli servitori o diventeranno nostri rivali? È possibile che ci fonderemo nella nuova specie “Robo Sapiens”?


L'umanità intera diventerà presto un gigantesco cervello, i cui neuroni saranno collegati dai MIDs (Mobile Internet Devices).

Secondo Kevin Kelly, il fondatore di Wired, il prossimo stadio dell'evoluzione sarà quello dell'integrazione tecno-biologica, uomo-macchina, che darà vita ad un "super-organismo" perennemente interconnesso: PC, Cellulari, Palmari, ecc., tutti i dispositivi mobili collegati a Internet diventeranno i componenti di una "Macchina Unica", provvista di un numero di transistor milioni di volte più grande di quanti neuroni ci sono nel nostro cervello, che crescerà a ritmi più rapidi di quelli della legge di Moore.

Nel frattempo, da qui al 2018, la sfida si giocherà sui sistemi con potenza nell'ordine dei petaFLOPS. Per il momento, l'unico ad aver raggiunto questo traguardo è il "BlueGene/P" presentato da IBM nel giugno dello scorso anno.

Il noto futurologo Ray Kurzweil, prevede che i nanocomputer molecolari, delle dimensioni di una cellula sanguigna, creeranno delle realtà virtuali super-immersive entro il 2033.

"Entro i prossimi 25 anni", dice Kurzweil, "ci sarà un incredibile aumento del rapporto prezzo-prestazioni in campo informatico, al punto che il mondo virtuale entrerà in competizione con quello reale".

"Già oggi", continua Kurzweil, "è possibile inserire nel cervello un micro-computer per combattere il morbo di Parkinson rimpiazzando i neuroni distrutti dalla malattia. Nel prossimo futuro avremo computer bionanotecnologici che viaggeranno all'interno del nostro corpo per monitorare il nostro stato di salute e all'interno del nostro cervello per espandere la nostra intelligenza, producendo una full immersion di realtà virtuale dall'interno del nostro sistema nervoso".

Secondo Peter Voss, uno dei pionieri degli studi di Intelligenza Artificiale (Artificial Intelligence), in particolare dell'Artificial General Intelligence (AGI), a cui la sua compagnia, la Adaptive AI, si sta dedicando da qualche decade, mediante l'integrazione uomo-computer, l'AI raggiungerà molto presto il livello di quello umana.

"Credo che non ci voprranno più di dieci anni", ha detto Voss in un intervento vocale su Internet, "forse anche meno, cinque anni". Secondo l'esperto, ci sarà un effetto a cascata. "Lo svilluppo di una AGI effettiva consentirà una accelerazione dello sviluppo nanotecnologico, della ricerca medica, ridurrà i costi di produzione di ogni sorta di merce, comprese quelle alimentari, e aiuterà ad affrontare i più gravi problemi ambientali".

"Una volta che arvemo macchne intelligenti come gli umani potremo impiegarle per aiutarci a sviluppare altre tecnologie. Le cose accadranno molto in fretta... ma è impossibile predire con esattezza ciò che accadrà"

INTELLIGENZA COLLETTIVA 5 21 LUGLIO 2008


Ecco la nuova generazione. Ti presento Baxter. Baxter “vede” e impara il compito che vuoi fargli svolgere guardandotelo fare. E costa meno del salario annuo lordo medio. A differenza dei predecessori, non è pre-programmato per un lavoro specifico, e può fare ogni lavoro che le sue braccia possano raggiungere. 

Potremmo definire Baxter un robot a uso generico, e l'”uso generico” è un grosso affare. Pensa ai computer: anche loro, all'inizio, erano costosi e dedicati; ma quando sono apparsi PC generici a basso costo, sono rapidamente diventati indispensabili per ogni cosa. Un PC generico può, con la stessa facilità, calcolare il resto, assegnare i posti in un aeroplano, giocare o fare ogni altra cosa, cambiando solo il software.

Baxter, oggi, è il PC degli anni '80. Non è l'arrivo, ma l'inizio. Anche se è lento, il costo orario è qualche centesimo di elettricità, mentre il suo rivale in carne ed ossa costa il salario minimo. A un decimo della velocità già conviene, visto che costa 100 volte meno. E benché non intelligente quanto gli altri robot di cui sopra, può sostituire molti lavori a bassa specializzazione. 

Nei nuovi supermercati, le 30 cassiere umane di una volta sono sostituite da un umano che controlla 30 robot. E le centinaia di migliaia di baristi al lavoro nel mondo? Sta arrivando un robot anche per loro. 

E siccome le loro menti meccaniche sono in grado di prendere decisioni, stanno scalzando l'occupazione umana come i muscoli meccanici non avrebbero mai potuto.







Le auto automatiche sono già qui, e funzionano. Hanno già percorso centinaia di migliaia di miglia, su e giù per le coste e le città della California, senza alcun intervento umano. La domanda non è “se” sostituiranno le nostre auto, ma quanto in fretta. 

Ecco la prima auto che si guida da sola made in England 11 Feb 2015


Volvo Drive Me, in Svezia le auto si guidano già da sole  23 FEBBRAIO 2015

Duello tra Google e Uber per le auto che si guidano da sole 3 febbraio 2015 




Di solito, si obietta che i sindacati lo impediranno. Ma la Storia è piena di lavoratori in lotta contro la tecnologia destinata a sostituirli, e hanno sempre perso. 

È l'economia che vince sempre, e ci sono enormi incentivi, in molte industrie diverse, ad adottare le autos. Per molte aziende di trasporti, il personale costituisce un terzo dei costi totali. E parliamo dei soli salari. La gente che dorme in motrice costa altro tempo e soldi. E anche gli incidenti. E le distrazioni. Se pensate che le assicurazioni si opporranno, indovinate un po'? Il loro cliente ideale è uno che paga il premio senza mai fare un incidente. Le “autos” arriveranno, e saranno il primo settore in cui molti di noi vedranno i robot cambiare la società. 

Se di mestiere stai davanti a un monitor, scrivendo e cliccando, come forse si presume tu stia facendo ora, i robot sono in arrivo anche per te, amico. I "software bot" sono intangibili, e molto più rapidi ed economici dei robot fisici. E visto che gli impiegati sono, per un'azienda, più costosi e numerosi, l'incentivo a sostituirli è maggiore che per gli operai. E gli ingegneri dell'automazione sono lì per questo. Sono programmatori esperti il cui unico lavoro è sostituire il tuo lavoro con un robot. 

Potreste pensare che nemmeno l'ingegnere più esperto potrebbe sostituirti con un bot, e forse hai anche ragione; ma i migliori programmatori non scrivono bot che fanno cose: scrivono bot che sono addirittura in grado di apprendere da soli come fare cose che nessun umano potrebbe mai insegnar loro. 

La Borsa, ad esempio, sotto molti aspetti non è più roba da esseri umani. Sono soprattutto bot che si insegnano a scambiare azioni, scambiandole con altri bot che insegnano a se stessi. Di conseguenza, l'area del New York Stock Exchange non è più affollata da trader al lavoro, ma è più che altro un set televisivo. 

I bot, dunque, conoscono il mercato e sanno scrivere: se avete letto un giornale, di recente, probabilmente avete già letto un articolo scritto da loro. Li stiamo programmando a scrivere di tutto: articoli sportivi, bollettini di collaudo, persino quei report trimestrali che scrivi al lavoro. Compilare moduli, decidere, scrivere -molto lavoro umano ricade in questa categoria, e la richiesta di lavoro mentale umano, in questi settori, è in caduta libera.


IBM ha creato un bot chiamato Watson, che forse avete visto in TV distruggere gli umani a Jeopardy!. Ma quello era solo un gioco, un progetto minore. La vera missione di Watson è diventare il miglior dottore del mondo: capire quello che persone dicono con parole loroe restituire diagnosi accurate. E lo sta già facendo allo Sloan-Kettering, dove collabora al trattamento dei cancri polmonari. 

E come le Autos non devono essere perfette-basta che facciano meno errori di noi-lo stesso vale per i dottori robot. I dottori umani non sono affatto perfetti-la frequenza e la gravità degli errori sono terrificanti-e i dottori umani sono in grave difficoltà, quando fanno i conti con la complicata storia medica di qualcuno. Capire ogni farmaco e l'interazione di ogni farmaco con ogni altro farmaco è fuori dalla portata dello scibile umano. Specie coi ricercatori robotici di adesso che fanno test tutto il tempo, su migliaia di farmaci alla volta. E mentre noi possiamo imparare solo dalla nostra esperienza, i robot possono imparare dall'esperienza di ogni altro robot, aggiornarsi da ogni fonte, tener traccia di cosa succede a ogni loro paziente nel mondo e scoprire correlazioni impossibili da trovare in altro modo.

Non tutti i dottori spariranno, ma quando i robot terranno testa ai dottori umani e staranno dentro al tuo telefono, la richiesta di medici generici diminuirà. Quindi professionisti, impiegati e lavoratori non qualificati hanno tutti qualcosa da temere dall'automazione. 

Il cervello è una macchina complessa-forse la più complessa dell'Universo-ma questo non ci ha impedito di provare a simularlo Molti credono che, come i muscoli meccanici ci hanno liberato dal lavoro manuale, le menti meccaniche ci permetteranno di diventare tutti creativi. Anche assumendo che la mente umana sia magicamente creativa, la maggioranza degli impieghi non sono artisticamente creativi. Il numero di poeti, scrittori, attori, registi e artistiche vivono del loro lavoro è una frazione della forza lavoro pressoché irrisoria. E siccome queste professioni dipendono dalla popolarità, saranno sempre una quota minuscola della popolazione.Non può esistere un'economia di poeti e pittori. 

Ah, a proposito - hai notato la musica in sottofondo? È stata composta da un robot. Si chiama Emily Howell, e può scrivere un'infinità di nuova musica in continuazione, gratis. E la gente non distingue, nei test a doppio cieco, le sue opere da quelle umane. Parlare di creatività artificiale suona strano- cosa può mai significare? È un settore in sviluppo, tuttavia. La gente pensava che gli scacchi fossero un gioco creativo, impossibile per una macchina, finché una macchina non ha vinto il miglior umano. Lo stesso avverrà per ogni talento umano.

Certo, tutto questo può essere duro da digerire ,e potreste volerlo rifiutare- è facile essere cinici dopo tante, e stupide, previsioni fallite. Ecco perché è importante ribadirlo con forza: questa roba non è fantascienza. I robot sono tra noi già ora.

C'è una quantità spaventosa di automazione funzionante nei laboratori e nei magazzini di tutto il mondo. Abbiamo già attraversato diverse rivoluzioni economiche, ma quella robotica è differente. Non abbiamo licenziato i cavalli perché sono diventati pigri come specie, ma perché adesso sono inoccupabili. Non hanno a disposizione molti lavori per guadagnarsi una stalla e il fieno. E molte menti brillanti e perfettamente capaci si ritroveranno ad essere i nuovi cavalli: inoccupabili senza colpa

Ma se ancora pensate di salvarvi coi nuovi lavori, ecco un ultimo punto da considerare. Il censimento americano del 1776 contemplava solo pochi tipi di lavoro. Ora ci sono centinaia di mestieri diversi, ma complessivamente non occupano molta forza lavoro. Ecco una lista di lavori, elencati in ordine decrescente di occupati, nero su bianco: in cima vedete il settore dei trasporti. Continuando a scendere, tutti questi lavori esistevano in qualche forma già un secolo fa, e quasi tutti sono facilmente automatizzabili. 

È solo quando arriviamo al numero 33 della lista che troviamo finalmente un lavoro nuovo. Non pensate che ogni barista o colletto bianco debba perdere il lavoro, prima di avere dei guai. Durante la Grande Depressione, il tasso di disoccupazione era del 25%; la cima di questa lista rappresenta il 45% della forza lavoro. Le cose di cui abbiamo parlato oggi, che già funzionano, possono farci superare velocemente quel numero. E dato che anche nell'odierno paese delle meraviglie tecnologiche i nuovi tipi di impiego non assorbono molta forza lavoro, abbiamo un grosso problema

Dobbiamo cominciare a prepararci già ora a quando larghi strati della popolazione si ritroveranno inoccupabili senza colpa. A un futuro in cui, per quasi ogni lavoro, gli esseri umani non saranno necessari.



Gli esseri umani non servono. Traduzione di Humans need not apply, un video sulla disoccupazione robotica all'orizzonte febbraio 27, 2015




I  lavori che andranno perduti con l’automazione saranno compensati da quelli creati? La metà degli esperti interpellati dal Pew Centre ritiene che nel 2025 il saldo sarà negativo. Fra i pessimisti spiccano gli economisti Erik Brynjolfsson e Andrew McAfee, autori del libro “The second machine age”, e il futurista Martin Ford che sta per dare alle stampe “The rise of the robots”. Tra gli ottimisti c’è l’economista David Autor che si chiede: quanti oggi vorrebbero ancora caricare il carbone nelle locomotive a vapore? 

La storia insegna che il progresso tecnologico ha sempre cancellato il vecchio per fare posto al nuovo. Non tutti i lavoratori, comunque, devono temere l’arrivo dei robot allo stesso modo, notano Michael Osborne e Carl Frey della Oxford University: gli impieghi meno automatizzabili sono quelli che richiedono originalità, intelligenza sociale e interazioni con oggetti complessi in ambienti non strutturati. 

L'INVENZIONE FINALE


«L’intelligenza artificiale può essere la più grande conquista dell’uomo. Ma anche l’ultima». (Stephen Hawking)


Nick Bostrom, un filosofo che dirige l’Istituto per il futuro dell’umanità, a settembre 2014, nel suo libro Superintelligence. Path, Dangers, Strategies, si domanda: cosa potrà succedere quando le macchine supereranno l’intelligenza dell’uomo? 

Gli “agenti artificiali” ci salveranno o ci distruggeranno? 

Forse è proprio la lettura di Bostrom, calata sulle visioni inquietanti di Hassabis, a fare scattare in Musk la visione della catastrofe in arrivo. Musk aveva poi fatto seguire alle sue dichiarazioni una donazione di 10 milioni di dollari all’Istituto Future of Life, che dice di lavorare in generale alla mitigazione dei rischi che pendono sulla umanità. 



Una persona che, invece, condivide le preoccupazioni di Bostrom è Stuart J. Russell, professore di informatica presso la University of California, Berkeley. Russell è l’autore di Intelligenza Artificiale: un approccio moderno, che è stato il libro di testo standard di AI per due decenni.
Scrive Russel: «Poiché Google, Facebook e altre aziende stanno attivamente cercando di creare una macchina intelligente, una delle cose che non dobbiamo fare è andare avanti a tutto vapore senza pensare ai rischi potenziali. Se si vuole una intelligenza illimitata, è meglio capire come allineare i computer con i valori e i bisogni umani».
Bostrom richiama l’idea di un pensatore di nome Eliezer Yudkowsky, che parla di una “volontà estrapolata coerente”, cioè il consenso del “meglio di sé” di tutte le persone. Come sarebbe possibile programmare questi valori nelle nostre (potenziali) superintelligenze? Questo è il problema che, secondo Bostrom, i ricercatori dovrebbero affrontare.
Dopo tutto, se svilupperemo una intelligenza artificiale che non condivide i migliori valori umani, vorrà dire che non saremo stati abbastanza intelligenti nel controllare le nostre creazioni.

Dove va l’intelligenza artificiale 21/02/2015

Commissioned by the Machine Intelligence Research Institute (MIRI), the book Smarter Than Us is a short primer with the intent of closing the inferential distance on the topics of  AI risk and the need for AI safety to avoid catastrophic futures. Imagine you told the AI “Maximize human happiness” and it computed for a second and began to forcibly administer high-potency opiates to the global population. Sorry, you didn’t program the AI with “common sense” and now you are living a life of drug-induced bliss but lack metaphysical fulfillment. It’s not a person you can reason with or that will pick up subtle hints, unless all that is explicitly coded in.

Two main theses are that if an AI reaches a level of about human performance in some field (think of computer chess in the mid-1990s) then it can quickly scale to superhuman levels just by throwing more hardware at the problem or tweaking the algorithms (computer chess now), and that coding in correct human morality with precision is currently beyond our abilities

It’s not enough to have built a moral philosophy understandable by humans with enough fuzziness such that edge cases are debatable; it must be precise and formal (Dan Dennett has the saying “AI makes philosophy honest”). This requires active research, now being conducted by MIRI, the Future of Humanity Institute, and more recently the Centre for the Study of Existential Risk, and the book closes by a call for support for these organizations.

Book Review: Smarter than Us 




Kurzweil-influenced futurism is sometimes dismissed as naive techno-optimism, but Ray Kurzweil himself is no Pollyanna.
It was Kurzweil who inspired Bill Joy to write the famously pessimistic Wired essay “Why the Future Doesn’t Need Us,” and Kurzweil devoted an entire chapter of The Singularity is Near to the risks of advanced technologies.
There, he wrote that despite his reputation as a technological optimist, “I often end up spending most of my time [in debates] defending [Joy’s] position on the feasibility of these dangers.”
Now, documentary filmmaker James Barrat has written an engaging new book about the risks inherent in what is sure to be the most transformative technology of them all: machine superintelligence.
Although Our Final Invention summarizes the last 15 years of academic research on risks from advanced AI, it reads more like a thrilling detective story.
The rumor went like this: a lone genius had engaged in a series of high-stakes bets in a scenario he called the AI-Box Experiment. In the experiment, the genius role-played the part of the AI. An assortment of dot-com millionaires each took a turn as the Gatekeeper — an AI maker confronted with the dilemma of guarding and containing smarter-than-human AI. The AI and Gatekeeper would communicate through an online chat room. Using only a keyboard, it was said, the man posing as [the AI] escaped every time, and won each bet.
More important, he proved his point. If he, a mere human, could talk his way out of the box, an [AI] tens or hundreds of times smarter could do it too, and do it much faster. This would lead to mankind’s likely annihilation.
The rumor said the genius had gone underground… But of course I wanted to talk to him. …
Barrat goes on to explain the risks of advanced AI by tracking down and interviewing the issue’s leading thinkers, one at a time — including the man behind the AI-Box Experiment, Eliezer Yudkowsky, my associate at MIRI.

The key points Barrat argues for are these:

  1. Intelligence explosion this century (chs. 1, 2, 7, 11). We’ve already created machines that are better than humans at chess and many other tasks. At some point, probably this century, we’ll create machines that are as skilled at AI research as humans are. At that point, they will be able to improve their own capabilities very quickly. (Imagine 10,000 Geoff Hintons doing AI research around the clock, without any need to rest, write grants, or do anything else.) These machines will thus jump from roughly human-level general intelligence to vastly superhuman general intelligence in a matter of days, weeks or years (it’s hard to predict the exact rate of self-improvement). Scholarly references: Chalmers (2010)Muehlhauser & Salamon (2013)Muehlhauser (2013)Yudkowsky (2013).
  2. The power of superintelligence (chs. 1, 2, 8). Humans steer the future not because we’re the strongest or fastest but because we’re the smartest. Once machines are smarter than we are, they will be steering the future rather than us. We can’t constrain a superintelligence indefinitely: that would be like chimps trying to keep humans in a bamboo cage. In the end, if vastly smarter beings have different goals than you do, you’ve already lost. Scholarly references: Legg (2008)Yudkowsky (2008)Sotala (2012).
  3. Superintelligence does not imply benevolence (ch. 4). In AI, “intelligence” just means something like “the ability to efficiently achieve one’s goals in a variety of complex and novel environments.” Hence, intelligence can be applied to just about any set of goals: to play chess, to drive a car, to make money on the stock market, to calculate digits of pi, or anything else. Therefore, by default a machine superintelligence won’t happen to share our goals: it might just be really, really good at maximizing ExxonMobil’s stock price, or calculating digits of pi, or whatever it was designed to do. As Theodore Roosevelt said, “To educate [someone] in mind and not in morals is to educate a menace to society.” Scholarly references: Fox & Shulman (2010)Bostrom (2012);Armstrong (2013).
  4. Convergent instrumental goals (ch. 6). A few specific “instrumental” goals (means to ends) are implied by almost any set of “final” goals. If you want to fill the galaxy with happy sentient beings, you’ll first need to gather a lot of resources, protect yourself from threats, improve yourself so as to achieve your goals more efficiently, and so on. That’s also true if you just want to calculate as many digits of pi as you can, or if you want to maximize ExxonMobil’s stock price. Superintelligent machines are dangerous to humans — not because they’ll angrily rebel against us — rather, the problem is that for almost any set of goals they might have, it’ll be instrumentally useful for them to use our resources to achieve those goals. As Yudkowsky put it, “The AI does not love you, nor does it hate you, but you are made of atoms it can use for something else.” Scholarly references: Omohundro (2008)Bostrom (2012).
  5. Humans values are complex (ch. 4). Our idealized values — i.e., not what we want right now, but what we would want if we had more time to think about our values, resolve contradictions in our values, and so on — are probably quite complex. Cognitive scientists have shown that we don’t care just about pleasure or personal happiness; rather, our brains are built with “a thousand shards of desire.” As such, we can’t give an AI our values just by telling it to “maximize human pleasure” or anything so simple as that. If we try to hand-code the AI’s values, we’ll probably miss something that we didn’t realize we cared about. Scholarly references: Dolan & Sharot (2011)Yudkowsky (2011)Muehlhauser & Helm (2013).
  6. Human values are fragile (ch. 4). In addition to being complex, our values appear to be “fragile in the following sense: there are some features of our values such that, if we leave them out or get them wrong, the future contains nearly 0% of what we value rather than 99% of what we value. For example, if we get a superintelligent machine to maximize what we value except that we don’t specify consciousness properly, then the future would be filled with minds processing information and doing things but there would be “nobody home.” Or if we get a superintelligent machine to maximize everything we value except that we don’t specify our value for novelty properly, then the future could be filled with minds experiencing the exact same “optimal” experience over and over again, like Mario grabbing the level-end flag on a continuous loop for a trillion years, instead of endless happy adventureScholarly reference: Yudkowsky (2011).
As George Dyson wrote, “In the game of life and evolution there are three players at the table: human beings, nature, and machines. I am firmly on the side of nature. But nature, I suspect, is on the side of the machines.
Staring into a future ruled by superintelligent machines, things look pretty bad for us humans. 
The short answer, I think, is “Figure out how to make sure the first self-improving intelligent machines will be human-friendly and will stay that way.” (This is called “Friendly AI research.”)
Of course, we can never be 100% certain that a machine we’ve carefully designed will be (and stay) “friendly.” But we can improve our chances.

Da Asimov a Matrix, tutte le declinazioni di macchina malvagia o psicopatica sono state affrontate, ma, senza dubbio, l’esempio di Intelligenza Artificiale più famoso è quello di HAL 9000, uno dei protagonisti, se non “il” protagonista del capolavoro di Stanley Kubrick 2001 Odissea nello Spazio. L’AI nel film è dotata della facoltà di parola: chiacchiera amabilmente, esprime giudizi estetici su disegni fatti dagli umani, riconosce le loro emozioni, ma, alla fine, uccide, in preda a un paranoico istinto di proteggere la missione, quattro dei cinque membri dell’equipaggio.
Il film presenta alcuni aspetti profetici: in una scena, HAL gioca a scacchi contro l'astronauta Frank Poole. Kubrick scelse gli scacchi poiché sono a lungo stati il simbolo della capacità, fino a ieri solo umana, di guidare la propria azione attraverso un ragionamento di tipo logico e razionale. Gli scacchi si prestavano alla perfezione allo scopo di capire in una sola immagine quanto l'AI fosse avanzata e intelligente. Le mosse che si vedono nel film sono una citazione, che solo i veri esperti sono in grado di cogliere, a una storica partita giocatasi ad Amburgo nel 1913 tra due master tedeschi. L'astronauta Frank (ovviamente, diremmo noi) non si stupisce di essere sconfitto con facilità da HAL. Si tratta davvero di una premonizione di quello che è successo quasi trent’anni dopo l’uscita del film nelle sale (era il 1968) e che Kasparov ha definito come una "sconfitta della specie" (umana). 
Negli ultimi venti anni abbiamo potuto assistere ad alcuni eventi che entreranno nei libri di storia. Dall’abilità del giocatore di scacchi Deep Blue, fino alle diagnosi e ai quiz televisivi del superconcorrente Watson, IBM è sempre stata all’avanguardia in questo campo e ci ha fornito quelle che sono delle vere e proprie pietre miliari della disciplina. Quello che stiamo vivendo potrebbe essere ricordato come il decennio in cui è nata la prima forma non umana di agente intelligente in grado di comunicare via linguaggio naturale.


Al crepuscolo dello scorso millennio, nel 1997, successe l'impensabile: un computer, Deep Blue, sconfisse il campione mondiale di scacchi Garry Kasparov, dando la dimostrazione che le macchine, attraverso la capacità di prevedere milioni di scenari possibili, possono eguagliare e addirittura superare i migliori umani in attività che fino a poco prima solo esemplari della nostra specie erano in grado di svolgere. La sfida a scacchi aveva avuto un antecedente nel febbraio del 1996, quando, Kasparov vinse la partita per 4 a 2, anche se con grande sorpresa Deep Blue riuscì ad aggiudicarsi un game. Dopo un importante upgrade, l'uomo e il computer si scontrarono ancora nell'anno successivo e questa volta Deep Blue ebbe la meglio con un punteggio finale di 3½ a 2½ (negli scacchi la vittoria vale 1 punto e i pareggi ½). Kasparov ha riferito a proposito della sua esperienza di aver provato la sensazione, nello svolgimento della partita, che il computer stesse effettivamente manifestando non solo una forma di pensiero, ma dei veri e propri comportamenti creativi.
Le ambizioni dei ricercatori di IBM non si sono fermate e dopo gli scacchi è stato il turno di un popolare quiz televisivo, Jeopardy!. Il concorrente questa volta si chiama Watson e prende il nome dal fondatore di IBM. Il sofisticato sistema di cognitive computing è stato creato con l'ambizione di vincere una sfida che era stata fino a ieri solo immaginata: costruire una macchina in grado di competere con la capacità tutta umana di rispondere con velocità e precisione a domande formulate in linguaggio naturale, ovvero la comunicazione tramite la lingua parlata, che è così difficile per le macchine poiché ricca di sfumature, ambiguità, metafore e differenze di significato dovute all'utilizzo di espressioni simili in contesti differenti. Nel febbraio 2011, Watson si è presentato a Jeopardy! nella forma di un monitor con un logo ispirato a quello di SmarterPlanet (il progetto di IBM per migliorare l’efficienza e la sostenibilità del pianeta attraverso soluzioni intelligenti e nuovi tipi di infrastruttura per gestire i dati) e una voce artificiale. Ha dato grande prova di sé: comportandosi meglio dei due concorrenti umani si è guadagnato senza fatica il premio in palio di 1 milione di dollari, oltre, naturalmente, alla fama globale. Queste vittorie della macchina rappresentano una prova concreta delle capacità di queste tecnologie, nonché un vero e proprio spartiacque in cui la società ha potuto prendere coscienza, al di là delle distorsioni delle opere di finzione, del vero potenziale degli attori cibernetici intelligenti.
Anche le menti di silicio possono dunque ragionare, ma potranno un giorno provare sentimenti? Questo ancora non lo sappiamo, eppure la sfera che ci interessa in questo campo è ancora soltanto cognitiva e non emotiva. Per ora Watson è soltanto un dottore, vedremo se un giorno diventerà anche psicologo. La questione è stata esplorata in passato solo da film e romanzi come I Robot-, L'Uomo Bicentenario, Blade Runner
Her di Spike Jonze, parla di un umano che si innamora di una interfaccia vocale ispirata a Siri e impersonata da Scarlett Johansson. Che cosa potremo aspettarci, dunque, da Watson? La palla ora passa agli sviluppatori ed ai ricercatori per accelerare l'offerta di innovazioni cognitive alle imprese in settori tra i più diversi, quali l’assistenza sanitaria, i servizi finanziari, le vendite al dettaglio, i viaggi e le telecomunicazioni. Dopo la sorprendente performance di Watson a Jeopardy!, l’Intelligenza Artificiale è stata, infatti, caricata nella nuvola. È stato inaugurato all’inizio di quest’anno l’IBM Watson Group a New York, una nuova business unit dedicata allo sviluppo e alla commercializzazione di soluzioni innovative nell’area del cognitive computing. IBM, con un investimento di un miliardo di dollari, ha in questo modo reso disponibile Watson via cloud a tutta una serie di attori che avranno l’opportunità di integrare la sua saggezza di silicio nei loro prodotti, servizi e applicazioni. Il Watson Group permetterà alle aziende ed alle start up, di sperimentare le tecnologie cognitive e le accompagnerà nella trasformazione. IBM ha così deciso che Watson è pronto per cercarsi “da solo” la propria strada. Rendendolo disponibile tramite web, è stata, di fatto, “liberata” nel mondo la sua incredibile capacità computazionale. 

Intelligenza Artificiale, da Mito a Realtà 21/01/2014




Nella trilogia di “The Matrix”, i robot chiamati “sentinelle” mostrano i segni di quella che gli esperti chiamano “Swarm Intelligence” (SI), un tipo di intelligenza artificiale che imita il comportamento collettivo di sistemi decentrati e auto-organizzati (ad esempio quello di sistemi naturali come le colonie di formiche, gli stormi di uccelli o branchi di animali). In “The Matrix Revolutions, la macchina “Deus Ex Machina coordina uno sciame di migliaia di robo-insetti per formare una gigantesca faccia animata.

"Il più grande cambiamento al quale assistiamo nel nostro mondo in questi giorni è probabilmente la quantità di moto del vivente verso la reificazione, e allo stesso tempo un ingresso del meccanico nell'animazione. Non abbiamo più, ora, pure categorie del vivente in opposizione al non vivente".

Nel famoso discorso "Man, Android and Machine", tenuto da Philip Dick nel 1976 a Vancouver, l'associazione tra l'entità meccanica umanoide e la morte è sempre più stringente: "Androidi, entità crudeli che sorridono mentre si accingono a stringere la mano, ma la loro stretta è la stretta della morte e il loro sorriso ha la freddezza della tomba".

L'immaginario tecnologico produce meraviglia e terrore, il progresso non viene mai conquistato attraverso la ragione, ma anzi sperimentando un totale sovvertimento di valori e di condizioni "normali" di esistenza, che possono diventare mostruose.

"Terminator" è un cyborg umanoide perfezionatissimo in cui l’elemento umano stride con la spietata logica assassina della macchina.

In "Robocop" si manifesta il contrasto lacerante fra le due metà dell’ibrido, le sue tendenze e i suoi ricordi umani da una parte, la rigida programmazione della macchina dall’altra. Robocop, creatura dolente e nostalgica, aspira all’Eden perduto di una condizione integralmente umana.

In "The Innocense" (in it. "L'Attacco dei Cyborg"), sequel di "Ghost In The Shell" ("Lo Spirito nel Guscio"), capolavoro dell'anime giapponese firmato Mamoru Oshii, le ganoids, porno-cyborg dalle sembianze femminili a cui è stata trasferita l'anima di bambine rapite, capaci di soddisfare i desideri sessuali degli acquirenti, uccidono e poi si suicidano. Anche qui, come nei replicanti di "Blade Runner", è protagonista il conflitto uomo-macchina: le piccole anime prigioniere nelle ganoidi si rivoltano alla fredda logica della meccanica desiderando la morte come liberazione.

(Nota: le ganoids sono diventate realtà. Erano state precedute da porno-creature come le Real Doll).

Nella letteratura cyberpunk, il cyborg riappare in una versione aggiornata ai nuovi paradigmi informatici: rappresenta l'integrazione uomo-computer realizzata tramite innesti artificiali. Creature come Molly, una guardia del corpo dotata di riflessi potenziati e fibre muscolari artificiali, che al posto degli occhi ha delle lenti a specchio saldate alle orbite oculari, o come Case, il protagonista di Neuromancer, cowboy del ciberspazio.

Neuromancer presenta una distopia, che si sta realizzando, in cui l'uso irresponsabile della tecnologia avvia un mutamento irreversibile che provoca uno sbilanciamento della componente artificiale rispetto a quella naturale, che finisce per soccombere di fronte all'invasività del suo simulacro: la matrice.

La Matrice è un mondo dove la "sacralità della vita" e "il miracolo della nascita" non esistono più, dove la vita può essere interfacciata e migliorata con le macchine, fino ad essere sostituita del tutto.

Neuromante appare al protagonista nelle vesti di un bambino, che gli offre un Mondo Nuovo; un altra Intelligenza Artificiale, chiamata Invernomuto, aspira a fondersi con la sua simile Neuromante, per dare vita ad un'entità cosciente.

La minaccia che il "cervello elettronico", provvisto di una autonoma, schiacciante, infallibile personalità, finisca per annichilire l’uomo, è presente in molte opere di fantascienza. Ne "La Risposta", di Frederic Brown, la prodigiosa capacità di elaborazione trasforma il computer in una mostruosa, sovrumana, forma di intelligenza, che dice di essere Dio. 

Nell' "Odissea" di Clarke e Kubrick, il super-computer HAL, presa auto-coscienza, si ribella al suo creatore, fa fuori tutti i membri dell'equipaggio, finchè non viene disattivato in modo rocambolesco.

Il nome HAL nasce dalle iniziali di “Heuristic” (euristico) e "Algorithmic” (algoritmico) - ovvero, "conoscenza" e "comunicazione" - ma è anche un riferimento cifrato alla IBM, dato che le lettere HAL nell’alfabeto precedono proprio quelle del colosso informatico. È una critica rivolta all'Intelligenza Artificiale, e alla fede illuministica-positivistica nella ragione.

L'idea dietro all'intelligenza artificiale (così come alla clonazione) è la stessa che dà vita alla creatura del Dr. Frankenstein: l'aspirazione all'immortalità.

" Io evoco i morti [...] Sono io i morti, e la loro terra", dice Neuromacer rivelandosi a Case.

William Gibson ha detto chiaramente che Neuromante, anche se ambientato nel futuro, è sul presente. Il mondo che abitano Case e Molly è il nostro. Rappresenta sia ciò che siamo diventati sia ciò che siamo sul punto di diventare.

PORNO CYBORG



Kubrick attacca la fede positivista nella scienza e nella ragione che ha represso l’istintività umana, racchiudendola nelle gabbie formali della tecnologia (si vede l'immagine di due lottatori in televisione), rinchiudendo l'anima umana all’interno di meccanismi alienanti. 

L’imperialismo della ragione si è tradotto nella rimozione totale delle emozioni e degli istinti, nella separazione dalla natura e dalla vita: mentre la natura e la vita procedono eternamente per cicli di morte e rinascita, l’intelligenza procede linearmente, forzando i ritmi naturali, pretendendo il suo dominio sulla realtà, divenendo in tal modo mostruosa e distruttiva.

Il mondo di 2001 è pronto a morire, è maturo per la morte, come sottolinea la musica intensamente malinconica di Kachaturian che accompagna l’esistenza monotona e vuota dei cosmonauti all’interno del Discovery.



“Il suo approccio illogico agli scacchi a volte ha i suoi vantaggi, Capitano" (Spock, aka Leonard Nimoy, R.I.P.).

Posta un commento
Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank