Post in evidenza

Robot Apocalypse

Professor Stephen Hawking has pleaded with world leaders to keep technology under control before it destroys humanity.

giovedì 30 luglio 2015

Robot Killer e Super Umani: la Guerra del 2050

Le armi autonome, capaci di individuare e aggredire un nemico senza una guida umana (o con una guida remotissima) sono una questione del futuro prossimo, non di una fantasia asimoviana né del momento catartico o esiziale in cui supereremo la barriera della singularity, inaugurando l’èra post-umana. 

Autonomous weapons” è un’espressione vagamente inquietante che sta prendendo una certa consistenza anche oltre i confini della comunità scientifica che studia l’intelligenza artificiale. 

Un migliaio di pesi massimi del settore, capitanati dagli altisonanti nomi di Elon Musk, Stephen Hawking e Steve Wozniak, ha firmato di recente una lettera aperta per mettere in guardia l’umanità da “quella che è stata descritta come la terza rivoluzione nell’ambito della guerra, dopo la polvere da sparo e le armi nucleari”.

La lettera aperta, diffusa dal Future of Life Institute del Massachusetts, dice che “la questione fondamentale per l’umanità oggi è se iniziare una corsa globale agli armamenti operati dall’intelligenza artificiale oppure prevenirla”. 

Se l’umanità deciderà per la prima, tragica ipotesi, inevitabilmente le armi autonome diventeranno “i kalashnikov di domani”, economici e facili da reperire. 

Immaginare droni intelligentissimi che selezionano ed eliminano obiettivi secondo criteri predeterminati ci getta nella trama sinistra di un romanzo distopico, ma nella realtà il Pentagono sta già lavorando da tempo in questa direzione. 

Un finanziamento da 7,5 miliardi di dollari è stato erogato già nel 2013 dal dipartimento della Difesa americano verso i ricercatori di varie università che indagano sulla possibilità di insegnare a un’intelligenza artificiale a riconoscere il bene e il male. 

Il robot che arreca danno all’uomo implica una chiara violazione della prima legge della robotica di Isaac Asimov, mettendo in crisi le sue visioni tendenzialmente ottimiste sul rapporto uomo-macchina, ma qui, appunto, si tratta di mettere a fuoco innanzitutto un’antropologia, la robotologia verrà di conseguenza.

Che l’uomo sia in grado di commettere il male è un dato autoevidente, ma qui si fa un passo ulteriore, quello di costruire un’intelligenza maligna. Anzi, costruire un’intelligenza che giustificandosi con intenti buoni e promesse di efficienza (ad esempio condurre operazioni militari necessarie minimizzando il numero delle vite umane a rischio) finisce per scatenare una corsa globale ad acquisire armi che governi o i gruppi che le controllano potrebbero usare con una certa, pericolosa leggerezza. 

Già il massiccio ricorso ai droni della presente generazione, progenitori delle armi autonome, ha creato quello che, convertendo un’espressione di ambito economico, il filosofo Michael Walzer ha chiamato “azzardo morale”: ci si prende un rischio sapendo che in caso di fallimento qualcosa salverà la situazione o che comunque le perdite non saranno troppo gravi. 

Rischiare o non rischiare la vita dei propri soldati per condurre un’operazione può cambiare di molto i calcoli di un generale, e la regola non scritta è: non fare con le forze speciali ciò che puoi fare con la coscienza più leggera con un aereo senza pilota. 

L’idea dell’arma autonoma esercita così un’ovvia fascinazione per l’industria bellica, tanto che – strano destino – tocca a un gruppo di scienziati figli del positivismo, cultori dei dati e adepti delle capacità dell’uomo di manipolare con costrutto e secondo fini buoni la realtà, lanciare un allarme intorno alle conseguenze involontarie della creazione di intelligenze distruttrici.

L’intelligenza artificiale che ci distruggerà è già qui. L’allarme di Musk & Co. sulle “armi autonome” Mattia Ferraresi | 30 Luglio 2015




FERMIAMO i Terminator. È l'appello di oltre mille scienziati di tutto il mondo che chiedono di frenare, prima che sia troppo tardi, la corsa alle armi programmate per prendere da sole la decisione di uccidere. 

Le stesse appena prospettate da un report del Pentagono intitolato "Visualizzare il campo di battaglia tattico del 2050". 

Intelligenze artificiali prive di etica o empatia, robot che obbediscono solo ai ciechi algoritmi impostati da programmatori militari. Droni, missili e quant'altro, incapaci di fermarsi proprio come i Terminator della saga cinematografica di James Cameron.



No, non è un film di fantascienza: ma il cuore di un appello promosso dal Future of Life Institute  -  organizzazione che mira a "mitigare i rischi che minacciano l'umanità"  -  sottoscritto da esperti di tutto il mondo, Italia compresa. Una lettera diretta alle Nazioni Unite, presentata alla conferenza sull'Intelligenza Artificiale Ijcai 2015 di Buenos Aires, per chiedere di mettere al bando le armi del futuro: prima che siano realizzate. Perché, scrivono gli studiosi, anche se queste macchine non esistono ancora "la tecnologia è ormai tale che il loro sviluppo non è più questione di decenni ma di pochi anni".

A sottoscrivere l'appello, alcune fra le menti più brillanti della nostra epoca: come il leggendario astrofisico Stephen Hawking, lo studioso immobilizzato su una sedia a rotelle cui Hollywood ha da poco dedicato un film, La teoria del tutto. Primo firmatario insieme a Stuart Russell capo del Center for Intelligent Systems di Berkeley e fra i massimi esperti di Ai. E poi il cofondatore di Apple Steve Wozniak, il filosofo cognitivista Daniel Dennett, il linguista-attivista Noam Chomsky, il direttore delle ricerche di Google Peter Norvig, il capo delle ricerche di Microsoft Eric Horvitz, e perfino quel miliardario visionario chiamato Elon Musk, capo di Tesla Motors e della società privata spaziale Space X, che pochi mesi fa ha donato ben 10 milioni di dollari al Future of Life Institute per finanziare studi che si occupino di "allineare le ricerche nel campo delle intelligenze artificiali ai valori umani".

Secondo gli studiosi  -  molti dei quali si erano già mobilitati in gennaio contro le armi "intelligenti"  -  le buone intenzioni non bastano. Creare armi capaci di prendere autonomamente la decisione di uccidere significa creare tecnologie che nelle mani sbagliate sarebbero non solo letali, ma vero strumento di terrore. "Provate a immaginarle nelle mani di terroristi" ha spiegato il professor Stuart Russell a Tech Insider . "O nelle mani di dittatori per opprimere i loro popoli. No, sarebbero scenari da non augurare a nessuno ". Nelle mani sbagliate, prosegue, armi del genere faranno passare in secondo piano perfino il pericolo nucleare: "Non avendo bisogno di materiali costosi per essere realizzate, saranno facili da procurare".

Armi semiautonome, dotate cioè di funzioni che permettono di agire da sole, in realtà esistono già. E se per ora è pur sempre un essere umano ad innescarne l'azione, il confine si fa sempre più labile: come nel caso di certi missili antinave a lungo raggio creati da Lockheed Martin che una volta lanciati scelgono autonomamente il loro obiettivo. 

Secondo il New York Times , poi, Gran Bretagna, Norvegia e Israele avrebbero già sviluppato missili e droni capaci di attaccare navi, radar e carri armati senza bisogno di indicazioni umane. I Terminator insomma sono alle porte. Tant'è che si sta già lavorando per portare la questione sul tavolo della "Convenzione sulla proibizione o la limitazione dell'uso di armi convenzionali di Ginevra". 

Il messaggio degli scienziati è che bisogna fare in fretta: bandire le armi "autonome" prima che diventino realtà. O, proprio come in un film di fantascienza, rischiamo di restare ostaggio di robot da noi stessi creati.




Il rapporto “Visualizzare il campo di battaglia tattico nell’anno 2050” sostanzialmente idividua due grandi protagonisti della cybersecurity o cyberguerra

Il primo è il robot. Un robot che evolve sino ad addentrarsi nei meandri misteriosi della coscienza. Il secondo protagonista è una sorta di “superuomo”. Ecco aprirsi l’enorme panorama del potenziamento cognitivo umano, del potenziamento sensoriale, delle interfacce cervello-computer o cervello-macchina e cervello-cervello, etc.


«Ma dove non c’è posto per l’uomo (normale), ce n’è uno, in prima fila, per Nembo Kid. O Superman. O Wolverine. O Iron Man. E magari Terminator.

Umani aumentati”. Nel senso delle loro capacità fisiche e sensoriali. Esoscheletro a proteggere, ma, soprattutto, a moltiplicare la potenza fisica. Impianti vari, di cui il cinema ci ha già dato un campionario. Superudito, vista telescopica, infrarossi. 

Qualcuno ha anche azzardato l’ipotesi di schermi di invisibilità. Cruciale, certamente, la moltiplicazione delle capacità cognitive: un computer nel cervello o, forse, un computer per cervello. Mettete insieme iWatch e Google Glass, frullate e moltiplicate per cento. 

«La presenza di superumani sul campo di battaglia 2050 è molto probabile – dice il rapporto – perché le varie componenti che rendono possibile questo sviluppo già esistono e stanno conoscendo una rapida evoluzione». 

La differenza fra cyborg e superuomo, in questa rappresentazione, è labile, ma saranno questi “umani potenziati” gli interlocutori dei robot nel corso della battaglia. Le doti da superuomo sono, anzi, la precondizione perché uomo e robot possano essere davvero partner in guerra. 

Ma non pensate a plotoni misti, robot e superumani. Gli uomini-Superman saranno assai costosi, molto rari, molto preziosi. Interi stormi di robot o specifici campi di forza dovranno essere destinati a proteggerli dal nemico».

Maurizio Ricci mette il dito in alcune delle numerose “piaghe” etico-morali e politiche di queste applicazioni neuro-tecnologiche.

«Le modifiche apportate ai supersoldati, sembra di capire, non potrebbero non essere permanenti. Uno degli strumenti considerati è, in effetti, l’ingegneria genetica. Con gli effetti dirompenti che avrebbe, nella nostra società, convivere con una stirpe di superuomini. Ma questo, come è stato detto in decine di film, non è problema da soldati. Che, invece, ne hanno un altro, ben concreto. Nel clangore dello scontro fra robot, il sibilare dei missili, il ronzio dei sensori spia, si rischia di perdere di vista che il grosso del conflitto è assolutamente silenzioso e si svolge altrove, lontano dai campi di battaglia. 

È la cyberguerra degli hacker per sabotare l’armata robot nemica, depistare i sensori, confondere i comandanti, sviare gli ordini, paralizzare i superuomini.

La guerra 2050 la decideranno i robot, la combatteranno gli automi, ma la vinceranno gli informatici. 



Artificial Intelligence 'Arms Race' warning

MIND THE GAP Nuovo appello contro i robot killer 13 APRILE 2015





Posta un commento
Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank