Post in evidenza

Robot Apocalypse

Professor Stephen Hawking has pleaded with world leaders to keep technology under control before it destroys humanity.

mercoledì 16 luglio 2008

INTELLIGENZA COLLETTIVA 4

(articolo del 30 gennaio 2008)

GLOBAL GIANT GRAPH


Tim Berners-Lee, lo scienziato inglese che nel 1989 ha inventato il World Wide Web, prova ad andare oltre l’immagine della “ragnatela grande quanto il mondo”. Tralasciando la super inflazionata etichetta “2.0″, il presidente del W3 Consortium ha coniato una nuova metafora: “Global Giant Graph“ (”GGG”), il “Grafo Gigante Globale”.


Andare oltre l’idea del Web basata sui singoli documenti significa abbracciare quella del “grafo”, focalizzata invece sulle relazioni (social) ed una effettiva mobilità delle informazioni: “Abbiamo già la tecnologia ed è il Web Semantico", dice Berners-Lee, un sistema in grado di esprimere una vera intelligenza collettiva, ciò che i guru della Silicon Valley chiamano da tempo "Web 3.0". E che Berners-Lee preferisce chiamare "GGG".


In linea con gli obiettivi della "Social Network Portability", Berners-Lee dice che gli individui, gli oggetti e le connessioni tra loro sono il vero valore del Web, non le pagine o i social network che le contengono: "La Rete collega computer, il Web collega documenti, entrambi devono prendere la forma che i matematici chamano Grafo".


Le identità online, gli oggetti, le connessioni, devono liberarsi dalla gabbia dei contenitori. "Le relazioni tra le perone devono trascendere siti e documenti separati. Ciò che deve emergere è il Social Network in sé, il Social Graph, il modo in cui ci connettiamo, non il modo in cui si connettono le pagine. Uso la parola Grafo proprio per distinguerlo dal Web.


Berners-Lee cerca di dire che la vera Rete è una "meta-Rete", fatta di relazioni, che ci lega tutti, ma che al momento è ancora una "darknet", oscura, invisibile, inaccessibile, che bisogna far emergere. "Sul lungo termne, pensare in termini di Grafo invece che di Web, sarà fondamentale per determinare il migliore uso possibile del Web Mobile tramite la miriade di dispositivi che ci daranno accesso al sistema. Ad esempio, se voglio registrarmi un volo, è il volo che mi interessa, non la pagina relativa sul sito specifico, ed è ciò che registrerò. Qualsiasi sia il dispositivo che userò per richamare la registrazione, telefono, e-mail, ecc, mi verrà visualizzata insieme al dato del volo tutta una serie di dati relativi a quel volo provenienti da sorgenti differenti".

Il Grafo dunque dovrebbe corrispondere ad un Web più intelligente, capace di filtrare tutte le informazioni indesiderate e non necessarie, un antidoto all' information overload, il sovraccarico informativo.

Chiamatelo come vi pare, Web 3.0, Web Semantico, Open Social Web, Giant Global Graph, ma fatelo, al più presto.

OPEN IDENTITY

Perchè registrarsi in duecentomila social networks e ogni volta riaggiungere i propri amici? Perché ogni social network, anche se sono tutti simili, tira acqua al prorio mulino. La Social Network Portability intende risolvere questo problema abbattendo le barriere d’ingresso della registrazione e dell’avvio della propria attività in ogni nuovo luogo virtuale.


Nel corso dell’ultimo Internet Identity Workshop, tenutosi a Mountain View, Google ha annunciato la disponibilità dell’OpenID 2.0, la seconda versione dello standard decentralizzato di identificazione digitale via protocollo HTTPS che non si basa né sull’utilizzo di cookies né su speciali meccanismi di autenticazione mediata da software esistente sul lato client. Ci sono già in circolazione molte librerie open source che supportano il nuovo standard, comprese quelle per la piattaforma Blogger di Google e per Drupal, e diversi OpenID providers (MyOpenID, Sxipper, e VeriSign PIP) già supportano le nuove specifiche (OpenID Authentication 2.0 e OpenID Attribute Exchange 1.0).


Così OpenID, lo standard decentralizzato in protocollo Https per l'identificazione digitale, sarà uno dei protagonisti, se non il protagonista assoluto, delle nostre passeggiate tra i siti Web senza dover più ricordarsi e digitare di volta in volta i necessari login e password. Hanno contribuito al suo sviluppo aziende del calibro di Microsoft, Google, Yahoo!, Sun, VeriSign, Plaxo e AOL. La tecnologia si basa su uno standard open source implementabile su tutto il Web: una volta attivata su di un sito, i visitatori potranno effettuare il login dopo aver ricevuto una password di identificazione che li autenticherà dappertutto sulla rete, presso tutti i siti che abbiano adottato OpenID.

Se da un lato questa soluzione sembra venire incontro alle esigenze di utenti sempre più alle prese con decine di identità fasulle da memorizzare, in realtà servirà soprattutto agli editori per controllare ancor meglio e approfonditamente le peregrinazioni sul Web, per proporre "servizievolmente" link prodotti e servizi non richiesti. In concreto, il meccanismo di identificazione creato da Brad Fitzpatrick, riuscendo ad identificare il navigante in modo univoco presso qualsiasi server adotti la tecnologia, sposato agli sterminati database già in possesso dei vari motori di ricerca, equivale a distribuire a pioggia tra di essi i dati personali degli ignari utenti.

OPEN SOCIAL

Un nuovo gruppo di aziende, capeggiate da Google, ha iniziato ad utilizzare un approccio "open social" che sfrutta standard aperti. OpenSocial è un insieme di API (Interfacce di Programmazione di un'Applicazione) che permetterà agli sviluppatori di tutto il mondo di creare applicazioni in grado di funzionare su ogni network al quale partecipano, interfacciandosi con i dati salvati su questi network. OpenSocial non è un dunque social network, bensì un insieme di tre tipologie di API che permettono ai programmatorir di accedere a funzioni e informazioni chiave sui social network quali: le informazioni del profilo (i dati dell’utente), le informazioni degli amici (grafico sociale) e le attività (quello che succede, tipo i feed delle news).


A supportare le nuove API saranno molti protagonisti nello spazio del social networking tra cui: Hi5, Plaxo, LinkedIn, Orkut, Ning, Friendster, le piattaforme di blogging Six Apart, e anche nomi di spicco nella produzione di prodotti per grandi aziende, come Salesforce e Oracle, mentre alcune aziende che sviluppano widget (gli elementi grafici delle interfacce utente), tipo RockYou, Slide, iLike e Flixster, hanno siglato un accordo come "contributori" alla nuova piattaforma.


Wired News scrive che "la presenza di LinkedIn, Salesforce e Oracle fa supporre che i frutti di Open Social potrebbero dar luogo ad applicazioni di social networking per le aziende, cosa molto differente dallo sviluppo di applicazioni di natura ludica tipica della maggior parte di quelle presenti in Facebook e MySpace. Open Social reinterpreta il concetto di piattaforma proprio di Facebook, trasformandolo in uno standard aperto che può essere utilizzato da tutti. Per far diventare un sito Web un’applicazione Open Social, basterà creare una nuova versione delle pagine HTML e Javascript utilizzando le API Open Social.


Le reazioni della blogosfera sono contrastanti.Cè chi vede in questa mossa un tentativo di arginare la crescita di Facebook attraverso un’alleanza strategica con reti sociali concorrenti e sviluppatori di applicazioni, chi ritiene che il progetto fallirà a causa degli interessi di mercato nemmeno poi tanto mascherati di Google e del basso share di audience dei partners di Open Social, chi invece sottolinea come gli uomini di marketing saranno in grado di gestire le loro applicazioni sui vari social network senza impiegare troppi sviluppatori. Se da una parte sono evidenti i vantaggi per gli sviluppatori, non è ancora chiaro quali saranno i benefici per gli utenti. In teoria, l’interoperabilità tra diversi social networks (ad es. quando un utente si iscrive ad un social network di Ning, questo prenderà i dati e il suo profilo da Friendster). Una cosa è chiara: l'intento di BigG è di stabilire una nuova leadership anche in campo social, e poter disporre di tutta l'attività online connessa ed indicizzata.


DATA PORTABILITY

Gli standards aperti (open standards) sono una componente essenziale del Web per favorire la portabilità dei dati tra le varie applicazioni che operano al suo interno. Tali standards dovrebbero essere adottati dai fornitori dei vari servizi ed applicazioni Internet, ad esempio i social networks, per la creazione di una Rete davvero libera e aperta, la quale implementa un modello digitale dove al centro ci sono gli utenti stessi, ossia i veri cittadini digitali del Web.

A questo servono APML, OpenID, OAuth, XFN, Yadis, ma anche RSS e OPML, nonché tutta un’altra serie più o meno nuova di sigle/acronimi che ogni tanto capita di incontrare sul Web. È proprio di questo che si occupa DataPortability.org, supportare e di promuovere l’adozione degli standards aperti da parte di tutti gli attori del Web.

HTML 5


A oltre dieci anni di distanza dalla pubblicazione dell'ultima specifica HTML, la 4.01, per il celebre Hyper Text Mark-Up Language è arrivato il momento di rimettersi in pari con l'evoluzione del Web. La nuova versione 5, di cui il World Wide Web Consortium (W3C) ha rilasciato una bozza, ha il compito di assimilare le nuove tendenze del Web, accogliendo i numerosi e importanti cambiamenti che nell'ultimo decennio hanno portato alla nascita del cosiddetto Web 2.0.


Sebbene HTML 5 sia un progetto in divenire, e molte cose debbano ancora essere discusse e definite, gli intenti del W3C sono già ben chiari: incorporare nello standard concetti e funzionalità che rispecchino quanto più possibile le modalità di utilizzo reali del linguaggio, e aggiungere ad HTML tutta una nuova serie di funzionalità dedicate alla creazione delle applicazioni Web.

Tra le novità più rilevanti di HTML 5 c'è l'introduzione di un nuovo insieme di interfacce di programmazione (API) che, estendendo le preesistenti interfacce DOM (Document Object Model), forniscono funzionalità dedicate alla grafica 2D, all'integrazione e al controllo di contenuti audio e video, all'archiviazione persistente dei dati sul client, all'esecuzione di applicazioni in modalità offline, e alla modifica interattiva dei documenti da parte degli utenti. Queste API, a cui si aggiungono quelle per la messaggistica, il networking, il drag and drop e la gestione della cache, sono state pensate per aiutare gli sviluppatori ad assottigliare ancor di più il confine tra applicazioni Web e desktop.


HTML 5 promette di semplificare significativamente la creazione di siti Web capaci di supportare anche i dispositivi mobili, ormai divenuti una porta di accesso al Web di cruciale importanza. Gli autori di HTML 5 stanno anche tentando di fare pulizia, ed eliminare le cose vecchie ed ormai superate: la più importante è il supporto ai frame, considerati dannosi per l'usabilità e l'accessibilità e ormai rimpiazzati quasi ovunque dai fogli di stile (CSS). In ogni caso, gli elementi e gli attributi non più inclusi in HTML 5, continueranno ad essere supportati ancora per diverso tempo dai browser Web: ciò consentirà di adeguare i siti web al nuovo standard in modo graduale.


L'HTML Working Group del W3C prevede di completare la definizione di HTML 5 non prima del 2010. Considerando anche il lavoro svolto dal Web Hypertext Application Technology Working Group (WHATWG), la gestazione di HTML 5 potrebbe così durare più di 6 anni: se questo appare un tempo molto lungo, altrettanto lungo è l'elenco delle organizzazioni (oltre 500) che partecipano allo sviluppo della specifica, e che devono riuscire nel non facile compito di far convergere e armonizzare idee, interessi ed obiettivi. Alcune funzionalità chiave si trovano comunque già implementate nei più diffusi browser sulla piazza: Opera, ad esempio, include già tutti gli attributi di HTML 5, mentre Firefox 3 introdurrà, grazie al nuovo motore di rendering Gecko 1.9, il supporto allo storage locale, alle applicazioni offline, ai canvas HTML e ad altre funzionalità minori, alcune delle quali implementate solo in modo parziale.


MICROFORMATS

Al cuore del web semantico, c’è la creazione di standard che permettono di trasportare le parti più importanti del Web direttamente sul tuo desktop. L’idea chiave nel mondo degli standard è la Uniform Resource Idenfifier (o URI), un modo di identificare in maniera unica ed inconfondibile una persona, un’azienda, una costruzione o addirittura un’idea in modo da poter essere linkata o aggregata. Ogni volta che un elemento identificato tramite una URI è menzionato in un blog, pubblicizzato o recensito in un magazine online, viene applicato lo stesso identificatore.

I Microformati sono un modo per creare questi standard universalmente riconosciuti: sono piccoli, non intrusivi e lavorano perfettamente con il codice esistente che mantiene insieme tutto il Web. Aggiungendo piccoli codici di informazioni standardizzate ai post dei blog, o a qualsiasi pagina pubblicata online, i microformati permettono la scoperta e la classificazione efficace delle informazioni online creando delle scorciatoie utili all’utente.

Al momento si può scrutare il Web attraverso i microformati delle ricerche su Technorati, mentre Yahoo ha adottato microformati per le liste delle aziende locali.

WEB SEMANTICO

"Il Web Semantico? È morto". Questa la provocazione lanciata da Mor Naaman, ricercatore di Yahoo! Research Berkeley, nel contesto della sedicesima International World Wide Web Conference.


Con il termine "Web Semantico" si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) sono associati a "metadati" (insiemi di dati) che ne specificano il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica. Secondo Naaman, ciò che si profila all'orizzonte è l'avvento di un Web Semantico semplificato, costituito da vari Web semantici emergenti e ad hoc, tagliati su misura per applicazioni realizzate in base alle esigenze ed alle caratteristiche degli utenti che lo costruiscono e ne fruiscono.


Le soluzioni che funzionano, che stanno prendendo piede, sono quelle che permettono alle persone di dotare i documenti di un reale valore aggiunto, di proiettarsi senza mediazioni dentro ai contenuti, con i loro modelli mentali e con i loro obiettivi. La potenza e la flessibilità delle "tag" è rappresentata dalla semplicità e dalla libertà che ne guida l'apposizione: non essendo organizzati in "ontologie", né strutturati in base a schemi rigidi, consentono all'utente di ritrovare i propri contenuti, di ricordarne il contesto, e di socializzare queste informazioni, facilitandone il reperimento da parte di altri utenti. Lo stesso vale per gli sviluppatori. Naaman sostiene che, nell'ambito delle applicazioni Web, gli sviluppatori si devono basare su standard semplici e funzionali per la descrizione dei contenuti classificati da tag apposti dagli utenti, organizzandoli, strutturandoli, a posteriori, in ulteriori "insiemi" o "canali", determinati da "metatag", comprensibili alle macchine. Naaman cita come esempi RSS, Microformats, il "machine tagging" di Flickr, tutte soluzioni "bottom up" che consentono di organizzare i contenuti in modo più flessibile.

I "machine tag" di Flickr, ad esempio, consentono agli sviluppatori di dotare le immagini postate su Flickr di metadati aggiuntivi e precisi, aggregandole in insiemi significativi, a posteriori. Tag sempre consegnati alla fantasia dell'utente: ciascuno può decidere di organizzare i metadati a seconda delle proprie esigenze e delle prospettive che si configurano per i contenuti. Nel caso dei tag geografici di Flickr, ad esempio, le fotografie possono essere organizzate in mappe, piuttosto che esportate presso altre applicazioni.


Proprio questa libertà e questa classificazione, che emerge dalle esigenze e dai modelli mentali degli utenti, e, ad un livello superiore, degli sviluppatori, rappresenta un ostacolo pressoché insormontabile per i ricercatori del Web Semantico: le informazioni e le "metainformazioni", non essendo organizzate rigidamente da utenti e sviluppatori, essendo assegnate in base a modelli mentali, intenti e formati differenti, si sovrappongono e si duplicano, contrassegnando realtà diverse, sfaccettature della stessa realtà o la stessa realtà in maniera radicalmente diversa. Pretendere che si affermino degli standard complessi è un obiettivo pretenzioso, sostiene Naaman.

Per questo motivo, il Web Semantico, così come lo prospetta e
lo invoca Tim Berners Lee, rischia di restare un sogno.

CRITICA DEL WEB SEMANTICO

(Original Message From Florian Crame To nettime Tuesday, December 18, 2007 11:33 PM [a lecture manuscript written for the "Quaero Forum" on the politics and culture of search engines at Jan van Eyck Academy, Maastricht, 29/9/2007 - thanks to Felix Stalder for useful corrections)

L'arma con cui i progetti di ricerca tecnologici europei sperano di battere Google sono i processi di elaborazione dell'informazione semantica: "pattern recognition" nel progetto francese "Quaero", Semantic Web Technology nel tedesco "Theseus".

Originariamente, Quaero è nato come una collaborazione Franco-Tedesca, finanziata da entrambi i governi, finchè il progetto Theseus non ha scelto di proseguire per proprio conto, inseguendo una visione duplice, che coinvolge alcuni classici Santi Graal della computer science: 1. fornire la possibilità di effettuare ricerche sulle basi delle metatags del Web Semantico; 2. sviluppare software in grado di riconoscere il contenuto delle pagine Web e automitacamente applicare le tags. Mentre il secondo punto appare ancora utopico, un obiettivo che l'Inelligenza Artificiale insegue da decadi, il primo punto, una nomenclaura universale del tagging semantico, è condannato al fallimento da ogni standard critico di riflessione culturale.

Il Web Semantico è un termine ed un progetto che non solo si presta ad una grande confusione, ma è anche emblematico di come agisce l'alienazione tecnologica, svalutando i concetti culturali, e portando ad un totale fraintendimento. Nel 2004, prima di Quaero e Theseus, il governo federale Tedesco aveva deciso di finanziare il Web Semantico con 13.7 milioni di Euro, ritenendo che una "tecnologia semantica" fosse necessaria per consentire ricerche in base al significato, ponendo al computer delle vere e proprie quesioni, dando così anche ad illetterati la possibilità di un più semplice accesso all'immenso archivio di Internet. Ma il Web Semantico non può essere ridotto a questo. Il finanziameno di 13.7 milioni di Euro è stato in realtà un fraintendimento.

L'analisi delle domande in linguaggio naturale è un altro Santo Graal delle ricerche di AI - che è stato parodiato dal software "Eliza" di Weizenbaum - sperimentato da motori di ricerca come "Ask Jeeves" - che poi è diventato "Ask.com", rinunciando al suo concetto originale - e "Powerset". Secondo il ricercatore AI Luc Steels, la comprensione interamente semantica del linguaggio naturale non potrà mai essere raggiunta con l'attuale architettura dei computer, a prescindere dalla velocità. Un sistema di ricerca basato sul linguaggio naturale si riduce ad essere niente di più che una interfaccia inefficiente per la ricerca di espressioni Booleane contraddistinte dagli operatori logici AND, OR e NOT. Il Web Semantico non può cadere in questa trappola, non deve tradursi in un interprete automatico di significato. Berners-Lee insiste sul fatto che il suo progetto "non implica qualche magica intelligenza arificiale in grado di comprendere i "bofonchiamenti umani", in contraddizione con gli obiettivi dichiarati dal progetto Theseus. Berners-Lee concepisce il Web Semantico come un sistema universale, unificato, basato sul "meta-tagging": "Invece di chiedere alla macchina di capire il linguaggio umano, si tratta di chiedere alle persone di fare uno sforzo in più". Questo sforzo, il tagging semantico, è stato ben definito ed è diventato popolare su siti di photo-sharing come flickr.com, su aggregatori di notizie come digg.com, o su siti di "social bookmarking" come del.icio.us. Significa semplicemente che gli utenti associano delle keywords a testi, immagini e altro, rendendo l'informazione ricercabile appunto per parole chiave o per particolari combinazioni di parole chiave. Su Flickr, per esempio, la ricerca secondo la combinazione di "birthday", "children" e "clown" produce una lista di immagini di clowns apparsi a feste di compleanno di bambini, senza che la macchina effettui una ricognizione in stile Quaero del contenuto delle immagini, o una mappatura automatica delle parole chiave in stile Theseus, ma solo in base all'assegnazione delle parole chiave effettuata dagli stessi utenti di Flickr.

Il problema del tagging manuale è che non prevede uno standard o una nomenclatura unificati. Se, per esempio, un utente tagga un'immagine con la parola "kids" invece che "children", i risultati saranno differenti. I tags mancano di astrazione e universalità: la parola "bambini", ad esempio, può essere classificata come un sottoinsieme di umani, la parola "umani" come un sottoinsieme di mammiferi, "compleanni" come un sottoinsieme di celebrazioni ecc. Con una tale classificazione, le immagini contrassegnate con "compleanni" e "bambini" saranno comprese anche in ricerche più generali riguardanti immagini di celebrazioni. Per questo motivo, i sistemi di tagging non sistematici, ad-hoc, generati dagli utenti, come quello di Flickr, vengono definiti "folksonomie". Il Web Semantico promette di scavalcare le folksonomie con un sistema unico, unificato e standardizzato, di tagging che possa essere applicato a tutto. Un sistema di classificazione universale gerarchico basato su un albero di metatag. In linea con la terminologia informatica, suonando tuttavia misterioso e idiosincratico, Berners-Lee chiama tale sistema una "ontologia", creando confusione soprattutto tra quelle persone che hanno dei backgrounds filosofici e umanisti, perché l'ontologia a cui si riferisce Berners-Lee corrisponde piuttosto ad una cosmologia.

In "The Analytical Language of John Wilkins", Jorge Luis Borges scrive di uno scolaro inglese del 17imo secolo: "Egli divise l'universo in 40 categorie o classi, poi ulteriormente suddivise a seconda delle differenze, infine suddivise in specie. Egli assegnò ad ogni classe una monosillaba di due lettere; ad ogni differenza, una consonante; ad ogni specie, una vocale. Per esempio: "de" per un elemento; "deb" per il primo degli elementi, il fuoco; "deba" per una parte dell'elemento fuoco, la fiamma".

Simili schemi di classificazione, nel corso del Medio Evo e del Rinascimento, sono stati sperimentati, fra gli altri, da Ramon Lull, Giordano Bruno, l'enciclopedista Johann Heinrich Alsted e il teosofo Jan Amos Comenius, tutte tradizioni a cui si rivolge Wilkins, membro fondatore dell' "Invisible College". Prima della rivoluzione portata da Diderot e d'Alembert con la loro idea di srutturare arbitrariamente la conoscenza umana in ordine alfabetico, le enciclopedie erano state pensate come un complesso sistema di classificazione ad albero della conoscenza {anche il sitema enciclopedico sviluppato da Diderot e d'Alembert contiene ancora tale schema). La cosmologia, chiamata ontologia, del Web Semantico segue esattamente lo stesso sistema.

Le cosmologie classificatorie medievali e rinascimentali funzionavano sulla base di paragdimi stabili, fissati dalla scienza dell'epoca, derivati dal sistema classificatorio fondato da Aristotele (la scuola scolastica, ndr). Il Web Semantico non è niente altro che un sistema neo-scolastico, basato sulla credenza, ingenua, che il mondo possa essere descritto secondo un singolo ed universale punto di vista. In altre parole, corrisponde alla ideologia del controllo cibernetico e alla cecità dell'ingegneria di fronte all'ambiguità delle istanze culturali.


Sebbene non esistesse alcun Web Semantico negli anni Quaranta, lo scritto di Borges colpisce dritto al cuore della questione. Si potrebbe perfino rimpiazzare il nome di John Wilkins con quello di Tim Berners-Lee quando Borges, analizzando le categorie, conclude che "queste ambiguità, ridondanze e deficienze ricordano ciò che il dottor Franz Kuhn attribuì ad una certa enciclopedia cinese intitolata 'Impero Celeste della Conoscenza Benevola', in cui era scritto che gli animali si dividono in: (a) appartenenti all'imperatore, (b) imbalsamati, (c) addomesticati, (d) maiali, (e) sirene, (f) favolosi, (g) cani randagi, (h) inclusi nella presente classificazione, (i) frenetici, (j) innumerevoli, (k) disegnati con fini pennellate, (l) eccetera, (m) quelli che hanno appena rotto la brocca dell'acqua, (n) che assomigliano a mosche".

Anche se si tratta di una fiction, rivela l'arbitrarietà delle categorie e delle classificazioni. In "The Order of Things", Michel Foucault comincia con una discussione della sopracitata lista di animali, capace di "mandare in frantumi ogni caposaldo" del suo pensiero, riflettendo su come l'ordine della conoscenza sia costruito culturalmente e come possa essere concepito in molti modi differenti. Appare ovvio come la logica aristotelica continui ad esistere oggi nella nozione di genere e specie e, in modo ancor più discuibile, nella categorizzazione degli umani in razze biologiche. Ma non funziona nella stessa biologia. Il "platypus", un mammifero che allatta dal seno, che depone le uova, vive in ambienti acquatici e ha un becco simile a quello degli uccelli, sfida ogni classificazione riconducibile alla "Zoologia" aristotelica, rompendo le classificazioni di genere e di specie. Che posto occuperebbe nel Web Semantico?

In "Kant and the Platypus", Umberto Eco sottolinea come l'animale rimarchi la differenza tra la scolastica e la scienza empirica. Poi, con un po' di confusione, differenzia "casi culturali" - fenomeni definiti categoricamente - e "casi empirici" - fenomeni osservati non predefiniti. "Per essere riconosciuti come tali", riferendosi ai casi culturali, "devono riferirsi ad una struttura di norme culturali". Per Eco, in qualità di semiotico, ciò significa che l'Essere, l'esistenza, è quella frontiera che la scienza sistematica non potrà mai conquistare, e questo è proprio ciò che, in un senso filosofico, significa ontologia.

L'innovazione della scienza moderna, sin da Galileo, Newton e Cartesio, è ciò che opera senza riferirsi a delle norme. Quando Diderot e d'Alembert abbandonarono il vecchio ordine classificatorio della conoscenza rimpiazzandolo con uno alfabetico non-classificatorio e non-sistematico, seguirono precisamente il paradigma empirico, considerando i fenomeni man mano che accadevano, non fissandoli a priori. Per fondare un sistema di investigazione critica e abbandonare i preconcetti, la scienza ha fornito degli schemi semantici di riferimento.

Tornando alle folksonomie di Internet, in un Web forum del sito tedesco di news heise.de, durante una discussione sul Web Semantico e sul suo schema di classificazione, un post anonimo portava come ipotetico esempio: "Un musulmano è un potenziale terrorista", per mostrare come una ontologia-cosmologia semantica unificata sia impossibile da realizzare. L'esempio raschia solo in superficie il problema culturale, gettando una luce dubbiosa sui linguisti informatici coinvolti nel progetto del Web Semantico, che non sembrano essersi applicati a dovere su Saussure e le arbitrarietà - ovvero le dinamiche culturali - del significante in relazione al significato.

Il Web Semantico, ed ogni motore di ricerca o database relativo, si fonda sull'illusione che sia teoricamente possibile stabilire un criterio univoco di valutazione. Oltre la cosmologia, falsamene chiamata ontologia, è metafisica spacciata per fisica.

Su un livello più pratico (ma pur sempre culturale), il Web Semantico si riduce ad una una cultura che uilizza le tags semantiche per lo spamming e la manipolazione dei motori di ricerca, cosa che già avviene su Google e su altri motori di ricerca che ignorano le metatags incorporate nelle pagine Web. E mentre Berners-Lee è abbastanza realista da affermare che il metatagging non può essere fatto tramite bots come vorrebbe il progetto Theseus, il suo Web Semantico implica un incubo di complessità in cui la metainformazione scavalca l'informazione, in cui ogni pezzettino di informazione costringe ad un lavoro estenuante di marcatura semantica, comparabile ad una libreria il cui catalogo supera quantitativamente i libri a cui si riferisce.

"Semantica" e "ontologia" sono termini utili se vengono riferiti a ciò che i computers, in quanto pure macchine sintattiche, non possono processare, a ciò che non può essere mappato in strutture di dati se non in modi soggettivi, diversi, culturalmente controversi e folksonomici. I creatori del cosiddetto Web Semantico e la "next-generation" dei motori di ricerca dovrebbero imparare da Borges, quando conclude: "Ho rilevato le arbitrarieà di Wilkins, [e] dello sconosciuto (o falso) scrittore dell'enciclopedia cinese [...]; è chiaro che non può esserci alcuna classificazione dell'Universo che non sia arbitraria e piena di congetture. La ragione è molto semplice: non sappiamo che cosa realmene sia l'Universo".

P.S.

Per la cronaca, ultimamente è arrivato "AskWiki", sviluppato da AskMeNow, il primo motore di ricerca basato sul linguaggio naturale, utilizzabile per “porre domande” a Wikipedia, basato sulla tecnologia Cogito, una piattaforma della Expert System nata nel nostro paese e già in uso presso aziende come la Microsoft, la Pirelli e la Vodafone, concepita per fornire “intelligenza” ai processi di ricerca attraverso una rete semantica: si basa infatti su una complessa mappa concettuale, contenente concetti e relativi significati posti in relazione alle voci di Wikipedia.

Personalmente, penso che la critica di Cramer sia esatta: non si può pretendere di stabilire un unico modello di interpretazione del linguaggio, per la natura stessa del linguaggio, la cui forza, ma anche la cui debolezza, risiede proprio nella pluralità di significati che trasporta, e che, come sappiamo, si ricavano sempre dalle relazioni tra emittente e ricevente, o tra emittenti e riceventi, processo a cui partecipano tanti fattori, naturali e culturali, ad esempio anche il linguaggio del corpo, che su Internet sparisce. Penso anche però che il problema del Web Semantico pone una quesitone fondamentale, che è poi quella dell'Intelligenza Artificiale o Intelligenza Collettiva che dirsivoglia. E cioè: come riuscire ad utilizzare la rete per espandere la coscienza collettiva, come riuscire a trasferire una vera intelligenza alla rete?

Non si può pretendere dalla macchina una intelligenza di tipo umano, questo è sbagliato, per via della natura delle cose: non possiamo chiedere alla macchina di fare il lavoro che solo noi possiamo fare, altrimenti ci auto-eliminiamo; quello che si può fare è usare la nostra intelligenza, la nostra arte, per sviluppare modelli alternativi, in competizione tra loro, in grado di navigare nel diluvio informativo e mettere in connessione menti, anime e corpi.

Arte della navigazione, questo dovrebbe essere il vero obiettivo di un Web Semantico.
Posta un commento
Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank