Post in evidenza

AI Revolution: Robot Operation System

Sophia, the first humanoid robot to receive citizenship of a country.   She was featured on the cover of Ella Brazil magazine and has a...

mercoledì 30 luglio 2008

LA GUERRA DEI NANOMETRI 8

AMD ha confermato di aver iniziato la produzione dei primi processori con tecnologia di processo a 45 nanometri. Se tutto procederà secondo i piani, il chipmaker di Sunnyvale prevede di completare la propria transizione verso i 45 nm intorno alla metà del 2009, quando i processori da 65 nm saranno definitivamente relegati alla storia.

Con un anno di ritardo rispetto ad Intel, AMD sembra dunque pronta a colmare il gap con la rivale e mettere a frutto le molte risorse spese in questi ultimi anni grazie anche all'aiuto di IBM, con la quale ha collaborato allo sviluppo delle tecnologie necessarie alla produzione dei chip a 45 nm e, in futuro, a 32 nm (chip che saranno prodotti all'interno della nuova Fab36 di Dresda, nella regione tedesca della Sassonia).

Tra le tecnologie sviluppate da AMD e IBM ve ne sono due di cruciale importanza: le connessioni con dielettrici ultra-low-K, che riducono le dispersioni di corrente e migliorano l'efficienza dei circuiti, e la Litografia a Immersione, che sfrutta le proprietà ottiche dei liquidi per focalizzare il fascio laser necessario ad incidere i transistor da 45 nm sul wafer di silicio.

Rispetto alla litografia convenzionale, che presenta limiti oggettivi nella tecnologia di processo a 65 nm, la Litografia a Immersione utilizza un liquido trasparente per riempire lo spazio tra la lente di proiezione del sistema di litografia e il wafer che contiene centinaia di microprocessori. La nuova tecnica, secondo AMD, offre una maggiore profondità di fuoco e una migliore risoluzione, in grado di migliorare le prestazioni e l'efficienza di produzione.

AMD e IBM sostengono di essere le uniche, oggi, a poter disporre di una tecnologia litografica così avanzata, il ché questo fornirebbe loro un notevole vantaggio sui concorrenti, inclusa Intel, che per passare all'era dei 32 nm dovrà adottare nuove tecnologie e nuovi impianti di produzione.

In rete è apparso un primo test preliminare del processore AMD "Deneb", nome in codice che identifica una soluzione Phenom realizzata con processo produttivo a 45 nanometri. Un utente venuto in possesso dei modelli da 2,2 e 2,3 GHz ha effettuato alcune prove al SuperPI 1M per trovare la frequenza massima stabile in grado di completare correttamente il test, eseguito su una macchina con scheda madre RD790 e memoria DDR2 800 MHz da 2 GB.

Il processore ha completato il test a 3441 MHz, con raffreddamento ad aria e tensione a 1.588 volt. Il SuperPi 1M ci ha impiegato 20,515 secondi per completarsi. Rispetto al Phenom a 65 nanometri attualmente disponibile, il modello a 45 nm integrerà come novità principale una cache L3 da 6 MB. Ogni core avrà a disposizione 512 KB di cache L2 e vi saranno anche altri miglioramenti generali (la generazione dei processori Phenom a 45 nm dovrebbe debuttare entro l'anno).

nVidia sta puntando decisamente verso la conversione di tutta la sua gamma di schede a 55 nanometri, per ridurre costi (si parla del 20%), consumo e calore dissipato. È probabile che sia AMD che nVidia sforneranno nuovi chip a 40 nanometri entro la fine dell'anno, che entreranno in commercio nel primo trimestre del 2009.

L'azienda - tramite i suoi partner - è attualmente impegnata nella realizzazione dei chip GT200 e G92b a 55 nanometri, mentre G96 (che troverà spazio nella 9500 GT, per esempio) sarà disponibile sia a 65 che a 55 nanometri. Le future GPU G94b, G96b e G98b saranno invece tutte a 55 nanometri.

Usando una nuova tecnica nanolitografica, ricercatori del MIT sono riusciti a creare linee di 25 nanometri.

Il lavoro, che è stato presentato alla "52nd International Conference on Electron, Ion and Photon Beam Technology and Nanofabrication" svoltasi a Portland, nell'Oregon, e che sarà pubblicato su Optics Letters, è stato condotto allo Space Nanotechnology Laboratory del MIT Kavli Institute of Astrophysics and Space Research, con il supporto finanziario della NASA e dell'NSF.

Schattenburg e colleghi hanno usato una tecnica conosciuta come Interference Lithography (IL) per generare i patterns usando uno strumento chiamato "nanoregolatore", realizzato da studenti del MIT, progettato per una variante ad alta precisione della IL, chiamata Scanning-Beam Interference Lithography (SBIL), che utilizza onde sonore a 100 MHz per diffrangere e modificare la frequenza della luce laser, producendo rapidamente dei pattern geometrici su ampie aree con un controllo senza precedenti.

(Credit: Chih-Hao Chang/Optical Society of America)

Grazie alla SBIL e ad un algoritmo per il rilevamento della fase con una alta precisione, sviluppato da uno studente, per la prima volta è stato possibile ripetere lo stesso processo ricoprendo diverse aree.

"Per il momento abbiamo prodotto linee da 25 nanometri usando una lunghezza d'onda di 351 nanometri", dice Mark Schattenburg, direttore dello Space Nanotecnology Laboratory at MIT, "ma contiamo di arrivare presto ad una risoluzione ancora più fine, intorno ai 12 nanometri".

Schattenburg ha fondato la compagnia Plymouth Grating Laboratory (a Plymouth, nel Massachussets) che intende commercializzare la nuova tecnica.

La Intel intanto già sta pensando a come produrre chips con tecnologia di processo inferiore ai 10 nanometri e a quando l'industria dei semiconduttori, intorno al 2012, dovrà approdare a wafers di silicio di 450mm.

A San Francisco, alla vigilia delle celebrazioni per i quarant’anni della Intel, fondata il 18 luglio del 1968 dai fisici Robert Noyce e Gordon Moore, il padre della celeberrima Legge di Moore, secondo cui il numero di transistors per microchip sarebbe raddoppiato ogni due anni, Pat Gelsinger, il vicepresidente del Digital Enterprise Group della Intel, che è stato in passato uno degli artefici del mitico processore 80386, ha offerto alla stampa alcune chicche sul futuro dell'industria dei semiconduttori.

"Oggi"; ha detto, "già abbiamo chiaro il processo di produzione per scendere sotto i 10 nanometri. La Legge di Moore ci ha sempre fornito 10 anni circa di visibilità del futuro, ma oltre i 10 nanometri non riesco a vedere".

Il processo a 45 nm di Intel ha debuttato a fine anno scorso e ha prodotto la linea di processori Penryn a 45nm attualmente in commercio. Il prossimo passo sarà avviare il processo a 32 nm, previsto per il prossimo anno, e dopo qualche anno quello a 14 nm, fino a giungere, se tutto andrà secondo i piani, a quello sotto i 10 nanometri.

Gelsinger ha fatto notare che mentre ogni nuovo processo aggiunge materiali utilizzati in modi nuovi, i processori moderni sono ancora costruiti su una "impalcatura di silicio". "Oggi usiamo circa la metà degli elementi della tavola periodica", ha detto, "mentre quando Noyce e Moore hanno cominciato, ne usavano sei". Riguardo alla futura miniaturizzazione, secondo Gelsinger, "si useranno i nanotubi al carbonio o la spintronica, l'importante è sempre muoversi in avanti".

Gelsinger ha anche predetto l'ulteriore consolidamento dell'industria al momento della conversione dei processi di fabbricazione dalle piastre di silicio da 300 mm a quelle da 450. "Ad ogni nuova generazione, assistiamo ad una riduzione del numero di fabbriche, la Intel, la Samsung e la Taiwan Semiconductor Manufacturing Company (TSMC), i tre più grandi acquirenti del mondo di materiali ed equipaggiamenti relativi ai semiconduttori, hanno concordato per la portare a termine la transizione ai 450 mm tra il 2010 e il 2015."

"Oggi abbiamo solo decine di compagnie che costruiscono le proprie fabbriche, non più centinaia, il numero diminuirà ancora quando ci sposteremo verso i 450 mm. Tutte le compagnie al di sotto del miliardo di dollari non saranno in grado di compiere la transizione e rispettare la Legge di Moore".

Per quel che riguarda la potenza dei futuri processori, Gelsinger prevede il raggiungimento della terascala (chip da migliaia di miliardi di transistors) a livello di personal computer. A questo proposito, la Intel sta già lavorando a degli strumenti semplificati per consentire ai programmatori software di sfruttare a pieno i vantaggi della processione parallela multi-core, mentre per gli utenti comuni sta pensando ad una interfaccia completamente nuova, immersiva, intuitiva e interattiva.

Gelsinger ha concluso parlando di un "continuo scalare della compatibilità", un'idea che da sempre anima la Intel fin dai tempi dei chips x86, l'idea cioè di portare i microprocessori dappertutto, dai dispositivi personal ai sistemi integrati, e che secondo Gelsinger dovrebbe condurre ad un mondo perennemente interconnesso, 24 ore su 24, sette giorni alla settimana.

Space Nanotechnology Laboratory

Plymouth Grating Laboratory

Semiconductor roadmap (Wikipedia)

La guerra dei nanometri

La guerra dei nanometri 2

La guerra dei nanometri 3

La guerra dei nanometri 4

La guerra dei nanometri 5

La guerra dei nanometri 6

La guerra dei nanometri 7

Spintronica

Intel fotonica

Nanotransistor fluido

Quantum chip

OLTRE LA LEGGE DI MOORE 3

INTELLIGENZA COLLETTIVA 5

LA GUERRA DEI MONDI 8

VIAGGIO ALLUCINANTE

martedì 29 luglio 2008

OLTRE LA LEGGE DI MOORE 3


Ricercatori portoghesi del Centro de Investigação de Materiais (Cenimat/I3N), della Faculdade de Ciências e Tecnologia, Universidade Nova (Lisbona) hanno messo a punto un innovativo dispositivo che utilizza la fibra di cellulosa come interstrato e isolante per i transistors (i risultati dello studio saranno disponibili su Ieee Electron Device Letters da settembre).

Elvira Fortunato e Rosdrigo Martins hanno realizzato il primo transistor ad effetto di campo (FET, Field Effect Transistor) realizzato con un comune foglio di carta come interstrato. Attualmente, si registra un interesse crescente nell’uso di biopolimeri per applicazioni elettroniche a basso costo. Poiché la cellulosa è il principale polimero sulla Terra, da tempo la carta viene utilizzata come supporto fisico (substrato) nelle apparecchiature elettroniche. Nessuno prima d’ora, però, l’aveva utilizzata come componente di un FET.

Nella costruzione del dispositivo sperimentale, i due ricercatori del Cenimat /I3N hanno utilizzato un foglio di carta al posto dello strato dielettrico (isolante) dei normali transistor a pellicola sottile, e hanno costruito il congegno su entrambi i lati del foglio: in questo modo, la carta agisce contemporaneamente sia come isolante, sia come substrato.

Secondo i ricercatori, il nuovo dispositivo è estremamente competitivo rispetto ai transistor a pellicola sottile (TFT, Thin Film Transistor) prodotti con substrati di vetro e silicio cristallino, oggi largamente utilizzati e il rendimento è superiore a quello dei FET tradizionali al silicio.

Sostituendo perfettamente il silicio, la cellulosa funziona sia da supporto del circuito, che diventa flessibile e più economico da realizzare, sia da elemento isolante.

Un gruppo di ricerca dell’Università dell’Illinois di Urbana-Champaign, in collaborazione con la Purdue University, ha trovato una soluzione per produrre transistor da reti di nanotubi al carbonio, spianando la strada ad una tecnologia che potrebbe consentire lo stampaggio di circuiti su fogli di plastica e ottenere nuovi componenti elettronici flessibili come display o pellicole che potrebbero, per esempio, ricoprire l’intera struttura di un velivolo per monitorarne eventuali cedimenti (lo studio è apparso su Nature).

I display flessibili potranno essere integrati in parabrezza intelligenti per fornire informazioni ai guidatori, altre applicazioni potrebbero essere la "carta elettronica" che visualizza testo e immagini, celle solari stampate su fogli di plastica, schermi televisivi arrotolabili ecc. I transistors di nanoreti promettono di dare impulso alla "macroelettronica" perché si adattano a tante applicazioni diverse.

La cosiddetta tecnologia delle “nanoreti” – insiemi di circuiti prodotti sovrapponendo in modo casuale molti nanotubi di carbonio a parete singola in una struttura reticolare – finora è stata affetta da un inconveniente critico: i cortocircuiti causati dalla contaminazione da parte di nanotubi metallici che si formano in modo non ordinato durante il processo di fabbricazione.

I ricercatori dell'Illinois hanno scoperto che tagliando le nanoreti a strisce si riescono a prevenire i cortocircuiti interrompendo il cammino dei nanotubi metallici. "Si tratta di un progresso fondamentale nella costruzione di circuiti a nanotubi", ha commentato Ashraf Alam, docente di ingegneria della Purdue University e coautore dello studio.

La ricerca è stata finanziata dalla National Science Foundation attraverso il Network for Computational Nanotechnology del Birck Nanotechnology Center della Purdue, dal Department of Energy, dalla Motorola Corp., e dal Frederick Seitz Materials Research Lab, dal Center for Microanalysis of Materials e il Department of Chemistry della Illinois University.

I ricercatori della University of Illinois hanno condotto le ricerche di laboratorio, mentre alla Purdue University hanno svolto le simulazioni creando i modelli matematici necessari per disegnare i circuiti, interpretare ed analizzare i dati (è stato utilizzato il network globale chiamato "nanoHUB" che fornisce risorse per ricerche scientifiche nel campo della nanotecnologia). . Alla fine hanno creato un circuito flessibile contenente più di 100 transistors, la più grande "nanonet" funzionante mai realizzata (i prossimi circuiti conterranno fino a 10.000 o più transistors).

"Potremo usare i transistors di nanotubi per circuiti integrati flessibili ad alte prestazioni, leggeri, super-resistenti, a basso costo, dato che possono essere prodotti a basse temperature, a differenza di quelli tradizionali basati sul silicio e realizzati su wafer rigidi o su piatti di vetro", dice Alam.

Ogni transistor a nanorete consiste di diverse strisce di nanotubi separate da linee incise mediante i processi standard normalmente utilizzati dall'industria dei semiconduttori.

Le ricerche future dovranno valutare l'affidabilità dei circuiti realizzati con i nanotubi.

Il 27 aprile del 2001, fisici del Thomas J. Watson Research Center di IBM annunciavano di aver fabbricato il primo insieme di transistors fatto con nanotubi al carbonio.

Un annuncio che riportava alla mente quello che nei tardi anni Quaranta fecero i primi scienziati che svilupparono il transistor bipolare, il dispositivo che ha generato l'era dei microchip.

Come i loro predecessori del dopoguerra, gli scienziati IBM Philip G. Collins, Michael S. Arnold e Phaedon Avouris avevano stabilito un importante traguardo, riuscendo ad utilizzare nanotubi metallici fusi in un circuito integrato. "Sarà possibile fabbricare migliaia di questi transistors su un substrato di silicio", diceva entusiasta Collins, "con la giusta sequenza di pulsazioni elettriche, è possibile selezionare i nanotubi semiconduttori".

I transistors fatti di nanotubi consisterebbero solo di un centinaio o un migliaio di atomi, mentre gli attuali material non possono approcciare questo livello di miniaturizzazione

"Stiamo parlando di dispositivi drasticamente più ridotti", dice Tom Theis, direttore della ricerca all'IBM, "e siccome i componenti chiave sono fabbricati mediante sintesi chimica, possono ridurre drasticamente anche i costi".

(a destra, nanotubi al carbonio cresciuti su wafers di silicio che vanno in tutte le direzioni; a sinistra, nanotubi ordinati cresciuti su cristalli di quarzo. Credit: Stanford University Department of Electrical Engineering)

Due gruppi separati di ricercatori hanno pubblicato due studi che dimostrano gli avanzamenti raggiunti nel creare, ordinare e organizzare i nanotubi al carbonio in modo da poterli utilizzare come componenti nanoelettronici.

Per via delle loro ridottissime dimensioni e per il fatto che potrebbero rimpiazzare due componenti basi dei microchips moderni (conduttori e semiconduttori), sono al centro degli interessi della ricerca elettronica. Un interesse che continua a crescere mentre l'attuale tecnologia di produzione si avvia a raggiungere i suoi limiti fisici.

Finora, però, i ricercatori non sono riusciti a trovare il modo per crescere dei nanotubi esclusivamente metallici o semiconduttori, e neanche a ordinarli in patterns regolari, il ché ha reso impossibile l'utilizzo dei nanotubi su scala industriale.

"Una formica è incredibilmente forte rispetto alle sue dimensioni, ma nessuno utilizza le formiche per lavori utili perché corrono in tante differenti direzioni", dice Mike Mayberry, direttore della ricerca sui componenti alla Intel.

Fin da quando sono stati scoperti nel 1993 dal ricercatore IBM Donald S. Bethune e dal ricercatore NEC Sumio Ijima, i nanotubi hanno sempre affascinato i ricercatori. Ogni nanotubo è fatto da uno strato di atomi di carbonio arrotolato che forma un cilindro a parete singola o multipla. Sebbene ogni cilindro consista di una molecola dal diametro non più grande di un nanometro o due, le molecole possono essere cresciute fino a raggiungere dimensioni 30 milioni di volte superiori (alcuni centimetri di lunghezza), come se un capello umano fosse stirato per più di 2 km.

Inoltre, queste strane molecole di carbonio (le buckyballs, ndr), esibiscono proprietà eccezionali, tra cui una super-resistenza. per il fatto che sono tenute insieme da legami atomici. Per quel che riguarda le proprietà elettriche, a seconda di come vengono arrotolati, i nanotubi possono essere sia metallici, e quindi dei buoni conduttori, sia semiconduttori, quindi utilizzabili come componenti logici per i microchips.

Lo studio presentato al VLSI Symposium da Nishant Patil, Albert Lin, Edward R. Myers, H.-S. Philip Wong e Subhasish Mitra, tutti del dipartimento di ingegneria elettrica della Stanford University, si concentra sul problema di come raddrizzare i nanotubi per poterli incorporare nei chips.

Per essere utilizzabili nella produzione su larga scala, i componenti fatti di nanotubi dovranno essere integrati con i chips esistenti basati sul silicio. Purtroppo, però, non è possibile crescere nanotubi su wafers di silicio in modo ordinato. Gli autori dello studio propongono di crescere i nanotubi su cristalli di quarzo, dove si dispongono più ordinatamente, e poi trasferirli su wafers di silicio.

Ma anche si riuscisse ad ottenere dei nanotubi ragionevolmente dritti, c'è poi il problema di creare selettivamente dei nanotubi metallici e semiconduttori. L'altro studio, pubblicato su Science, a cura degli ingegneri chimici Melburne C. LeMieux, Mark Roberts, Soumendra Barman, Yong Wan Jin, Jong Min Kim e Zhenan Bao, della Stanford e della Samsung, sostiene che combinando il substrato in cui i nanotubi vengono cresciuti sia possibile controllarne la forma.Usando un substrato di aminosilane, si avranno dei nanotubi quasi interamente semiconduttori, mentre con substrati di composti aromatici si avranno nanotubi metallici.

Più i circuiti sono piccoli, più sono veloci e consentono di concentrare più componenti in un singolo chip, aumentando la potenza dei processori. L'attuale tecnologia di produzione crea elementi per circuiti dell'ampiezza di 45 nanometri, mentre la prossima generazione, il cui prototipo sarà pronto per la fine di quest'anno, scenderà a 32 nanometri, una misura molto vicina al limite, che è dovuto essenzialmente a due ragioni: più i circuiti basati su silicio e rame diventano piccoli, più aumentano i problemi legati alla dispersione dell'elettricità e alla dissipazione del calore. Un circuito basato su nanotubi, invece, potrebbe essere estremamente efficiente anche a dimensioni di 1 o 2 nanometri.

Un altro problema è la barriera fisica che riguarda le tecniche di fotolitografia (il procedimento tramite il quale le configurazioni geometriche tracciate su di una maschera, che definiscono le regioni di cui è composto un circuito integrato, vengono trasferite su un sottile strato di materiale organico, chiamato "resist", sensibile alla radiazione, con il quale viene preventivamente ricoperta l'intera superficie della fetta di semiconduttore che sarà poi incisa chimicamente rimuovendo le parti non mascherate) usate per stampare i circuiti dei microchip.

Siccome la dimensione critica (Critical Dimension o CD), ovvero la dimensione minima dell'incisione che può venire praticata, è direttamente proporzionale alla lunghezza d'onda della radiazione incidente, attualmente, la migliore fotolitografia tradizionale non può scendere sotto i 120 nanometri. Per utilizzare componenti più piccoli, sarà dunque necessario sviluppare un tecnologia completamente differente

Sono in via di sviluppo una serie di metodi per ridurre progressivamente la lunghezza d’onda della luce incidente e per migliorare i relativi materiali e l’intero processo tecnologico. L'Extreme-Ultraviolet Lithography (EUL o EUVL) è un sistema laser ad alta potenza (di alcuni kw) con lunghezze d'onda di 13 nm, che presenta però come inconveniente i detriti di plasma lasciati sul substrato; La X-ray Lithography sfrutta lunghezze d’onda di 1 nm, non risente della contaminazione da polvere o particelle, ma ha una risoluzione limitata ai 100 nm; l'Electron-Beam Lithography (EBL) ha una risoluzione limitata dalle proprietà del resist, non dalla lunghezza d’onda, ma il processo di fabbricazione, con scrittura sequenziale, è lento; la Ion- Beam Projection Lithography (IPL) presenta un’altissima risoluzione, controllata dal computer, il ché riduce sensibilmente la lentezza di fabbricazione, ma è molto costosa e necessita di una fonte di ioni affidabile.

La maggior parte di queste tecniche sono basate sulla rimozione spazialmente selettiva di un polimero o mediante una deposizione/formazione locale di molecole nelle zone desiderate. Un esempio significativo è la cosiddetta Dip-Pen Nanolithography, con la quale si sfrutta la punta di un Microscopio a Forza Atomica (AFM, Atomic Force Microscope) che viene ricoperta da molecole come i tioli, in grado di reagire chimicamente con una superficie di oro formando forti legami covalenti con essa; Controllando il movimento della punta sulla superficie si può sfruttare una goccia d’acqua come canale per far migrare le molecole dalla punta al campione, ottenendo un processo analogo alla scrittura con una penna ad inchiostro.

Nell'attesa che tutte queste tecniche conducano ad un tecnologia utilizzabile per produzioni su larga scala di "nanochips", i nanotubi vengono già utilizzati su larga scala per interconnettere differenti sezioni del microchips oppure incorporati nel sistema di raffreddamento.

(Credit: Hongjie Dai)

Usando il grafene, ricercatori della Stanford University guidati dal chimico Hongjie Dai hanno sviluppato un transistor ad effetto di campo che può operare a temperatura ambiente. Il dispositivo potrà in futuro essere integrato in chips ad alte prestazioni per aumentare la velocità delle operazioni e generare meno calore (il lavoro è stato descritto su Physical Review Letters).

Il gruppo della Stanford ha realizzato dei nanocomponenti di larghezza inferiore ai 10 nanometri che possono operare anche ad alte temperature usando un nuovo procedimento chimico.

Il grafene, secondo David Goldhaber-Gordon, assistente professore di fisica alla Stanford, potrà essere usato come supplemento al silicio. Secondo Dai, il grafene sarà sicuramente utile, ma non rimpiazzerà il silicio.

Sempre utilizzando il grafene, il Dr Kostya Novoselov e il professore Andre Geim della School of Physics and Astronomy alla University of Manchester hanno realizzato il transistor più piccolo al mondo, lungo un atomo e largo 10.

Erano stati proprio Novoselov e Geim, nel 2004 a scoprire il grafene. Per Jie Chen, ricercatore impegnato nello stesso settore per l'Università di Alberta (Canada), i due sono senza dubbio "i leader mondiali in questo campo". "Dal punto di vista fisico, il grafene è una miniera d'oro", dice Novoselov, che con il suo collega è riuscito a realizzare un transistor di dimensioni infinitesimali, sfruttando tecnologie già ampiamente consolidate e diffuse nelle attuali installazioni industriali come la litografia a fascio di elettroni, usata per scavare dei solchi nel foglio di grafene.

Il risultato ottenuto è stato un "quantum dot", una nanostruttura conduttrice a cui è possibile applicare una differenza di potenziale per modificare la conduttività e consentire la conservazione di stati logici, esattamente come avviene nei transistor tradizionali. Con questo metodo, i due ricercatori sono stati in grado di ridurre a 10 nanometri la dimensione di un transistor, ma prevedono di riuscire a spingersi fino a 1 nanometro in tempi brevi.

Allo stato attuale, i problemi di realizzazione riguardano proprio la produzione dei cristalli di grafene, di circa 100 micron di larghezza, troppo piccoli per un impiego industriale su larga scala, come può essere, ad esempio, quello di colossi come Intel e AMD. Per vedere prodotte le prime applicazioni industriali di questa tecnologia, dunque, ci potrebbero volere almeno 10 anni.

Il 2020 è proprio l'anno indicato dagli esperti per il raggiungimento della miniaturizzazione massima dei transistor in silicio. A quel punto, l'impiego del grafene diventerà indispensabile qualora si voglia scendere al di sotto dei 10 nanometri, limite oltre il quale il silicio non permetterebbe più la costruzione di transistor affidabili, perché tutti i materiali semiconduttori, silicio incluso, iniziano a diventare instabili, si ossidano, si decompongono e migrano in maniera incontrollabile lungo le superfici dei transistor.

Il grafene promette di ovviare al problema, in quanto, a differenza di altri materiali, rimane stabile e conduttivo anche quando usato per dispositivi nanometrici. Anzi, le prestazioni migliorano al diminuire delle dimensioni.

Un gruppo di ingegneri elettrici della Stanford e della Toshiba ha presentato il prototipo di un chip da 11.000 transistors con interconnessioni fatte di nanotubi al carbonio, invece che di cavi in rame (il lavoro è stato pubblicato su Nano Letters).

"Per la prima volta abbiamo dimostrato che segnali digitali possono viaggiare attraverso dei nanotubi ad 1 gigahertz", dice H.-S. Philip Wong, professore di ingegneria elettrica alla Stanford, co-autore dello studio.

Il team ha dimostrato che nanotubi metallici, sintetizzati per la massima conduttività elettrica, sono capaci non solo di collegare i transistors velocità rilevanti su scala industriale, ma anche di essere utilizzabili in circuiti reali che usano materiali, design e processi di produzione compatibili con quelli attuali.

Realizzando un insieme di 256 circuiti chiamati "oscillatori ad anello", normalmente impiegati a livello industriale per testare la velocità dei chips, che in totale comprende 11.000 transistors in un'area pari ad un centesimo di un pollice quadrato (ogni nanotubo misura tra i 50 e i 100 nanometri di diametro e circa 5 micron di lunghezza).

Posti direttamente sopra i transistors che collegano, i nanotubi hanno consentito trasmissioni a 1.02 gigahertz (miliardi di cicli al secondo). I processori dei personal computers attualmente sul mercato viaggiano a velocità tra i 2 e i 3 gigahertz.

Ci sarà bisogno ancora di molti miglioramenti per applicazioni commerciali, soprattutto per quanto riguarda la purezza e la dimensione dei nanotubi in grado di assicurare connessioni affidabili. Ma la ricerca conferma che i nanotubi sostituiranno presto il rame nei circuiti integrati.


Centro de Investigação de Materiais

Ieee Electron Device Letters

Birck Nanotechnology Center at Discovery Park

nanoHUB

VLSI Symposium

Watson Research Center

School of Physics and Astronomy (The University of Manchester)

La legge di Moore

Nanoelettronica oltre la legge di Moore

Nanochips auto-assemblanti

Anniversario della legge di Moore

Oltre la legge di Moore

Oltre la legge di Moore 2

Nanofabbrica e nanocatastrofi

Comunicazione quantistica

QUANTUM ENTANGLEMENT SCIENCE AND TECHNOLOGY

VIAGGIO ALLUCINANTE

giovedì 24 luglio 2008

LA MOSTRA DELLE ATROCITA'

SEDIA ELETTRICA SHOW

L’uomo sussulta e si contorce, trattenuto a fatica dai legacci di cuoio che lo legano alla sedia. L’agonia prosegue in mezzo al fumo sprigionato dalle scariche elettriche che attraversano il corpo. Sullo sfondo si sentono risate e musica elettronica.

È il "sedia elettrica show", un filmato molto popolare su YouTube, che ritrae l’agonia di un manichino di lattice su una finta sedia elettrica. La trovata, comprata via Internet e spedita da Las Vegas, è di un giostraio del Luna park dell’Idroscalo, nella parte orientale del Milanese.

Basta un euro per godersi uno spettacolo di morte di 55 secondi, che ha subito suscitato l'entusiasmo di centinaia di persone ogni giorno, uomini, donne e bambini.

«Mi fa schifo che nessuno si renda conto della gravità di episodi simili», è il commento su YouTube di Pipperminte, che risponde a Mattiabdk, per cui invece le critiche sono solo «falso moralismo per un gioco da sagra».

«Agghiacciante, che schifo, senti i ragazzini come se la spassano...». I commenti spaziano dal disgusto al divertito imbarazzo.

Le reazioni state immediate. Donato Mosella, parlamentare del Pd, si è appellato al ministro dell´Istruzione, Mariastella Gelmini, per togliere la finta sedia elettrica. Articolo 21 ha lanciato una petizione sul sito, tra i primi firmatari Boosta dei Subsonica.

«Pornografia macabra», è stato il commento di Tiziana Maiolo, assessore comunale e fondatrice dell´associazione Nessuno tocchi Caino, il cui responsabile Sergio D´Elia parla di «operazione demenziale, culturalmente devastante, che cancella anni di lavoro di chi si batte contro la pena di morte».

Uno spettacolo osceno, siamo d'accordo, che però è stato trasmesso in prima serata da tutti i telegiornali, che si sono ben guardati dal censurarlo.

WAR ON THE MIND

Il controllo della mente è sempre stato il sogno, neanche tanto occulto, dei tecnocrati.

È noto il programma di controllo mentale “MK-Ultra” condotto dalla CIA negli anni ’60: droghe psicotrope, ipnosi, elettroshock e lobotomia, esperimenti condotti su cavie umane volti al controllo e manipolazione del cervello. Il progetto fu interrotto ufficialmente per il grosso scandalo scoppiato grazie alle rivelazioni pubblicate dalla stampa. L'inchiesta che venne aperta non concluse nulla. A capo della Commissione incaricata di indagare vi era Nelson Rockefeller.

[...] Il tutto funziona in questo modo. Agli uomini viene mostrata una serie di film raccapriccianti che divengono progressivamente sempre più orrendi. L'uomo sottoposto ad addestramento è costretto a guardare dato che ha la testa bloccata da ganasce, in modo che non possa girarsi, e uno speciale aggeggio tiene aperte le sue palpebre [...] Uno dei primi film mostra un giovane africano che viene crudelmente circonciso dai suoi compagni, membri della sua stessa tribù. Non è usato nessun tipo di anestetico e il coltello è, ovviamente, spuntato e non affilato. Quando il film è finito, all'addestrato vengono poste domande irrilevanti del tipo: “Qual era il motivo (del disegno) sul manico del coltello?”, oppure: “Quanta gente teneva bloccato il ragazzo?”. In un altro film, la camera segue i movimenti di un uomo al lavoro in una segheria, mentre taglia delle tavole di legno. Il film mostra i suoi movimenti - lo spingere la tavola - fino a quando egli scivola e si taglia via le dita. Inoltre, misure fisiologiche vengono prese per assicurare che gli uomini imparino realmente a rimanere calmi mentre guardano [...]

(Peter Watson, "War On The Mind")

Come scrisse T.S. Eliot, "il genere umano non può sopportare troppa realtà". La televisione, iper-realtà senza tregua, ci insegue sin nelle nostre notti insonni, con una riproduzione continua del mondo che ormai ha preso il posto del mondo stesso.

"Il lavaggio del cervello, come si pratica oggi, è una tecnica ibrida, che trae la sua efficacia in parte dall'uso sistematico della violenza, in parte dall'accorta manipolazione psicologica. Rappresenta la tradizione di 1984 che sta per mutarsi nella tradizione del Mondo Nuovo"

(Aldous Huxley, "Ritorno al Mondo Nuovo").

L'OCCHIO CHE UCCIDE

"Oggi, l’occhio fotografico non è solo quello del reporter incollato all’evento, modello Robert Capra, è l’occhio comune: voyeurismo e affetti, turismo e stereotipo, esotismo e controllo, ricordo e tortura, possesso e bisogno morboso di contemplare. Abbiamo consumato lo spettacolo della guerra, siamo passati alle stragi, alle torture, ai rapimenti e agli sgozzamenti mediatici. Da una parte la manutenzione della paura, dall’altra la costruzione delle sicurezze passano a colpi di video digitali e comunicati in rete [...] La distanza che separa Abu Ghraib dai lager nazisti, dalla bomba atomica, dai Gulag, dal Vietnam e persino dall’ex Jugoslavia è la penetrabilità interstiziale della fotografia digitale, l’istantaneità del suo flusso globale, è la rottura del circuito del controllo, è la possibilità di modificare, alterare, sabotare l’immagine ufficiale destinata alle masse infinite di consumatori mediali per determinare e condizionare il presente [...]

(Giovanni Fiorentino, "L’Occhio che Uccide La fotografia e la guerra: immaginario, torture, orrori", Meltemi, 2004).

Nello sguardo dello spettatore contemporaneo albergano ormai in pianta stabile immagini di violenza, morte e guerra. I telegiornali, i quotidiani, i siti Internet, "documentano" l’orrore dei kamikaze e dei bombardamenti sulle popolazioni civili, le decapitazioni e le torture sui prigionieri, in una sorta di danza macabra nella quale non è più rintracciabile un briciolo di verità. Le immagini che invadono ogni giorno la nostra mente sono abilmente selezionate, tagliate, censurate, manipolate, da un sistema informativo mai obiettivo. Ciò determina un vortice mediatico il cui scopo è quello di "sedurre e sedare", tenere a bada le masse, inchiodarle davanti allo schermo, nutrendole di immagini da consumare selvaggiamente senza spazio per alcuna riflessione critica.

"L’immagine è voyeurismo, pulsione, necrofilia, scopofilia, controllo, possesso, bisogno morboso di contemplare. Eros e Thanatos" (Fiorentino, op.cit.)

L’abbraccio "morboso" tra guerra e immagine continua a stringersi sempre di più, avendo come effetto un’amplificazione della rappresentazione del male, sempre più efferata, sempre più morbosa, sempre più ossessiva, sempre più anestetica.

IL DOLORE DEGLI ALTRI

Su questo stesso tema si è interrogata, poco prima di morire, Susan Sontag. "Regarding the Pain of Others" ("Guardando il Dolore degli Altri") è dedicato alla rappresentazione della morte, in particolare a quella fotografica (l'idea del libro gli era venuta durante il suo reportage di guerra a Sarajevo, dopo quelli in Vietnam, Rwanda e Afghanistan).

Margaret Bourke-White fece parte di quel gruppo di fotografi che per primi, nella primavera del 1945, testimoniarono gli orrori di Buchenwald. Qui, come anche a Bergen-Belsen e Dachau, la fotografia si impose su qualsiasi altro tipo di documentazione.

In una delle fotografie scattate in quell'aprile a Buchenwald, una civile tedesca si copre il volto con la mano sinistra per non assistere al macabro spettacolo dei cadaveri.

L'orrore dell'immagine appare il modo più eloquente di testimoniare una realtà "ricostruita", proprio come quella macabra composizione, in cui tre cadaveri costruiscono quasi una croce schiacciata per terra: i due corpi che ne costituiscono i bracci appaiono quasi irreali, l'oscenità di quello al centro, nella sua raccapricciante nudità, rappresenta il centro espressivo dell'immagine.

Siamo di fronte a una di quelle immagini il cui valore consiste nel mostrare.

Non sembrerebbe esserci alcun dubbio sull'autenticità di ciò che mostra una fotografia scattata da Eddie Adams nel febbraio del 1968: il capo della polizia sudvietnamita, il generale di brigata Nguyen Ngoc Loan, mentre uccide un sospetto vietcong in una strada di Saigon.

Eppure, fu una messinscena, orchestrata dallo stesso generale Loan, che condusse il prigioniero, le mani legate dietro la schiena, nella strada dove erano riuniti i giornalisti: collocatosi accanto al prigioniero, in modo che il suo profilo e il volto della vittima fossero visibili alle macchine fotografiche poste alle sue spalle, Loan sparò a bruciapelo.

Il corpo dell’uomo di affari americano Nicholas Berg è stato ritrovato l’8 maggio vicino ad un cavalcavia di Baghdad e un video della sua presunta decapitazione è apparso l’11 maggio su due siti internet ufficialmente collegati ad Al-Qaeda.

In seguito, si è scoperto che, sebbene il server era in Malesia, i responsabili dei due siti si trovavano in Europa, a Londra e in Danimarca (e, come noto, in rete ci sono centinaia di falsi siti islamici gestiti dalla CIA).

Secondo le dichiarazioni rilasciate all’Asia Times Online da un famoso chirurgo e da uno specialista in medicina legale, il video in questione potrebbe essere tutta una messinscena. "Provate a convincermi che non sia un falso", ha detto John Simpson, direttore del Dipartimento di Chirurgia al Royal Australasian College of Surgeons, in Nuova Zelanda. Anche secondo John Nordby, specialista in medicina legale, la decapitazione di Berg è stata "inscenata". "È impossibile stabilire se le scene riprese siano consecutive".

Simpson e Nordby ritengono entrambi altamente probabile che l’ostaggio americano sia morto in un tempo precedente alla decapitazione. All’apparenza, oltre ad altri fattori, manca infatti l’ "imponente" fiotto di sangue che sarebbe dovuto sgorgare dall’arteria recisa. "Le persone nelle immediate vicinanze di Berg si sarebbero ricoperte di sangue nel giro di pochi secondi", ha affermato Simpson. Inoltre, i medici legali sostengono che, durante un simile attacco, il sistema nervoso autonomo di una persona avrebbe reagito in modo violento, con i tipici tremiti e movimenti convulsi. "Potrebbero aver usato un manichino", ha ipotizzato Simpson.

La mostra delle atrocità si impossessa della storia intesa come rappresentazione, nella misura in cui ogni suo documento è il frutto di una "messa in scena". La brutalità e l'orrore che spesso ci sgomentano nelle foto sono frutto di una precisa strategia psicologica.

È il "cuore di tenebra" dell'immagine fotografica.

Il valore di questi documenti visivi non è solo politico ma anche estetico: la loro sovraesposizione o, al contrario, la loro censura, condizionano la percezione che hanno gli spettatori degli eventi reali. Queste immagini oscene, private, progressivamente anestetiche, creano un cortocircuito nell'ambito del visivo.

L'orrore a cui le immagini attingono, spesso in modo totalmente autoreferenziale, simula un'aderenza totale alla realtà rappresentata che può portare all'anestetizzazione degli sguardi e delle coscienze degli spettatori.

La manipolazione è sempre in agguato.

Lo shock provocato dalla mostra è destinato ad affievolirsi parallelamente all'assuefazione. Lo spettatore è ridotto a semplice voyeur, stuzzicato nelle sue più intime e voluttuose paure, tranquillizzato dalla consapevolezza di una distanza fra lui e una sofferenza che non lo riguarda, che, infine, non lo tocca più intimamente.

"Lasciamoci ossessionare dalle immagini più atroci… esse continuano ad assolvere una funzione vitale. Quelle immagini dicono: ecco ciò che gli esseri umani sono capaci di fare, ciò che – entusiasti e convinti di essere nel giusto – possono prestarsi a fare. Non dimenticatelo" (Sontag. op. cit.).

THE ATROCITY EXHIBITION

Lo scrittore James Ballard ha dedicato la sua vita a studiare e descrivere l'abitante del "mediascape", il paesaggio artificiale creato dai mass-media che ha cambiato per sempre l'esperienza e il senso di realtà dell'uomo del XX secolo.

"La mostra di quest'anno aveva un segno inquietante: tutti i quadri insistevano sul tema della catastrofe planetaria, come se questi pazienti, così a lungo segregati, avessero avvertito nelle menti dei dottori e delle infermiere una specie di sconvolgimento sismico".

Ne "La Mostra delle Atrocità" ("The Atrocity Exhibition"), uno dei suoi capolavori, un uomo dal carattere sfaccettato che cambia nome (Travis, Talbot, Traven, Tallis, Talbert, Travers) vorrebbe uccidere di nuovo il Presidente John Kennedy, ma in modo che abbia un senso. Nel complesso, i racconti sono una sorta di studio pseudo-scientifico dell'influenza di vari avvenimenti luttuosi del decennio, come l'uccisione del Presidente Kennedy e la morte di Marylin Monroe, sulla sessualità e l'immaginario degli spettatori.

Usando continue citazioni e riferimenti a Raymond Roussel, André Breton, Salvador Dalì, René Magritte, Max Ernst, e all'arte surrealista in genere, Ballard esplora in modo sistematico, quasi clinico, e paradossale, come il mediascape, il paesaggio immaginario costruito dai mass-media, stava in quegli anni ristrutturando non solo l'immaginario collettivo del pubblico, ma lo stesso sistema nervoso della specie: "icone neuroniche sulle autostrade spinali".

I grandi eventi luttuosi rappresentati in modo spettacolare dai media (la morte di Marilyn Monroe, l'assassinio di Kennedy, il disastro dell'Apollo) divengono le nuove mitologie dell'era tecno-mediatica, una realtà virtuale che procura nello spettatore un'alterazione della coscienza spesso traumatica. Come nel protagonista del suo romanzo, che vuole rimettere in scena gli stessi eventi (spesso usando come vittima sacrificale la moglie) per dar loro il senso che avevano perso nella rappresentazione mediatica. L'aspetto mitologico e paradossalmente religioso si incarna nelle tre misteriose figure di Coma, Xero e Kline, che accompagnano Travis/Traven in vari episodi.

La perdita del senso comune, è questo che indagava Ballard, e la nascita di un nuovo senso (una "nuova carne"), una nuova realtà simulata dai media.

Scrive Ballard del libro: "Ho cercato di analizzare quello che succede nel punto in cui si incontrano il sistema dei media e il nostro sistema nervoso. Qual è il reale significato della morte di Marilyn Monroe o dell'assassinio di Kennedy? Come agiscono su di noi a livello neurofisico, a livello inconscio? Come questi eventi mediatici influenzano la nostra immaginazione?".

Le peregrinazioni nel paesaggio mediatico dei vari "sé" di Traven coi suoi molti nomi, la riproposizione della prosa scientifica (medica, sociologica, psicologica), le narrazioni paradossali, sono l'arma con cui Ballard vuole contrastare "il matrimonio tra ragione e incubo che ha dominato il XX secolo".

La "mitologia del futuro prossimo" che Ballard voleva creare andava esattamente nel senso contrario. È proprio tramite l'attraversamento dell'inferno che i suoi personaggi attingono a quel poco di ambigua salvezza a cui possono arrivare. È nella malattia mentale, nel disturbo dell'identità, nella "morte degli affetti", la chiave per comprendere se stessi e il mondo.

La scarnificazione del corpo, lo scambio fra interno ed esterno, reale e virtuale, si riflettono in una scrittura frammentata, frattale, implosiva, schizofrenica. Lo stravolgimento della forma romanzo tradizionale, qui più ancora che nel romanzo postmoderno americano, è la traduzione stilistica di quella rottura fra forma e contenuto in cui Ballard aveva individuato uno dei problemi centrali dell'era post-industriale.

Nella sua analisi del rapporto tra l'ipertrofia tecnologica e la modificazione delle strutture profonde della psiche, nella figura dell'interno del corpo (e in particolare del sistema nervoso) che si scambia e si confonde con l'esterno, nel rapporto di scambio che l'uomo instaura col mondo, dell'insieme delle rappresentazioni mentali che di esso si fa e delle modificazioni che gli impone con la sua azione sull'ambiente, aveva colto uno snodo dell'immaginario, un punto critico, un processo di ingolfamento, una "ipertrofia dell'immaginario" (l'immagine del mondo che diventa un gigantesco sistema nervoso richiama la concezione dei mass-media di Marshall McLuhan, un autore che gli è più vicino di quanto non si pensi).

La mostra delle atrocità rimane un paradigma, con la sua scrittura autenticamente cosmopolita, antropologica, fantarealista o transrealista.

Siamo tutti "abitanti del mediascape", così come descritto da Ballard. Dobbiamo solo prenderne coscienza.

Spettacoli di morte

Body worlds

The Abu Ghraib show

Guerra e cinema

La violenza e il sacro (parte 2)

FUNNY GAMES

STORIA DEL DELITTO PERFETTO



mercoledì 23 luglio 2008

EVOLUZIONE SISTEMICA 3

Da dove deriva la complessità dei mammiferi in generale e dell’uomo in particolare?

Con la decifrazione della sequenza del DNA umano, si è scoperto che il numero totale del geni che compongono il nostro genoma è estremamente basso, solo 25.000 rispetto ai 100.000 ipotizzati. Un numero davvero sorprendente, se si pensa che il genoma della Drosophila, il moscerino della frutta, è composto da 15.000, mentre quello dei vermi, mediamente, da 20.000.

In un lavoro pubblicato sui Proceedings of the National Academy of Sciences, un guppo di ricercatori dell’Istituto di Biologia Cellulare (IBC) del CNR ha fatto luce sui meccanismi dell’espansione dell’informazione genetica.

“I geni presenti nel DNA dei cromosomi umani”, spiega Glauco Tocchini-Valentini, responsabile del gruppo di ricerca, “sono copiati da macchine enzimatiche localizzate nelle cellule, che producono molecole di RNA corrispondenti alle sequenze del DNA che subiscono poi alcuni processi di modifica prima di essere utilizzate come istruzioni nella produzione delle sequenze di amminoacidi che compongono le proteine".

Tra queste modificazioni, la più importante è la rimozione di regioni interne non codificanti, chiamate "introni", e la successiva giunzione delle sequenze rimanenti, dette "esoni", che possono essere anche completamente o solo parzialmente non codificanti, ma che si ritrovano nell'RNA modificato, detto "maturo". Tale processo di "taglia e cuci", chiamato "splicing", è essenzialmente analogo all’operazione di montaggio di un film, in quanto prevede l’eliminazione di scene e l’unione di tratti differenti di pellicola.

"Normalmente, i differenti esoni che vengono congiunti nel processo di splicing sono presenti sulla stessa molecola di RNA”, continua Tocchini-Valentini, “ma il nostro lavoro dimostra che le cellule sono in grado di congiungere esoni lontani fra di loro e addirittura localizzati su molecole di RNA diverse, come se si unissero spezzoni di pellicole di film differenti".

Ciò significa che la cellula può formare nuove e inaspettate proteine, derivanti dalla fusione di domini di proteine diverse. "Il meccanismo di funzionamento", dice ancora Tocchini-Valentini "può essere paragonato a ciò che accade decomprimendo un file archiviato in un computer: una subroutine, ossia un’unità logica di un programma, contenente una piccola ma fondamentale molecola chiamata "tRna" (RNA di trasferimento), possiede le istruzioni necessarie ad assemblare e fondere assieme parti di due catene di RNA distinte tra loro, ottenendo così nuove sequenze in grado di produrre particolari tipi di proteine, non ricavabili dalle istruzioni iniziali”.

Le informazioni presenti nel DNA vengono così espanse durante i diversi meccanismi di espressione genetica e le varie sequenze geniche possono congiungersi con altre sequenze, anche lontane, per produrre nuove molecole funzionali.

"Il concetto di espansione dell’informazione”, conclude Tocchini-Valentini, “formulato in passato dal filosofo tedesco Leibniz, può aiutare a comprendere la ragione della straordinaria complessità umana”.

Ricercatori dello European Bioinformatics Institute, parte dello European Molecular Biology Laboratory (EMBL-EBI), hanno rilevato alcuni errori sistematici nei metodi esistenti per comparare sequenze genetiche di diverse specie e indagare le relazioni evoluzionarie (il lavoro è stato pubblicato su Science).

Grazie ad un nuovo strumento bioinformatico messo a punto per evitare gli errori, sono riusciti a fornire un nuovo quadro dell'evoluzione del DNA e delle sequenze proteiche che suggerisce come il turnover sia molto più comune di quanto si ritenesse finora.

"L'evoluzione accade molto lentamente, tanto che non possiamo studiarla semplicemente osservandola", dice Nick Goldman, leader del gruppo che ha condotto la ricerca, "per questo dobbiamo imparare dalle relazioni che intercorrono tra le specie comparando diverse sequenze genetiche".

Le quattro lettere che formano il codice del DNA di tutte le cose viventi cambiano nel tempo; ad esempio, lettere singole o multiple possono venire copiate in modo non corretto (sostituzione), perse (cancellatura) o guadagnate (inserzione). Tali cambiamenti possono causare modifiche strutturali e funzionali nei geni e nelle proteine e finanche la formazione di nuove specie. Solo ricostruendo la storia di queste mutazioni si può tentare di conoscere il corso dell'evoluzione.

La comparazione di sequenze multiple comincia mediante il loro allineamento: i caratteri delle differenti sequenze che condividono antenati comuni vengono combinati mentre i guadagni o le perdite di caratteri vengono marcati. Sebbene questa procedura sia computerizzata, numerosi allineamenti multipli sono spesso costruiti progressivamente da diversi allineamenti a coppie. È tuttavia impossibile giudicare se una differenza di lunghezza tra due sequenze sia dovuta ad una cancellatura in una o ad un’inserzione nell'altra. Per avere un corretto allineamento di sequenze multiple, distinguere tra questi due eventi è cruciale. I metodi esistenti, che non riescono a fare ciò, non consentono di comprendere il corso dell'evoluzione.

"Il nostro nuovo metodo", dice Ari Löytynoja, che ha sviluppato il programma, "tiene conto di ciò che già sappiamo sulle relazioni evoluzionarie. Se ad esempio volessimo comparare il DNA dell'uomo con quello dello scimpanzé, il programma andrà a consultare automaticamente le sequenze corrispondenti in specie simili come gorilla o macaco".

I risultati ottenuti con questo metodo suggeriscono che le inserzioni sono molto comuni, mentre la frequenza delle cancellature sembrerebbe essere stata sovrastimata dai metodi tradizionali.

L'obiettivo della biologia molecolare sta dunque spostandosi nel tentativo di comprendere i cambiamenti genomici funzionali mediante nuovi metodi specificatamente progettati per considerare le sequenze in una prospettiva storica.

Uno studio condotto da Andrew Bass della Cornell University mostra come tutte le diverse abilità dei vertebrati nella produzione di suono derivino da quella originaria di pesci (i risultati sono stati pubblicati su Science).

Il team di scienziati ha mappato lo sviluppo delle cellule neurali di larve di un pesce"cadetto" e le ha comparate a quelle di altre specie, scoprendo che il cinguettio degli uccelli, l'abbaio del cane e altri suoni prodotti dalla bocca di animali sono prodotti di circuiti neurali risalenti a centinaia di milioni di anni fa, connessi ai versi emessi dai pesci.

"Condividiamo con i pesci le stesse parti di cervello", dice Bass.

Lo studio ha tracciato lo sviluppo della connessione tra i muscoli vocali del pesce cadetto e un ammasso di neuroni localizzato in un compartimento posto tra la parte posteriore del suo cervello e quella anteriore della sua spina dorsale. Che è la stessa in molti vertebrati complessi, inclusi gli umani, con simili funzioni. Il ché indica che durante il corso dell'evoluzione ha superato tutti i test della selezione naturale.

Il maschio del pesce studiato da Bass e colleghi, per attirare le femmine produce un suono ronzante, simile ad una lontana sirena nel vento, contraendo la sua vescica natatoria, l'organo deposto al galleggiamento.

Durante la stagione degli accoppiamenti, gli abitanti case-barche nella Baia di San Francisco, possono sentir vibrare le proprie case per via del ronzio prodotto dai maschi che suona come un motore subacqueo.

Un team di ricercatori della University of Texas di Austin, guidato dai Dottori Matthew Cowperthwaite e Lauren Ancel Meyers, ha sviluppato una nuova teoria secondo cui la selezione naturale non sempre agisce per migliorare la specie.

Il materiale su cui agisce la selezione naturale è fornito dalle mutazioni genetiche: le mutazioni che rendono un organismo più adatto all'ambiente in cui si trova tendono a persistere attraverso le generazioni successive, mentre le mutazioni dannose tendono ad estinguersi insieme agli organismi che le possiedono. Le conseguenze sul lungo temine delle mutazioni, tuttavia, non sono ancora ben conosciute dai biologi evoluzionari.

Il team ha sviluppato dei modelli al computer di molecole di RNA che evolvono per mutazione e selezione. Tali molecole, molto simili a quelle di DNA, giocano dei ruoli chiave nei processi vitali essenziali e servono come materiale genetico per alcuni dei virus più letali, come l'influenza e l'HIV.

I modelli computerizzati hanno mostrato che l'evoluzione di organismi ottimali spesso richiede una lunga sequenza di mutazioni interagenti, dovute al caso e alla selezione naturale. "Certi tratti evolvono facilmente da molte differenti combinazioni di mutazioni" - spiega Cowperthwaite - altri invece sono il risultato di ricette genetiche più improbabili. L'evoluzione favorisce le combinazioni più facili che non sempre corrispondono alle migliori".

(art. di rif.: Cowperthwaite et al., "The Ascent of the Abundant: How Mutational Networks Constrain Evolution". PLoS Computational Biology, 2008)

È tempo di aggiornare la "modern synthesis" (sintesi moderna), chiamata anche "neodarwinismo", cominciata a partire dagli anni Trenta fino agli anni Cinquanta dello scorso secolo, quando i primi geneticisti, paleontologi e altri cominciarono a mettere in discussione l'idea di Darwin che l'evoluzione sia guidata principalmente dalla selezione naturale.

La sintesi di varie discipline collegate all'evoluzionismo, come la genetica, la paleontologia, a cui più recentemente si sono aggiunte la biologia molecolare, la genomica, la bioinformatica, la proteomica, la biologia sistemica, sostiene che le mutazioni genetiche creano nuove varianti di geni esistenti in una specie e che la selezione naturale, guidata dalla competizione per l'accaparramento delle risorse, consente agli individui meglio adattati di sopravvivere e riprodursi, rendendo le variazioni genetiche adattive più comuni, eliminando le altre.

Diversi studi analitici hanno mostrato come la selezione possa produrre un occhio complesso da una semplice macchia oculare in poche centinaia di migliaia di anni. Qualcuno ha proposto che siano le mutazioni piuttosto che la selezione a guidare l'evoluzione, o comunque i principali eventi di innovazione, come sd esempio l'origine dei maggiori gruppi animali inclusi i vertebrati.

Gli studi comparativi dello sviluppo hanno mostrato come operano i geni, come evolvono, e questo ha spostato l'enfasi dalla graduale accumulazione di piccoli cambiamenti genetici ai meccanismi che guidano la regolazione genetica. L'ecologia dello sviluppo ha enfatizzato il ruolo che gli organismi giocano nel costruirsi i propri ambienti, mentre gli studi sui fossili hanno aperto nuovi interrogativi sul ruolo della competizione. Una delle maggiori sfide alla sintesi moderna è venuta tra gli anni '70 e '80 da alcuni paleontologi, tra cui Stephen Jay Gould, che ha fornito uno sguardo gerarchico dell'evoluzione, con una selezione che agisce a più livelli, anche tra specie diverse.

Il tallone di Achille della sintesi moderna, secondo il filosofo Ron Amundson, è che essa considera primariamente la trasmissione di geni da una generazione all'altra, ma non come i geni producono i corpi. Alcune recenti scoperte nel nuovo campo della biologia evoluzionaria dello sviluppo ("evo-devo"), ad esempio che il gene "Pax-6" controlla la formazione degli occhi nei topi e negli umani, che il gene "Nkx2.5" controlla la formazione del cuore, e che diversi altri geni quella del sistema nervoso, ha spinto ad investigare i meccanismi genetici e dello sviluppo in relazione all'evoluzione della forma. Attualmente, una delle aree considerate più eccitanti nello studio dell'evoluzione è l'esplorazione di come sia possibile modificare i geni per produrre differenti appendici artropode.

Edoardo Boncinelli, fisico e biologo, docente all'Università Vita-Salute San Raffaele di Milano, dice: «Negli ultimi vent'anni abbiamo fatto immensi progressi nello studio della biologia dello sviluppo. Tutti gli organismi nascono da un pugno di cellule dette totipotenti, ovvero in grado di dare vita a tutto il resto del corpo. Ma abbiamo scoperto che i geni importanti, così come i meccanismi dello sviluppo, sono gli stessi in forme di vita molto differenti".

Sean B. Caroll, autore di "Endless Forms Most Beautiful The New Science of Evo Devo and the Making of the Animal" (in it. "Infinite Forme Bellissime. La Nuova Scienza dell'Evo-Devo"), ha mostrato come le diversissime appendici degli artropodi (crostacei, insetti, aracnidi ecc...) - siano esse zampe, chele o pedipalpi - abbiano tutte un'origine comune. «Sappiamo adesso che la maggior parte degli organismi sono costruiti utilizzando lo stesso set di istruzioni e che singoli geni controllano la formazione di vari organi in differenti animali. Il successo di questi organismi si deve a strutture ridondanti e multi-funzione. In pratica, una volta che un componente è stato 'inventato', viene riutilizzato in ogni modo, secondo un'ottica di risparmio delle risorse. Per esempio, le ali degli insetti sono generate dallo stesso set di geni che sottendono allo sviluppo delle branchie. Lo stesso codice da vita a strutture simili ma di impiego differente, grazie ai processi di regolazione del gene, che intervengono solo a un certo punto dello sviluppo embrionale».

Scopo dell'evo-devo è individuare i singoli geni deputati allo sviluppo di tutte le parti degli organismi. «Si definisce quindi un approccio innovativo - dice Caroll - in grado di comprendere l'evoluzione al livello più fondamentale di geni ed embrioni. L'evoluzione non è più vista solo come il cambiamento nel tempo di genotipi e fenotipi, attraverso mutazione, incrocio e selezione naturale, ma anche come organizzazione nel tempo dei processi che regolano lo sviluppo, dall'embrione alla forma adulta».

Evoluzione sistemica

Evoluzione sistemica 2

L'occhio di Darwin

Microcosmo

Alieni Umani

The Protein Grid

Il micro-albero della vita

Il genoma mancante

Mutazioni causali

The original mix

Il dna è mobile

Regolazione genetica

Il secolo del gene

Metagenomica

Progetto 1000 genomi

Creazione senza Dio



Share/Save/Bookmark
Related Posts Plugin for WordPress, Blogger...

Ratings by outbrain

PostRank