Scienze & Tecnologie


All’IFA di Berlino di quest’anno – la più importante fiera di elettronica di consumo europea che si tiene annualmente a Berlino, in Germania – sono emerse diverse innovazioni tecnologiche che tolgono il fiato, danno il senso del meraviglioso; un po’ di questo senso del futuro lo possiamo respirare da un paio di articoli di Repubblica (qui e qui). Ai televisori di altissima e raffinata tecnologia (prendo per esempio, sempre da Repubblica, questa descrizione):

piattissimi, contrasto illimitato, colori brillanti grazie ai sub-pixel che illuminano il 20% in più rispetto a un led tv e affiancano la tecnologia multi view, che consente a due persone di visualizzare simultaneamente sullo stesso schermo due programmi differenti, con la possibilità di ascoltare ogni programma separatamente usando degli occhiali con cuffie integrate. C’è anche la possibilità di “muovere” i canali con il solo gesto della mano

si affiancano lavatrici, frigoriferi, ferri da stiro, tutti oggetti ridisegnati da funzioni impensabili fino a un giorno fa e che già propongono il ridisegno della casa del futuro (fonte: stesso articolo di Repubblica):

il prototipo Digital Rapture è un sistema formato da quattro parti che dialogano per permettere all’utente di riprodurre in casa le atmosfere degli ambienti esterni. Come? Semplicemente con una spilla che si chiama Redocrypt: è capace di memorizzare gli odori, i colori, i suoni e le vibrazioni del mare o di una passeggiata nel bosco e di riprodurle, attraverso casse, una coperta a sensori e un pannello luminoso, all’interno della propria abitazione.

La domotica, insomma, appare oggi la frontiera più estrema della tecnologia, e fa davvero male vedere il mondo dei computer e dei sistemi operativi segnare il passo, mentre rincorre il sistema touch perfetto e non innova nulla nelle funzionalità. Il software appare come un oggetto sottomesso al marketing, per vendere PC e telefonini sembra che occorra soltanto l’adozione di sistemi più versatili e cool per le gesture, il modo più eclettico di sfogliare e zoomare lo schermo acquisisce agli occhi del consumatore molta più importanza delle novità intrinseche alle funzionalità software (a chi dovesse essere interessato all’argomento consiglio un mio approfondimento apparso su Delos 147) e così, le automatizzazioni robotiche riprendono il ruolo che scrittori di SF del passato avevano previsto, lasciando gli ingegneri software sepolti sotto un bellissimo e inutile schermo tattile.

La vita è informazione trasmessa da molecole complesse: l’RNA e il DNA. Le ricerche sul codice genetico che nel 1962 valsero il Premio Nobel per la medicina a Watson, Crick e Wilkins sono alla base della nostra attuale, se pur parziale, comprensione delle basi genetiche della vita. Il modello a doppia elica visualizzato da Odile Speed, moglie di Crick, ha saputo rendere popolare un concetto per molti versi paradossale: il fatto che le informazioni che definiscono le caratteristiche della specie a cui una creatura vivente appartiene e i tratti particolari che definiscono il singolo individuo siano codificate in una stringa molecolare. Il DNA è una macromolecola costituita dalla ripetizione di unità di base e nelle cellule umane è solitamente ripartito in 23 coppie di cromosomi, che nell’insieme costituiscono il genoma umano, formati da circa tre miliardi di basi azotate, per una lunghezza compresa tra 1 e 2 metri, impacchettato per superavvolgimento e racchiuso nel nucleo di ogni nostra cellula. Ogni unità si chiama nucleotide ed è il monomero della catena a doppia elica (definita polimero). Ciascun nucleotide comprende tre sotto-unità:

  • una base azotata
  • uno zucchero pentoso (contenente cinque atomi di carbonio)
  • un gruppo fosfato

Struttura schematica di un segmento di DNA.

La base azotata può essere una di cinque tipi: adenina (A), citosina (C), guanina (G), timina (T) e uracile (U). Le basi azotate si legano a due a due attraverso dei legami a idrogeno. DNA e RNA (una macromolecola più semplice, formata da un singolo filamento, altrettanto importante nella trasmissione delle informazioni biochimiche a livello cellulare) comprendono un sottogruppo dell’insieme di queste basi, ciascuno formato da quattro di esse. Il DNA, in particolare, è formato da coppie A-T oppure C-G. Nell’RNA l’uracile prende il posto della timina.

Lo zucchero è il ribosio per l’RNA, il desossiribosio per il DNA. Il complesso di una base azotata e uno zucchero pentoso  forma un nucleoside. La presenza del gruppo fosfato è responsabile del carattere acido di questi polimeri, da cui il loro nome: acido ribonucleico (RNA) e acido desossiribonucleico (DNA). L’aggiunta di uno o due residui fosforici alla molecola è all’origine della formazione di un nucleoside difosfato o trifosfato (NDP e NTP, rispettivamente), fondamentali per i processi energetici cellulari. In particolare, la reazione per idrolisi che trasforma l’adenosina trifosfato (ATP) in adenosina difosfato (ADP) è la fonte di energia utilizzata dalla cellula per il proprio sostentamento.

In questa brevissima e lacunosa esposizione abbiamo incontrato le due caratteristiche essenziali della vita: informazione da trasmettere ed energia da consumare. Un gioco le cui regole sono severamente iscritte nei vincoli imposti dalla natura e ricordati nella composizione dei nucleotidi di cui sopra, ritenuti non a caso i «mattoni della vita». Da tempo biologi e biochimici s’interrogano sulla validità di queste regole e sui possibili gradi di libertà estraibili dalle restrizioni che impongono. Per esempio: possono esistere polimeri funzionali fondati su altre basi azotate diverse dalle cinque canoniche? Oppure: potremmo sostituire il ribosio e il desossiribosio con un altro zucchero pentoso?

Schema del DNA e alcuni zuccheri pentosi alternativi al desossiribosio.

Diversi team di ricercatori sparsi per il mondo sono giunti quasi simultaneamente ad annunciare nei giorni scorsi i risultati dei loro esperimenti condotti su quest’ultimo fronte. In particolare, un gruppo britannico del Medical Research Council di Cambridge, guidato da Vitor B. Pinheiro, ha esplorato le possibilità degli XNA, ovvero i cosiddetti acidi xenonucleici, come sono stati definiti gli acidi genetici ottenuti usando zuccheri pentosi diversi dal ribosio e dal desossiribosio. Come riportato da Le Scienze, gli zuccheri presi in considerazione sono l’arabinosio, il 2-fluoro-arabinosio, il treosio, un analogo bloccato del ribosio, l’anidroesitolo e il cicloesene, che originano le varianti ANA, FANA, TNA, LNA, HNA e CeNA degli acidi nucleici finora noti. Per tutti questi XNA, è stato possibile ricavare in laboratorio uno strumento fondamentale alla trasmissione dell’informazione genetica in essi codificati, la polimerasi, vale a dire un enzima capace di leggere, trascrivere e retrotrascrivere le sequenze di acidi nucleici. Non essendo presenti in natura molecole di XNA, non esistevano finora nemmeno le corrispondenti polimerasi. I ricercatori britannici sono riusciti ad assemblare polimerasi artificiali in grado di trascrivere l’informazione del DNA in un XNA e, viceversa, retrotrascrivere l’informazione dall’XNA al DNA.

L’ipotesi riconosciuta da Pinheiro e colleghi è che l’XNA possa funzionare come acido nucleico sintetico, ma è ancora presto per parlare di un sistema genetico del tutto autosufficiente. Siamo ancora ai primi passi. Tuttavia l’esito delle loro ricerche è interessante anche per un altro aspetto, legato al mistero dell’origine stessa della vita. L’assunzione che l’RNA abbia preceduto nella scala dell’evoluzione il DNA, molto più complesso, è largamente riconosciuta dai biologi, sebbene resti ancora oscuro il passaggio precedente, ovvero la formazione dell’RNA dal mondo pre-biotico. A colmare la lacuna si candiderebbe ora proprio uno degli XNA studiati a Cambridge, il TNA, l’acido treosinucleico, che ha la possibilità di legarsi all’RNA con un accoppiamento di basi antiparallelo (come accade nel DNA). Un altro passo avanti verso il futuro della programmazione della vita, quindi. Ma accompagnato da un salto a ritroso nel passato verso una comprensione autentica del processo, a cui non dovrebbe rimanere estranea un’assunzione di responsabilità nella sua forma più piena.

Dei giorni scorsi sono due notizie alquanto interessanti per gli appassionati di informatica e di elettronica, soprattutto per quanto concerne i potenziali sviluppi futuri della tecnologia dell’informazione.

Spin-wavefunction

Spin-wavefunction (Photo credit: Wikipedia)

Nel 2008 si cominciò a parlare anche qui da noi di spintronica, una nuova branca dell’elettronica quantistica il cui campo di applicazione più promettente sembrava essere proprio nel settore dei processori quantistici. Su Fantascienza.com ne parlammo diffusamente, per cui rimandiamo a quell’articolo chiunque volesse approfondire l’argomento. Forti degli studi avviati dai ricercatori dell’Università della California di Santa Barbara, sede del Center for Spintronics and Quantum Computation, dalla loro collaborazione con i colleghi del Politecnico di Delft (Paesi Bassi) e della Iowa State University è nato il prototipo funzionante di una nuovissima classe di processori, che dimostra la fattibilità di computer quantistici allo stato solido. Sicuramente è presto per pensare a una produzione commerciale: stiamo solo muovendo i primi passi verso la nuova frontiera della computazione, ma il risultato raggiunto dagli scienziati dei tre istituti summenzionati dimostra che la direzione è quella giusta.

Il prodotto delle loro ricerche è costituito da un substrato di carbonio cristallino al cui interno sono confinati due qubit (ovvero bit quantistici, le unità di base dell’informazione quantistica), realizzati rispettivamente da un nucleo di azoto introdotto come impurità nel diamante e da un elettrone presente in un altro difetto della struttura. In particolare l’informazione è rappresentata dal loro spin, vale a dire il momento angolare intrinseco o, più intuitivamente, il verso di rotazione del nucleo e dell’elettrone. Questa proprietà delle particelle subatomiche si presta a un’applicazione utile nel campo della computazione quantistica. Il principale degli effetti collaterali con cui occorre fare i conti quando si maneggiano unità di informazione quantistiche è infatti la decoerenza, ovvero il progressivo deterioramento prodotto dalle «interferenze» dell’ambiente esterno sull’informazione immagazzinata nei qubit, e il relativo brevissimo intervallo di tempo in cui essi risultano pertanto manipolabili. La tecnica classica prevede un raffreddamento del sistema a temperature prossime allo zero assoluto (-273,15 gradi Celsius), per ridurre le interazioni con l’esterno congelando di fatto il sistema lontano dal rumore ambientale. Tale processo è però comprensibilmente costoso ed è improbabile pensare a una sua applicazione in dispositivi prodotti su scala commerciale. La soluzione proposta con la spintronica sembra invece molto più facile da realizzare tecnicamente. Il nucleo di azoto, pur essendo un qubit più lento, presenta una certa stabilità rispetto alla decoerenza, che ne preserva lo stato per un tempo sufficientemente lungo da renderne possibile l’utilizzo in processi di elaborazione. L’elettrone rappresenta invece un qubit più veloce, ma è anche maggiormente esposto agli effetti della decoerenza. I ricercatori hanno ideato un espediente per “schermarlo” utilizzando degli impulsi a microonde.

Testato su un problema di ottimizzazione, come la ricerca di una particolare occorrenza all’interno di un database, il processore spintronico avrebbe ottenuto il risultato giusto al primo colpo nel 95% dei casi, un risultato sensibilmente superiore a quello che sarebbe stato lecito aspettarsi da un processore classico basato su un algoritmo di ricerca tradizionale (che avrebbe avuto una sola probabilità sul numero complessivo di elementi della base di dati). Un risultato, secondo gli autori della ricerca pubblicata su Nature, sufficiente a dare ragione del comportamento quantistico del loro prototipo.

Secondo molti esperti, proprio campi specifici come l’ottimizzazione o la crittografia rappresenterebbero il terreno più fertile per le applicazioni dei futuri processori quantistici, che quindi finirebbero per soppiantare i processori tradizionali soprattutto nel settore dei dispositivi special purpose, ovvero progettati per assolvere a compiti complessi ma specifici. Un gruppo di ricerca del Max Planck Institut di Garching (Germania) attivo nell’Ottica Quantistica ha invece già pensato a una possibile rete quantistica. Non dobbiamo tuttavia confondere il loro risultato con il progetto di quantum network avviato a Durban, in Sudafrica, dal Centre for Quantum Technology della locale Università del KwaZulu-Natal e basato sulla crittografia quantistica delle informazioni scambiate dalle strutture pubbliche della municipalità di eThekwini, connesse sulla metropolitan area network (MAN) della città. Lo scopo della ricerca eseguita al Max Planck non si limita alla crittografia, ma ambisce a creare una rete come quelle su cui si basa quotidianamente la nostra comunicazione e interazione remota, ma interamente basata su tecnologie quantistiche.

Elementary quantum network of single atoms in optical cavities.

La rete quantistica implementata a livello prototipale dagli scienziati di Garching consiste infatti in due nodi multifunzione collegati da una fibra ottica e capaci di trasmettere, ricevere e archiviare informazioni quantistiche. I nodi sono costituiti da atomi di rubidio intrappolati in cavità ottiche riflettenti: lo stato quantistico di ciascun atomo rappresenta il qubit. Accoppiando tramite entanglement quantistico lo stato di un nodo a quello di un fotone trasmesso attraverso la fibra si realizza lo scambio di informazione con l’altro nodo. Per il momento il prototipo di rete occupa i laboratori dell’istituto e i nodi distano tra loro 21 metri e sono collegati da una fibra ottica lunga 60 metri, ma non ci sono limiti alla scalabilità dell’applicazione. “Stiamo cercando di costruire un sistema in cui il nodo è l’elemento universale”, spiega Stephan Ritter, coautore dello studio pubblicato su Nature. “Non solo è in grado di inviare e ricevere: in linea di principio potrebbe fare tutto ciò che ci si può immaginare”. Il che significherebbe informazione scambiata velocemente e altrettanto velocemente processata, ma soprattutto comunicazione sicura.

Siamo davanti a due significativi passi in avanti nella strada verso la prossima rivoluzione tecnologica che investirà i campi dell’elettronica e dell’information technology. Ne seguiremo gli sviluppi, tenendo come sempre le nostre antenne ben puntate sulle sorgenti del futuro.

Si chiama Planetary Resources e se state cercando un impiego che unisca la visionarietà all’avventura potrebbe fare al vostro caso. Si tratta di una nuova società fondata da due veterani della scalata allo spazio: Eric Anderson, ingegnere aerospaziale e pioniere dei voli spaziali commerciali, e Peter H. Diamandis, presidente della X Prize Foundation (con cui stimola imprese innovative a colpi di premi da 10 milioni di dollari), direttore della Singularity University e già fondatore con lo stesso Anderson di Space Adventures, iniziativa con cui hanno portato negli anni sette turisti privati a soggiornare sulla Stazione Spaziale Internazionale. Per questo i due sono accreditati come gli specialisti più quotati nella corsa all’esplorazione spaziale al di fuori della NASA. Non paghi del giro d’affari che hanno già saputo stimolare, i due sembrano intenzionati a tener fede fino in fondo al motto di Diamandis: “Il modo migliore per pronosticare il futuro è crearselo da sé”. E Planetary Resources è il veicolo societario attraverso il quale stanno lanciando in questi giorni la loro ultima sfida: sfruttare le ricche risorse minerarie degli asteroidi orbitanti in prossimità della Terra.

Come ricorda Tor.com, già nel 2005, nel corso dell’annuale conferenza TED, Diamandis annunciò che “ogni cosa di valore presente sul pianeta – metalli, minerali, superfici edificabili ed energia – è disponibile in quantità infinita nello spazio”. Nel comunicato stampa circolato prima della presentazione ufficiale della società lo scorso 24 aprile, la Planetary Resources promette di creare “una nuova industria e una nuova definizione di risorse naturali”. E la loro impresa ha in breve tempo guadagnato proseliti, attirando investitori di primissima fascia: da Larry Page ed Eric Schmidt, rispettivamente fondatore e amministratore delegato di Google, a Ross Perot Jr, erede del miliardario texano fondatore di EDS e della Perot Systems e sfidante indipendente alle presidenziali del 1992. Tra i suoi collaboratori Planetary Resources può inoltre vantare la consulenza dell’astronauta Tom Jones (quattro volte nello spazio a bordo dello Shuttle per complessivi 53 giorni di missione in orbita) e James Cameron, visionario regista di opere miliari del cinema di fantascienza come i primi due Terminator, Aliens, The Abyss e Avatar e fresco reduce dalla conquista degli abissi, che dichiara di nutrire una passione per lo spazio altrettanto forte di quella per le profondità oceaniche. Lo scopo della società è quello di lanciare una corsa allo spazio che produca due ricadute benefiche: una immediata per l’economia della Terra, e una di più vasto respiro consistente nella conquista umana dello spazio.

Per farlo ha messo in cantiere una serie di progetti volti a intercettare e raggiungere asteroidi su orbite vicine alla Terra ed estrarne minerali preziosi grazie a sciami di sonde robotiche. Si conoscono ad oggi oltre novemila oggetti rocciosi più grandi di 50 metri in prossimità della Terra e ogni anno il numero si accresce di un migliaio di nuove scoperte. Ogni asteroide contiene riserve significative di metalli, che spaziano dal ferro al silicio, passando per nichel, cobalto e carbonio, ma anche platino e metalli simili, come l’iridio, il rodio o il palladio, piuttosto rari sul nostro pianeta e per questo estremamente preziosi. In particolare, il platino e gli elementi del suo gruppo, adottati in applicazioni mediche, nel campo delle energie rinnovabili, dei convertitori catalitici e utilizzabili nelle celle a combustibile per l’industria automobilistica, hanno un valore che sui mercati internazionali sfiora quello dell’oro. A differenza della Terra, dove i metalli si concentrano in profondità nel sottosuolo, gli asteroidi presentano una caratteristica che li rende particolarmente appetibili: i metalli sono abbondantemente distribuiti anche in prossimità della superficie. Così scavando anche solo pochi metri sulla superficie di un asteroide di piccola taglia, diciamo grande mezzo miglio, si potrebbero ricavare oltre 130 tonnellate di platino, per un valore complessivo di circa 6 miliardi di dollari.

Se un risultato di questo tipo basterebbe a ripagare diverse decine di volte il costo di una missione spaziale, dalla messa in orbita di telescopi al lancio di sonde per la ricognizione degli asteroidi fino all’invio di uno sciame di robot minatori/raffinatori, non mancano le controindicazioni. In particolare, un’indagine commissionata a un team di scienziati e ingegneri dal Keck Institute for Space Studies prospetta il rischio finanziario di una forte inflazione come risultato dell’accresciuta disponibilità di metalli rari, che è un po’ quello che capitò all’oro proveniente dal Nuovo Mondo ai tempi dei conquistadores, che per altro alcuni studiosi indicano come una delle cause all’origine del declino dell’Impero Spagnolo. Ma anche ipotizzando uno scenario meno catastrofico, grazie a una più oculata immissione dei beni di valore nel mercato terrestre, restano al momento di difficile attuazione le soluzioni legate allo sfruttamento commerciale degli asteroidi: tra le strade proposte ci sono quella di catturare i corpi e spingerli verso la Terra grazie a dei motori alimentati a energia solare per intrappolarli nella sua orbita; o in alternativa di estrarre i minerali e raffinarli lungo il tragitto di rientro verso la Terra.

Per quanto avveniristiche possano sembrare, alla Planetary Resources contano di realizzare il progetto nel giro al massimo di 7 anni, comunque entro la fine del decennio. Obiettivo ambizioso, che comunque appare poca cosa rispetto al risvolto dell’impresa. Gli asteroidi sarebbero infatti anche delle più ricche riserve di acqua del sistema solare. Alcune stime indicano in un quinto della massa complessiva di un asteroide il suo contenuto in acqua: risorsa preziosa, sia per gli habitat spaziali al servizio dell’umanità del futuro, sia come fonte di carburante da ricavare per via elettrolitica (ossigeno liquido e idrogeno sono i due reagenti che vengono combinati negli stadi di lancio dei vettori orbitali).

E di fronte alla prospettiva della conquista dello spazio, l’approccio di Anderson e Diamandis non prevede tentennamenti: la loro filosofia si basa un presupposto molto yankee, quello del pensare in grande per generare un volume d’affari commisurato, ma anche su un principio più condivisibile, che nasce dalla constatazione di dover pur partire da un primo piccolo passo, per poter arrivare a spiccare un balzo. Al 50% ci sentiamo di abbracciare le motivazioni della loro causa, con l’augurio che l’esplorazione dello spazio, prossimo alla Terra oppure profondo, non si riduca comunque a una pura e semplice impresa di sfruttamento commerciale. Il sogno del futuro e di una civilizzazione spaziale è davvero troppo bello per meritarsi di venire tradito in questo modo.

Piccole note sul software libero – parte prima
Piccole note sul software libero – parte seconda

OpenOffice

Un manifesto, le parole di Zacchiroli: il manifesto della libertà, perché la libertà in quest’epoca – e sempre di più andando verso il futuro – passa e passerà per il codice software, per chi lo controlla, per chi non vuole che sia controllato e anzi pretende che tutta la filiera rimanga trasparente, per tutte le implicazioni che la vita digitale ha già reso palesi. Ecco perché la chiosa di questo lungo post è anche la chiosa del primo articolo di Repubblica, dove c’è l’esplicitazione degli usi più disparati e possibili dell’opensource, e della trascendenza della sua filosofia:

L’opensource in salotto. Un settore sempre più aperto al codice libero è quello dei televisori e dei dispositivi di intrattenimento domestico. Le moderne “Smart TV” hanno bisogno, per gestire i loro servizi “intelligenti”, di sistemi totalmente diversi da quelli delle televisioni di qualche anno fa. LG, per esempio, permette di riprodurre sulle proprie TV i film, le canzoni e le foto conservati nei PC di casa utilizzando una rete interna e le tecnologie del software opensource Plex, mentre il sistema operativo dei televisori Samsung è basato su Linux, tanto che alcuni programmatori ne hanno creato un sostituto chiamato Samygo.

Usiamo software opensource anche se utilizziamo uno dei tanti box multimediali per visualizzare la cosiddetta IPTV, la televisione via connessione ADSL. Sia Cubovision, il prodotto di Telecom Italia basato su MeeGo, sia il Tiscali TvBox utilizzano tecnologie aperte.  Opensource sono anche la maggioranza dei software di gestione degli hard disk multimediali, gli apparati che, connessi a un televisore, permettono di riprodurre filmati, musica o foto conservati in hard disk interni.

Pinguini & Co. nell’auto. Necessità simili, avere un buon software già pronto all’uso da poter adattare a propri prodotti, hanno spinto Ford a dar vita al progetto OpenXC, una piattaforma composta da software basato su Android e hardware basato sul progetto italiano Arduino opensource che permette di leggere i dati dell’automobile e registrarli per poter essere utilizzati nell’auto stessa o in applicazioni per smartphone o PC.  Al momento è presente, per esempio, negli ultimi modelli di Ford Focus e Ford Fiesta, ma può essere adottato liberamente da qualsiasi altro produttore. Meego, il progetto da cui è nato Tizen descritto poco fa, è invece stato adottato da BMW per essere utilizzato nei navigatori delle sue automobili, mentre BMW e altri produttori sono consorziati nel consorzio Genivi nato per supportare l’adozione di software opensource nei sistemi di infotainment delle autovetture.

Se si entra in fabbrica. I settori più innovativi dell’informatica di consumo utilizzano software opensource e libero e ciò fanno anche le industrie più complesse, come quella aerospaziale o automobilistica. Ma opensource non è solo software o hardware. In una presentazione tenuta a una TED Conference lo scorso Giugno, Jay Bradner, un ricercatore dell’istituto di medicina di Harvard, ha descritto come il suo laboratorio è riuscito a produrre una molecola (la molecola JQ1) in grado di rallentare il processo di riproduzione di geni tumorali. Al momento dell’intuizione iniziale il team di Bradner ha coinvolto colleghi di tutto il mondo per cercare aiuto e al momento della scoperta, quando la molecola era pronta, al posto di tenerne segreta l’identità chimica, come farebbe una casa farmaceutica, l’ha pubblicata per permettere a tutti di utilizzarla. Bradner ha chiamato questo processo una “ricerca opensource sul cancro”. “La libertà di collaborare con gli altri è fondamentale per avere una buona società in cui vivere e questo per me è molto più importante di avere un software potente e affidabile”. A questo, forse, pensava Richard Stallman, padre del movimento del software libero, quando, in una conferenza, gli fu chiesto di chiarire il senso più profondo dell’opensource.

Firefox

Cooperare, senza che ciò diventi necessariamente un sistema tritatutto, socialmente omicida; anzi, lasciare che la cooperazione diventi un fattore di crescita collettivo, capace sì di generare profitto ma anche benessere, dove nessuno venga mangiato dagli squali dell’alta finanza: questo è forse l’ultimo sogno dei figli delle generazioni che dei ’60. Fondamentalmente, essi non sono lontani, ora, dal conquistare il mondo senza spargere sangue, senza essere diventati belve assetate di denaro, senza che venga schiacciata la nostra dignità, riservatezza, libertà. Anzi, la nostra Libertà: software libero, sempre, ovunque, sempre di più, è la loro arma cristallina, vincente, potente come l’energia riciclabile. Senza l’opensource, il mondo sarebbe assai simile a quello che paventava George Orwell.

Related articles

Piccole note sul software libero – parte prima

A questo punto interseca facilmente il nostro discorso un secondo articolo, sempre di Repubblica.it: l’intervista a Stefano Zacchiroli, leader di Debian, la distribuzione regina dei sistemi operativi Linux, quindi il top dell’opensource. Che esprime una visione politica del mondo che sfiora l’anarchismo illuminato.

A screenshot of Ubuntu 11.04 (Natty Narwhal).

A screenshot of Ubuntu 11.04 (Natty Narwhal). (Photo credit: Wikipedia)

Partiamo proprio da qui. In che senso un software può incidere sul nostro grado di libertà?
“Un software è libero quando l’utente ne ha il controllo totale. Che questo software giri su computer, tablet, telefono o televisione, poco importa. Libertà vuol dire poter usare il software senza limitazioni di scopi, poterlo copiare e soprattutto poter guardare come è stato fatto, ossia vederne il codice sorgente, e modificarlo. Ciascun programmatore sa decifrare il codice sorgente, mentre se ha solo il codice binario non può fare granché. Avere a disposizione il codice sorgente significa poter modificare il software e ridare al mondo, come un atto di collaborazione, le nuove modifiche”.

Proviamo a fare qualche esempio attinente alla vita quotidiana…
“Un esempio emblematico è quello del tostapane. Cinquant’anni fa uno “smanettone” era in grado di aggiustare un tostapane rotto adattandolo a un diverso impianto elettrico. Oggi, se prendiamo un tostapane su cui gira del software proprietario, non abbiamo più quella libertà. I software ci consentono di realizzare tantissime cose che prima erano impossibili. Trattandosi però di un concetto difficile, alla gente sfugge che di un software proprietario il consumatore non può fare nulla: è come avere un oggetto, ma possederne in realtà solo una piccola parte. Dal momento in cui la presenza del software negli oggetti quotidiani è destinata ad aumentare, non vedo perché i consumatori debbano rinunciare ad avere il controllo dei loro oggetti, e dunque alla loro libertà. L’obiettivo, al contrario, dovrebbe essere quello di estendere il controllo individuale a tutti i dispositivi che utilizziamo e che contengono del software. Ce ne sono un’infinità: dai computer ai telefonini, dalle macchine agli aerei, per arrivare ai pace-maker che abbiamo addosso e ai dispositivi ospedalieri che controllano la nostra vita”.

Sono parole e concetti forti. Sono prese di posizioni altamente costruttive, eppure votate alla più ampia libertà, all’autodeterminazione; alla volontà di non farsi soggiogare né dalle multinazionali né dai meccanismi che regolano le multinazionali. Stefano poi aggiunge:

A una persona non esperta può risultare difficile capire perché il free software sia ovunque, anche in sistemi/programmi tutt’altro che gratuiti. Ci spiega perché?

Google Chrome

Google Chrome (Photo credit: thms.nl)

“Chi crede nella filosofia del software libero, accetta che il software sia un bene comune: si lavora su un prodotto che, una volta pronto, è per tutti. Non si mettono restrizioni su chi può o meno usare un determinato software. A questo punto, ecco che tra gli utilizzi possibili rientra anche il “fare soldi”. Per questo il software libero è presente in tantissimi oggetti commerciali. Ci sono dei vincoli, come ad esempio l’impegno a condividere con gli altri eventuali modifiche, ma non c’è nulla di illegale. Di conseguenza, enormi sono gli interessi commerciali delle aziende che si basano sul nostro lavoro. Gli sponsor delle nostre conferenze sono Google, IBM, HP; l’azienda che sta dietro Ubuntu ha 500 dipendenti ed è una multinazionale. Il bello è che in buona parte queste grandi aziende si affidano al lavoro fatto da noi: mille prodi volontari”.

Dall’elenco mancava Apple, la nemica giurata dei sostenitori del free software.
“Dal mio punto di vista, il successo di Apple sta nell’aver trasformato i computer da strumenti su cui si producevano contenuti a macchine per consumare contenuti. A ciò bisogna aggiungere un’attenzione maniacale ai dettagli, che li ha portati a meritarsi il primato. Secondo me, però, stanno facendo un sacco di danni ai consumatori. Punto primo: non sappiamo cosa fanno i loro dispositivi. Per esempio, è stato scoperto che gli iPhone tracciavano gli spostamenti degli utenti, un fatto a mio avviso molto inquietante. Il secondo aspetto è legato ai DRM (Digital Right Management): ogni volta che compriamo delle canzoni su iTunes, non sappiamo se ce le avremo per sempre e non possiamo prestarle ai nostri amici. Quando compriamo un cd, invece, sappiamo che sarà nostro per sempre. Hanno trasformato il concetto di app store (che trae le sue origini dalle distribuzioni di una quindicina d’anni fa) in un dispositivo di censura: il software disponibile su un iPhone non lo decide l’utente, bensì deve aver passato il vaglio della Apple. Nel mondo Android, per lo meno, ci sono anche gli store non ufficiali”.

Oltre alla libertà, quali sono gli altri vantaggi del software libero rispetto a quello proprietario? Cosa intende chi parla di “superiorità” del free software?
“Da tempo si sa che il software libero non ha nulla di inferiore a quello proprietario, anzi. È bene non generalizzare perché ci sono software proprietari fatti benissimo e altri malissimo. Da anni sappiamo che, in termini di sicurezza, il software libero offre vantaggi inimmaginabili. Tutto è visibile, quindi anche se potenzialmente i “cattivi” (i cracker) possono trovare più facilmente delle falle, c’è anche molta più gente che può controllare e risolvere. Più in generale, un’azienda che fa business su software non libero ha interesse a nascondere i problemi di sicurezza perché sono cattiva pubblicità. Nel software libero, invece, tutto è già visibile e non c’è nessun interesse a nascondere”.

Continua

A chi segue le vicissitudini del mondo software, sia lato programmazione e/o sistemistico che lato utente finale, sarà capitato di assistere sempre più spesso a dibattiti sul software libero vs software proprietario. In sostanza, gli operatori e gli appassionati del mondo digitale si dividono in due categorie: chi sceglie programmi e sistemi operativi blindati, di cui si è semplici utenti o poco più e di cui si può diventare comunque degli specialisti (vedi per es. Microsoft, Windows, Apple, iPhone etc.) oppure chi diventa paladino dei prodotti scritti e gestiti con licenza opensource, ovvero software non blindato e accessibile a chiunque abbia la capacità di modificare e scrivere codice (Linux, Openoffice, Firefox, Android).

Tux, the Linux penguin

Tux, the Linux penguin (Photo credit: Wikipedia)

Image representing Windows as depicted in Crun...

Image via CrunchBase

La macro differenza tra software proprietario e software opensource, libero, è fondamentalmente quella esposta qui sopra. Nell’ambito del software libero esistono poi sofisticazioni maggiori, tali da permettere di costruire del codice proprietario su licenze opensource; Google, per esempio, parte da una base free per costruirci sopra del proprio codice, chiuso. Lo stesso avviene nel mondo Linux, dove le varie distribuzioni presenti non sempre aderiscono completamente allo spirito free del celebre sistema operativo aperto; però, in buona sostanza, laddove si parla di software libero si può affermare che la possibilità d’incappare in qualche prodotto che fa cose alle vostre spalle, di cui non ve ne renderete mai conto, si assottiglia notevolmente, proprio perché al controllo c’è una comunità attenta alla programmazione, che sa leggere cosa fa un programma e che quindi può modificarlo all’uopo.

Repubblica.it nei giorni scorsi ha dedicato ben due articoli al mondo opensource, che nasce dalle lotte libertarie (non certo liberiste) degli anni ’60 nei campus universitari degli USA. Il primo articolo da cui ho preso spunto è quindi qui, dove si pone l’accento sulla grossa chance che il software libero sta avendo nel mercato dei sistemi operativi e non solo; punti di forza notevoli quelli dell’opensource, che passano per le alte performance, per l’affidabilità e la sicurezza, livelli di alta qualità che riescono spesso a convincere l’utente finale sulla convenienza economica nel passare a questa filosofia digitale: perché i prodotti totalmente opensource sono pressoché gratuiti, mentre quelli sviluppati sul free software sono spesso gratuiti o al massimo costano davvero poco se confrontati con i prodotti blindati, quelli proprietari, che costano sensibilmente di più (vedi licenze di Windows, per esempio, o di Microsoft Office).

PIÙ LA SOCIETÀ digitale evolve, più l’opensource, il modello di distribuzione libera e gratuita del software e del suo codice sorgente reso popolare dalla distribuzione Linux, guadagna fiducia e attenzione. Una delle ultime previsioni della società di analisi Gartner dedicata a questo mercato ha indicato che, nel 2016, il 99% delle principali aziende utilizzerà almeno un software opensource (era il 75% 2010). E, il più delle volte inconsapevolmente, lo stesso stanno facendo oggi milioni di persone.

I vantaggi sono innegabili. Il software opensource è già pronto, economico, modulare. Ma è anche di qualità. Secondo una ricerca pubblicata da alcuni giorni fa dalla società di analisi software Coverity, i software opensource hanno anche meno difetti dei software con codice proprietario. La ricerca ha confrontato, con procedure automatiche, 45 software opensource e 41 software a “codice chiuso” rilevando come, nel primo caso, la densità di difetti (ossia il numero di difetti riscontrati suddiviso per le dimensioni del codice con cui è programmato il software) sia pari, in media, a 0,45, mentre quella dei software proprietari sia pari a 0,64. Poco importa che, paragonando software dalle dimensioni equivalenti, la forbice diminuisca quasi a scomparire. Importante è che la ricerca definisca quanto tutti sapevano da tempo: il software opensource è progettato con qualità.

Questo ci dice il suddetto articolo di Repubblica, che continua:

Un bene per l’industria. Per dirla con Mark Shuttleworth, il milionario fondatore di Ubuntu, una delle più diffuse versioni di Linux, il software opensource “accresce l’innovazione tecnologica, ne consente l’accesso anche alle zone periferiche del mondo e permette ai programmatori di esprimere al massimo le loro capacità”. Il principio riceve conferme anche dall’ampia diffusione di progetti a codice aperto che, senza clamori, sono alla base di decine di attività quotidiane: quando usiamo il computer, quando navighiamo su Internet, quando usiamo lo smartphone, quando guidiamo un’automobile.

L’opensource ci circonda. Usiamo software opensource quando navighiamo su Facebook, su Twitter, su Google, su Wikipedia. Per dirne una, Facebook  probabilmente non sarebbe nato se Mark Zuckerberg  non avesse avuto a disposizione il linguaggio di programmazione PHP, basato su standard aperti e rilasciato con licenza libera così da poter essere utilizzato senza dover pagare diritti. Ancora oggi l’intera infrastruttura di Facebook si basa su software a codice aperto, software che chiunque può scaricare, installare ed utilizzare per i propri servizi.

Non stupisce che l’ambiente di principale utilizzo di software opensource sia Internet: le tensioni libertarie maturate dai movimenti americani degli anni Sessanta, in cui affonda le radici il pensiero teorico dell’opensource, hanno segnato anche la nascita della grande rete (“io sono nato tra una marcia di protesta e un’occupazione universitaria”, dirà il fondatore di Linux, Linus Torvalds). Se navighiamo il Web usando Firefox o Chrome, il browser progettato da Google, stiamo usando due prodotti opensource, che da tempo erodono vistose quote di mercato a Internet Explorer facendolo scendere al di sotto del 50% nonostante il navigatore sia preinstallato nel 90 per cento dei computer del mondo.

Continua

Nel 1959 Charles Percy Snow, di professione scienziato, di vocazione scrittore, scrisse il suo celebre saggio (rielaborazione della Rede Lecture tenuta nel maggio di quell’anno presso l’università di Cambridge, pubblicato nel ’63 con considerazioni aggiuntive) in cui teorizzava la frattura tra le due culture. In esso l’autore britannico constatava la generale diffidenza degli scienziati e degli ingegneri verso la letteratura (considerata avulsa ai loro interessi), con conseguenze limitanti per la loro intelligenza immaginifica; e al contempo la scarsa familiarità degli uomini di lettere con la scienza, le sue tematiche e anche solo i suoi concetti di base.

Evidenziava in queste considerazioni un retaggio del passato, dell’atteggiamento «conservatore» di gran parte degli intellettuali dell’Ottocento e dell’influsso che avevano esercitato sul gusto dei suoi contemporanei, e ne denunciava la prospettiva limitata che aveva impedito loro di cogliere i benefici che l’industrializzazione avrebbe potuto comportare sullo stile di vita e il benessere delle fasce sociali più povere. Inoltre lamentava l’attitudine degli uomini di scienze, che di fatto si auto-limitavano nel proprio ruolo, negandosi i benefici che una base umanistica minima avrebbe potuto apportare al loro modo di rapportarsi al loro stesso lavoro.

Il problema, sostiene Snow ed è facile concordare con lui, affonda le radici nel sistema educativo. Bisognerebbe investire in formazione, prestando i nostri tecnici ai paesi poveri per propiziarne al più presto lo sviluppo industriale. Secondo Snow, l’India avrebbe potuto uscire dal suo stato di povertà con l’aiuto di scienziati e ingegneri inglesi, americani e russi, e lo stesso avrebbe potuto capitare al resto dell’Asia (Cina esclusa, in cui già intravedeva potenzialità di autosufficienza) e Africa.

A distanza di oltre mezzo secolo dalla stesura del saggio, è sorprendente constatare come alcuni elementi abbiano seguito le previsioni dell’autore, penso soprattutto all’ingresso della Cina nel club dell’industrializzazione, ai benefici dimostrati delle riforme scolastiche volte a valorizzare materie scientifiche e tecniche (che anzi prima o poi potrebbero portare i paesi della Vecchia Europa a chiedere il sostegno dei paesi sulla cresta dell’onda, Brasile, Russia, Cina e India); ma, paradossalmente, è altrettanto sorprendente continuare a riscontrare la persistenza della frattura tra le due culture. Per esempio, oggi come allora la narrativa di consumo come la letteratura dell’Occidente sono dominate da protagonisti con scarsissime attitudini tecnologiche e prevalentemente analfabeti in qualsiasi materia scientifica; i romanzi sono invece affollati di psicologi, pubblicitari, magistrati, poliziotti, assediati da una massa impiegatizia indistinta e anonima. E, man mano che anche le conoscenze umanistiche di base si assottigliano con la complicità delle varie riforme che hanno riguardato l’insegnamento, specie in Italia le opere letterarie sembrano produrre protagonisti amorfi e indistinti come riflesso di un pubblico amorfo e indistinto a sua volta.

Se in ambito letterario la fantascienza rappresenta il ponte ideale tra umanisti e tecnici/scienziati, in Italia attualmente esiste un solo gruppo di autori che si è dato programmaticamente lo scopo di superare il divario tra le due culture.

Secondo Snow, gli unici autori dell’Ottocento che avrebbero potuto cogliere la portata del cambiamento furono per la loro ampiezza di vedute e vocazione i russi, che però rimasero sempre vincolati al contesto rurale e pre-industriale del loro Paese. Questo dovrebbe insegnarci qualcosa e servirci da ammonimento. L’Italia, tra i paesi della cosiddetta Eurozona più esposti alla crisi economica, si trova oggi al centro di una tempesta finanziaria. Il nostro è un argine e noi ci troviamo proprio quassù, esposti ai venti della bufera. Se la barriera di contenimento terrà o meno, la storia imboccherà un corso oppure un altro. Ma se non dovesse tenere – e il premio Nobel Paul Krugman, che solitamente nelle sue analisi si rivela impeccabile, non è affatto ottimista – quello che sperimentiamo noi oggi, potrà toccare domani a qualcun altro.

Sta a noi interpretare e decodificare i segnali. I tempi sono stretti. Ma nel ruolo di testimoni che compete agli autori, è anche un dovere – oltre che una prerogativa – dei connettivisti saper fornire un punto di vista sul mondo che cambia intorno a noi.

Apprendere nuove nozioni e abilità come i personaggi di Matrix, tramite un computer collegato direttamente ai centri neurali: quello che nella trilogia dei fratelli Wachowski era una trovata fantascientifica, secondo gli scienziati dell’Università di Boston e della giapponese ATR Computational Neuroscience Laboratories potrebbe diventare un giorno realtà.
Il metodo già utilizzato dai ricercatori di Berkeley, che grazie alla risonanza magnetica funzionale (fMRI) sarebbero in grado di estrarre i sogni dalla mente delle persone, è stato adattato dal team nippo-americano per generare modelli e schemi specifici tali da imprimere competenze tramite un apprendimento automatico percettivo-visivo.

Per quanto accattivante l’idea di poter imparare qualunque cosa si desideri solo collegandosi brevemente a un computer – brama di onniscienza di faustiana memoria! − credo sia una possibilità da esaminare in maniera più attenta.

Questa nuova tecnologia permetterebbe il trasferimento di un enorme flusso di nozioni, sotto forma di informazioni standardizzate nel nostro cervello. Informazioni, appunto, concetto ben distinto dalla conoscenza: le prime sono dati di fatto assoluti, neutrali (a meno che non manipolati intenzionalmente), mentre la seconda è l’assimilazione critica del sapere, che permette di rendere vivi i suddetti dati, interconnetterli tra loro e con l’esperienza personale, proporre soluzioni originali – sia che si tratti di conoscenze intellettuali o pratiche – e diventare cultura.
Un mero travaso di nozioni ci farebbe ripetere uno schema prefissato da altri, un comportamento codificato, che non sapremmo riconoscere se valido, fallibile, né soprattutto modificare e arricchire con le nostre peculiari facoltà e punti di vista. Un approccio rischioso, poiché condurrebbe a considerare attendibile indiscriminatamente qualunque paradigma teorico o pratico ci venisse proposto o, addirittura, a innestarsi modelli e concetti predeterminati da altri, anche con dubbie finalità quali la manipolazione intenzionale del pensiero e dell’agire.
Il fattore discriminante può essere la capacità di giudizio critico, che purtroppo negli ultimi anni sta scemando progressivamente.
Paradossalmente, si è andata riducendo proprio quando più necessaria: oggi, grazie a Internet e tutti gli altri media, siamo infatti sommersi da una mole di informazioni potenzialmente illimitate senza avere un metodo adeguato di ricerca, di selezione e approccio; troppe persone considerano sommariamente affidabile il primo risultato di una sola ricerca approssimativa oppure quanto riferito dal personaggio famoso del momento.
Questa non è cultura, è degenerazione di un preciso metodo di analisi delle fonti, è il sopravvento di uno sterile nozionismo, del consumo utilitaristico o sensazionalistico dell’informazione.
La perdita del senso critico è causata anche dall’imporsi del dominio televisivo, di cui è stato ampiamente denunciato sia il potere persuasivo nel determinare gusti ed opinioni, sia il suo potenziale ipnotico, dovuto a una ricezione passiva da parte dello spettatore indotta da una falsa partecipazione, che farebbe drasticamente abbassare la capacità di reazione e il sistema di vigilanza. Argomenti ben sviscerati negli studi di Umberto Eco e di diversi psicologi − che non tendono affatto a condannare la televisione in sé oppure i media visivi, anzi, cercano di metterne in luce le contraddizioni valorizzandone la controparte comunicativa ed espressiva.

Al contrario, la cultura è in grado significativamente di cambiare e migliorare l’uomo.
Molto interessanti, per esempio, gli studi di alcuni psicologi della Washington University in relazione alla lettura: nei lettori il cervello tesse in una sorta di simulazione mentale le situazioni incontrate in quanto stanno leggendo, ricercando nuovi percorsi neurali e creandone una nuova sintesi come se fossero esperienze di vita vissuta. La nostra mente, pertanto, è fisicamente trasformata dall’esperienza della lettura, che arreca beneficio al singolo e alla sua comprensione dell’ambiente sociale che lo circonda.
Altra dimostrazione di come la conoscenza sia cosa viva, costantemente in progress, e della quale si può essere partecipi, è uno strumento alla portata di tutti: Wikipedia, come delinea X in questo post.

A mio avviso, un buon compromesso potrebbe essere una mediazione: una solida base di formazione e di sviluppo di senso critico, e soltanto in seguito, eventualmente, l’utilizzo di questa nuova tecnologia. Senza dimenticare che le informazioni necessitano di un tempo adeguato e diverso per ciascuno di noi per divenire esperienza e far parte integrante di una persona. E che talvolta imparare, con fatica e un passo alla volta, ha lo stesso fascino del mistero e della scoperta e può dare enormi gratificazioni.

Pi Equals, via xkcd.com.

Oggi cade una ricorrenza che allieterà la giornata di matematici e appassionati: secondo l’usanza introdotta dal fisico americano Larry Shaw, che per primo la celebrò nel 1988 con una sorta di flash mob presso i locali dell’Exploratorium di San Francisco, il 14 marzo (3/14 secondo la notazione in uso nel mondo anglosassone per le date) è infatti il giorno del pi greco. Per la maggior parte di noi, il pi greco è quell’astrusità matematica che rientra nel calcolo delle formule principali riguardanti le figure circolari: la circonferenza di un cerchio è pari a pi greco volte il diametro (ovvero 2πr), l’area di un cerchio misura pi greco volte il quadrato del raggio (πr²), la superficie esterna di una sfera di raggio r vale 4πr² e il suo volume 4/3 πr³. Ci hanno insegnato che il pi greco è un numero irrazionale, ovvero composto da una sequenza infinita di cifre decimali dopo la virgola, ma per comodità nei calcoli quotidiani si può approssimare a 3,14. Da cui la scelta di questa giornata.

Non tutti sanno che il pi greco è così denominato dall’iniziale della parola greca περιμετροσ (perimetros) e che compare un po’ dovunque, in matematica come in natura: ritroviamo il pi greco nel principio di indeterminazione di Heisenberg, nella costante cosmologica di Einstein, nel valore della permeabilità magnetica del vuoto; ma anche nella geomorfologia, come limite, già osservato dallo stesso Einstein, a cui in genere tende il rapporto tra la lunghezza di un fiume e la distanza della sua sorgente dalla foce, assicurando il percorso più “comodo” e minimizzando l’effetto dell’erosione. Siamo praticamente circondati da un mondo fatto a misura di pi greco.

È ormai trascorso quasi un quarto di secolo da quando per la prima volta, con una invidiabile intuizione situazionista, Larry Shaw radunò il personale e i visitatori del museo in cui lavorava, organizzando una marcia in tondo attorno a uno dei padiglioni e ristorando poi i presenti con torte alle mele decorate dallo sviluppo decimale del pi greco; ma di anno in anno le celebrazioni della data di sono moltiplicate, al punto da renderla una piccola istituzione. Fatto singolare, il 14 marzo è anche l’anniversario della nascita di Albert Einstein, figura-chiave della scienza del XX secolo assurta a icona pop per eccellenza.

Due anni fa Google ricordava la ricorrenza con uno dei suoi doodle più fantasiosi.

Noi vi rimandiamo a un articolo più circostanziato apparso cinque anni fa su Fantascienza.com e cogliamo l’occasione per ricordare in questa data il premio Nobel Wisława Szymborska, poetessa polacca scomparsa lo scorso 1° febbraio, autrice tra le sue liriche anche di un poemetto dedicato alla più straordinaria delle costanti matematiche. Tratto dalla raccolta Grandi numeri (Wielka Liczba) del 1976, quello che segue è Sul pi greco nella traduzione di Alessandra Czeczott:

Degno di meraviglia è il numero Pi greco
tre virgola uno quattro uno.
Le sue cifre seguenti sono ancora tutte iniziali,
cinque nove due, perchè non ha mai fine.
Non si fa abbracciare sei cinque tre cinque con lo sguardo,
otto nove con il calcolo,
sette nove con l’immaginazione,
e neppure tre due tre otto per scherzo, o per paragone
quattro sei con qualsiasi cosa
due sei quattro tre al mondo.
Il più lungo serpente terrestre dopo una dozzina di metri s’interrompe.
Così pure, anche se un po’ più tardi, fanno i serpenti delle favole.
La fila delle cifre che compongono il numero Pi
non si ferma al margine del foglio,
riesce a proseguire sul tavolo, nell’aria,
su per il muro, il ramo, il nido, le nuvole, diritto nel cielo,
per tutto il cielo atmosferico e stratosferico.
Oh come è corta, quasi quanto quella di un topo, la coda della cometa!
Quanto è debole il raggio di una stella, che s’incurva nello spazio!
Ed ecco invece due tre quindici trecento diciannove
il mio numero di telefono il tuo numero di camicia
l’anno mille novecento settanta tre sesto piano
numero di abitanti sessanta cinque centesimi
giro dei fianchi due dita una sciarada e una cifra,
in cui vola vola e canta, mio usignolo
e si prega di mantenere la calma,
e così il cielo e la terra passeranno,
ma il Pi greco no, quello no,
lui sempre col suo bravo ancora cinque,
un non qualsiasi otto,
un non ultimo sette,
stimolando, oh sì, stimolando la pigra eternità
a durare.

Poesia e matematica, fuse in una sintesi mirabile. L’istantanea più efficace della meraviglia che si accompagna da sempre all’immensità del 3,14159 26535 89793 23846 26433 83279 50288 41971 69399 37510 58209 74944 592…

Pagina successiva »