Scienze & Tecnologie


All’IFA di Berlino di quest’anno – la più importante fiera di elettronica di consumo europea che si tiene annualmente a Berlino, in Germania – sono emerse diverse innovazioni tecnologiche che tolgono il fiato, danno il senso del meraviglioso; un po’ di questo senso del futuro lo possiamo respirare da un paio di articoli di Repubblica (qui e qui). Ai televisori di altissima e raffinata tecnologia (prendo per esempio, sempre da Repubblica, questa descrizione):

piattissimi, contrasto illimitato, colori brillanti grazie ai sub-pixel che illuminano il 20% in più rispetto a un led tv e affiancano la tecnologia multi view, che consente a due persone di visualizzare simultaneamente sullo stesso schermo due programmi differenti, con la possibilità di ascoltare ogni programma separatamente usando degli occhiali con cuffie integrate. C’è anche la possibilità di “muovere” i canali con il solo gesto della mano

si affiancano lavatrici, frigoriferi, ferri da stiro, tutti oggetti ridisegnati da funzioni impensabili fino a un giorno fa e che già propongono il ridisegno della casa del futuro (fonte: stesso articolo di Repubblica):

il prototipo Digital Rapture è un sistema formato da quattro parti che dialogano per permettere all’utente di riprodurre in casa le atmosfere degli ambienti esterni. Come? Semplicemente con una spilla che si chiama Redocrypt: è capace di memorizzare gli odori, i colori, i suoni e le vibrazioni del mare o di una passeggiata nel bosco e di riprodurle, attraverso casse, una coperta a sensori e un pannello luminoso, all’interno della propria abitazione.

La domotica, insomma, appare oggi la frontiera più estrema della tecnologia, e fa davvero male vedere il mondo dei computer e dei sistemi operativi segnare il passo, mentre rincorre il sistema touch perfetto e non innova nulla nelle funzionalità. Il software appare come un oggetto sottomesso al marketing, per vendere PC e telefonini sembra che occorra soltanto l’adozione di sistemi più versatili e cool per le gesture, il modo più eclettico di sfogliare e zoomare lo schermo acquisisce agli occhi del consumatore molta più importanza delle novità intrinseche alle funzionalità software (a chi dovesse essere interessato all’argomento consiglio un mio approfondimento apparso su Delos 147) e così, le automatizzazioni robotiche riprendono il ruolo che scrittori di SF del passato avevano previsto, lasciando gli ingegneri software sepolti sotto un bellissimo e inutile schermo tattile.

La vita è informazione trasmessa da molecole complesse: l’RNA e il DNA. Le ricerche sul codice genetico che nel 1962 valsero il Premio Nobel per la medicina a Watson, Crick e Wilkins sono alla base della nostra attuale, se pur parziale, comprensione delle basi genetiche della vita. Il modello a doppia elica visualizzato da Odile Speed, moglie di Crick, ha saputo rendere popolare un concetto per molti versi paradossale: il fatto che le informazioni che definiscono le caratteristiche della specie a cui una creatura vivente appartiene e i tratti particolari che definiscono il singolo individuo siano codificate in una stringa molecolare. Il DNA è una macromolecola costituita dalla ripetizione di unità di base e nelle cellule umane è solitamente ripartito in 23 coppie di cromosomi, che nell’insieme costituiscono il genoma umano, formati da circa tre miliardi di basi azotate, per una lunghezza compresa tra 1 e 2 metri, impacchettato per superavvolgimento e racchiuso nel nucleo di ogni nostra cellula. Ogni unità si chiama nucleotide ed è il monomero della catena a doppia elica (definita polimero). Ciascun nucleotide comprende tre sotto-unità:

  • una base azotata
  • uno zucchero pentoso (contenente cinque atomi di carbonio)
  • un gruppo fosfato

Struttura schematica di un segmento di DNA.

La base azotata può essere una di cinque tipi: adenina (A), citosina (C), guanina (G), timina (T) e uracile (U). Le basi azotate si legano a due a due attraverso dei legami a idrogeno. DNA e RNA (una macromolecola più semplice, formata da un singolo filamento, altrettanto importante nella trasmissione delle informazioni biochimiche a livello cellulare) comprendono un sottogruppo dell’insieme di queste basi, ciascuno formato da quattro di esse. Il DNA, in particolare, è formato da coppie A-T oppure C-G. Nell’RNA l’uracile prende il posto della timina.

Lo zucchero è il ribosio per l’RNA, il desossiribosio per il DNA. Il complesso di una base azotata e uno zucchero pentoso  forma un nucleoside. La presenza del gruppo fosfato è responsabile del carattere acido di questi polimeri, da cui il loro nome: acido ribonucleico (RNA) e acido desossiribonucleico (DNA). L’aggiunta di uno o due residui fosforici alla molecola è all’origine della formazione di un nucleoside difosfato o trifosfato (NDP e NTP, rispettivamente), fondamentali per i processi energetici cellulari. In particolare, la reazione per idrolisi che trasforma l’adenosina trifosfato (ATP) in adenosina difosfato (ADP) è la fonte di energia utilizzata dalla cellula per il proprio sostentamento.

In questa brevissima e lacunosa esposizione abbiamo incontrato le due caratteristiche essenziali della vita: informazione da trasmettere ed energia da consumare. Un gioco le cui regole sono severamente iscritte nei vincoli imposti dalla natura e ricordati nella composizione dei nucleotidi di cui sopra, ritenuti non a caso i «mattoni della vita». Da tempo biologi e biochimici s’interrogano sulla validità di queste regole e sui possibili gradi di libertà estraibili dalle restrizioni che impongono. Per esempio: possono esistere polimeri funzionali fondati su altre basi azotate diverse dalle cinque canoniche? Oppure: potremmo sostituire il ribosio e il desossiribosio con un altro zucchero pentoso?

Schema del DNA e alcuni zuccheri pentosi alternativi al desossiribosio.

Diversi team di ricercatori sparsi per il mondo sono giunti quasi simultaneamente ad annunciare nei giorni scorsi i risultati dei loro esperimenti condotti su quest’ultimo fronte. In particolare, un gruppo britannico del Medical Research Council di Cambridge, guidato da Vitor B. Pinheiro, ha esplorato le possibilità degli XNA, ovvero i cosiddetti acidi xenonucleici, come sono stati definiti gli acidi genetici ottenuti usando zuccheri pentosi diversi dal ribosio e dal desossiribosio. Come riportato da Le Scienze, gli zuccheri presi in considerazione sono l’arabinosio, il 2-fluoro-arabinosio, il treosio, un analogo bloccato del ribosio, l’anidroesitolo e il cicloesene, che originano le varianti ANA, FANA, TNA, LNA, HNA e CeNA degli acidi nucleici finora noti. Per tutti questi XNA, è stato possibile ricavare in laboratorio uno strumento fondamentale alla trasmissione dell’informazione genetica in essi codificati, la polimerasi, vale a dire un enzima capace di leggere, trascrivere e retrotrascrivere le sequenze di acidi nucleici. Non essendo presenti in natura molecole di XNA, non esistevano finora nemmeno le corrispondenti polimerasi. I ricercatori britannici sono riusciti ad assemblare polimerasi artificiali in grado di trascrivere l’informazione del DNA in un XNA e, viceversa, retrotrascrivere l’informazione dall’XNA al DNA.

L’ipotesi riconosciuta da Pinheiro e colleghi è che l’XNA possa funzionare come acido nucleico sintetico, ma è ancora presto per parlare di un sistema genetico del tutto autosufficiente. Siamo ancora ai primi passi. Tuttavia l’esito delle loro ricerche è interessante anche per un altro aspetto, legato al mistero dell’origine stessa della vita. L’assunzione che l’RNA abbia preceduto nella scala dell’evoluzione il DNA, molto più complesso, è largamente riconosciuta dai biologi, sebbene resti ancora oscuro il passaggio precedente, ovvero la formazione dell’RNA dal mondo pre-biotico. A colmare la lacuna si candiderebbe ora proprio uno degli XNA studiati a Cambridge, il TNA, l’acido treosinucleico, che ha la possibilità di legarsi all’RNA con un accoppiamento di basi antiparallelo (come accade nel DNA). Un altro passo avanti verso il futuro della programmazione della vita, quindi. Ma accompagnato da un salto a ritroso nel passato verso una comprensione autentica del processo, a cui non dovrebbe rimanere estranea un’assunzione di responsabilità nella sua forma più piena.

Dei giorni scorsi sono due notizie alquanto interessanti per gli appassionati di informatica e di elettronica, soprattutto per quanto concerne i potenziali sviluppi futuri della tecnologia dell’informazione.

Spin-wavefunction

Spin-wavefunction (Photo credit: Wikipedia)

Nel 2008 si cominciò a parlare anche qui da noi di spintronica, una nuova branca dell’elettronica quantistica il cui campo di applicazione più promettente sembrava essere proprio nel settore dei processori quantistici. Su Fantascienza.com ne parlammo diffusamente, per cui rimandiamo a quell’articolo chiunque volesse approfondire l’argomento. Forti degli studi avviati dai ricercatori dell’Università della California di Santa Barbara, sede del Center for Spintronics and Quantum Computation, dalla loro collaborazione con i colleghi del Politecnico di Delft (Paesi Bassi) e della Iowa State University è nato il prototipo funzionante di una nuovissima classe di processori, che dimostra la fattibilità di computer quantistici allo stato solido. Sicuramente è presto per pensare a una produzione commerciale: stiamo solo muovendo i primi passi verso la nuova frontiera della computazione, ma il risultato raggiunto dagli scienziati dei tre istituti summenzionati dimostra che la direzione è quella giusta.

Il prodotto delle loro ricerche è costituito da un substrato di carbonio cristallino al cui interno sono confinati due qubit (ovvero bit quantistici, le unità di base dell’informazione quantistica), realizzati rispettivamente da un nucleo di azoto introdotto come impurità nel diamante e da un elettrone presente in un altro difetto della struttura. In particolare l’informazione è rappresentata dal loro spin, vale a dire il momento angolare intrinseco o, più intuitivamente, il verso di rotazione del nucleo e dell’elettrone. Questa proprietà delle particelle subatomiche si presta a un’applicazione utile nel campo della computazione quantistica. Il principale degli effetti collaterali con cui occorre fare i conti quando si maneggiano unità di informazione quantistiche è infatti la decoerenza, ovvero il progressivo deterioramento prodotto dalle «interferenze» dell’ambiente esterno sull’informazione immagazzinata nei qubit, e il relativo brevissimo intervallo di tempo in cui essi risultano pertanto manipolabili. La tecnica classica prevede un raffreddamento del sistema a temperature prossime allo zero assoluto (-273,15 gradi Celsius), per ridurre le interazioni con l’esterno congelando di fatto il sistema lontano dal rumore ambientale. Tale processo è però comprensibilmente costoso ed è improbabile pensare a una sua applicazione in dispositivi prodotti su scala commerciale. La soluzione proposta con la spintronica sembra invece molto più facile da realizzare tecnicamente. Il nucleo di azoto, pur essendo un qubit più lento, presenta una certa stabilità rispetto alla decoerenza, che ne preserva lo stato per un tempo sufficientemente lungo da renderne possibile l’utilizzo in processi di elaborazione. L’elettrone rappresenta invece un qubit più veloce, ma è anche maggiormente esposto agli effetti della decoerenza. I ricercatori hanno ideato un espediente per “schermarlo” utilizzando degli impulsi a microonde.

Testato su un problema di ottimizzazione, come la ricerca di una particolare occorrenza all’interno di un database, il processore spintronico avrebbe ottenuto il risultato giusto al primo colpo nel 95% dei casi, un risultato sensibilmente superiore a quello che sarebbe stato lecito aspettarsi da un processore classico basato su un algoritmo di ricerca tradizionale (che avrebbe avuto una sola probabilità sul numero complessivo di elementi della base di dati). Un risultato, secondo gli autori della ricerca pubblicata su Nature, sufficiente a dare ragione del comportamento quantistico del loro prototipo.

Secondo molti esperti, proprio campi specifici come l’ottimizzazione o la crittografia rappresenterebbero il terreno più fertile per le applicazioni dei futuri processori quantistici, che quindi finirebbero per soppiantare i processori tradizionali soprattutto nel settore dei dispositivi special purpose, ovvero progettati per assolvere a compiti complessi ma specifici. Un gruppo di ricerca del Max Planck Institut di Garching (Germania) attivo nell’Ottica Quantistica ha invece già pensato a una possibile rete quantistica. Non dobbiamo tuttavia confondere il loro risultato con il progetto di quantum network avviato a Durban, in Sudafrica, dal Centre for Quantum Technology della locale Università del KwaZulu-Natal e basato sulla crittografia quantistica delle informazioni scambiate dalle strutture pubbliche della municipalità di eThekwini, connesse sulla metropolitan area network (MAN) della città. Lo scopo della ricerca eseguita al Max Planck non si limita alla crittografia, ma ambisce a creare una rete come quelle su cui si basa quotidianamente la nostra comunicazione e interazione remota, ma interamente basata su tecnologie quantistiche.

Elementary quantum network of single atoms in optical cavities.

La rete quantistica implementata a livello prototipale dagli scienziati di Garching consiste infatti in due nodi multifunzione collegati da una fibra ottica e capaci di trasmettere, ricevere e archiviare informazioni quantistiche. I nodi sono costituiti da atomi di rubidio intrappolati in cavità ottiche riflettenti: lo stato quantistico di ciascun atomo rappresenta il qubit. Accoppiando tramite entanglement quantistico lo stato di un nodo a quello di un fotone trasmesso attraverso la fibra si realizza lo scambio di informazione con l’altro nodo. Per il momento il prototipo di rete occupa i laboratori dell’istituto e i nodi distano tra loro 21 metri e sono collegati da una fibra ottica lunga 60 metri, ma non ci sono limiti alla scalabilità dell’applicazione. “Stiamo cercando di costruire un sistema in cui il nodo è l’elemento universale”, spiega Stephan Ritter, coautore dello studio pubblicato su Nature. “Non solo è in grado di inviare e ricevere: in linea di principio potrebbe fare tutto ciò che ci si può immaginare”. Il che significherebbe informazione scambiata velocemente e altrettanto velocemente processata, ma soprattutto comunicazione sicura.

Siamo davanti a due significativi passi in avanti nella strada verso la prossima rivoluzione tecnologica che investirà i campi dell’elettronica e dell’information technology. Ne seguiremo gli sviluppi, tenendo come sempre le nostre antenne ben puntate sulle sorgenti del futuro.

Si chiama Planetary Resources e se state cercando un impiego che unisca la visionarietà all’avventura potrebbe fare al vostro caso. Si tratta di una nuova società fondata da due veterani della scalata allo spazio: Eric Anderson, ingegnere aerospaziale e pioniere dei voli spaziali commerciali, e Peter H. Diamandis, presidente della X Prize Foundation (con cui stimola imprese innovative a colpi di premi da 10 milioni di dollari), direttore della Singularity University e già fondatore con lo stesso Anderson di Space Adventures, iniziativa con cui hanno portato negli anni sette turisti privati a soggiornare sulla Stazione Spaziale Internazionale. Per questo i due sono accreditati come gli specialisti più quotati nella corsa all’esplorazione spaziale al di fuori della NASA. Non paghi del giro d’affari che hanno già saputo stimolare, i due sembrano intenzionati a tener fede fino in fondo al motto di Diamandis: “Il modo migliore per pronosticare il futuro è crearselo da sé”. E Planetary Resources è il veicolo societario attraverso il quale stanno lanciando in questi giorni la loro ultima sfida: sfruttare le ricche risorse minerarie degli asteroidi orbitanti in prossimità della Terra.

Come ricorda Tor.com, già nel 2005, nel corso dell’annuale conferenza TED, Diamandis annunciò che “ogni cosa di valore presente sul pianeta – metalli, minerali, superfici edificabili ed energia – è disponibile in quantità infinita nello spazio”. Nel comunicato stampa circolato prima della presentazione ufficiale della società lo scorso 24 aprile, la Planetary Resources promette di creare “una nuova industria e una nuova definizione di risorse naturali”. E la loro impresa ha in breve tempo guadagnato proseliti, attirando investitori di primissima fascia: da Larry Page ed Eric Schmidt, rispettivamente fondatore e amministratore delegato di Google, a Ross Perot Jr, erede del miliardario texano fondatore di EDS e della Perot Systems e sfidante indipendente alle presidenziali del 1992. Tra i suoi collaboratori Planetary Resources può inoltre vantare la consulenza dell’astronauta Tom Jones (quattro volte nello spazio a bordo dello Shuttle per complessivi 53 giorni di missione in orbita) e James Cameron, visionario regista di opere miliari del cinema di fantascienza come i primi due Terminator, Aliens, The Abyss e Avatar e fresco reduce dalla conquista degli abissi, che dichiara di nutrire una passione per lo spazio altrettanto forte di quella per le profondità oceaniche. Lo scopo della società è quello di lanciare una corsa allo spazio che produca due ricadute benefiche: una immediata per l’economia della Terra, e una di più vasto respiro consistente nella conquista umana dello spazio.

Per farlo ha messo in cantiere una serie di progetti volti a intercettare e raggiungere asteroidi su orbite vicine alla Terra ed estrarne minerali preziosi grazie a sciami di sonde robotiche. Si conoscono ad oggi oltre novemila oggetti rocciosi più grandi di 50 metri in prossimità della Terra e ogni anno il numero si accresce di un migliaio di nuove scoperte. Ogni asteroide contiene riserve significative di metalli, che spaziano dal ferro al silicio, passando per nichel, cobalto e carbonio, ma anche platino e metalli simili, come l’iridio, il rodio o il palladio, piuttosto rari sul nostro pianeta e per questo estremamente preziosi. In particolare, il platino e gli elementi del suo gruppo, adottati in applicazioni mediche, nel campo delle energie rinnovabili, dei convertitori catalitici e utilizzabili nelle celle a combustibile per l’industria automobilistica, hanno un valore che sui mercati internazionali sfiora quello dell’oro. A differenza della Terra, dove i metalli si concentrano in profondità nel sottosuolo, gli asteroidi presentano una caratteristica che li rende particolarmente appetibili: i metalli sono abbondantemente distribuiti anche in prossimità della superficie. Così scavando anche solo pochi metri sulla superficie di un asteroide di piccola taglia, diciamo grande mezzo miglio, si potrebbero ricavare oltre 130 tonnellate di platino, per un valore complessivo di circa 6 miliardi di dollari.

Se un risultato di questo tipo basterebbe a ripagare diverse decine di volte il costo di una missione spaziale, dalla messa in orbita di telescopi al lancio di sonde per la ricognizione degli asteroidi fino all’invio di uno sciame di robot minatori/raffinatori, non mancano le controindicazioni. In particolare, un’indagine commissionata a un team di scienziati e ingegneri dal Keck Institute for Space Studies prospetta il rischio finanziario di una forte inflazione come risultato dell’accresciuta disponibilità di metalli rari, che è un po’ quello che capitò all’oro proveniente dal Nuovo Mondo ai tempi dei conquistadores, che per altro alcuni studiosi indicano come una delle cause all’origine del declino dell’Impero Spagnolo. Ma anche ipotizzando uno scenario meno catastrofico, grazie a una più oculata immissione dei beni di valore nel mercato terrestre, restano al momento di difficile attuazione le soluzioni legate allo sfruttamento commerciale degli asteroidi: tra le strade proposte ci sono quella di catturare i corpi e spingerli verso la Terra grazie a dei motori alimentati a energia solare per intrappolarli nella sua orbita; o in alternativa di estrarre i minerali e raffinarli lungo il tragitto di rientro verso la Terra.

Per quanto avveniristiche possano sembrare, alla Planetary Resources contano di realizzare il progetto nel giro al massimo di 7 anni, comunque entro la fine del decennio. Obiettivo ambizioso, che comunque appare poca cosa rispetto al risvolto dell’impresa. Gli asteroidi sarebbero infatti anche delle più ricche riserve di acqua del sistema solare. Alcune stime indicano in un quinto della massa complessiva di un asteroide il suo contenuto in acqua: risorsa preziosa, sia per gli habitat spaziali al servizio dell’umanità del futuro, sia come fonte di carburante da ricavare per via elettrolitica (ossigeno liquido e idrogeno sono i due reagenti che vengono combinati negli stadi di lancio dei vettori orbitali).

E di fronte alla prospettiva della conquista dello spazio, l’approccio di Anderson e Diamandis non prevede tentennamenti: la loro filosofia si basa un presupposto molto yankee, quello del pensare in grande per generare un volume d’affari commisurato, ma anche su un principio più condivisibile, che nasce dalla constatazione di dover pur partire da un primo piccolo passo, per poter arrivare a spiccare un balzo. Al 50% ci sentiamo di abbracciare le motivazioni della loro causa, con l’augurio che l’esplorazione dello spazio, prossimo alla Terra oppure profondo, non si riduca comunque a una pura e semplice impresa di sfruttamento commerciale. Il sogno del futuro e di una civilizzazione spaziale è davvero troppo bello per meritarsi di venire tradito in questo modo.

Piccole note sul software libero – parte prima
Piccole note sul software libero – parte seconda

OpenOffice

Un manifesto, le parole di Zacchiroli: il manifesto della libertà, perché la libertà in quest’epoca – e sempre di più andando verso il futuro – passa e passerà per il codice software, per chi lo controlla, per chi non vuole che sia controllato e anzi pretende che tutta la filiera rimanga trasparente, per tutte le implicazioni che la vita digitale ha già reso palesi. Ecco perché la chiosa di questo lungo post è anche la chiosa del primo articolo di Repubblica, dove c’è l’esplicitazione degli usi più disparati e possibili dell’opensource, e della trascendenza della sua filosofia:

L’opensource in salotto. Un settore sempre più aperto al codice libero è quello dei televisori e dei dispositivi di intrattenimento domestico. Le moderne “Smart TV” hanno bisogno, per gestire i loro servizi “intelligenti”, di sistemi totalmente diversi da quelli delle televisioni di qualche anno fa. LG, per esempio, permette di riprodurre sulle proprie TV i film, le canzoni e le foto conservati nei PC di casa utilizzando una rete interna e le tecnologie del software opensource Plex, mentre il sistema operativo dei televisori Samsung è basato su Linux, tanto che alcuni programmatori ne hanno creato un sostituto chiamato Samygo.

Usiamo software opensource anche se utilizziamo uno dei tanti box multimediali per visualizzare la cosiddetta IPTV, la televisione via connessione ADSL. Sia Cubovision, il prodotto di Telecom Italia basato su MeeGo, sia il Tiscali TvBox utilizzano tecnologie aperte.  Opensource sono anche la maggioranza dei software di gestione degli hard disk multimediali, gli apparati che, connessi a un televisore, permettono di riprodurre filmati, musica o foto conservati in hard disk interni.

Pinguini & Co. nell’auto. Necessità simili, avere un buon software già pronto all’uso da poter adattare a propri prodotti, hanno spinto Ford a dar vita al progetto OpenXC, una piattaforma composta da software basato su Android e hardware basato sul progetto italiano Arduino opensource che permette di leggere i dati dell’automobile e registrarli per poter essere utilizzati nell’auto stessa o in applicazioni per smartphone o PC.  Al momento è presente, per esempio, negli ultimi modelli di Ford Focus e Ford Fiesta, ma può essere adottato liberamente da qualsiasi altro produttore. Meego, il progetto da cui è nato Tizen descritto poco fa, è invece stato adottato da BMW per essere utilizzato nei navigatori delle sue automobili, mentre BMW e altri produttori sono consorziati nel consorzio Genivi nato per supportare l’adozione di software opensource nei sistemi di infotainment delle autovetture.

Se si entra in fabbrica. I settori più innovativi dell’informatica di consumo utilizzano software opensource e libero e ciò fanno anche le industrie più complesse, come quella aerospaziale o automobilistica. Ma opensource non è solo software o hardware. In una presentazione tenuta a una TED Conference lo scorso Giugno, Jay Bradner, un ricercatore dell’istituto di medicina di Harvard, ha descritto come il suo laboratorio è riuscito a produrre una molecola (la molecola JQ1) in grado di rallentare il processo di riproduzione di geni tumorali. Al momento dell’intuizione iniziale il team di Bradner ha coinvolto colleghi di tutto il mondo per cercare aiuto e al momento della scoperta, quando la molecola era pronta, al posto di tenerne segreta l’identità chimica, come farebbe una casa farmaceutica, l’ha pubblicata per permettere a tutti di utilizzarla. Bradner ha chiamato questo processo una “ricerca opensource sul cancro”. “La libertà di collaborare con gli altri è fondamentale per avere una buona società in cui vivere e questo per me è molto più importante di avere un software potente e affidabile”. A questo, forse, pensava Richard Stallman, padre del movimento del software libero, quando, in una conferenza, gli fu chiesto di chiarire il senso più profondo dell’opensource.

Firefox

Cooperare, senza che ciò diventi necessariamente un sistema tritatutto, socialmente omicida; anzi, lasciare che la cooperazione diventi un fattore di crescita collettivo, capace sì di generare profitto ma anche benessere, dove nessuno venga mangiato dagli squali dell’alta finanza: questo è forse l’ultimo sogno dei figli delle generazioni che dei ’60. Fondamentalmente, essi non sono lontani, ora, dal conquistare il mondo senza spargere sangue, senza essere diventati belve assetate di denaro, senza che venga schiacciata la nostra dignità, riservatezza, libertà. Anzi, la nostra Libertà: software libero, sempre, ovunque, sempre di più, è la loro arma cristallina, vincente, potente come l’energia riciclabile. Senza l’opensource, il mondo sarebbe assai simile a quello che paventava George Orwell.

Related articles

Piccole note sul software libero – parte prima

A questo punto interseca facilmente il nostro discorso un secondo articolo, sempre di Repubblica.it: l’intervista a Stefano Zacchiroli, leader di Debian, la distribuzione regina dei sistemi operativi Linux, quindi il top dell’opensource. Che esprime una visione politica del mondo che sfiora l’anarchismo illuminato.

A screenshot of Ubuntu 11.04 (Natty Narwhal).

A screenshot of Ubuntu 11.04 (Natty Narwhal). (Photo credit: Wikipedia)

Partiamo proprio da qui. In che senso un software può incidere sul nostro grado di libertà?
“Un software è libero quando l’utente ne ha il controllo totale. Che questo software giri su computer, tablet, telefono o televisione, poco importa. Libertà vuol dire poter usare il software senza limitazioni di scopi, poterlo copiare e soprattutto poter guardare come è stato fatto, ossia vederne il codice sorgente, e modificarlo. Ciascun programmatore sa decifrare il codice sorgente, mentre se ha solo il codice binario non può fare granché. Avere a disposizione il codice sorgente significa poter modificare il software e ridare al mondo, come un atto di collaborazione, le nuove modifiche”.

Proviamo a fare qualche esempio attinente alla vita quotidiana…
“Un esempio emblematico è quello del tostapane. Cinquant’anni fa uno “smanettone” era in grado di aggiustare un tostapane rotto adattandolo a un diverso impianto elettrico. Oggi, se prendiamo un tostapane su cui gira del software proprietario, non abbiamo più quella libertà. I software ci consentono di realizzare tantissime cose che prima erano impossibili. Trattandosi però di un concetto difficile, alla gente sfugge che di un software proprietario il consumatore non può fare nulla: è come avere un oggetto, ma possederne in realtà solo una piccola parte. Dal momento in cui la presenza del software negli oggetti quotidiani è destinata ad aumentare, non vedo perché i consumatori debbano rinunciare ad avere il controllo dei loro oggetti, e dunque alla loro libertà. L’obiettivo, al contrario, dovrebbe essere quello di estendere il controllo individuale a tutti i dispositivi che utilizziamo e che contengono del software. Ce ne sono un’infinità: dai computer ai telefonini, dalle macchine agli aerei, per arrivare ai pace-maker che abbiamo addosso e ai dispositivi ospedalieri che controllano la nostra vita”.

Sono parole e concetti forti. Sono prese di posizioni altamente costruttive, eppure votate alla più ampia libertà, all’autodeterminazione; alla volontà di non farsi soggiogare né dalle multinazionali né dai meccanismi che regolano le multinazionali. Stefano poi aggiunge:

A una persona non esperta può risultare difficile capire perché il free software sia ovunque, anche in sistemi/programmi tutt’altro che gratuiti. Ci spiega perché?

Google Chrome

Google Chrome (Photo credit: thms.nl)

“Chi crede nella filosofia del software libero, accetta che il software sia un bene comune: si lavora su un prodotto che, una volta pronto, è per tutti. Non si mettono restrizioni su chi può o meno usare un determinato software. A questo punto, ecco che tra gli utilizzi possibili rientra anche il “fare soldi”. Per questo il software libero è presente in tantissimi oggetti commerciali. Ci sono dei vincoli, come ad esempio l’impegno a condividere con gli altri eventuali modifiche, ma non c’è nulla di illegale. Di conseguenza, enormi sono gli interessi commerciali delle aziende che si basano sul nostro lavoro. Gli sponsor delle nostre conferenze sono Google, IBM, HP; l’azienda che sta dietro Ubuntu ha 500 dipendenti ed è una multinazionale. Il bello è che in buona parte queste grandi aziende si affidano al lavoro fatto da noi: mille prodi volontari”.

Dall’elenco mancava Apple, la nemica giurata dei sostenitori del free software.
“Dal mio punto di vista, il successo di Apple sta nell’aver trasformato i computer da strumenti su cui si producevano contenuti a macchine per consumare contenuti. A ciò bisogna aggiungere un’attenzione maniacale ai dettagli, che li ha portati a meritarsi il primato. Secondo me, però, stanno facendo un sacco di danni ai consumatori. Punto primo: non sappiamo cosa fanno i loro dispositivi. Per esempio, è stato scoperto che gli iPhone tracciavano gli spostamenti degli utenti, un fatto a mio avviso molto inquietante. Il secondo aspetto è legato ai DRM (Digital Right Management): ogni volta che compriamo delle canzoni su iTunes, non sappiamo se ce le avremo per sempre e non possiamo prestarle ai nostri amici. Quando compriamo un cd, invece, sappiamo che sarà nostro per sempre. Hanno trasformato il concetto di app store (che trae le sue origini dalle distribuzioni di una quindicina d’anni fa) in un dispositivo di censura: il software disponibile su un iPhone non lo decide l’utente, bensì deve aver passato il vaglio della Apple. Nel mondo Android, per lo meno, ci sono anche gli store non ufficiali”.

Oltre alla libertà, quali sono gli altri vantaggi del software libero rispetto a quello proprietario? Cosa intende chi parla di “superiorità” del free software?
“Da tempo si sa che il software libero non ha nulla di inferiore a quello proprietario, anzi. È bene non generalizzare perché ci sono software proprietari fatti benissimo e altri malissimo. Da anni sappiamo che, in termini di sicurezza, il software libero offre vantaggi inimmaginabili. Tutto è visibile, quindi anche se potenzialmente i “cattivi” (i cracker) possono trovare più facilmente delle falle, c’è anche molta più gente che può controllare e risolvere. Più in generale, un’azienda che fa business su software non libero ha interesse a nascondere i problemi di sicurezza perché sono cattiva pubblicità. Nel software libero, invece, tutto è già visibile e non c’è nessun interesse a nascondere”.

Continua

A chi segue le vicissitudini del mondo software, sia lato programmazione e/o sistemistico che lato utente finale, sarà capitato di assistere sempre più spesso a dibattiti sul software libero vs software proprietario. In sostanza, gli operatori e gli appassionati del mondo digitale si dividono in due categorie: chi sceglie programmi e sistemi operativi blindati, di cui si è semplici utenti o poco più e di cui si può diventare comunque degli specialisti (vedi per es. Microsoft, Windows, Apple, iPhone etc.) oppure chi diventa paladino dei prodotti scritti e gestiti con licenza opensource, ovvero software non blindato e accessibile a chiunque abbia la capacità di modificare e scrivere codice (Linux, Openoffice, Firefox, Android).

Tux, the Linux penguin

Tux, the Linux penguin (Photo credit: Wikipedia)

Image representing Windows as depicted in Crun...

Image via CrunchBase

La macro differenza tra software proprietario e software opensource, libero, è fondamentalmente quella esposta qui sopra. Nell’ambito del software libero esistono poi sofisticazioni maggiori, tali da permettere di costruire del codice proprietario su licenze opensource; Google, per esempio, parte da una base free per costruirci sopra del proprio codice, chiuso. Lo stesso avviene nel mondo Linux, dove le varie distribuzioni presenti non sempre aderiscono completamente allo spirito free del celebre sistema operativo aperto; però, in buona sostanza, laddove si parla di software libero si può affermare che la possibilità d’incappare in qualche prodotto che fa cose alle vostre spalle, di cui non ve ne renderete mai conto, si assottiglia notevolmente, proprio perché al controllo c’è una comunità attenta alla programmazione, che sa leggere cosa fa un programma e che quindi può modificarlo all’uopo.

Repubblica.it nei giorni scorsi ha dedicato ben due articoli al mondo opensource, che nasce dalle lotte libertarie (non certo liberiste) degli anni ’60 nei campus universitari degli USA. Il primo articolo da cui ho preso spunto è quindi qui, dove si pone l’accento sulla grossa chance che il software libero sta avendo nel mercato dei sistemi operativi e non solo; punti di forza notevoli quelli dell’opensource, che passano per le alte performance, per l’affidabilità e la sicurezza, livelli di alta qualità che riescono spesso a convincere l’utente finale sulla convenienza economica nel passare a questa filosofia digitale: perché i prodotti totalmente opensource sono pressoché gratuiti, mentre quelli sviluppati sul free software sono spesso gratuiti o al massimo costano davvero poco se confrontati con i prodotti blindati, quelli proprietari, che costano sensibilmente di più (vedi licenze di Windows, per esempio, o di Microsoft Office).

PIÙ LA SOCIETÀ digitale evolve, più l’opensource, il modello di distribuzione libera e gratuita del software e del suo codice sorgente reso popolare dalla distribuzione Linux, guadagna fiducia e attenzione. Una delle ultime previsioni della società di analisi Gartner dedicata a questo mercato ha indicato che, nel 2016, il 99% delle principali aziende utilizzerà almeno un software opensource (era il 75% 2010). E, il più delle volte inconsapevolmente, lo stesso stanno facendo oggi milioni di persone.

I vantaggi sono innegabili. Il software opensource è già pronto, economico, modulare. Ma è anche di qualità. Secondo una ricerca pubblicata da alcuni giorni fa dalla società di analisi software Coverity, i software opensource hanno anche meno difetti dei software con codice proprietario. La ricerca ha confrontato, con procedure automatiche, 45 software opensource e 41 software a “codice chiuso” rilevando come, nel primo caso, la densità di difetti (ossia il numero di difetti riscontrati suddiviso per le dimensioni del codice con cui è programmato il software) sia pari, in media, a 0,45, mentre quella dei software proprietari sia pari a 0,64. Poco importa che, paragonando software dalle dimensioni equivalenti, la forbice diminuisca quasi a scomparire. Importante è che la ricerca definisca quanto tutti sapevano da tempo: il software opensource è progettato con qualità.

Questo ci dice il suddetto articolo di Repubblica, che continua:

Un bene per l’industria. Per dirla con Mark Shuttleworth, il milionario fondatore di Ubuntu, una delle più diffuse versioni di Linux, il software opensource “accresce l’innovazione tecnologica, ne consente l’accesso anche alle zone periferiche del mondo e permette ai programmatori di esprimere al massimo le loro capacità”. Il principio riceve conferme anche dall’ampia diffusione di progetti a codice aperto che, senza clamori, sono alla base di decine di attività quotidiane: quando usiamo il computer, quando navighiamo su Internet, quando usiamo lo smartphone, quando guidiamo un’automobile.

L’opensource ci circonda. Usiamo software opensource quando navighiamo su Facebook, su Twitter, su Google, su Wikipedia. Per dirne una, Facebook  probabilmente non sarebbe nato se Mark Zuckerberg  non avesse avuto a disposizione il linguaggio di programmazione PHP, basato su standard aperti e rilasciato con licenza libera così da poter essere utilizzato senza dover pagare diritti. Ancora oggi l’intera infrastruttura di Facebook si basa su software a codice aperto, software che chiunque può scaricare, installare ed utilizzare per i propri servizi.

Non stupisce che l’ambiente di principale utilizzo di software opensource sia Internet: le tensioni libertarie maturate dai movimenti americani degli anni Sessanta, in cui affonda le radici il pensiero teorico dell’opensource, hanno segnato anche la nascita della grande rete (“io sono nato tra una marcia di protesta e un’occupazione universitaria”, dirà il fondatore di Linux, Linus Torvalds). Se navighiamo il Web usando Firefox o Chrome, il browser progettato da Google, stiamo usando due prodotti opensource, che da tempo erodono vistose quote di mercato a Internet Explorer facendolo scendere al di sotto del 50% nonostante il navigatore sia preinstallato nel 90 per cento dei computer del mondo.

Continua

Pagina successiva »