All’IFA di Berlino di quest’anno – la più importante fiera di elettronica di consumo europea che si tiene annualmente a Berlino, in Germania – sono emerse diverse innovazioni tecnologiche che tolgono il fiato, danno il senso del meraviglioso; un po’ di questo senso del futuro lo possiamo respirare da un paio di articoli di Repubblica (qui e qui). Ai televisori di altissima e raffinata tecnologia (prendo per esempio, sempre da Repubblica, questa descrizione):

piattissimi, contrasto illimitato, colori brillanti grazie ai sub-pixel che illuminano il 20% in più rispetto a un led tv e affiancano la tecnologia multi view, che consente a due persone di visualizzare simultaneamente sullo stesso schermo due programmi differenti, con la possibilità di ascoltare ogni programma separatamente usando degli occhiali con cuffie integrate. C’è anche la possibilità di “muovere” i canali con il solo gesto della mano

si affiancano lavatrici, frigoriferi, ferri da stiro, tutti oggetti ridisegnati da funzioni impensabili fino a un giorno fa e che già propongono il ridisegno della casa del futuro (fonte: stesso articolo di Repubblica):

il prototipo Digital Rapture è un sistema formato da quattro parti che dialogano per permettere all’utente di riprodurre in casa le atmosfere degli ambienti esterni. Come? Semplicemente con una spilla che si chiama Redocrypt: è capace di memorizzare gli odori, i colori, i suoni e le vibrazioni del mare o di una passeggiata nel bosco e di riprodurle, attraverso casse, una coperta a sensori e un pannello luminoso, all’interno della propria abitazione.

La domotica, insomma, appare oggi la frontiera più estrema della tecnologia, e fa davvero male vedere il mondo dei computer e dei sistemi operativi segnare il passo, mentre rincorre il sistema touch perfetto e non innova nulla nelle funzionalità. Il software appare come un oggetto sottomesso al marketing, per vendere PC e telefonini sembra che occorra soltanto l’adozione di sistemi più versatili e cool per le gesture, il modo più eclettico di sfogliare e zoomare lo schermo acquisisce agli occhi del consumatore molta più importanza delle novità intrinseche alle funzionalità software (a chi dovesse essere interessato all’argomento consiglio un mio approfondimento apparso su Delos 147) e così, le automatizzazioni robotiche riprendono il ruolo che scrittori di SF del passato avevano previsto, lasciando gli ingegneri software sepolti sotto un bellissimo e inutile schermo tattile.

In altri contesti (articolo riportato poi pari pari nella rubrica Zoom di NeXT 16) ho affrontato, più che altro in embrione perché solo in quel momento cominciavo a prendere confidenza con i concetti, il tema della tridimensionalità del nostro universo – nostro in quanto umani – che fa scaturire, una quantità notevole di volte, soltanto due possibilità di scelta.

Non è il caso e il luogo, questo, di riproporre il percorso cognitivo che mi ha portato a supporre vero il ragionamento, ma il concetto che mi sembra razionalmente giusto è pressappoco questo: il dominio del nostro organismo è attestato sulle tre dimensioni; noi siamo alti, larghi e profondi in una certa misura, e manipolare situazioni che possono far scaturire solo due possibilità (ovvero soluzioni bidimensionali) ci dà un notevole senso di potenza e di capacità. Aumentare di una dimensione (e quindi suggerire una terza soluzione, parametro) non fa altro che portarci sul limite delle  nostre possibilità.

Ragionamento proposto similmente dal matematico ungherese George Polya, ovvero che quanto più numerose sono le dimensioni in cui ci si muove e quindi le possibilità che ci si aprono davanti, tanto maggiore è la probabilità di perdersi e di conseguenza lasciarsi assalire dallo sconforto.

L’assunto quindi è: dobbiamo stare al di sotto del limite delle nostre potenzialità per essere capaci di cavarcela. Ed è questo un fatto, alla fine, naturale. Ricordiamoci di ciò quando saremo in prossimità del postumanismo, quando le dimensioni manipolabili saranno verosimilmente più di tre.

Riprendendo parzialmente la terza puntata di Pulse, la rubrica musicale di Next-Station.org di cui sono tenutario, parlo di The Mission, la gothic band inglese che ha attraversato il panorama musicale internazionale da metà ’80 fino all’inizio di questo millennio.

I concerti che ho visto di questo gruppo sono stati molteplici; m’interessava in questa sede, invece, fare un piccolo rimando alla reunion della formazione originale in occasione del 25ennale della sua fondazione, sfociata nel concerto del 22 ottobre del 2011 durante una serata memorabile, in cui hanno suonato come gruppo di spalla i loro vecchi amici Fields of the Nephilim.

Il concerto è stato performato al Brixton Academy di Londra e la mia unica missione ora è parlarvi delle emozioni che dopo tanto tempo i vecchi componenti dei Mission hanno saputo donare; poche note, poche suggestioni scritte, le mie:

La parte musicale era composta di un gotico depurato dalla sezione elettronica dei Sisters of Mercy, di cui alcuni degli stessi Mission erano membri: un suono molto arpeggiato di chitarra e basso, tastiere pressoché assenti; l’idea del crepuscolo era ben presente nelle loro melodie e la freschezza dei suoni tutto sommato può dirsi mantenuta se nel computo non mettiamo, però, la moderna musica elettronica in tutte le sue forme e declinazioni. Ecco, forse il peccato originale dei Mission è stato quello di non aver continuato a sviluppare le idee avveniristiche di Eldritch (il leader dei Sisters) ma di averle cassate a favore di un ritorno al passato, giusto perché romantico. Scelta che si è dimostrata errata perché l’operazione ha adesso il sapore di un rifacimento di qualcosa già morto, un cliché che sì, forse serviva più che altro a vendere. I Mission incisero, infatti, pezzi buoni soltanto nel disco successivo (alcuni brani, non tutti), mentre nel terzo le loro sonorità pop erano già notevolmente evidenti e preponderanti.

Questo è quanto si può dire dei Mission, e sfido a non trovare elementi connettivisti nel loro rimandare al passato che può essere un richiamo, a sua volta, al futuro, un continuo mordersi la coda dove l’accaduto fa da comburente all’avvenire, dove i rimandi vengono rielaborati in chiavi rinnovate fino a rendere l’amalgama delle impressioni umane fertile humus postumano: il suono come una suggestione delle ombre del futuro, in perfetto stile cybergoth

Non ritrovate tutto ciò nel video qui sotto?

Piccole note sul software libero – parte prima
Piccole note sul software libero – parte seconda

OpenOffice

Un manifesto, le parole di Zacchiroli: il manifesto della libertà, perché la libertà in quest’epoca – e sempre di più andando verso il futuro – passa e passerà per il codice software, per chi lo controlla, per chi non vuole che sia controllato e anzi pretende che tutta la filiera rimanga trasparente, per tutte le implicazioni che la vita digitale ha già reso palesi. Ecco perché la chiosa di questo lungo post è anche la chiosa del primo articolo di Repubblica, dove c’è l’esplicitazione degli usi più disparati e possibili dell’opensource, e della trascendenza della sua filosofia:

L’opensource in salotto. Un settore sempre più aperto al codice libero è quello dei televisori e dei dispositivi di intrattenimento domestico. Le moderne “Smart TV” hanno bisogno, per gestire i loro servizi “intelligenti”, di sistemi totalmente diversi da quelli delle televisioni di qualche anno fa. LG, per esempio, permette di riprodurre sulle proprie TV i film, le canzoni e le foto conservati nei PC di casa utilizzando una rete interna e le tecnologie del software opensource Plex, mentre il sistema operativo dei televisori Samsung è basato su Linux, tanto che alcuni programmatori ne hanno creato un sostituto chiamato Samygo.

Usiamo software opensource anche se utilizziamo uno dei tanti box multimediali per visualizzare la cosiddetta IPTV, la televisione via connessione ADSL. Sia Cubovision, il prodotto di Telecom Italia basato su MeeGo, sia il Tiscali TvBox utilizzano tecnologie aperte.  Opensource sono anche la maggioranza dei software di gestione degli hard disk multimediali, gli apparati che, connessi a un televisore, permettono di riprodurre filmati, musica o foto conservati in hard disk interni.

Pinguini & Co. nell’auto. Necessità simili, avere un buon software già pronto all’uso da poter adattare a propri prodotti, hanno spinto Ford a dar vita al progetto OpenXC, una piattaforma composta da software basato su Android e hardware basato sul progetto italiano Arduino opensource che permette di leggere i dati dell’automobile e registrarli per poter essere utilizzati nell’auto stessa o in applicazioni per smartphone o PC.  Al momento è presente, per esempio, negli ultimi modelli di Ford Focus e Ford Fiesta, ma può essere adottato liberamente da qualsiasi altro produttore. Meego, il progetto da cui è nato Tizen descritto poco fa, è invece stato adottato da BMW per essere utilizzato nei navigatori delle sue automobili, mentre BMW e altri produttori sono consorziati nel consorzio Genivi nato per supportare l’adozione di software opensource nei sistemi di infotainment delle autovetture.

Se si entra in fabbrica. I settori più innovativi dell’informatica di consumo utilizzano software opensource e libero e ciò fanno anche le industrie più complesse, come quella aerospaziale o automobilistica. Ma opensource non è solo software o hardware. In una presentazione tenuta a una TED Conference lo scorso Giugno, Jay Bradner, un ricercatore dell’istituto di medicina di Harvard, ha descritto come il suo laboratorio è riuscito a produrre una molecola (la molecola JQ1) in grado di rallentare il processo di riproduzione di geni tumorali. Al momento dell’intuizione iniziale il team di Bradner ha coinvolto colleghi di tutto il mondo per cercare aiuto e al momento della scoperta, quando la molecola era pronta, al posto di tenerne segreta l’identità chimica, come farebbe una casa farmaceutica, l’ha pubblicata per permettere a tutti di utilizzarla. Bradner ha chiamato questo processo una “ricerca opensource sul cancro”. “La libertà di collaborare con gli altri è fondamentale per avere una buona società in cui vivere e questo per me è molto più importante di avere un software potente e affidabile”. A questo, forse, pensava Richard Stallman, padre del movimento del software libero, quando, in una conferenza, gli fu chiesto di chiarire il senso più profondo dell’opensource.

Firefox

Cooperare, senza che ciò diventi necessariamente un sistema tritatutto, socialmente omicida; anzi, lasciare che la cooperazione diventi un fattore di crescita collettivo, capace sì di generare profitto ma anche benessere, dove nessuno venga mangiato dagli squali dell’alta finanza: questo è forse l’ultimo sogno dei figli delle generazioni che dei ’60. Fondamentalmente, essi non sono lontani, ora, dal conquistare il mondo senza spargere sangue, senza essere diventati belve assetate di denaro, senza che venga schiacciata la nostra dignità, riservatezza, libertà. Anzi, la nostra Libertà: software libero, sempre, ovunque, sempre di più, è la loro arma cristallina, vincente, potente come l’energia riciclabile. Senza l’opensource, il mondo sarebbe assai simile a quello che paventava George Orwell.

Related articles

Piccole note sul software libero – parte prima

A questo punto interseca facilmente il nostro discorso un secondo articolo, sempre di Repubblica.it: l’intervista a Stefano Zacchiroli, leader di Debian, la distribuzione regina dei sistemi operativi Linux, quindi il top dell’opensource. Che esprime una visione politica del mondo che sfiora l’anarchismo illuminato.

A screenshot of Ubuntu 11.04 (Natty Narwhal).

A screenshot of Ubuntu 11.04 (Natty Narwhal). (Photo credit: Wikipedia)

Partiamo proprio da qui. In che senso un software può incidere sul nostro grado di libertà?
“Un software è libero quando l’utente ne ha il controllo totale. Che questo software giri su computer, tablet, telefono o televisione, poco importa. Libertà vuol dire poter usare il software senza limitazioni di scopi, poterlo copiare e soprattutto poter guardare come è stato fatto, ossia vederne il codice sorgente, e modificarlo. Ciascun programmatore sa decifrare il codice sorgente, mentre se ha solo il codice binario non può fare granché. Avere a disposizione il codice sorgente significa poter modificare il software e ridare al mondo, come un atto di collaborazione, le nuove modifiche”.

Proviamo a fare qualche esempio attinente alla vita quotidiana…
“Un esempio emblematico è quello del tostapane. Cinquant’anni fa uno “smanettone” era in grado di aggiustare un tostapane rotto adattandolo a un diverso impianto elettrico. Oggi, se prendiamo un tostapane su cui gira del software proprietario, non abbiamo più quella libertà. I software ci consentono di realizzare tantissime cose che prima erano impossibili. Trattandosi però di un concetto difficile, alla gente sfugge che di un software proprietario il consumatore non può fare nulla: è come avere un oggetto, ma possederne in realtà solo una piccola parte. Dal momento in cui la presenza del software negli oggetti quotidiani è destinata ad aumentare, non vedo perché i consumatori debbano rinunciare ad avere il controllo dei loro oggetti, e dunque alla loro libertà. L’obiettivo, al contrario, dovrebbe essere quello di estendere il controllo individuale a tutti i dispositivi che utilizziamo e che contengono del software. Ce ne sono un’infinità: dai computer ai telefonini, dalle macchine agli aerei, per arrivare ai pace-maker che abbiamo addosso e ai dispositivi ospedalieri che controllano la nostra vita”.

Sono parole e concetti forti. Sono prese di posizioni altamente costruttive, eppure votate alla più ampia libertà, all’autodeterminazione; alla volontà di non farsi soggiogare né dalle multinazionali né dai meccanismi che regolano le multinazionali. Stefano poi aggiunge:

A una persona non esperta può risultare difficile capire perché il free software sia ovunque, anche in sistemi/programmi tutt’altro che gratuiti. Ci spiega perché?

Google Chrome

Google Chrome (Photo credit: thms.nl)

“Chi crede nella filosofia del software libero, accetta che il software sia un bene comune: si lavora su un prodotto che, una volta pronto, è per tutti. Non si mettono restrizioni su chi può o meno usare un determinato software. A questo punto, ecco che tra gli utilizzi possibili rientra anche il “fare soldi”. Per questo il software libero è presente in tantissimi oggetti commerciali. Ci sono dei vincoli, come ad esempio l’impegno a condividere con gli altri eventuali modifiche, ma non c’è nulla di illegale. Di conseguenza, enormi sono gli interessi commerciali delle aziende che si basano sul nostro lavoro. Gli sponsor delle nostre conferenze sono Google, IBM, HP; l’azienda che sta dietro Ubuntu ha 500 dipendenti ed è una multinazionale. Il bello è che in buona parte queste grandi aziende si affidano al lavoro fatto da noi: mille prodi volontari”.

Dall’elenco mancava Apple, la nemica giurata dei sostenitori del free software.
“Dal mio punto di vista, il successo di Apple sta nell’aver trasformato i computer da strumenti su cui si producevano contenuti a macchine per consumare contenuti. A ciò bisogna aggiungere un’attenzione maniacale ai dettagli, che li ha portati a meritarsi il primato. Secondo me, però, stanno facendo un sacco di danni ai consumatori. Punto primo: non sappiamo cosa fanno i loro dispositivi. Per esempio, è stato scoperto che gli iPhone tracciavano gli spostamenti degli utenti, un fatto a mio avviso molto inquietante. Il secondo aspetto è legato ai DRM (Digital Right Management): ogni volta che compriamo delle canzoni su iTunes, non sappiamo se ce le avremo per sempre e non possiamo prestarle ai nostri amici. Quando compriamo un cd, invece, sappiamo che sarà nostro per sempre. Hanno trasformato il concetto di app store (che trae le sue origini dalle distribuzioni di una quindicina d’anni fa) in un dispositivo di censura: il software disponibile su un iPhone non lo decide l’utente, bensì deve aver passato il vaglio della Apple. Nel mondo Android, per lo meno, ci sono anche gli store non ufficiali”.

Oltre alla libertà, quali sono gli altri vantaggi del software libero rispetto a quello proprietario? Cosa intende chi parla di “superiorità” del free software?
“Da tempo si sa che il software libero non ha nulla di inferiore a quello proprietario, anzi. È bene non generalizzare perché ci sono software proprietari fatti benissimo e altri malissimo. Da anni sappiamo che, in termini di sicurezza, il software libero offre vantaggi inimmaginabili. Tutto è visibile, quindi anche se potenzialmente i “cattivi” (i cracker) possono trovare più facilmente delle falle, c’è anche molta più gente che può controllare e risolvere. Più in generale, un’azienda che fa business su software non libero ha interesse a nascondere i problemi di sicurezza perché sono cattiva pubblicità. Nel software libero, invece, tutto è già visibile e non c’è nessun interesse a nascondere”.

Continua

A chi segue le vicissitudini del mondo software, sia lato programmazione e/o sistemistico che lato utente finale, sarà capitato di assistere sempre più spesso a dibattiti sul software libero vs software proprietario. In sostanza, gli operatori e gli appassionati del mondo digitale si dividono in due categorie: chi sceglie programmi e sistemi operativi blindati, di cui si è semplici utenti o poco più e di cui si può diventare comunque degli specialisti (vedi per es. Microsoft, Windows, Apple, iPhone etc.) oppure chi diventa paladino dei prodotti scritti e gestiti con licenza opensource, ovvero software non blindato e accessibile a chiunque abbia la capacità di modificare e scrivere codice (Linux, Openoffice, Firefox, Android).

Tux, the Linux penguin

Tux, the Linux penguin (Photo credit: Wikipedia)

Image representing Windows as depicted in Crun...

Image via CrunchBase

La macro differenza tra software proprietario e software opensource, libero, è fondamentalmente quella esposta qui sopra. Nell’ambito del software libero esistono poi sofisticazioni maggiori, tali da permettere di costruire del codice proprietario su licenze opensource; Google, per esempio, parte da una base free per costruirci sopra del proprio codice, chiuso. Lo stesso avviene nel mondo Linux, dove le varie distribuzioni presenti non sempre aderiscono completamente allo spirito free del celebre sistema operativo aperto; però, in buona sostanza, laddove si parla di software libero si può affermare che la possibilità d’incappare in qualche prodotto che fa cose alle vostre spalle, di cui non ve ne renderete mai conto, si assottiglia notevolmente, proprio perché al controllo c’è una comunità attenta alla programmazione, che sa leggere cosa fa un programma e che quindi può modificarlo all’uopo.

Repubblica.it nei giorni scorsi ha dedicato ben due articoli al mondo opensource, che nasce dalle lotte libertarie (non certo liberiste) degli anni ’60 nei campus universitari degli USA. Il primo articolo da cui ho preso spunto è quindi qui, dove si pone l’accento sulla grossa chance che il software libero sta avendo nel mercato dei sistemi operativi e non solo; punti di forza notevoli quelli dell’opensource, che passano per le alte performance, per l’affidabilità e la sicurezza, livelli di alta qualità che riescono spesso a convincere l’utente finale sulla convenienza economica nel passare a questa filosofia digitale: perché i prodotti totalmente opensource sono pressoché gratuiti, mentre quelli sviluppati sul free software sono spesso gratuiti o al massimo costano davvero poco se confrontati con i prodotti blindati, quelli proprietari, che costano sensibilmente di più (vedi licenze di Windows, per esempio, o di Microsoft Office).

PIÙ LA SOCIETÀ digitale evolve, più l’opensource, il modello di distribuzione libera e gratuita del software e del suo codice sorgente reso popolare dalla distribuzione Linux, guadagna fiducia e attenzione. Una delle ultime previsioni della società di analisi Gartner dedicata a questo mercato ha indicato che, nel 2016, il 99% delle principali aziende utilizzerà almeno un software opensource (era il 75% 2010). E, il più delle volte inconsapevolmente, lo stesso stanno facendo oggi milioni di persone.

I vantaggi sono innegabili. Il software opensource è già pronto, economico, modulare. Ma è anche di qualità. Secondo una ricerca pubblicata da alcuni giorni fa dalla società di analisi software Coverity, i software opensource hanno anche meno difetti dei software con codice proprietario. La ricerca ha confrontato, con procedure automatiche, 45 software opensource e 41 software a “codice chiuso” rilevando come, nel primo caso, la densità di difetti (ossia il numero di difetti riscontrati suddiviso per le dimensioni del codice con cui è programmato il software) sia pari, in media, a 0,45, mentre quella dei software proprietari sia pari a 0,64. Poco importa che, paragonando software dalle dimensioni equivalenti, la forbice diminuisca quasi a scomparire. Importante è che la ricerca definisca quanto tutti sapevano da tempo: il software opensource è progettato con qualità.

Questo ci dice il suddetto articolo di Repubblica, che continua:

Un bene per l’industria. Per dirla con Mark Shuttleworth, il milionario fondatore di Ubuntu, una delle più diffuse versioni di Linux, il software opensource “accresce l’innovazione tecnologica, ne consente l’accesso anche alle zone periferiche del mondo e permette ai programmatori di esprimere al massimo le loro capacità”. Il principio riceve conferme anche dall’ampia diffusione di progetti a codice aperto che, senza clamori, sono alla base di decine di attività quotidiane: quando usiamo il computer, quando navighiamo su Internet, quando usiamo lo smartphone, quando guidiamo un’automobile.

L’opensource ci circonda. Usiamo software opensource quando navighiamo su Facebook, su Twitter, su Google, su Wikipedia. Per dirne una, Facebook  probabilmente non sarebbe nato se Mark Zuckerberg  non avesse avuto a disposizione il linguaggio di programmazione PHP, basato su standard aperti e rilasciato con licenza libera così da poter essere utilizzato senza dover pagare diritti. Ancora oggi l’intera infrastruttura di Facebook si basa su software a codice aperto, software che chiunque può scaricare, installare ed utilizzare per i propri servizi.

Non stupisce che l’ambiente di principale utilizzo di software opensource sia Internet: le tensioni libertarie maturate dai movimenti americani degli anni Sessanta, in cui affonda le radici il pensiero teorico dell’opensource, hanno segnato anche la nascita della grande rete (“io sono nato tra una marcia di protesta e un’occupazione universitaria”, dirà il fondatore di Linux, Linus Torvalds). Se navighiamo il Web usando Firefox o Chrome, il browser progettato da Google, stiamo usando due prodotti opensource, che da tempo erodono vistose quote di mercato a Internet Explorer facendolo scendere al di sotto del 50% nonostante il navigatore sia preinstallato nel 90 per cento dei computer del mondo.

Continua

Che cosa rende appetibile la tecnologia, o un nuovo standard multimediale, o ancora un metodo di fruizione dei contenuti rivoluzionario, agli occhi del consumatore? C’è interazione tra l’oggetto, la tecnologia e i tempi storici in cui nasce la novità o, per essere più precisi, il momento in cui il nuovo oggetto vede la luce nella forma di prodotto commerciale?

Guardando un po’ di indizi disseminati nel nostro presente, analizzandoli, ci si può accorgere che la differenza, il fattore discriminante che il consumatore avverte, risiede nel prezzo di acquisto. Ciò che guida l’acquirente più di prima, in questi anni di ristrettezze e incertezze economiche, è il prezzo con cui riesce a portarsi a casa il bene che ha scelto; avveniva pure nel passato, certo, ma la sensazione che la ricerca spasmodica di un prezzo basso sia aumentata a dismisura, e che il mercato stia cominciando a mangiare se stesso, è pregnante.

Di esempi che suffragano queste osservazioni ce ne sono molti: si può citare tanto per cominciare Amazon, che ha da poco aperto la filiale italiana dove vende, così come accade nel resto del mondo, oggetti e software di vario tipo a prezzi bassissimi (libri, musica, ebook, lettori e-book, quest’ultimi con pochi competitor sul mercato). Tali vendite sono spesso sottocosto, ovvero sotto la soglia del prezzo di produzione. E almeno nel campo editoriale hanno subito scalfito l’interesse delle lobby, che si sono immediatamente attivate attraverso il legislatore, ottenendo una normativa liberticida nonché potenzialmente disincentivante nei confronti della cultura.

Anche nel mondo dei tablet si può trovar traccia di queste particolari condizioni di vendita: Hewlett Packard ha tolto dal magazzino i suoi rivoluzionari tablet – muniti dell’altrettanto rivoluzionario sistema operativo WebOS – vendendoli a prezzi risibili perché, altrimenti, avrebbe dovuto buttarli: il prezzo pieno (prossimo a quello dell’iPad) non garantiva che la vendita di pochissimi esemplari; in sostanza, HP (ma anche altri produttori) non riescono a diffondersi come l’iPad se non svendendo, pur avendo spesso i device caratteristiche tecnologiche nettamente superiori.

Pure gli e-book sembrano seguire la stessa logica: cosa vende di più? A prescindere dal contenuto, vende il libro digitale che ha il prezzo più basso, a patto che sia anche senza i DRM (ovvero i lucchetti digitali) che assicurano soltanto noiose e a volte complesse operazioni per il cliente meno esperto di tecnologia, protezioni aggirabili comunque dall’utente più navigato che, probabilmente, aspetterà solo il momento più propizio per vendicarsi, magari diffondendo l’opera sprotetta sulle reti di condivisione.

È altresì vero che che la filiera manifatturiera tende a considerare sempre meno il lavoratore (non solo sottopagandolo, ma anche riducendogli oltre l’osso le misure di sicurezza, di comodità e quant’altro); spesso le condizioni di salariato appaiono assimilabili a quelle degli schiavi dell’età classica, dove si ergevano meraviglie architettoniche con l’ausilio di manovalanza a costo zero. Si potrà obiettare che non è così, che ci sono i diritti sindacali, legali e via dicendo che difendono il lavoratore dai soprusi delle proprietà, ma la recente storia FIAT insegna che la controtendenza è avviata (da lungo tempo, in realtà) e che tutto il mondo del lavoro italiano si conformerà a queste nuove realtà (come rileva molto bene quest’articolo dei Wu Ming).

In definitiva, se non si abbattono pesantemente e drasticamente i prezzi al dettaglio, i beni non si vendono e le nuove tecnologie non decollano; pure quando decolleranno, avranno sempre bisogno di essere fruite a prezzi davvero stracciati, sottocosto. I profitti saranno dati non dal singolo pezzo ma dalla possibilità di vendere più unità possibili, con un guadagno che si discosta di poco dallo zero. La questione del prezzo stracciato si riflette pure nelle politiche commerciali dei punti vendita alimentari o dei discount. Anche qui è facile comprendere che lo store che riscuote maggior successo è quello che assicura i prezzi più bassi e che magari riesce a garantire (ma non è espressamente richiesto dal consumatore) anche un pizzico di qualità.

Non sono un economista né un perfetto conoscitore del mercato, e quindi la mia teoria va confermata, ricalibrata, smentita dalle vostre considerazioni; e se fosse soltanto, tutto ciò, un sintomo, un manifestarsi del reale valore delle cose? In questi decenni, come si evince dagli interventi (anche) di Sergio “Alan D.” Altieri e nel passato di Valerio Evangelisti, spesso su Carmilla on Line, c’è stato un gonfiarsi spropositato del valore del denaro: ne è semplicemente circolato troppo perché sopravvalutato, perché svincolato dalle effettive riserve auree possedute dalle singole nazioni. Ciò ha conferito un prezzo arbitrario ai beni, il mercato è vissuto su una bolla inflazionistica impressionante che ora si sta, semplicemente, sgonfiando, sta riprendendo il suo reale valore. Una piccola prova del nove di tutto questo? Provate a organizzare dei pasti completi, per una settimana almeno, a un centinaio di persone, e provate poi a calcolarvi il costo singolo di ogni pasto: sarete davvero sfortunati se supererete i due euro a persona. Ma questo non è certo un segreto per chi fa della ristorazione la sua attività, e ciò ci riporta al reale valore dei beni che consumiamo, che compriamo. Io credo che, comunque, la cartina al tornasole di tutto il discorso sia questa: assunto 100 il valore economico globale, abbiamo vissuto in questi decenni con un valore gonfiato pari a centinaia, forse 1000; per riportare a 100 il tutto bisogna lavorare o sui beni, oppure su chi li produce, riducendolo in una condizione prossima alla schiavitù. La sfida del futuro credo si risolva tutto in questa dicotomia.

Ne consegue la domanda finale: è giusto pagare cifre fuori scala per acquistare ciò che ci serve? Qual è il valore reale dei beni che compriamo, in questo momento storico? Fino a che punto ha senso, perciò, viste le considerazioni sul reale costo del denaro, alimentare il mercato dai prezzi gonfiati? È davvero incombente la fine di un regime economico?

Uno dei progetti che sta attraversando trasversalmente il Connettivismo, in questo periodo di evoluzione del Movimento, muove verso le mappe culturali del cosiddetto mainstream; ovvero dei prodotti culturali fruiti dalla moltitudine nazionale e internazionale, spesso assai poco interessata ai fenomeni di nicchia, o di avanguardia, in cui noi connettivisti abbiamo sempre trovato l’humus necessario affinché le nostre idee nascano, e prosperino, in modo così florido da costituire – questa è la nostra speranza – fonte di nutrimento per noi stessi e le generazioni di sperimentatori future.

In quest’esplorazione del mainstream sappiamo di avere molti autori come punti fermi, fari nella notte in grado di illuminarci sul chi siamo e su cosa possiamo essere nel tessuto del reale; il nostro intento è, ora, cercare di operare una trasformazione alchemica del reale, una mutazione che sia di portata epocale e in grado di aprire scenari nuovi, assimilabili nel futuro. Tra questi autori è bene ricordare un paio di nomi, tanto per dare delle coordinate non esaustive ma, comunque, valide: Ballard e Murakami.

Accanto a loro, mostri sacri della letteratura capaci di far filtrare strisce inquietanti di universi distopici nelle trame del nostro presente, mi piace citare (cito anche io, non sono certo stato il primo a scoprirlo) un nome italiano che indaga con la certosina attenzione di chi sa su quale strada ci stiamo incamminando: Lara Manni. Su Carmilla sta pubblicando da qualche tempo recensioni come questa, dove analizza nello specifico l’influenza delle tradizioni, delle fiabe, sul presente culturale. Lara nel suo articolo parte, appunto, da una fiaba russa – assai simile, come inizio, a Pinocchio – in cui si sublima il desiderio di maternità e paternità di una coppia, che ha fornito lo spunto per il romanzo di esordio di Eowyn Ivey, La bambina di neve, che traspone la storia nel gelo dell’Alaska. Scrive Lara Manni:

L’innesto della fiaba classica in un romanzo contemporaneo, infatti, è una tendenza che interessa non pochi scrittori, fino a diventare – ineluttabilmente – filone editoriale emergente negli Stati Uniti. Qualche tempo fa, Editrice Nord ha pubblicato una raccolta di racconti di Andrzej Sapkovski dal titolo Il guardiano degli innocenti, che è stata salutata con favore dai lettori di fantastico italiani più per il riferimento al videogioco che ne è stato tratto che per la derivazione fiabesca. Il protagonista, Geralt di Rivia, è un Witcher, uno strigo che combatte mostri in una serie di quest replicabili all’infinito. Lo strigo vince sempre, ha un suo codice etico, sufficiente cinismo, molto orgoglio, abbastanza carnalità da intrattenersi con fanciulle di passaggio. E soprattutto agisce all’interno di fiabe e miti: c’è la rivisitazione al nero di Biancaneve, si accenna alla fuga di Cenerentola dal ballo, Raperonzolo diviene l’emblema di un culto femminile proibito.

Ecco, il compito dei personaggi del fantastico cambia connotati, in questo periodo storico, perdendo un po’ delle caratteristiche canonizzate del genere, ovvero lo stacco dal reale per farci volare, portarci in una capsula astrusa dove il reale appare un continuum lontano, irraggiungibile; la tendenza di adesso tende, invece, a cercare di tenersi ben più saldi su quello che abbiamo attorno, lo stacco di fantasia non va più in orbita ma sembra in grado di contaminare il nostro mondo tattile, operando un’invasione che è ben più reale e fattibile, e ciò è per certi versi un metodo ancor più rivoluzionario del vecchio modo di intendere il genere: è il colare dell’universo fantastico su ogni poro del reale.

È un po’ come investire di nuova missione gli autori del nostro genere preferito: non più fuga ma incursione sul mondo in cui tutti si muovono. Stiamo accendendo continuamente lumini lungo un sentiero che pensavamo non fosse il nostro; ci stiamo accorgendo di essere in tanti a farlo, davvero pronti a fare qualcosa di nuovo, soltanto vivendo l’usuale.

Prendendo spunto dalle riflessioni sugli androidi e replicanti operate da Oedipa_Drake, m’inserisco nella discussione confermando tutte le sue suggestioni, gli spunti che portano in misura diversa alla definizione, in sostanza, del postumano.

La mia intenzione, ora, è inserire nel thread che spero si origini da quelle righe seminali, un nuovo argomento, in qualche modo affrontato da X – pur se non esaustivamente dal punto di vista postumano – quando su NeXT 13 scriveva il suo articolo Paul Krugman: dalla frontiera del commercio.

Parliamo tutti, chi più chi meno, all’interno del Movimento e non solo, di futuro, di come la tecnologia e le semantiche scaturite da essa potranno cambiare la nostra vita, allungandola, fortificandola, diversificandola. Forse però dimentichiamo un particolare che, in questi momenti di crollo dei modelli finanziari, può generare uno stop o peggio, un’involuzione delle nostre speranze: la crisi delle fonti economiche. Sappiamo che alla base del progresso c’è, sostanzialmente, la disponibilità di ingenti fondi da investire, capitale che ora o nel futuro potrebbe venire a mancare, per rivoluzioni finanziarie o politiche; il baratro di un nuovo Medioevo è sempre presente, è lo spettro che agita i sonni di chi rivolge la sua attenzione ai nuovi giorni. Le vie per arrivare a un tale scenario sono molteplici; se le necessità energetiche, per esempio, dovessero portarci all’esaurimento delle fonti petrolifere, senza che nel frattempo sia stata trovata una valida alternativa, cosa succederebbe alla nostra civiltà? Stiamo trasferendo tutto il nostro sapere, buona parte delle nostre vite sociali, su supporti che funzionano con l’elettricità; senza di essa, perderemmo una cospicua percentuale della nostra vita attuale e a quel punto, come si potrebbe parlare di nuova umanità o, per rimanere ancorati ai nostri modelli antropologici, di avvenire, di progresso? Ci troveremmo tutti, all’improvviso, precipitati in un baratro di pure dimensioni umane, lontani dai nostri migliori sogni di espansione fisica, cerebrale, di trasferimento della coscienza su altri tipi di carapaci.

Un altro scenario che potrebbe portare a un netto ridimensionamento del futuro è una crisi finanziaria dettata da mancanza di liquidità, da una presa di coscienza che il patrimonio mondiale ha comunque un valore finito, può scatenare un’altra versione di Medioevo dove le lotte sociali, le guerre civili, i disastri culturali e ambientali susseguenti potrebbero portare a un’involuzione, dove soltanto un’oligarchia potrebbe permettersi le cure migliori, la vita migliore, i giorni migliori; spostando un po’ più in là il ragionamento, potrebbero essere loro i postumani d’elite.

Queste espresse sono solo le ultima opzioni di una pletora di distopie possibili, tutte terrificanti e apocalittiche specialmente se dovessero accadere in concomitanza (ipotesi tutt’altro che peregrina) in cui l’argomento progressista degli androidi, del mind uploading e delle IA sarebbe vanificato da una mancanza finanziaria, reso soltanto un breve sogno dell’umanità, dimenticato nel breve volgere di poche generazioni.

Lo sforzo più grande che dobbiamo fare ora, noi esseri occidentali del secondo decennio del terzo millennio, è duplice: da un lato alimentare la fornace del sogno, fare che diventi sempre più bello e possibile, ma anche vigilare e operare nel presente, nell’ambito delle nostre limitate possibilità e cercando di non remare contro, affinché i fondamenti di questi sogni rimangano stabili, fattibili. Dipende anche da noi se tutto quello che auspichiamo diventerà davvero reale, se davvero consegneremo il nostro mondo a qualcuno che saprà svilupparlo meglio di noi perché avrà potenzialità migliori delle nostre, raccogliendo il nostro testimone che ora è saldamente nelle nostre mani.

Le nostre riflessioni connettiviste hanno un habitat, generalmente, ristretto all’ambiente del Movimento: i pensieri e le teorie che sono alla base delle intuizioni che espletiamo, con frequenza asincrona e non con la stessa prolificità tra i diversi membri del collettivo, hanno spesso esistenza esclusivamente all’interno del nostro circolo; auspicabile sarebbe riuscire a esportare questi filamenti di idee verso il mondo che ci permea, la cosiddetta realtà. Esportarli significa renderli fondanti, destabilizzanti per certi versi perché così diverrebbero in grado di cambiare la realtà e renderla nuova, non dico connettivista ma, almeno, con al suo interno elementi di discontinuità dal presente, una sorta di terreno culturale su cui le nuove generazioni possano trovare elementi di fecondità. Qualcosa per cui loro potranno – si spera – sentirsi nuovi rispetto al nostro mondo, pensiero, vita, memi.

Ecco perché è importante che i connettivisti escano dalla loro culla e si collochino, tanto per cominciare, nell’alveo della cultura cosiddetta mainstream. Iniettare idee nel tessuto forse moribondo del nostro tempo, ispirare la consapevolezza del mutamento, instillare quella visionarietà postumana che potrà cambiare la nostra civiltà e interpretarla secondo declinazioni di equità ed empatia, è forse il lascito che potrà testimoniare maggiormente la nostra vitalità il giorno che noi non saremo più. Dal lato intellettuale, intendo: il giorno in cui le nostre idee non avranno più nessun connotato di novità.