Carlo Formenti

Il testo che segue riproduce parte del terzo capitolo del saggio Felici e sfruttati. Capitalismo digitale ed eclissi del lavoro, che sarà in libreria il 27 aprile prossimo per i tipi di EGEA. Invece di evidenziare i tagli con puntini di sospensione, si è preferito giuntare le parti estratte tramite interpolazioni ad hoc, per cui il testo presenta alcune varianti rispetto all’originale (sono state eliminate anche le note). Per le tesi dei tre autori citati, vedi Andrew Keen, Dilettanti.com, De Agostini, Milano 2009; Jaron Lanier, Tu non sei un gadget, Mondadori, Milano 2010; Nicholas Carr, Internet ci rende stupidi?, Cortina, Milano 2011.

Qualche anno fa rilasciai all’«Espresso» un’intervista nella quale sostenevo che la maggioranza dei blog contenevano patetici esercizi di scrittura spacciati per letteratura sperimentale, oscene esibizioni di emozioni e sentimenti personali, polemiche da bar e auspicavo che questa spazzatura sprofondasse nell’oblio, restituendo alla rete la vocazione di canale di controinformazione. Successivamente ho fatto autocritica, non perché mi sia convinto che i blog siano migliori di come li avevo descritti, ma perché ho capito di avere dimenticato la lezione di McLuhan, secondo cui ciò che importa è l’architettura di un medium, più dei contenuti che veicola: a contare non è che cosa si pubblica bensì la facilità con cui chiunque, anche soggetti privi di ogni competenza culturale e tecnologica, viene messo in condizione di pubblicare. Prima di celebrare quest’evoluzione come un passo sulla via della «democratizzazione della comunicazione», tuttavia, occorre rispondere al seguente interrogativo: chi «possiede» i contenuti «autoprodotti» dall’utente comune, chi detiene il controllo sui loro effetti politici ed economici?

È l’interrogativo da cui parte Andrew Keen in un libro ferocemente polemico nei confronti, sia della pessima qualità dei contenuti amatoriali, sia dell’uso che ne viene fatto da parte delle imprese del Web 2.0. Lo scenario descritto da Keen è quello dell’ascesa di nuovi padroni che – sfruttando le smanie di apparire, di «esserci», di milioni di produttori amatoriali di news, musica, video, testi letterari ecc. – vanno all’assalto della vecchia industria culturale. I profeti del Web 2.0, scrive Keen, hanno costruito il mito della democratizzazione sfruttando tre ingredienti ideologici: l’antiautoritarismo delle controculture degli anni Sessanta, il liberismo economico degli anni Ottanta e le infatuazioni tecnomistiche degli anni Novanta. Questa miscela ha funzionato alla grande nel legittimare l’ascesa delle imprese che sfruttano i contenuti amatoriali come «semilavorati» dei propri processi di valorizzazione. Che poi la qualità di questi semilavorati sia pessima non è un problema. Al contrario: la qualità, il vero talento, costano cari, richiedono investimenti che erano giustificati quando l’industria culturale si fondava sulla standardizzazione/duplicazione di originali di qualità elevata prodotti da artisti/artigiani; ora che è possibile creare nuovi prodotti remixando prodotti precedenti, un lavoro che può essere affidato a milioni di prosumer che lo svolgono gratuitamente, non ha senso buttare soldi per assumere forza lavoro qualificata. Ecco perché l’impresa che incarna meglio di ogni altra il nuovo modello di business non produce cultura ma eroga un servizio: l’archetipo del nuovo padrone è Google, un «parassita» che non crea nulla ma si limita ad aggregare quello che producono gli altri.

Le critiche di un altro guru «pentito» della cultura digitale – Jaron Lanier – si fondano sul rovesciamento della interpretazione del pensiero di McLuhan, che finora era stato quasi sempre presentato come un «entusiasta» dei media elettrici – interpretazione basata sulla contrapposizione mcluhaniana fra uomo alfabetico e uomo elettrico. Premesso che per McLuhan i media non sono «strumenti», né tantomeno canali «neutri» che influenzano le persone attraverso i contenuti che veicolano, bensì ambienti complessi che agiscono in profondità sul corpo e sulla psiche, è vero che la sua attenzione si è concentrata sulle caratteristiche che la tecnica alfabetica ha inscritto nell’uomo moderno: individualismo, pensiero sequenziale e astratto, separazione fra pensiero razionale e sfera emotiva ecc. A queste caratteristiche, McLuhan contrappone la mentalità «empatica», il senso di appartenenza comunitaria, la disponibilità emozionale dell’umanità plasmata dai media elettrici: ciò è sufficiente per interpretare il suo discorso come un’accettazione senza riserve del «tempo nuovo» inaugurato dalla elettricità? Solo a condizione di trascurare altri aspetti del suo pensiero.

Secondo McLuhan, ricorda Lanier, i media modificano la nostra natura senza che noi ne siamo coscienti, per cui ci ritroviamo intrappolati in «forme di vita» plasmate dalle nostre tecnologie di comunicazione. McLuhan era talmente consapevole di questo aspetto, da arrivare a scrivere, a proposito della minaccia implicita nei media elettrici, che «il contenuto è il succulento pezzo di carne con cui il ladro distrae il cane da guardia dello spirito».   Lanier fa propria questa consapevolezza per formulare un atto d’accusa che mira a tre bersagli: la manipolazione tecnologica della mente; l’esaltazione della rete come cervello collettivo che integra tecnologie ed esseri umani; la sostituzione della vera creatività con pratiche di assemblaggio promosse dalla nuova industria culturale. Il primo argomento viene affrontato attraverso il concetto di lock in – termine che connota un fenomeno tipico delle modalità con cui evolve il software: si parla di lock in quando chi lavora a una tecnologia non si impegna a trovare la soluzione migliore a determinati problemi, bensì a garantirne la compatibilità con tecnologie preesistenti. Tipico, in questo senso, l’esempio dei programmi creati per «girare» sulla piattaforma Windows: quando un’architettura come quella del sistema operativo targato Microsoft riesce monopolizzare una nicchia, fino a trasformarla in un vero e proprio ecosistema, scatta il dispositivo del lock in. L’utente medio ignora che i prodotti con cui lavora avrebbero potuto essere diversi, per cui non ha altra scelta se non quella di adattarsi all’esistente.

Il secondo imputato è l’aura mistica che avvolge i discorsi degli «evangelisti» della rivoluzione digitale. Sotto tiro finiscono in particolare i profeti di un evento – la «singolarità» – che dovrebbe verificarsi nei prossimi decenni, nel momento in cui, per effetto dell’interconnessione fra tutte le forme di intelligenza artificiale, nascerà una mente planetaria onnisciente che sfuggirà al controllo umano. Il clima culturale generato da questa profezia ispira speculazioni deliranti come quelle di Kevin Kelly e Paul Anderson: il primo autore dell’ennesimo annuncio della «morte dell’autore» – figura superata dal fatto che i frammenti delle opere precedenti confluiscono in quell’unico «libro globale» che è la rete – il secondo convinto dell’inutilità di una scienza articolata in campi disciplinari padroneggiati da singoli scienziati, dal momento che le «nuvole» di computer interconnessi sono in grado di comprendere e applicare assai meglio qualsiasi teoria. Queste idiozie, accusa Lanier, legittimano la convinzione che Internet stia per diventare «vivo», un’entità sovrumana e consapevole; ma soprattutto inducono i programmatori a sviluppare tecnologie che spingono la gente a interagire con i computer come se fossero persone, che è il primo passo per far sì che gli esseri umani vengano concepiti come programmi. Infine Lanier mette sotto tiro le «folle intelligenti» che sarebbero in grado di dare vita – con la forza del numero e delle dinamiche interattive – a perfetti dispositivi di giudizio e selezione dei contenuti. Le imprese del Web 2.0 che sfruttano economicamente tali dispositivi, argomenta Lanier, spacciano questi mosaici di frammenti casuali e anonimi di creatività per doni «scavati dalla profondità del Web», oscurando che la loro reale materia prima continua a essere il lavoro di autori professionali. Così giornalisti, musicisti e artisti vengono sollecitati a offrire gratuitamente in pasto alla «mente alveare» i frammenti delle proprie opere, affinché queste possano divenire oggetto di rielaborazione da parte della nuova industria culturale.

Anche le accuse alla società e all’economia di rete avanzate da Nicholas Carr sono fondate sulla rilettura di McLuhan. In particolare, dell’affermazione secondo cui il medium è il messaggio e dell’idea che le protesi tecnologiche «amputano» le parti del corpo e della mente di cui amplificano le funzioni. Carr analizza sia le mutazioni antropologiche che l’umanità subisce a causa della digitalizzazione dell’ambiente culturale, sia le conseguenze che tali mutazioni producono sugli equilibri di potere fra capitale e lavoro. Partendo dalle ricerche in campo neurologico, tenta di dimostrare come il dispositivo di amputazione stia «riprogettando» la mente umana per adattarla ai media digitali. Da quando utilizziamo intensivamente le tecnologie digitali, tutti noi avvertiamo che sta succedendo qualcosa al nostro cervello, qualcosa che ci impedisce di pensare come pensavamo prima e indebolisce le nostre capacità di concentrazione. La spiegazione viene dalla ricerca sulla memoria: mentre un tempo i neuroscienziati erano convinti che, arrivati a una certa età, i nostri cervelli fossero irreversibilmente «cablati» e sostanzialmente immodificabili, oggi ritengono che subiscano continue modifiche lungo tutto il corso della vita. Un cambiamento di paradigma che, da un lato, dischiude nuovi spazi di libertà, dall’altro lato, introduce nuovi vincoli deterministici: il fatto che la nostra mente sia «plastica» – cioè adattabile – non implica che sia anche elastica, cioè capace di imboccare nuovi percorsi a prescindere dai vincoli ambientali.

La lettura favoriva, oltre all’isolamento individuale, il pensiero profondo, costringeva il lettore a mettere in atto associazioni e processi deduttivi, incrementandone sia le competenze sia la capacità di sviluppare idee originali e un personale punto di vista sul mondo. L’avvento del digitale non implica la fine della lettura; al contrario: se i media elettrici favorivano la sostituzione del testo scritto con le immagini, i media digitali inaugurano un’era di ubiquità del testo, che occhieggia dagli schermi di cellulari, computer, tablet e quant’altro. Ma leggere un libro e leggere uno schermo sono attività cognitive diverse. «Navigare» un testo digitale comporta livelli di attenzione e profondità della lettura assai inferiori quelli richiesti dalla lettura tradizionale: la possibilità di «saltare» da un testo all’altro riduce la concentrazione su un particolare testo e ne favorisce la fruizione distratta. Ancora: chi legge libri impegna le aree cerebrali associate a memoria, linguaggio e processi visuali; chi legge uno schermo utilizza le regioni prefrontali associate all’assunzione di decisioni e al problem solving, in quanto occorre compiere continuamente scelte di navigazione senza lasciarsi «distrarre» dall’interpretazione del testo, il cui senso si sottrae all’esplorazione profonda.

Perché dovremmo tuttavia la «superficialità» delle nuove attività cognitive? La rinuncia alla concentrazione su singoli testi, unitamente alle modalità ipertestuali e multimediali di fruizione, non sviluppano forse la capacità di assemblare velocemente una enorme quantità di conoscenze e informazioni, rendendoci più creativi? Leggere libri per recuperare informazioni sul passato, ora che le possiamo ottenere con un semplice clik, non è una perdita di tempo? Lungo tutto il corso della sua storia, l’umanità si è impegnata a inventare tecnologie di esteriorizzazione della memoria, in fondo Internet non è che l’ultimo passo in questa direzione, perché dovrebbe rappresentare una minaccia? Perché finora si era trattato di fornire supporti esterni che rafforzassero la capacità di creare connessioni cerebrali, mentre oggi siamo di fronte al tentativo di sostituire le nostre connessioni con quelle del Web, e visto che le nostre connessioni non servono solo ad accedere ai dati memorizzati, ma sono letteralmente la nostra memoria, ciò significa che ci apprestiamo a trasferire alle macchine parte della nostra stessa identità.

Su queste considerazioni si innesca il secondo livello della riflessione critica di Carr. Si è spesso parlato della «ricomposizione» del lavoro, che la transizione dal fordismo al postfordismo avrebbe favorito, sostenendo che i processi di divisione/parcellizzazione del lavoro sono superati dalle chance che il computer regala ai lavoratori del terzo millennio, liberandoli dai ritmi ripetitivi, rendendoli più autonomi e capaci di auto organizzare le proprie attività, che a loro volta divengono più creative. Ma questi presunti miglioramenti svaniscono non appena si considerano gli effetti delle amputazioni provocate dal digitale: il taylorismo non è morto, si è evoluto, passando dal disciplinamento del corpo al disciplinamento della mente. Internet non è il regno della libertà bensì una megamacchina taylorista in grado di raccogliere, trasmettere e manipolare in modo automatico le informazioni, allo stesso modo in cui la catena di montaggio coordinava automaticamente il flusso di materie prime e semilavorati. Agli ingegneri addetti agli uffici tempi e metodi, subentrano i programmatori, impegnati a studiare il one best way per razionalizzare l’attività mentale, allo stesso modo in cui i loro predecessori studiavano il one best way per razionalizzare il lavoro materiale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *