Il 30 aprile del 1993 il CERN di Ginevra rilascia il codice sorgente del World Wide Web, diventando di fatto un servizio di pubblico dominio. Il progetto di Tim Berners-Lee, sviluppato all’interno dell’istituto per sopperire alla mancanza di un adeguato sistema di gestione delle informazioni, si affacciava così al mondo, fruibile da chiunque avesse un PC e un accesso alla rete.
Nel 1989 Tim Berners-Lee propone all’amministrazione del CERN un modello inedito per la gestione delle informazioni e delle comunicazioni che semplifichi la ricerca di collegamenti e riferimenti tra i documenti immagazzinati, ancora troppo rigida e ancorata all’uso di un singolo database. Nella sua proposta dal titolo Information Management: A Proposal, il giovane fisico britannico introduce il concetto di ipertesto, che sebbene fosse già noto dai tempi della cibernetica e dal progetto Memex di Vannevar Bush, non venne mai implementato in un sistema organico. L’ipertesto ha la capacità di rendere flessibili e immediati i collegamenti e la condivisione all’interno di sistemi informativi, necessario per un luogo come il CERN che era continuamente sottoposto a turnover di impiegati e ricercatori e che vedeva costantemente aggiornate le proprie ricerche e gli stessi documenti di ricerca. Come viene sottolineato nella proposta,
«I sistemi di informazione iniziano in piccolo e crescono. Iniziano anche isolati e poi si uniscono. Un nuovo sistema deve permettere ai sistemi esistenti di essere collegati insieme senza che sia richiesto alcun controllo centrale o di coordinazione».
È questa l’idea sottostante all’architettura del web, termine che appare appunto per la prima volta in questa proposta e che vuole enfatizzare la natura della rete di collegamenti che si sarebbe creata. Nel 1990 viene creato un piccolo team attorno al progetto con il compito di sviluppare ulteriormente la rudimentale infrastruttura elaborata nell’anno precedente, portando alla creazione del WorldWideWeb. L’intenzione non era più solo quella di adottare il sistema all’interno del CERN, ma di allargarlo ad altri enti di ricerca internazionali e alle Università.
«Il progetto WWW unisce le tecniche di recupero delle informazioni e l’ipertesto per creare un sistema informativo globale semplice ma potente. Il progetto ha avuto inizio con la filosofia che molte informazioni accademiche dovrebbero essere liberamente disponibili a chiunque. Mira a consentire la condivisione di informazioni all’interno di team sparpagliati a livello internazionale e la diffusione di informazioni da parte di gruppi di supporto.»
Il 6 agosto 1991 viene messo online il primo sito web al mondo, ancora oggi visualizzabile e consultabile nella sua versione grafica originale all’indirizzo: http://info.cern.ch/hypertext/WWW/TheProject.html.
Nel frattempo, l’Università del Minnesota sviluppa un proprio progetto per la navigazione e la ricerca di documenti per la rete internet, Gopher, il quale pur avendo una buona base di utenza, viene presto dichiarato proprietario. In risposta a questa scelta, il 30 aprile del 1993 il WorldWideWeb viene dichiarato libero ed accessibile a chiunque attraverso il rilascio del suo codice sorgente. Inizia così la storia del web.
Nel 1994 il World Wide Web ha appena cinque anni di vita, eppure il suo ambiente vede crescere costantemente il numero di utenti: non solo professionisti o impiegati d’ufficio, ma soprattutto i primi entusiasti che possiedono una connessione ad internet e un Personal Computer all’interno della propria abitazione. Dall’esterno, il web degli albori appare come uno spazio amorfo in continua espansione: permette di accedere a risorse enciclopediche, scambiarsi mail in ufficio e per lavoro, visitare e interagire sui primi “forum” di discussione tematica, trovare notizie sui siti di testate giornalistiche importanti. Per fare tutto ciò era necessario un web browser, un’applicazione dotata di un’interfaccia grafica, così da essere fruibile ai più, per navigare tra i vari siti in rete. Nexus, Mosaic, ViolaWWW, Lynx (quest’ultimo tutt’oggi attivo) sono alcuni dei progetti che si attivano per costruire browser in grado di soddisfare le esigenze dell’utente nella navigazione web. Tra questi Netscape Navigator si assicurò in brevissimo tempo la cima della classifica dei più utilizzati, nonostante Windows, il sistema operativo di Microsoft, avesse integrato un suo browser predefinito, Internet Explorer. L’uscita della versione 1.0 portava con sé una serie di migliorie e di nuove caratteristiche; ad esempio, la possibilità di iniziare a visualizzare gli elementi grafici di una pagina mentre questa è ancora in caricamento, così da poter iniziare a leggerne il contenuto senza dover aspettare l’intero download. A permettere ad Internet Explorer di vincere la lotta per il primo posto contro Netscape nella cosiddetta First browser war non furono solo le ottimizzazioni tecniche, ma la capacità di Microsoft di sfruttare appieno l’ondata di ciò che ancora oggi ci è molto familiare: i cookies. Il cookie, o meglio il cookie HTTP, nacque da un progetto di e-commerce sviluppato da Netscape insieme alla MCI, un’azienda di telecomunicazioni che voleva implementare una soluzione efficiente per carrelli virtuali, così che le transazioni parziali venissero registrate sui computer degli utenti. Il sistema prevedeva che ogni sito Web inserisse un piccolo file sul computer di ciascun visitatore che avrebbe tracciato le attività svolte dall’utente su quel sito. L’esistenza dei cookies non era però nota al grande pubblico: nessuno era al corrente del fatto che navigando si accettavano involontariamente questi byte di codice in grado di tracciare le proprie ricerche. I cookie si affermano come punto di svolta nella storia dell’informatica e della rete, modificando radicalmente la natura della navigazione web, passando da una relativa condizione di anonimità ad un ambiente in cui l’utente viene tracciato nei suoi movimenti. Attraverso l’identificatore anonimo e unico è possibile targettizzare gli utenti, anche non conoscendone il nome ma semplicemente le sue abitudini, recuperando informazioni sui siti visitati e proponendo così pubblicità mirate. Poco dopo, vengono individuati come potenziali minacce per la privacy i cookie di terze parti: transazioni non verificabili, di cui l’utente non conosce la destinazione finale. Nonostante la creazione della Internet Engineering Task Force per rimettere mano alla struttura dei cookie ed evitare potenziali minacce alla privacy, nonché l’intervento della Federal Trade Commission, molti siti avevano però già sviluppato la propria attività esattamente attorno all’uso dei cookie di terze parti e, conseguentemente, agli annunci personalizzati. Nel giro di poco tempo quello dei cookies si era trasformato in un modello di business adottato dalle aziende e dai primi siti di e-commerce online; smantellare questo meccanismo avrebbe significato ripensare l’attività stessa delle aziende e il loro nuovo strumento di guadagno. Microsoft sfruttò appieno quest’onda, adottando da subito i cookies nel proprio browser, stipulando partenariati con varie aziende pubblicitarie e portando Internet Explorer ad essere il browser più usato all’inizio del nuovo millennio.
Se il browser di Microsoft si afferma come mezzo principale per la navigazione web, Google si impone invece come il motore di ricerca più utilizzato per il reperimento di informazioni. La compagnia fondata nel 1998 era riuscita in pochissimi anni a diventare uno strumento imprescindibile per qualsiasi ricerca di qualunque utente, in grado di a resistere allo scoppio della più grande bolla finanziaria dell’ultimo millennio: la bolla delle dot-com. Come accennato, negli anni ‘90 prende infatti piede la commercializzazione di Internet, guidata dalla speculazione finanziaria, favorita da grandi quantità di capitale di rischio ed espressa in alti livelli di valutazione delle azioni: tra il 1997 e il 2000, i titoli tecnologici aumentano del 300% e assumono una capitalizzazione di mercato di 5 trilioni di dollari. Una volta raggiunto l’apice, la borsa crolla portando con sé molte aziende che si erano affacciate nel mondo dell’e-commerce e non solo. Cisco, Amazon, eBay e la stessa Google vedono così il loro ruolo notevolmente ridimensionato. La bolla aveva permesso di delimitare uno spazio con cui fare i conti, non fermando però le aspirazioni dei più ambiziosi. Nascono nuove aziende con l’obiettivo di mettere in connessione persone da tutto il mondo, potendo interagire, collaborare l’uno con l’altro in comunità virtuali dove scambiare contenuti; tra queste MySpace è certamente la prima ad accogliere un grande bacino di utenti, anticipando Facebook. Qual è la differenza fondamentale del web 2.0 (così definito da Tim O’Reilly) dal web 1.0? Se prima la fruizione del web era meramente passiva, il nuovo paradigma della “condivisione con l’altro” avrebbe reso il contenuto generato dagli utenti continuamente accessibile, trasformabile, remixabile (in questo senso i meme sono un esempio lampante). Sebbene ciò non sia completamente vero, c’è sicuramente un fattore cruciale in questo passaggio: l’allargamento della platea di persone con una connessione ad Internet ed il possesso di un computer, e verso la fine del decennio di smartphone. Senza questi elementi, i social network come li conosciamo oggi forse non avrebbero la stessa forma: l’utente è il centro dell’economia, e con esso i dati che produce. Facebook, Google, Twitter e YouTube non sono solo connettori di persone, ma piattaforme che basano i propri guadagni maggiori sulla pubblicità e l’advertising proprio a partire dalla profilazione degli interessi dei propri utenti. Se i cookie, e in particolare i cookie di terze parti, avevano caratterizzato il primo web, le piattaforme riuscivano invece a concentrare tutto all’interno dei propri ecosistemi, elaborando le preferenze, i like, le notizie e i contenuti condivisi attraverso metadati. I big data, cioè grandi dataset di dati, vengono infatti riferiti all’uso di analisi predittiva o analisi del comportamento degli utenti da cui poter estrarre valore, soprattutto commerciale, da rivendere agli advertisers. A questo va aggiunto il rischio di una deriva che vede le grandi piattaforme appropriarsi di contenuti e funzioni specifiche del web, ponendosi come contenitori di dati, archivi in grado di immagazzinare qualsiasi tipo di informazione.
Ma cosa succede quando i dati vengono utilizzati per la propaganda politica?
Piattaforme come Twitter, ma soprattutto Facebook, avevano avuto il merito di esser stati mezzi di comunicazione capaci di connettere organizzatori e manifestanti delle cosiddette “primavere arabe” avvenute all’inizio del decennio scorso, mostrando un uso totalmente nuovo della comunicazione politica e dell’accesso alle informazioni, immediato e non filtrato dalla televisione o dai giornali: in una parola, libero. Attorno ai social network aleggiava ancora un’aura di innocenza: strumenti gratuiti e accessibili a tutti, rivoluzionari nella loro idea originaria e nella loro semplicità d’uso. Nel marzo 2018, il New York Times e l’Observer, rispettivamente con base negli Stati Uniti e Regno Unito, pubblicano uno scandalo che avrebbe cambiato definitivamente il modo di vedere il social network fondato da Zuckerberg: le prime pagine riportano il nome di una società chiamata Cambridge Analytica, la quale sarebbe entrata in possesso di informazioni sul profilo, i registri dei likes e delle condivisioni, tag di foto e posizione, ed elenchi di amici di circa 83 milioni di utenti. L’azienda avrebbe sfruttato questo enorme capitale verso elettori “indecisi” attraverso annunci targettizzati e pratiche di micromessaging, operando cioè una lieve modificazione dei contenuti che sarebbero apparsi in bacheca, personalizzando il messaggio elettorale attraverso un mix tra componenti psico-geografiche e demografiche. Cambridge Analytica è nota soprattutto per aver lavorato per il Partito Repubblicano degli USA nelle elezioni del 2016 e nella campagna referendaria Leave.EU coordinata dal movimento per la Brexit, ma ebbe incarichi per circa 200 elezioni in tutto il mondo. Sebbene Facebook abbia proclamato la propria inconsapevolezza e innocenza riguardo ai fatti, questo rimane un punto di svolta nella storia del web. L’utilizzo degli studi psicometrici sui dati degli utenti e la loro aggregazione in variabili rendono chiaro il paesaggio che le piattaforme hanno voluto costruire attorno all’utente: una forma di sorveglianza attraverso l’individuazione di abitudini e comportamenti in rete, che permettano di creare una teoria su chi l’utente sia, oggettificandolo a mero consumatore-elettore. Il caso Cambridge Analytica si inseriva in un altro filone, quello delle fake news e della disinformazione presente sulle piattaforme. La libertà su cui gli stessi social network avevano costruito consenso e adesione si mostrava fragile davanti alla diffusione di notizie false, hate speech, filtri algoritmici che producono maggiore omologazione e costante polarizzazione dei contenuti user-generated, quali filter bubbles ed echo chambers. All’uso massiccio di notizie false e “discorsi d’odio” si è spesso fatto ricorso durante le campagne elettorali di molti Paesi, in particolare da movimenti nazionalisti ed estremisti, che attraverso account falsi e bots hanno rapidamente diffuso i propri contenuti in rete. Il Radicalisation Awareness Network, finanziato dall’Unione Europea, ha analizzato questo fenomeno e riportato come queste narrazioni popolino gli spazi più tradizionali dove vengono consumate e condivise informazioni, partendo dal “Dark Web” e arrivando alle maggiori piattaforme come Facebook, Twitter, YouTube, Instagram, Reddit.
Si può dire che casi come quello di Cambridge Analytica abbiano messo in luce in modo irreversibile la lenta e inesorabile trasformazione del web in una struttura centralizzata, che schiaccia l’originario progetto di condivisione di Berners-Lee sotto il peso degli interessi economici delle big tech, intrecciati a quelli meno espliciti della politica. L’utilizzo spregiudicato dei dati degli utenti a fini commerciali e il controllo dei servizi da parte di poche aziende ha provocato un sentimento di reazione che ha dato forma alla magmatica e difficilmente definibile tecno-utopia — in parte trasversalmente già reale — del Web 3.0. Le connessioni tra lo sviluppo di un’idea di web 3.0 e il rifiuto di parte della comunità tecnologica della compromissione con le logiche di profitto che caratterizza il web di seconda generazione sono evidenti; per questo, pensando al web di terza generazione, è quasi immediato il riferimento all’idea di decentralizzazione: il nuovo web avrebbe il compito, attraverso diversi strumenti innovativi, di restituire agli individui il controllo sui propri dati, sottraendo il potere alle grandi piattaforme e trasformando la relazione client–service in una relazione peer–to–peer. Protagonista di questo processo di riappropriazione sarebbe la tecnologia blockchain, in grado di garantire la memorizzazione dei dati in maniera distribuita e decentralizzata, facendo sì che nessuna singola entità possa controllare o manipolare unilateralmente le informazioni.
Estendere questo modello all’intero funzionamento della rete sarebbe il progetto visionario di alcune frange di teorici. Ma il web 3.0 non è solo tecno-utopia: sulla scia, ancora una volta, di un’intuizione del 2006 di Berners-Lee , il web di terza generazione, al tempo definito come “web semantico”, avrebbe compreso «una rete di informazioni collegate in modo significativo: ogni risorsa avrebbe dei “metadati”, che ne definiscono il contesto semantico, così da essere aggregate in base al loro contenuto.»
Nonostante il progetto di Berners-Lee avesse una forma differente, il Web semantico e Web 3.0 hanno finito in qualche modo per sovrapporsi nel momento in cui il Web per come lo conosciamo e sperimentiamo ha iniziato a servirsi di sistemi di Intelligenza Artificiale per ottimizzare i servizi offerti agli utenti, fornendo un risultato che, per quanto ottenuto in modo diverso e a partire da diversi strumenti, non si distingue così tanto dall’intuizione originaria dell’informatico britannico. Dunque, a prescindere dal progetto utopistico di completa transizione dal Web centralizzato delle grandi piattaforme, i sistemi di ricerca e navigazione “intelligenti” ipotizzate nel 2006 sono attualmente offerti dall’Intelligenza Artificiale e si sono pienamente integrati con la struttura centralizzata del web. Ma, più che nella visione politico-utopistica del Web 3.0, si inseriscono in una sua diffusione “tecnica” che è attualmente operante in modo disorganico: nonostante l‘inclusione all’interno del web attuale, si parla di web 3.0 quando ci si riferisce a Chatbot, ai diversi impieghi della blockchain, a criptovalute, NFT, smart contract e alle forme di costruzione di metaversi. Più che un’alternativa completa all’attuale struttura del Web, il Web 3.0 sembra dunque rappresentare, allo stato attuale, soltanto una somma di diverse applicazioni, certamente tutte ispirate da una tendenza alla decentralizzazione ma ancora totalmente immerse nella struttura 2.0.
Per questo motivo è complesso affermare con chiarezza cosa sia e in quale esatta direzione stia maturando il proprio sviluppo questa nuova forma che il web sta assumendo. Sebbene apra a mutevoli ed ambiziosi scenari, ciò non lo rende esente da critiche. Da alcuni, tra cui Elon Musk, viene classificata come una buzzword, una parola o un termine che dà l’impressione di avere una propria specificità, ma che in realtà è semplicemente diventato di moda in un determinato ambito di studio o di applicazione. Altri vi ci sono riferiti con il termine vaporwave, che nell’industria dei computer si riferisce ad un hardware o software annunciato e lasciato a data da definirsi, oppure mai completato ma mai smentito. Il fondatore dell’app di messaggistica Signal e co-autore del protocollo di criptazione Signal, usato da diverse applicazioni tra cui WhatsApp, ha affermato come la sfera dei servizi legati web 3.0 possa nuovamente organizzarsi in strutture centralizzate, cosa che in realtà sta già avvenendo su servizi che investono maggiormente nelle tecnologie blockchain, NFT e criptovalute.
Lo stesso Berners-Lee nel 2018 ha lanciato insieme al World Wide Web Consortium (W3C) un progetto di web decentralizzato, Solid (Social Linked Data), il cui obiettivo è rimettere al centro l’utente, la proprietà dei suoi dati e la sua privacy attraverso una piattaforma per applicazioni di dati collegati, in modo che nessun’altra entità terza si interponga nel ruolo di mediazione con i contenuti. Le applicazioni usate si avvalgono inoltre di standard aperti e interoperabili per dati e protocolli, permettendo all’utente di controllare accesso e spazio in cui vengono immagazzinati i dati. L’inventore del web avrebbe avuto l’idea di questo progetto proprio come reazione ai molti casi che coinvolgono la violazione della privacy degli utenti sulle grandi piattaforme: dall’esperimento dell’emotional contagion al caso Cambridge Analytica su Facebook, alle applicazioni sviluppate da Google ed Amazon per ascoltare i cambiamenti nella voce umana e le emozioni che ne vengono associate.
Negli ultimi anni, notevoli sforzi sono stati prodotti anche dalla community di utenti del web per ridare spazio a porzioni del web monopolizzate dalle grandi aziende. La creazione di spazi federati o decentralizzati, di cui gli esempi maggiori sono certamente identificabili in Mastodon, un social basato sullo stesso meccanismo di Twitter, o in Friendica e Peer Tube (le rispettive alternative a Facebook e YouTube), raccolgono già alcuni milioni di utenti. Ciò dimostra come da parte della comunità ci sia una volontà di rimettere in gioco il senso originario del web, quello che in quel lontano 30 aprile 1993 voleva essere ed è diventato un bene per tutti.
«Ho fatto un sogno riguardante il Web […] ed è un sogno diviso in due parti. Nella prima parte, il Web diventa un mezzo di gran lunga piú potente per favorire la collaborazione tra i popoli. Ho sempre immaginato lo spazio dell’informazione come una cosa a cui tutti abbiano accesso immediato e intuitivo, non solo per navigare ma anche per creare. Nella seconda parte del sogno, la collaborazione si allarga ai computer. Le macchine diventano capaci di analizzare tutti i dati sul Web, il contenuto, i link e le transazioni tra persone e computer. […] i meccanismi quotidiani di commercio, burocrazia e vita saranno gestiti da macchine che parleranno a macchine, lasciando che gli uomini pensino soltanto a fornire l’ispirazione e l’intuito. Il Web sarà un luogo in cui l’improvvisazione dell’essere umano e il ragionamento della macchina coesisteranno in una miscela ideale e potente» (Tim Berners-Lee, 1999)