Silvia Caianiello Rete, democrazia e complessità Laboratorio dell’ISPF, XVI, 2019 [3] DOI: 10.12862/Lab19CNS Nel 1964, Lewis Mumford, all’apice dei suoi studi sulla storia e sociologia della tecnologia, introduce una distinzione idealtipica tra due specie di tecnica. All’immagine artigianale della tecnica “democratica”, di piccola scala, centrata sulla creatività umana, fragile ma resiliente, contrappone la tecnica “autorita- ria”1. Autoritario non indica qui una forma di governo, ma una struttura – Ge- stell, si potrebbe dire con Heidegger2 – che può incistarsi in qualunque regime, tanto che «il sorgere della politica democratica negli ultimi secoli è stato sempre più nullificato dal risorgere di una tecnica autoritaria centralizzata». Il nuovo Leviatano è quello dei “grandi sistemi tecnici”3; la “megatecnica” portatrice di nuova schiavitù4, incarnata dall’organizzazione e razionalità centralizzata della grande industria fordista di primo novecento, reinterpretata nel “systems engi- neering” delle grandi reti elettriche e telefoniche5, saldatasi nella seconda guerra mondiale nel complesso militare-accademico-industriale, e secolarizzata nell’in- dustria dei computer, nell’era dei grandi calcolatori mainframe dell’IBM cui ancora Mumford si riferisce in quel saggio. Mumford non poteva immaginare che proprio in quello stesso anno IBM avrebbe introdotto un nuovo rivoluzionario principio costruttivo con il com- puter S/360, la SLT (Solid Logic Technology), il primo passo verso il circuito integrato che doveva aprire la strada ai personal computer6. Né che la stessa logica militare avrebbe condotto in quel medesimo anno Paul Baran – ingegne- re della Rand Corporation finanziata dall’esercito americano – a progettare un sistema di rete di comunicazione distribuita e adattiva7. Ossia due cardini del processo che porta alla nascita di internet8, il coronamento del nuovo assetto socio-tecnologico post-industriale o “post-moderno”9. Il rapido avvento di una tecnologia leggera ed accessibile, diffusa e ad altissima intensità di conoscenza, 1 L. Mumford, Authoritarian and Democratic Technics, in «Technology and Culture», 5, 1964, 1, pp. 1-8. 2 M. Heidegger, La questione della tecnica, tr. it., in Id., Saggi e discorsi, a cura di G. Vattimo, Milano, Mursia, 1980, pp. 5-27. 3 T.P. Hughes, The Evolution of Large Technological Systems, in W.E. Bijker - T.P. Hughes - T.J. Pinch (a cura di), The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology, Cambridge MA - London, The MIT Press, 1987, pp. 51-82. 4 L. Mumford, The Myth of the Machine. The Pentagon of Power, New York, Harcourt Brace Jo- vanovich, 1970, pp. 254, 280 (tr. it. Il pentagono del potere, Milano, Il Saggiatore, 1973). 5 T.P. Hughes, Rescuing Prometheus, New York, Vintage books, 1998. 6 D.C. Brock - D.A. Laws, The Early History of Microcircuitry: An Overview, in «IEEE Annals of the History of Computing», 34, 2012, pp. 7-19; H. Henderson, Encyclopedia of Computer Science and Technology, revised edition, New York, Facts on File, 2009, p. 227. È doveroso ricordare che il primo personal computer, almeno nel senso di un calcolatore capace di eseguire programmi (pur senza essere dotato di un sistema operativo) fu sviluppato negli stessi anni dalla Olivetti. La “Programma 101” entrò in produzione nel 1965. 7 P. Baran, On Distributed Communications Networks, in «IEEE Transactions on Communica- tions Systems», 12, 1964, pp. 1-9. 8 Si usa qui il termine rete per indicare internet e tutto l’insieme dei suoi overlayers, e semplicemente internet quando si designa solo la rete fisica di telecomunicazioni che connette più dispositivi o terminali. 9 D. Bell, Welcome to the Postindustrial Society, in «Physics Today», 29, 1976, pp. 46-49; cfr. Hughes, Rescuing Prometheus, cit., e infra, § 6. Rete, democrazia e complessità 3 capace di consentire la diretta «collaborazione e interazione tra individui e i lo- ro computer senza vincoli di collocazione geografica»10. A questo sogno democratico si sono ispirati i pionieri di internet e, dagli an- ni ’90, della World Wide Web, modello paradigmatico di “distruzione creatri- ce”11; un sogno che è sembrato adempiersi a metà degli anni 2000, quando al posto del “broadcast paradigm” della comunicazione di massa12, in cui l’utente è solo il consumatore finale della informazione filtrata e orientata dai media, si è fatta strada la “auto-comunicazione di massa”, in cui gli utenti sono tanto consumatori che produttori di informazione, come nell’esempio paradigmatico di Wikipedia13. Il risveglio da questo sogno è stato brusco; a livello collettivo, si può datarlo con il caso Snowden, che ha rivelato l’avvenuta saldatura tra i nuovi signori feudali della rete e il governo americano in un progetto di controllo psicopoliti- co, esteso, per ampiezza e profondità, ben oltre la portata della megatecnica “autoritario-democratica” denunciata da Mumford14. Di fronte a un simile esi- to, l’inconsistenza dell’idealtipo di una tecnologia intrinsecamente democratica rivela innanzitutto l’impossibilità di astrarre il progetto tecnologico dalle com- plesse dinamiche sociali, culturali, economiche, antropologiche e politiche di cui non può che intrecciarsi e complicarsi la sua evoluzione. La rete non è mai stata un luogo altro, nella cui extraterritorialità sperimentare inedite formule cyberutopiche15, ma sempre in primis «un’estensione della realtà sociale»16, e, allo stesso tempo, un nuovo ambiente, destinato a retroagire su di essa, e «ri- processare la psiche e la società» stesse17. 10 B.M. Leiner - D. Clark - R. Kahn - L. Kleinrock - D. Lynch - J. Postel - L. Roberts - S. Wolff, A Brief History of the Internet, in «ACM SIGCOMM Computer Communication Re- view», 39, 2009, pp. 22-31. 11 Cfr. J. Schumpeter, Capitalism, Socialism and Democracy (1942), London, Routledge, 1994, pp. 82-83; M. Castells, The Rise of the Network Society, II ed., Chichester (West Sussex) - Malden (MA), Wiley-Blackwell, 2009; cfr. J. Granick, The End of the Internet Dream, 2015, <https://www.stateofdigital.com/the-end-of-the-internet-dream/>, visto il 13/11/2019. 12 P. Simonson, Refiguring Mass Communication: A History, Urbana, University of Illinois Press, 2010. 13 Castells, The Rise, cit., p. XXX; nella definizione di Castells, nell’auto-comunicazione di massa l’informazione è “auto-generata” nei contenuti, auto-diretta nella emissione e auto- selezionata nella ricezione. Su Wikipedia cfr. infra, § 3. 14 Cfr. R. Mazzola, Note su internet e democrazia, in questo numero dello ISPF-LAB; B. Schneier, Data and Goliath, New York-London, W.W. Norton & Company, 2015. Cfr. E. Morozov, Tech Titans are busy privatising our Data, 2016, <https://www.theguardian.com/ commentisfree/2016/apr/24/the-new-feudalism-silicon-valley-overlords-advertising-necessary- evil>, visto il 13/11/2019, secondo il quale il nuovo feudalesimo «farà sembrare socialismo anche la privatizzazione sfrenata delle ultime decadi». Sull’analogia tra sistema feudale e Big Tech, cfr. B. Schneier, Data and Goliath, cit. 15 J.P. Barlow, A Declaration of the Independence of Cyberspace, 1996, <https://www.eff.org/ cyberspace-independence>, visto il 13/11/2019. 16 A. Baur-Ahrens, The Power of Cyberspace Centralisation. Analysing the Example of Data Territo- rialisation, in M. Leese - S. Wittendorp (a cura di), Security/Mobility. Politics of Movement, Manches- ter, Manchester University Press, pp. 37-56, p. 39. 17 M. McLuhan, cit. in R. Kidder, «Fifty thousand years is not very long»: The Tribal and the Information Age in the Beat Movement, in questo numero dello ISPF-LAB, cfr. n. 19. Silvia Caianiello 4 Si cercherà qui di rendere brevemente conto di almeno alcuni dei molteplici livelli causali coinvolti nell’evoluzione della rete, schematizzata secondo la pe- riodizzazione divenuta usuale di Web 1.0, Web 2.0 e di incipiente Web 3.0. Su questa base, si proverà nelle conclusioni a illustrare le tensioni che caratterizza- no il dibattito attuale su Web 3.0, concetto “liquido” in cui si proiettano solu- zioni e strategie diverse per restituire alla rete le sue potenzialità come strumen- to di democrazia, e in particolare quella tra approccio regolamentativo, da im- plementarsi attraverso la reintermediazione politica di agenzie e istituzioni de- dicate; e l’approccio ispirato a ciò che Morozov ha definito soluzionismo tecnologi- co, che riposa sull’assunto che l’uso democratico della rete possa essere sostan- zialmente iscritto nel suo “codice”. 1. Le origini del mito Se i miti hanno mai fonti identificabili, all’origine del mito di internet come tecnologia intrinsecamente democratica va posto il principio end-to-end, e il suo principale sottotesto, “smart endpoints and dumb pipes”. Il principio na- sce dall’esigenza di ottimizzare la trasmissione di dati in modo da renderla ro- busta a perturbazioni della infrastruttura di comunicazione. Nella rete telefonica, al tempo dominata negli Stati Uniti dalla compagnia AT&T, la comunicazione tra due utenti era gestita da un operatore umano, che li metteva in connessione concedendo loro l’occupazione totale di un circuito dedicato18. Una gestione centralizzata e costosa dei canali di comunicazione. Il nuovo modello si basa su un principio del tutto diverso. Si frammenta l’informazione in pacchetti e li si fa viaggiare su una rete distribuita, ossia una rete costituita di nodi equivalenti tutti connessi tra di loro. In una simile rete sono possibili molteplici connessioni da nodo a nodo, una “ridondanza” che consente ai pacchetti di aggirare gli eventuali ingorghi, occupando i canali di volta in volta liberi tra i molti presenti19. I nodi che negoziano il traffico hanno una intelligenza limitata, vedono soltanto lo stato dei nodi limitrofi e incorpo- rano solo la regola della “patata bollente”, ossia di liberarsi al più presto dei pacchetti. Proprio questa architettura rende possibile che la trasmissione si adat- ti dinamicamente a qualsiasi cambiamento nello stato complessivo della rete20. 18 Cfr. J. Abbate, Inventing the Internet, Cambridge (MA) - London, The Mit Press, 1999, p. 15. La nuova “filosofia” era così estranea alla logica d’impresa di AT&T che questa rifiutò di implementare ARPANET sulle sue linee (ivi, p. 135); cfr. Hughes, Rescuing Prometheus, cit., p. 274. 19 Cfr. Abbate, Inventing the Internet, cit., cap. 1; cfr. R. Pastor-Satorras - A. Vespignani, Evolu- tion and Structure of the Internet, Cambdrige, Cambridge University Press, 2004, pp. 2 sgg. 20 Baran, On Distributed Communications Networks, cit.: «una rete di commutatori digitali senza supervisione umana, capace di implementare una politica di autoapprendimento ad ogni nodo, senza bisogno di punti di controllo centrali e dunque vulnerabili, di modo che l’intero traffico sia instradato efficacemente in un ambiente cangiante». Cfr. P. Baran, Reliable Digital Communica- tions Systems Using Unreliable Network Repeater Nodes, Report P-1995, Rand Corporation, 1960, p. 3: «The intelligence required to switch signals to surviving links is at the link nodes and not at one or a few centralized switching centers». Baran fu ispirato dalla “maze solving machine” Rete, democrazia e complessità 5 Grazie all’instradamento dinamico (dynamical routing), la rete si configura co- me un evolving complex system: un sistema del quale, per quanto se ne conoscano i componenti e le semplici regole che ne governano le interazioni, non si può prevedere «quale sarà la struttura globale una volta messi insieme i pezzi»21. Il design della “distributed adaptive message block network”, formalizzato da Baran nel 1964, rispondeva, in piena guerra fredda, all’esigenza militare di ga- rantire la continuità della comunicazione (cifrata) anche nel caso che un attacco nucleare avesse distrutto parti consistenti della rete. Per questa stessa logica, Baran scartava sia il design centralizzato, dove la distruzione dell’unico punto di controllo avrebbe comportato la perdita totale della comunicazione, che quello decentralizzato (Figura 122). P. Baran, On Distributed Communications Networks, 1964 In questo senso precipuamente tecnico, decentralizzato indica un’architet- tura policentrica, in cui singoli nodi periferici sono connessi a un nodo cosid- detto “a stella”, hub regionali che mediano la comunicazione con altri nodi si- mili che costituiscono la dorsale della rete, colpendo i quali se ne sarebbero isolate intere regioni. Questa distinzione è importante per l’evoluzione della costruita da Claude Shannon nel 1952, nella quale un topo elettromeccanico apprende a uscire da un labirinto. Cfr. l’eccellente documentario Internet Revolution del 27/11/2014, <https://www.youtube.com/watch?v=eTsNIfBR-dc&list=FL76UirHAz-jccb_LAowdqMg& index=4>, visto il 13/11/2019. 21 A.-L. Barabási, Linked. The New Science of Networks, Cambdrige (MA), Basic Books, 2002, pp. 149-150 (tr. it. Linked. La nuova scienza delle reti, Torino, Einaudi, 2004). 22 Quella progettata da Baran è un particolare tipo di rete distribuita, in cui la connessione avviene esclusivamente con i nodi più vicini; cfr. M. Quiniou, Blockchain. The Advent of Disinter- mediation, London - Hoboken (NJ), ISTE - John Wiley & Sons, 2019. Per altri modelli di reti distribuite cfr. X. Ge et al., Distributed Networked Control Systems: A Brief Overview, in «Information Sciences», 380, 2017, pp. 117-131. Silvia Caianiello 6 rete, e tavolta fonte di confusione quando si invoca un modello di rete decen- tralizzata come prototipo di rete intrinsecamente democratica23. Il nesso originario tra principio end-to-end e rete distribuita è una fonte im- portante del mito. L’analogia con un regime di comunicazione democratico sembra ben attagliarsi a una infrastruttura che collega nodi paritetici, nessuno dei quali domina sugli altri; e nella quale, soprattutto, mentre i pacchetti dell’in- formazione frammentata viaggiano per percorsi diversi in modo adattivo, il “senso” – l’interezza del messaggio – resta invisibile alla rete. Solo gli “smart endpoints”, la fonte e l’utente finale, che possiede il software per riassemblare i pacchetti, possono vederlo. Sarà Arpanet, la rete costruita nell’alveo della ricerca militare dell’ARPA statu- nitense a partire dal 1969, la prima a implementare il modello di Baran. In questa implementazione, i “nodi” di Baran diventano computer dedicati, “router” (come gli IMP, Interface Message Processors), i commutatori che ge- stiscono i flussi di pacchetti di informazione e sono dunque responsabili della funzione di comunicazione, senza tuttavia conservare memoria dell’informazione tramessa. Il livello della comunicazione è così dissociato da quello della conser- vazione e gestione dell’informazione, conservata dai computer “hosts” (inizial- mente i grandi mainframe) cui i router sono connessi. Questa dissociazione rende possibile a computer e sistemi operativi forte- mente eterogenei di collegarsi alla rete24. Il principio basilare di divisione e stra- tificazione (layering) di funzioni favorisce innanzitutto quella flessibilità della rete che è alla base della sua rapidissima crescita, e allo stesso tempo, in quanto impedisce a danni che eventualmente si verifichino a un livello di propagarsi ad altri, incorpora a livello di design le garanzie di robustezza e sopravvivibilità che avevano già motivato Baran, anche se l’orientamento di internet si volge presto a scopi non militari25. Il livello della comunicazione viene potenziato attraverso l’elaborazione di una suite di protocolli universali (TCP/IP26). IP, Internet Protocol, gestisce l’indirizzamento dei pacchetti tra macchine diverse, identificate dal nome uni- voco conferito ad ogni nodo della rete; e TCP, Transmission Control Protocol, spezzetta i messaggi alla fonte e li riassembla a destinazione, e gestisce eventua- li problemi di trasmissione. I protocolli TCP/IP sono la chiave di volta dell’architettura aperta di inter- net. Resero possibile, attraverso computer gateway dedicati, lo internetting, la tra- 23 Cfr. Quiniou, Blockchain, cit., cap. 1; la confusione è frequente, si veda per es. il peraltro validissimo saggio di A.J. Mathew, The Myth of the Decentralised Internet, in «Internet Policy Revi- ew», 5, 2016, 3. 24 Tra fine anni ’70 e metà anni ’80 circolavano circa 70 sistemi operativi diversi; cfr. M. Portnoy, Virtualization Essentials, Indianapolis, Sybex, 2016, p. 3. 25 Leiner et al., A Brief History, cit. 26 I protocolli, sviluppati da Vint Cerf e Bob Khan alla DARPA nel 1974 divennero universali anche perché furono imposti come standard da NSFNET, la rete pubblica a lungo raggio finanziata dalla National Science Foundation americana, cfr. Pastor-Satorras - Vespi- gnani, Evolution, cit., p. 7. Rete, democrazia e complessità 7 smissione e traduzione di pacchetti generati dalle reti locali di varie istituzioni e aziende che si erano andate rapidamente moltiplicando, senza interferire sulle loro scelte di design; ma anche e soprattutto una infrastruttura general purpose, sulla quale è agevole implementare nuovi strati, servizi di rete over the top, a par- tire da file transfer protocol (FTP) e posta elettronica (1971), fino, negli anni 1990, a World Wide Web. Ragionevoli dubbi sono stati sollevati sul problema se l’architettura di inter- net sia mai stata democratica27, genuina fonte di quella disintermediazione vei- colata dalla congiunzione del principio end-to-end e della rete distribuita. Di- fatti, già nelle sue primissime configurazioni, internet presentava diversi punti di controllo burocratico-amministrativi, luoghi di potenziale esercizio di potere. La domanda è evidentemente retrospettiva: la storia recente mostra che queste potenzialità si sono tutte regolarmente realizzate, così come quelle intrinseche ai molti altri punti di controllo sorti all’aggiunta di ogni nuovo strato o servi- zio28. Il controllo politico di internet si è spostato sempre più a livello delle in- frastrutture, un processo nel quale i molteplici punti di controllo si sono spesso trasformati in veri e propri choke points, fino a inficiare il principio stesso di dumb pipes 29. Ma anche nella sua fase iniziale, internet conosce presto una transizione dal- la rete distribuita ideata da Baran alla topologia decentralizzata e gerarchica che questi aveva scartato. Questo processo avviene senza soluzione di continuità sia nella fase pubblica della rete che dopo la sua privatizzazione dal 199330, 27 Mathew, The Myth, cit. 28 Y. Benkler, Degrees of Freedom, Dimensions of Power, in «Daedalus», 145, 2016, 1, pp. 18-32. 29 Cfr. F. Musiani - D.L. Cogburn - L. DeNardis - N.S. Levinson (a cura di), The Turn to In- frastructure in Internet Governance, New York, Palgrave MacMillan, 2016. Un esempio di “punto di controllo” potenziale divenuto oggi uno strumento essenziale della “governance by infrastruc- ture” è il Domain Name System (DNS), l’ “elenco telefonico” globale che contiene tutti gli indirizzi IP – ed ha la funzione cruciale di tradurre la URL di WWW al livello di rete internet, ossia in IP (cfr. L. DeNardis e F. Musiani, Governance by Infrastructure, e F. Musiani, Alternative Technologies as Alternative Institutions: The Case of the Domain Name System, in Musiani et al., The Turn, cit., pp. 25-46 e 73-88); DNS è dunque una “truly global authority” sulla intera rete (J. Goldsmith - T. Wu, Who Controls the Internet? Illusions of a Borderless World, Oxford, Oxford Uni- versity Press, 2006, p. 168; tr. it. I padroni di Internet. L’illusione di un mondo senza confini, Milano, Rgb area 51, 2006). Ideato da Jon Postel nel 1983 per far fronte alla crescita di internet, la sto- ria della gestione del DNS testimonia del fallimento dell’iniziale progetto di autogoverno della rete, ed è in seguito divenuta oggetto di conflitto e negoziazioni tra gli Stati Uniti e gli altri Stati (cfr. J. Litman, The DNS Wars: Trademarks and the Internet Domain Name System, in «Journal of Small and Emerging Business Law», 4, 2000, 1, pp. 149-166). Infatti, DNS ha l’autorità per bloccare l’accesso a qualunque sito sia ritenuto illegale, e ha avuto un ruolo cruciale nella vi- cenda di WikiLeaks del 2010, quando su richiesta del governo il provider EveryDNS ne oscurò il sito. Alcuni stati, come la Cina, detengono il controllo del proprio DNS, e la Russia sta pro- gettando il proprio. Cfr. D.L. Cogburn, The Multiple Logics of Post-Snowden Restructuring of Internet Governance, e K. Merrill, Domains of Control: Governance of and by the Domain Name System, in Musiani et al., The Turn, cit., pp. 25-46 e 89-106; Henderson, Encyclopedia, cit., p. 158; S. Brad- shaw, L. DeNardis, The politicization of the Internet’s Domain Name System: Implications for Internet Security, Universality, and Freedom, in «New Media and Society», 20, 2016, 1, pp. 332-350. 30 Come è ben noto lo sviluppo della rete – come d’altra parte quello dell’intera scienza dei computer (cfr. M. Mazzucato, Lo stato innovatore, Roma-Bari, Laterza, 2014) – è stato finanziato Silvia Caianiello 8 quando alla razionalità tecnico-amministrativa della prima era della burocrazia digitale31 si aggiunge la logica commerciale competitiva degli ISP (Internet Ser- vice Provider): i nodi della rete cessano di essere spazialmente cadenzati ed equivalenti come in Baran, per acquisire proprietà e capacità diverse, rendendo la logica della connessione non più casuale, ma “preferenziale”. Alla differenziazione funzionale dei nodi contribuiscono molteplici fattori, come il costo proibitivo dei cavi a lungo raggio, e la distribuzione dei router sul territorio in ragione non della sola distanza, ma anche della densità della popo- lazione e dunque della domanda. La negoziazione tra istanze tecniche ed eco- nomiche32 portò rapidamente a una gerarchizzazione della rete in tre grandi livelli, con distinte competenze e capacità tecnologiche sia hardware che soft- ware. Il livello delle comunicazioni a lungo raggio, ossia la dorsale nazionale e transnazionale33; il livello regionale e quello delle reti locali di area, ciascuno dipendente dal precedente. Le reti più piccole sono motivate nella scelta non solo dall’accesso alla “dorsale” dei cavi a lungo raggio, ma anche da altri criteri, come l’ampiezza di banda, la stabilità della connessione e i sistemi di sicurezza più performanti. Con la privatizzazione della rete e l’ingresso degli ISP, la logi- ca dell’“attaccamento preferenziale” privilegia i nodi più competitivi, e porta alla rapida eliminazione dei giocatori più piccoli tra gli ISP (Internet Service Provider)34. In questo processo, il principio end-to-end si rivela dunque agevolmente separabile dall’architettura distribuita della infrastruttura di rete. Quella che si usa definire Web 1.0 – dal lancio nel 1991 ai primi anni 2000 – nasce, come è noto, al CERN di Ginevra. In questo contesto accademico, la dalla ricerca militare, dal lancio nel 1983 dei protocolli TCP/IP fino alla sua privatizzazione a partire dal 1993. In Italia il primo collegamento a Internet fu nel 1986. Cfr. L. Abba - A. Di Corinto (a cura di), Il futuro trent’anni fa: quando Internet è arrivata in Italia, Manni, Lecce, 2017. 31 Cfr. C. Muellerleile - S.L. Robertson, Digital Weberianism: Bureaucracy, Information, and the Techno-rationality of Neoliberal Capitalism, in «Indiana Journal of Global Legal Studies», 25, 2018, 1, pp. 187-216, che sottolineano la continuità della nuova incarnazione digitale con la rappre- sentazione weberiana della burocrazia, ispirata ad una logica di “efficienza” e ottimizzazione e, almeno alle origini, legittimata da una assunta “oggettività” e neutralità della tecnologia. D’altra parte già Herbert Simon aveva affermato che «the computer is the perfect tool for simulation because it is the perfect bureaucracy», cit. in P. Mirowski, Machine Dreams: Economics Becomes a Cyborg Science, Cambridge, Cambridge University Press, 2002, p. 453. Cfr. anche D. Graeber, The Utopia of Rules. On Technology, Stupidity, and the Secret Joys of Bureaucracy, Brooklin-London, Melville House, 2015. 32 Cfr. W. Willinger - D. Alderson - J.C. Doyle, Mathematics and the Internet: A Source of Enor- mous Confusion and Great Potential, in «Notices of the American Mathematical Society», 56, 2009, 5, pp. 586-599, che traggono dalla considerazione realistica dei diversi vincoli reali della rete una correzione del modello scale-free di Barabási (cfr. infra). 33 Si tratta della rete a lungo raggio NSFNET finanziata dalla National Science Foundation americana con lo scopo di connettere i grandi centri di computazione di tutto il mondo, principalmente per servire la comunità accademica. 34 Mathew, The Myth, cit. Il processo fu peraltro agevolato dalla pressione delle lobby TELCO. Rete, democrazia e complessità 9 finalità di WWW è la costruzione di una “web of knowledge”35 che faciliti la condivisione di risorse nella comunità scientifica, a partire da quella locale dei fisici delle alte energie. Il nuovo strato – il più rivoluzionario – si ispira a una nuova dimensione di interattività da parte dell’utente, veicolata dalla struttura dell’ipertesto, una arti- colazione dei contenuti accessibili attraverso rimandi incrociati tra molteplici documenti web (cfr. infra, § 3). Nel Web 1.0, l’interattività è tuttavia ancora limitata ad una navigazione in- dividualizzata dell’utente tra le risorse archiviate. Il principale artefice di World Wide Web, Tim Berners-Lee, sviluppa il linguaggio HTML (HyperText Mar- kup Language) per la redazione di ipertesti, inizialmente pagine statiche che contengono molteplici links che rimandano ad altre pagine archiviate. I docu- menti sono conservati in un computer host del server, e l’utente finale, il client rappresentato da un software di navigazione o browser sul computer terminale, attiva la comunicazione cliccando sul link, che contiene l’indirizzo che identifi- ca il documento, di solito una URL (Uniform Source Locator). La richiesta – attraverso il protocollo di comunicazione client-server detto HTTP (Hyper- Text Transfer Protocol) – viene inviata dal browser al servizio Domain Name Server, che ne fornisce la traduzione in indirizzo IP. La richiesta raggiunge così il file conservato nel server, che viene reso visibile sul computer client. Per quanto la trasmissione fisica dell’informazione sia sempre gestita con il principio end-to-end, nel caso del WWW l’asimmetria tra i nodi è originaria. È evidente che nell’architettura client/server i nodi non sono sin dall’inizio eguali né per funzione né per grado (quantità) di connessioni. Il rapporto client/server è molti a uno, e i server web accentrano molte, e sempre più, fun- zioni: da quella di conservare i documenti (hosting), a quella, sempre più cru- ciale con l’esponenziale crescita dei contenuti, di motore di ricerca. 2. Evoluzione della complessità: modelli teorici e vincoli economico-politici La dimostrazione del fatto che sia internet che il WWW avessero acquisito un’architettura decentralizzata e policentrica fu fornita dalla scienza delle reti già alla fine degli anni ’90, insieme con una interpretazione della loro topologia che confutava almeno in parte l’assunto di Baran di una maggiore vulnerabilità. La scienza delle reti è un campo di ricerca interdisciplinare che utilizza strumenti matematici e statistici per studiare i sistemi complessi, ossia quei si- stemi il cui comportamento collettivo non è predicibile a partire dai singoli componenti: comportamenti coesivi e stabilizzanti, come forme emergenti di ordine, organizzazione e consenso, quanto fenomeni destabilizzanti altrettanto non lineari, a rapidissima diffusione, come pandemie, collassi parziali o cata- strofici del sistema stesso. Questo approccio consente di studiare i processi di autoorganizzazione che generano vari tipi di fenomeni collettivi analizzando la “topologia”, l’architettura delle relazioni che si stabiliscono tra i componenti astraendo dal dettaglio della loro specifica natura e caratteristiche, ed è dunque 35 G. Caldarelli, Scale-Free Networks, Oxford, Oxford University Press, p. 200. Silvia Caianiello 10 un potente strumento formale applicabile a qualsiasi tipo di sistema complesso, naturale come artificiale36. Agli albori della nuova disciplina, il gruppo di Barabási analizzò il World Wide Web in modo dinamico, ricercando cioè le ragioni della sua topologia attuale nel meccanismo della sua crescita, dovuta all’aggiunta continua di nuovi componenti e connessioni. Scoprì così che il WWW era cresciuto in modo tutt’altro che distribuito, attraverso un processo di “preferential attachment” detto anche “rich gets richer”, grazie al quale si produce una distribuzione delle connessioni secondo la legge di potenza (power law). La sua topologia appariva cioè caratterizzata da pochi nodi di alto grado (con moltissime connessioni) che funzionano da “hub”, attraggono sempre più connessioni, mentre la mag- gior parte dei nodi resta di basso grado (con pochissime connessioni) 37. Questa è la topologia che si usa definire “scale-free”, perché la misura (il grado) dei vari nodi non è riconducibile ad una scala comune. Inoltre, visto che questa topologia caratterizza il modo stesso in cui il WWW cresce, era possibile predi- re che questa architettura sarebbe rimasta qualitativamente invariante anche con l’ulteriore ingrandirsi della rete. Questa architettura “decentralizzata” in pochi hub è robusta ad attacchi non intenzionali, nella misura in cui la funzionalità del WWW viene preservata an- che dopo l’eliminazione della maggior parte dei nodi, perché la probabilità che una perturbazione coinvolga gli hub è molto bassa. Tuttavia, l’analisi di Baran veniva confermata nella misura in cui un attacco non casuale ma “mirato” agli hub stessi porta ad un collasso rapido dell’intero sistema. Un esempio di questa fragilità è la facilità con la quale si diffondono le epidemie in questo tipo di reti. Virus – come quelli informatici, i cyberattacchi di varia origine di cui il WWW fece presto esperienza – si propagano rapidamente per l’alta probabilità di rag- giungere e infiltrarsi ripetutamente negli hub38, gli snodi del sistema. Una dina- mica che evidentemente innesca una arms race che spinge allo sviluppo di tecno- logie di controllo sempre più complesse e onerose39. Un’altra ragione dell’efficienza di questo tipo di reti è che preservano una proprietà importante, comune anche a reti in cui le connessioni sono casuali e non preferenziali: ossia la proprietà detta “small world”40. Anche se la rete è 36 Cfr. G. Caldarelli - M. Catanzaro, Scienza delle reti, Milano, Egea, 2016; S.N. Dorogovtsev - J.F.F. Mendes, Evolution of Networks: From Biological Networks to the Internet and WWW, Oxford, Oxford University Press, 2013; Pastor-Satorras - Vespignani, Evolution, cit. 37 Barabási, Linked, cit. Negli stessi anni la stessa topologia scale-free veniva dimostrata an- che per internet, cfr. M. Faloutsos - P. Faloutsos - C. Faloutsos, On Power-law Relationships of the Internet Topology, in «ACM SIGCOMM Computer Communication Review», 29, 1999, 4, pp. 251-262. 38 Nelle reti scale-free anche “virus deboli” – ossia con soglia bassa – si diffondono e persi- stono indefinitamente, come dimostrato da R. Pastor-Satorras - A. Vespignani, Epidemic Dyna- mics and Endemic States in Complex Networks, in «Physical Review E», 63, 2001, 6, pp. 066117-1-8. 39 Schneier, Data and Goliath, cit. 40 Questa proprietà, nota anche come “sei gradi di separazione” (come molte altri concetti chiave della scienza delle reti: cfr. S.P. Borgatti - A. Mehra - D.J. Brass - G. Labianca, Network Analysis in the Social Sciences, in «Science», 323, 2009, pp. 892-895), fu scoperta dapprima nello Rete, democrazia e complessità 11 molto estesa, un qualsiasi punto è raggiungibile da qualsiasi altro traversando un piccolissimo numero di nodi. Studi successivi hanno mostrato l’alta ricor- renza delle reti a invarianza di scala in un gran numero di sistemi biologici e artificiali prodotti dalla ingegneria avanzata, ossia sempre più biomimetici per grado di complessità41. Tuttavia è proprio nell’analisi del caso Google che Barabási individua un meccanismo passibile di deviare il WWW da una topologia decentralizzata, sca- le-free. Mentre il modello scale-free parte da una situazione iniziale di nodi as- sunti come equivalenti, che evolvono verso la decentralizzazione in hubs che attraggono sempre più connessioni in gran parte grazie alla rendita di posizione dei primi arrivati, Google con il suo rivoluzionario algoritmo PageRank (1998) mostrava che un nuovo arrivato poteva velocemente divenire dominante. In collaborazione con Bianconi, Barabási modifica allora il modello attribuendo ai nodi delle caratteristiche eterogenee e dunque più realistiche, espresse in termi- ni di differenze di fitness, proprietà intrinseche che differenziano i nodi deter- minandone il grado di attrattività42. Il risultato di questo nuovo “fitness-based model” è che le reti possono evolvere verso una topologia non più scale-free, ossia quella di “asso pigliatutto” (winner takes all): una topologia centralizzata in cui un solo nodo prende tutti i links «non lasciandone nessuno ai restanti nodi»43. Questa fenomenologia descrive con precisione quanto è avvenuto all’ingres- so di Google sul mercato dei motori di ricerca, a pochi anni di distanza dalla privatizzazione della rete, con la costituzione dunque del necessario ambiente competitivo. Dieci anni dopo il suo lancio, Google domina la scena dei motori di ricerca con il 65% del mercato. Nel 2016, l’intero mercato della pubblicità digitale è dominato per l’85% dai due colossi Google e Facebook44. Amazon, sulla scena dal 1995, domina il mondo dello e-commerce già dai primi anni 2000. Dall’ef- fervescente mondo della bolla dot.com degli anni ‘90 del secolo scorso sono emersi nel mondo digitale una costellazione di monopoli dotati di una inquie- studio delle reti sociali. Cfr. S. Milgram, The Small-World Problem, in «Psychology Today», 1, 1967, pp. 60-67; sugli sviluppi recenti del modello di Milgram in particolare nella sua applica- zione a reti sociali digitali come Facebook, cfr. L. Backstrom - P. Boldi - M. Rosa - J. Ugander - S. Vigna, Four Degrees of Separation, in Proceedings of the 3rd annual ACM Web Science Conference, New York, ACM, 2012, pp. 33-42. 41 Cfr. M.E. Csete - J.C. Doyle, Reverse Engineering of Biological Complexity, in «Science», 295, 2002, pp. 1664-1669; S. Caianiello, Prolegomena to a History of Robustness, in M. Bertolaso - S. Caianiello - E. Serrelli (a cura di), Biological Robustness, Cham, Springer, 2018, pp. 23-54. 42 G. Bianconi - A.-L. Barabási, Bose-Einstein Condensation in Complex Networks, in «Physical Review Letters», 86, 2001, 24, pp. 5632-5635. 43 Barabási, Linked, cit., p. 102. 44 C. Barabas - N. Narula - E. Zuckerman, Defending Internet Freedom through Decentralization: Back to the Future?, The Center for Civic Media & The Digital Currency Initiative MIT Media Lab, 2017, all’URL: <https://static1.squarespace.com/static/59aae5e9a803bb10bedeb03e/t/ 59ae908a46c3c480db42326f/1504612494894/decentralized_web.pdf>, visto il 13/11/2019. Silvia Caianiello 12 tante capacità di autosostenersi in posizioni di mercato inattaccabili da nuovi competitori45. Il carattere intrinseco del nuovo capitalismo delle piattaforme contiene gran parte della spiegazione della transizione da “rich gets richer” a “winner takes all”. Come sintetizza Wu, l’invenzione competitiva produce velocemente un nuovo “master switch”46. Nel capitalismo delle piattaforme, nel quale il valore dipende direttamente dal numero di utenti connessi, tale invenzione consiste in una nuova formula di intermediazione che mette in comunicazione due mercati (utenti e pubblicitari per Google e Facebook, consumatori e produttori in Amazon, passeggeri e autisti in Uber etc.), e che subito innesta un meccanismo di autoalimentazione, un loop di feedback positivo nel quale «gli effetti di rete si autoalimentano in quanto utenti da ognuno dei due lati (del mercato) gene- rano utenti dall’altro»47. Il capitalismo delle piattaforme, con i suoi costi margi- nali vicini allo zero, è attualmente il massimo beneficiario della società “colla- borativa”48, la cui forza lavoro gratuita sono gli utenti stessi, i quali «nelle loro nicchie conversazionali isolano informazione di qualità per algoritmi che la classificano e la rendono disponibile per la ricerca»49; e che di contro genera una quantità risibile di lavoro salariato rispetto al capitalismo novecentesco. Per quanto la transizione ad un assetto monopolistico appaia per molti versi intrinseca alla specificità del capitalismo delle piattaforme, è fondamentale prendere in considerazione un ulteriore livello del discorso, quello delle condi- zioni di contorno politiche rispettivamente all’origine e nello sviluppo della re- te. Infatti, non trascurabili fattori di natura estrinseca hanno favorito l’attenua- zione di quell’ ambiente competitivo che alle origini aveva avvalorato il fitness model della crescita del WWW. Nello stesso anno in cui Larry Page e Sergey Brin sviluppano PageRank50, il 1996, viene sospeso il decreto antitrust che nel 1982 aveva smembrato il colos- 45 P. Barwise, Nine Reasons Why Tech Markets are Winner-take-all, in «London Business School Review», 29, 2018, pp. 54-57. 46 Cfr. T. Wu, The Master Switch: The Rise and Fall of Information Empires, London, Atlantic Books, 2013; N. Srnicek, Platform Capitalism, New York, John Wiley and Son, 2017 (tr. it. Capitalismo digitale: Google, Facebook, Amazon e la nuova economia del web, Roma, LUISS University Press, 2017); S. Quintarelli, Capitalismo immateriale. Le tecnologie digitali e il nuovo conflitto sociale, Torino, Bollati Boringhieri, 2019. 47 Barwise, Nine reasons, cit. 48 Cfr. J. Rifkin, La società a costo marginale zero, Milano, Mondadori, 2017. 49 F. Musiani, Governance by Algorithms, in «Internet Policy Review», 2, 2013, 3, p. 3. Sull’ef- fetto dirompente della filosofia “free lunch” di Google sul mercato ICT, cfr. Wu, The Master Switch, cit.; per una critica dettagliata recente della retorica della democratizzazione che veicola, cfr. G. Gilder, Life After Google, Washington D.C., Regner Gateway, 2018, e più in generale S. Zuboff, The Age of Surveillance Capitalism, New York, PublicAffairs, 2019. 50 Il progetto fu sviluppato inizialmente con le macchine e i fondi dell’università di Stanford dove Page e Brin erano dottorandi; è qui che, nel 1996, fecero, per sviluppare e testare il nuovo algoritmo, una copia dell’intera WWW, senza che nessuno – né loro né i loro mentori – percepisse il bisogno di una qualche forma di autorizzazione. Cfr. Wu, The Master Switch, cit. Sulla storia di Google, cfr. D.A. Vise - M. Malseed, The Google Story, New York, Delacorte Press, 2005. Rete, democrazia e complessità 13 so della telefonia americana, AT&T51. Le date sono interessanti, perché, secon- do l’analisi di Wu, le politiche antimonopolistiche dell’amministrazione Reagan ebbero un ruolo non secondario nel creare le condizioni propizie per lo svilup- po della rete a inizio anni ’80. La ventata di deregolazione corrisponde all’in- fluenza crescente del neoliberismo della scuola di Chicago dagli anni ‘7052. La mossa dell’amministrazione Clinton va però intesa piuttosto come una evoluzione che come un cambiamento di rotta dell’approccio liberista, come dimostra la demilitarizzazione e privatizzazione di NSFNET, e il tentativo, per quanto ambiguo, di privatizzare anche il Domain Name System sotto la sua presidenza. Non a caso, il successore di Clinton, Bush Jr., autorizzò nel 2002 la National Security Agency a monitorare le transazioni su rete dei cittadini ame- ricani senza mandato53. Bush colse per tempo il vantaggio politico del nuovo assetto monopolistico per i governi, che potevano più facilmente attingere dati da punti di controllo centralizzati, stimolando una saldatura che oggi trova i suoi limiti solo nella dimensione crescentemente geopolitica del confronto54. Non sorprende che nessuna legislazione antimonopolistica abbia ancora effica- cemente sfidato i giganti tecnologici della rete, neppure di fronte all’evidenza dei processi di integrazione verticale in corso, come l’acquisizione della logisti- ca della distribuzione da parte di Amazon, e, specie dopo l’avvento del cloud computing, della fibra transcontinentale da parte di Google e altri colossi55. Tuttavia, il problema di che tipo di misure risulterebbero efficaci nel disinne- stare il loop di autoalimentazione che sostiene il capitalismo delle piattaforme è uno dei temi più complessi e controversi nel dibattito in corso sulle strategie per la democratizzazione della rete (cfr. infra, § 8). Nella sua analisi di WWW, Barabási mise in luce anche una conseguenza inat- tesa della sua topologia, che discende dalla specifica natura delle connessioni (gli archi, edges, che connettono i nodi). A differenza che nelle reti sociali, le connessioni di WWW sono per lo più unidirezionali, hanno dunque le caratte- 51 Cfr. Wu, The Master Switch, cit. Altro evento importante del 1996 fu il Communications Decency Act, che stipulava che le piattaforme online – al contrario di quelle analogiche – non fossero responsabili legalmente del contenuto postato dai loro utenti. Cfr. Zuboff, The Age of Surveillance, cit., «This absence of law made private companies attractive partners for govern- ment actors bound to democratic constraints». 52 Ivi; sulla storia del Sistema telefonico americano cfr. L. Galambos, Looking for the Bounda- ries of Technological Determinism: A Brief History of the U.S. Telephone System, in R. Mayntz - T.P. Hughes (a cura di), The Development of Large Technical Systems, Frankfurt, Campus, 1988, pp. 105- 134. 53 Wu, The Master Switch, cit. 54 Cfr. Goldsmith - Wu, Who Controls the Internet?, cit.; Baur-Ahrens, The Power, cit.; World War Web. The Fight for the Internet’s Future, numero monografico della rivista «Foreign Affairs», 97, 2018, 5. 55 V. Carlini, Usa-Cina, la guerra segreta sotto i mari per controllare i cavi delle telecomunicazioni, in «Il sole 24 ore», 30 settembre 2019, descrive le politiche in questo senso oltre che di Google (già dal 2010) ora anche di Amazon, Facebook e Microsoft. Silvia Caianiello 14 ristiche di quello che nella teoria matematica si definisce un grafo diretto56. Concretamente, questo avviene perché il client – nella fattispecie, il nodo pic- colo e poco connesso – manda un link alla URL del server, ma questi non ri- sponde allo stesso modo al client (che non è una URL, non avendo identifica- tivo personale sulla rete57), si limita a fornirgli il servizio richiesto. La complessa topologia che ne deriva è una sottoclasse di rete scale-free che ha il nome di bow-tie. Essa ha accentuate caratteristiche di robustezza, ma ha allo stesso tem- po anche una conseguenza controintuitiva: ossia che molta parte della rete re- sta invisibile ai grandi hub, nella fattispecie i grandi motori di ricerca che sono alla base del potere dei grandi feudatari. Questa scoperta incrina l’universalità dell’assunto small world, che di fatto resta limitato all’orizzonte della rete visibile, la quale risulta così un mero frammento, il solo accessibile, della rete reale58. Questo significa che il villaggio globale è divenuto, con il WWW, un mondo straordinariamente ristretto. Ma, soprattutto, significa che Google e gli altri grandi operatori (lista che comprende ormai, oltre alle grandi corporations americane come Amazon, Microsoft etc., anche i monopoli fortemente dipen- denti dallo stato che vigono in altri paesi, come Baidu in Cina e Yandex in Rus- sia) non hanno solo il potere di filtrare l’informazione rilevante – attraverso algoritmi la cui pretesa di oggettività tecnica è risultata frattanto ampiamente illusoria, e tutt’altro che esente da espliciti intenti economici e politici59; oltre che di incamerare dati, inclusi quelli personali e sensibili, divenendone più ric- chi ad ogni nuova ricerca e servizio erogato. Il meccanismo moltiplicatore per il quale ciò che è visto diviene sempre più visto, ha l’effetto di circoscrivere di fatto anche il mondo del socialmente visibile. Il walled garden del più popolare diviene per l’utente tutta la realtà. 56 Cfr. anche J. Johnston, Network Theory and Life on the Internet, in «JAC. A Journal of Rheto- ric, Culture, & Politics», 24, 2004, 4, pp. 881-899. Un esempio di grafo diretto in ecologia è quello tra predatori e prede. 57 Cfr. H. Halpin, Decentralizing the Social Web. Can Blockchains Solve Ten Years of Standardization Failure of the Social Web?, in S.S. Bodrunova et al. (a cura di), Internet Science. INSCI 2018 Interna- tional Workshops, Revised Selected Papers, Lecture Notes in Computer Science, n. 11551, Cham, Springer International Publishing, 2019, pp. 187-202, p. 190. 58 Le dimensioni del Deep Web o web sommerso non sono tuttora pienamente quantificabili, ma c’è convergenza sul fatto che la rete di superficie non sia che una parte infinitesimale della sua grandezza (almeno 5-600 volte maggiore). Di questa Deep Web solo una minima porzione è resa volutamente invisibile, quella composta da reti di compagnie private o da agenzie governative, nonché dall’ampio arcipelago della Dark Net. 59 Un’ampia letteratura documenta ormai le molte falle della “governamentalità algoritmi- ca”: dai bias relativamente inintenzionali, come quelli che riflettono i pregiudizi del senso comune, tratta dalla maggioranza dei dati degli utenti da cui gli algoritmi stessi imparano le regole (come per esempio il fatto che Google traduca in turco la parola infermiere al femminile, visto che in Turchia è un mestiere quasi unicamente femminile); ai pregiudizi dei progettisti stessi; ai casi in cui bias sono artatamente immessi per influenza di governi o per depotenziare eventuali concorrenti. Cfr. R. Chen, Power in the Age of the Feudal Internet, 25/11/2017; all’URL <https://medium.com/@rchen8/power-in-the-age-of-the-feudal- internet-20e106a2e2ce>, visto il 13/11/2019; Barabas et al., Defending Internet Freedom, cit.; Benkler, Degrees of Freedom, cit. Rete, democrazia e complessità 15 3. Rete e conoscenza Si è detto che il Web 1.0 è inizialmente finalizzato alla costruzione di una “web of knowledge” ad uso di una ristretta comunità di esperti. La sua architettura era ispirata all’ideale enciclopedico – in sé più antico60 – dell’ipermedialità. La potenza e velocità della sua implementazione digitale avrebbe, secondo l’originaria intuizione di Vannevar Bush, accelerato il progresso scientifico po- tenziando lo scambio di conoscenze e la condivisione di risorse61. Ma la trasformazione in gioco non era solo nell’organizzazione e trasmis- sione della conoscenza, era innanzitutto cognitiva. Già prima che la ipermedia- lità divenga tecnicamente possibile, l’ipertestualità di Web 1.0 desautora l’ordine argomentativo sequenziale della scrittura, ed esalta invece il procedere associativo – il modo in cui la mente realmente funziona, come scriveva Bush – in quanto modalità fondante la acquisizione di conoscenza (cfr. Kidder in questo numero). Il potere eversivo più sottile dell’ipertesto è di minare la fun- zione autoritativa intrinseca dell’organizzazione argomentativa del testo, l’ordine del discorso, rendendo il testo meramente una risorsa da cui attingere e da cui liberamente estrapolare frammenti di informazione per procedere lungo per- corsi conoscitivi autonomi. Una potenzialità evidentemente poco eversiva quando, come nel caso della casta “sacerdotale” di scienziati ed esperti che ne furono i primi utenti, la estrapolazione ha luogo nel contesto e al servizio di una episteme dai confini chiaramente codificati. Ma sia Ted Nelson, pioniere della transustanziazione digitale dell’idea di ipertesto, che Berners-Lee, fortemente impregnati della controcultura giovanile di sinistra degli anni ’60, intendono il nuovo strumento come forza intrinseca- mente emancipativa e democratica. Mentre V. Bush partiva dalla preoccupazione dell’aumento di diversità e frammentazione dei saperi all’interno del mondo scientifico, e ricercava un’ar- chitettura che facilitasse il dialogo all’interno di una élite di scienziati sempre più differenziati nei loro specialismi, i pionieri dell’ipertesto digitale si rivolgo- no proprio contro il potere della ristretta “priesthood” scientifica e tecnologica che ancora dominava l’era digitale62. La stessa battaglia che combatteva Woz- niack, il principale artefice del personal computer, contro la priesthood che ge- stiva i grandi computer mainframe centralizzati63. Wozniak era mosso dall’idea- 60 Cfr. S. Moulthrop, In the Zones: Hypertext and the Politics of Interpretation, in «Writing on the Edge», 1, 1989, pp. 18-27. 61 V. Bush, As We May Think, in «Atlantic», 176, 1945, 1, pp. 1010-108. 62 Cfr. T. Berners-Lee - M. Fischetti, Weaving the Web, London, Orion Business book, 1999 (tr. it. L’architettura del nuovo Web, Milano, Feltrinelli, 2001), cfr. p. 5, su come fu ispirato da Nelson, dal suo «sogno di una società utopica in cui tutta l’informazione potesse essere condi- visa da persone che comunicavano come eguali». Come mostra Moulthrop, In the Zones, cit., la posizione “politica” di Nelson rispetto alla “priesthood” della scienza dei computer è molto più netta ed esplicita di quella di Berners-Lee. Sul rapporto tra Berners-Lee e Nelson cfr. anche P. Castellucci, Dall’ipertesto al Web. Storia culturale dell’informatica, Roma-Bari, Laterza, 2009. 63 Cfr. S. Levy, Hackers: Heroes of the Computer Revolution, New York, Delta, 1985; la critica alla “priesthood” in senso lato riflette in questi anni già la crisi “degli esperti”, ossia del loro ruolo preminente nel modello del “capitalismo manageriale”, crisi della quale l’avvento delle Silvia Caianiello 16 le di una «tecnologia liberatoria», costituita da strumenti «conviviali» alla portata del cittadino comune, promotori di un nuovo ordine sociale democratico e par- tecipativo64. Il suo Apple II, il primo Personal Computer lanciato nel 1977, era dotato di un sistema operativo basato su Basic, sul quale poteva girare qualun- que programma compatibile. La stessa apertura caratterizzava la comunità ri- stretta di esperti delle origini di WWW, animata da uno spirito di cooperazione per lo sviluppo e perfezionamento di software gratuito, da quando, già due an- ni dopo il suo lancio, il codice sorgente del software WWW viene reso di pub- blico dominio dal CERN. La forza congiunta di WWW e dello sviluppo del personal computer creano le condizioni per un’estensione della nuova rete di comunicazione digitale a chiunque, sia per l’accesso che per la produzione di contenuti. Sembrano veri- ficarsi infine le condizioni per la realizzazione della profezia di Licklider, il di- rettore del team che all’ARPA inventò internet, che già nel 1968 immaginava una nuova «era tecnologica nella quale saremo in grado di interagire con la ric- chezza dell’informazione vivente, non solo nel modo passivo cui ci hanno abi- tuato libri e biblioteche, ma come partecipanti attivi in un processo aperto, nel quale non riceviamo soltanto, ma apportiamo qualcosa attraverso la nostra in- terazione»65. L’idea di un “testo” polifonico e aperto, senza struttura predefini- ta, in cui sono dissolti i confini tra consumatore e autore, transita così dallo spazio letterario alla società intera66. Gli anni ’90 sono stati il luogo di teorizzazione e di prime sperimentazioni del nuovo paradigma della e-democracy. Il moltiplicarsi di forum digitali di discus- sione sembra prefigurare le condizioni per un nuovo spazio deliberativo, una pubblica agorà universalmente accessibile. Pierre Lévy enfatizza in questi anni le potenzialità emancipatorie della nuova forma digitale di intelligenza colletti- va, che sarebbe emersa da una «rete ipertestuale unificata, un contesto condivi- so capace di diminuire i rischi di incomprensione» e fondamento possibile di una “tecnodemocrazia”67. Lucidamente, Lévy sottolinea la natura ibrida di que- nuove tecnologie dell’informazione fu insieme effetto e concausa; cfr. B. Krings, The Sociological Perspective on the Knowledge-Based Society: Assumptions, Facts and Visions, MPRA Paper no. 7110, 2006, < http://mpra.ub.uni-muenchen.de/7110/>, visto il 13/11/2019. Cfr. infra, § 6. 64 Cfr. E. Morozov, Silicon Valley: i signori del silicio, tr. it., Torino, Codice, 2016. Cfr. Mazzola in questo numero, che sottolinea l’atteggiamento spudoratamente “commerciale” di Steve Jobs, assai diverso da Wozniak, per nulla simpatetico con la chiusura segnata da Macintosh, che, monetizzando la geniale interfaccia grafica antropomorfica con un sistema rigidamente proprietario, di fatto inaugurò lo scambio facilità/controllo dell’era digitale. Come riassume Wu, The Master Switch, cit., «Jobs was the businessman and the dealmaker of the operation, es- sential as such, but hardly the founding genius of Apple computers». 65 J.C.R. Licklider - R.W. Taylor, The Computer as a Communication Device, in «Science & Technology», 76, 1968, pp. 21-31, p. 21. 66 Cfr. Moultrhop, In the Zones, cit., che sottolinea l’affinità tra l’idea di ipertesto digitale e la visione aperta dell’intertestualità di R. Barthes negli anni ‘70. 67 P. Lévy, Les technologies de l’intelligence. L’Avenir de la pensée à l’ère informatique, Paris, La Dé- couverte, 1990 (tr. it. Le tecnologie dell’intelligenza. L’avvenire del pensiero nell’era informatica, Verona, Ombre Corte, 2000). Rete, democrazia e complessità 17 sta rete globale, composto di “attanti” umani e non-umani (il medio tecnologi- co), in un’epoca in cui gli “attanti” non umani68 potevano ancora apparire come un mero strumento per l’unificazione dell’ecosistema umano. L’ipertesto condiviso che avrebbe unito l’umanità in un unico ecosistema informazionale sembra realizzarsi nel 2001 in Wikipedia, modello di peer produc- tion privo di fini di lucro, «la più significativa innovazione organizzazionale emersa dalle pratiche sociali mediate da internet, tra i più visibili e importanti esempi di intelligenza collettiva»69. Queste trasformazioni radicali della sfera sociale, a prescindere dai limiti che hanno rivelato nel tempo70, non hanno tut- tavia avuto l’effetto profetizzato di promuovere lo sviluppo di una “razionali- tà” generale deliberativa e inclusiva. Si potrebbe anzi ipotizzare che, se effettivamente nella fase di Web 1.0 il so- gno democratico di internet ha avuto una sua dimensione di realtà, attenuando anche i potenziali pericoli della decentralizzazione di poteri in corso, questo non significhi tanto che “la rete non è mai stata democratica”71. Ossia che non siano state soltanto le esigue dimensioni e la relativa minore complessità a ren- dere possibile la democrazia disintermediata delle origini, ma anche le specifi- che caratteristiche della rete sociale di cui fu inizialmente estensione: una rete ristretta di esperti, omogenea per competenze e finalità, nel cui ethos, basato sulla fiducia reciproca e su una comunanza di obiettivi, riposava la garanzia ul- tima del suo uso democratico. 4. L’anima neoliberista della rete L’aspettativa che l’emergere di una intelligenza collettiva mediata dalla rete avrebbe fondato un nuovo spazio pubblico deliberativo e reso possibile una forma più integrata di razionalità tecnopolitica ha radici profonde nella ideolo- gia libertariana. Più precisamente, la sua origine può essere identificata nella pericolosa confusione tra la libertà individuale del singolo disintermediato della controcultura di sinistra dei pionieri di WWW e la libertà del mercato, ambigua ma persistente saldatura tra le versioni di sinistra e di destra del libertarianismo72. 68 Secondo la terminologia della teoria dell’attore-rete di B. Latour ed altri. Cfr. B. Latour, Reassembling the Social, Oxford-New York, Oxford University Press, 2005. 69 T.W. Malone, Handbook of Collective Intelligence, Cambridge (MA) - London, The Mit Press, p. 176. 70 Cfr. per esempio la feroce critica a Wikipedia di A. Keen, Dilettanti.com. Come la rivoluzione del Web 2.0 sta uccidendo la nostra cultura e distruggendo la nostra economia (2007), Roma, De Agostini Editore, 2009, ma anche i commenti sulla evoluzione “mista” della sua organizzazione interna di Benkler, Degrees of Freedom, cit., p. 30. L’entusiasmo degli anni ‘90 per i forum si è frattanto ridimensionato, con il crescere dell’evidenza che tale pratica è limitata a pochi utenti, precisa- mente selezionati non solo rispetto al digital divide ma anche per indicatori più tradizionali, come impegno politico, educazione, età, razza ed etnicità; cfr. A. Chadwick, Web 2.0: New Challenges for the Study of E-Democracy in an Era of Informational Exuberance, in «I/S Journal of Law and Policy for the Information Society», 5, 2008, 1, pp. 9-41, p. 16-17. 71 Cfr. Mathew, The Myth, cit. 72 Cfr. D. Golumbia, The politics of Bitcoin: Software as Right-Wing Extremism, Minneapolis, University of Minnesota Press, 2016. Silvia Caianiello 18 Le premesse teoretiche di questa posizione si possono fare risalire al model- lo neoliberale di razionalità economica di Friedrich von Hayek73. La versione di von Hayek – a differenza di quella della scuola di Chicago – si radica nella teo- ria dei sistemi complessi adattivi, eterogenei nei loro componenti, non lineari nelle loro interazioni e dunque lontani da equilibrio74, come le reti sociali ed economiche. L’eterogeneità cruciale nella dinamica del mercato deriva dalla divisione della conoscenza – correlato della divisione del lavoro come motore della differenziazione economica e sociale75. La divisione della conoscenza genera una asimmetria strutturale, per la quale ciascun agente economico dispone solo di una conoscenza situata e strutturalmente parziale degli altri agenti, «delle condizioni locali e di circostanze particolari»76. In una società complessa, ossia caratterizzata dalla divisione della conoscenza, nessun agente economico singo- larmente, tantomeno una istanza statale centralizzata, può dunque avere una conoscenza sufficiente a predire o pianificare l’andamento del mercato, come assunto dal modello neoclassico di razionalità economica, e dalla pianificazione centralizzata dei regimi comunisti del tempo. Per Hayek, l’ordine spontaneo del mercato sorge dall’interazione tra agenti limitati dalla loro cognizione parziale situata e mossi dal principio del proprio interesse, che si trasmettono l’infor- mazione rilevante solo indirettamente attraverso i prezzi, dunque con enorme risparmio dei costi di comunicazione e coordinamento77. Questo andamento evolutivo del mercato viene da Hayek contrapposto al “costruttivismo”, che predica la necessità che un decisore, stato o organizzazione, imponga la sua “predizione”, intrinsecamente limitata, sulla dinamica economica78. La decentralizzazione delle decisioni alla libertà degli agenti economici e la loro interazione competitiva appare così, a fronte della strutturale incertezza sul futuro del mercato, il modo comparativamente più efficace per l’emergere 73 In Lévy, Technologies, cit., il riferimento è esplicito. 74 Cfr. J. Walker - M. Cooper, Genealogies of Resilience: From Systems Ecology to the Political Econ- omy of Crisis Adaptation, in «Security Dialogue», 42, 2011, 2, pp. 143-160; P. Mirowski - E. Nik- Khan, The Knowledge We Have Lost in Information, New York, Oxford University Press, 2017, cap. 6; J. Rodrigues, Embedding Neoliberalism: The Theoretical Practices of Hayek and Friedman, in D. Ca- hill - M. Cooper - M. Konings - D. Primrose (a cura di), The SAGE Handbook of Neoliberalism, Los Angeles, SAGE Reference, 2018, pp. 129-143. 75 F.A. Hayek, The Use of Knowledge in Society, in «The American Economic Review», 35, 1945, 4, pp. 519-530. 76 Ivi, p. 522. Si veda V. Pinto, La parte di Tersite. Verità e democrazia dopo la democrazia, in que- sto numero dello ISPF-LAB. 77 Hayek, The Fatal Conceit: The Errors of Socialism, Chicago, University of Chicago Press, 1988, pp. 77, 75. Il sistema del mercato è «a mechanism for communicating information» attraverso i prezzi (Hayek, The Use, cit., p. 86), in quanto questi incorporano in forma conden- sata tutta la informazione rilevante sullo stato attuale di materie prime, produzione di merci, scambi etc. 78 Come sottolinea J.F. Martinez Solano (La complejidad en la Ciencia de la Economía: De F. A. Hayek a H. A. Simon, in W.J. Gonzalez (a cura di), Las Ciencias de la Complejidad: Vertiente dinámica de las Ciencias de Diseño y sobriedad de factores, Coruña, Netbiblo, 2012, pp. 233-266), per Hayek i soggetti collettivi sono mere somme, aggregati “superindividuali” singolari; una visione ben diversa da quella di Simon, cfr. infra, § 7. Rete, democrazia e complessità 19 spontaneo di decisioni economiche che si approssimano alla “razionalità”. Ed anzi, in quanto gli interventi regolamentativi statali o imposti per via legale si basano necessariamente su predizioni, di principio impossibili ad un singolo attore, il loro effetto rischia di essere “controevoluzionistico”: contrastando la naturale evoluzione del mercato, rischiano di generare invece che risolvere cri- ticità. Come sintetizzava Reagan, “lo stato è il problema, non la soluzione”. Anche se non ancora formulato in termini pienamente computazionali, il processo decisionale spontaneo del mercato di Hayek corrisponde all’idea di una “computazione distribuita”; una rappresentazione che si espande immedia- tamente oltre l’economia al meccanismo di generazione di consenso e ordine sociale. Così, per Lévy, la superiorità dell’intelligenza collettiva è di riuscire a «incorporare la conoscenza distribuita della complessità delle situazioni reali, conoscenza più dettagliata, ricca e varia»79. In certa misura, questa ideologia della disintermediazione si iscrive mate- rialmente nella stessa tecnologia end-to-end. Come sottolinea Wu, con la sua enfasi sul trasferimento dell’autorità decisionale sugli “endpoints”, il principio end-to-end può essere visto come la traduzione in termini computazionali delle istanze di Hayek80. Di certo, questa saldatura diviene manifesta proprio negli anni ’90. Lo mostrano le significative assonanze tra il testo del 1994 di esplicita confessione neoliberista di Gilder ed altri e il già menzionato Manifesto cyber- punk di Barlow del 1996, uniti nella contrapposizione a politiche di regolamen- tazione della rete81. Il credo unificato del “cyberlibertarianismo” predice che «la libertà emergerà necessariamente e spontaneamente dal crescere della tecnolo- gia digitale»82, una posizione che ha ancora voce in capitolo nel dibattito sul futuro di Web 3.0 (cfr. infra, § 9). 5. Web 2.0: presupposti e criticità Dal lancio di Wikipedia nel 2001 all’avvento delle reti sociali, a partire dal suc- cesso di Facebook (2004), il percorso che porta alla “autocomunicazione di massa” di Web 2.0 non è stato tuttavia lineare83. Perché l’utente da mero fruito- 79 Lévy, Technologies, cit., p. 80. 80 Wu, The Master Switch, cit. 81 Cfr. Barlow, A Declaration, cit; E. Dyson - G. Gilder - G. Keyworth - A.Toffler, Cyberspace and the American Dream: A Magna Carta for the Knowledge Age, 1994 <http://www.pff.org/ issues-pubs/futureinsights/fi1.2magnacarta.html>, visto il 13/11/2019. 82 Cfr. Golumbia, The Politics, cit. 83 Il concetto di Web 2.0 è stato introdotto da Tim O’Reilly nel 2004; cfr. T. O’Reilly, What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software, 9/3/2005, <https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html>, visto il 13/11/2019. Più generalmente identificato come la trasformazione di WWW in una piattaforma di appli- cazioni delocalizzate (networked) per la produzione e la condivisione di contenuti prodotti dagli utenti stessi in reti e media sociali, O’Reilly elenca 7 criteri discriminanti le nuove funzio- nalità di Web 2.0, che veicolano la transizione da una “web of companies” a una “web of people”. Chadwick, Web 2.0, cit., p. 19, fa una sintesi utile ai fini del presente discorso, traducendo (con ovvia libertà) i criteri tecnici di O’Reilly nelle loro implicazioni politiche: «Internet come piattaforma per il discorso politico; l’intelligenza collettiva emergente dall’uso Silvia Caianiello 20 re di informazione codificata da altri si trasformasse in produttore servivano in Web 1.0 capacità informatiche elevate, al di fuori della portata dell’utente non specialista. La transizione avviene solo con Web 2.0, quando grandi provider privati di servizi cominciarono a offrire la necessaria “reintermediazione” tec- nica, attraverso l’implementazione di interfacce semplificate per il web pu- blishing, hosting e ricerca dei documenti. Ossia ottemperando al contratto economico a lungo mascherato dalla filosofia libertaria di Google, nella quale l’apparente gratuità dell’accesso è di fatto retribuita dalla cessione dei propri dati, e la personalizzazione della propria interazione con la rete diventa diret- tamente proporzionale alla profilazione cui ci espone84. De Rosa85 mostra il confine labile tra quanto si cede consapevolmente e inconsapevolmente della propria “persona” digitale, dando in pasto informazioni sulle più private attitu- dini e interessi ad algoritmi di profilazione così sofisticati che la loro potenziali- tà di controllo può raggiungere una pervasività senza precedenti nella storia umana. La persona digitale sembra trovarsi così proprio sul crinale tra i due testi, quello manifesto e quello ombra, descritti recentemente da Zuboff86. Il primo è il testo libertario, scritto con i crismi della retorica della democratizzazione e della disintermediazione della rete di Web 2.0, il secondo si iscrive nel regime del controllo e dell’analitica dei dati, nelle sue assai diverse articolazioni geopo- litiche attuali87. Insieme, i due testi complementari compongono la logica di quella che Zuboff definisce la “società della sorveglianza”. Analisi degli svilup- pi attuali sembrano indicare che il potenziale di controllo sull’utente aumenta proporzionalmente alla facilità d’uso, con il passaggio dai PC alla comunicazio- ne mobile basata sugli smartphone (a partire dal lancio di iphone nel 2007), alle reti sociali e ai servizi di cloud computing, ed è destinato ad accrescersi ulte- riormente con i dati che i sensori delle “cose interattive” della prossima inter- politico di Web; importanza dei dati rispetto a specifiche applicazioni software e hardware; la creazione di forme di impegno politico su piccola scala attraverso il consumismo; la propaga- zione di contenuto politico attraverso applicazioni multiple; esperienza dell’utente ricca su siti politici». Cfr. il primo articolo apparso a commento delle nuove potenzialità di Web 2.0: K. Jordan - J. Hauser - S. Foster, The Augmented Social Network: Building Identity and Trust Into the Next-generation Internet, in «First Monday» 8, 2003, 8, <https://firstmonday.org/ojs/index.php/ fm/article/view/1068/988>, visto il 17/11/2019. 84 Cfr. F. Musiani - M. Löblich, Net Neutrality from a Public Sphere Perspective, in L. Belli - P. De Filippi, Net Neutrality Compendium. Human Rights, Free Competition and the Future of the Internet, Cham, Springer International Publishing, 2016, pp. 43-52; Zuboff, The Age of Surveillance, cit., cap. 6. 85 R. De Rosa, Digital persona, big data e sfera pubblica. Quali sfide per la democrazia che verrà, in questo numero dello ISPF-LAB. 86 Zuboff, The Age of Surveillance, cit. Cfr. Anche il Report di recente pubblicato da Amnesty International, Surveillance Giants, 21/11/2019, <https://www.amnesty.org/download/ Documents/POL3014042019ENGLISH.PDF>, visto il 21/11/2019. 87 Cfr. Mazzola in questo numero sul sistema di credito sociale in Cina; ma il numero di regimi non democratici che fanno uso esplicito di controllo sociale tecnologico è ormai considerevole; per una istruttiva lista dell’orrore di esempi si veda Schneier, Data and Goliath, cit. Rete, democrazia e complessità 21 net of things saranno in grado di accumulare in modo del tutto automatico. Forse più inquietante ancora della saldatura tra governi e grandi operatori della rete evidenziata dal caso Snowden e da Cambridge Analytica, è il controllo comportamentale dell’utente reso possibile dall’interfaccia emozionale tipica delle reti sociali. L’esito dell’utopia partecipativa rischia di rovesciarsi, per la grandissima parte degli utenti, in una “ripassivizzazione”, più pervasiva e dun- que più nefasta di quella dell’epoca dei mass media classici (in cui almeno si poteva cambiare canale o comprare un quotidiano diverso) – a conferma dell’inversione attuale del principio end-to-end in “smart pipes e dumb endpo- ints”88. Come dimostrano le dinamiche monopolistiche e il riaccentramento del merca- to nell’era del capitalismo informazionale89, dunque, le aspettative libertariane non si sono realizzate90. Ma, allo stesso modo, non si sono realizzate neppure quelle, ancora più ambiziose, del paradigma dell’ “intelligenza collettiva”. No- nostante con Web 2.0 la rete abbia «acquisito lo status di una piattaforma per il social computing, capace di coordinare e sfruttare le capacità cognitive degli utenti per un compito specifico»91, essa non ha tuttavia prodotto la capacità di adempiere al “compito dei compiti”, ossia di rappresentare quello che nell’idea- le democratico doveva essere il luogo del confronto libero e pluralistico delle opinioni. Molti segnali indicano piuttosto una involuzione della sfera pubblica sia in senso sociale che politico. Ancora prima dell’emergere dei social network, Ba- rabási citava le prime analisi degli effetti politici di WWW92, che segnalavano fenomeni di autosegregazione di circuiti di opinioni omogenee, e dunque la tendenza alla frammentazione del cyberspazio. Gli studi recenti sulle reti sociali – la quintessenza della versione Web 2.0 dello spazio pubblico – rivelano che questa tendenza alla frammentazione e alla polarizzazione di gruppi di opinione si è ulteriormente esacerbata. I sofisticati strumenti della recente “scienza socia- le computazionale”93 documentano il fenomeno diffuso delle “camere di riso- nanza”, spazi virtuali in cui le persone amplificano ed esaltano le proprie con- vinzioni e quasi si alleano nell’impedire ad opinioni contrarie di penetrare nel loro interno, divenendo potenziali camere di incubazione di molte nuove for- me di violenza. Significativamente, queste ricerche hanno messo in evidenza anche che patologie come il diffondersi epidemico di fake news o hoax non 88 Cfr. Benkler, Degrees of Freedom, cit.; L. Belli, End-to-End, Net Neutrality and Human Rights, pp. 13-30, p. 22; Byung-Chul Han, Nello sciame. Visioni del digitale, Roma, nottetempo, 2015. 89 Cfr. Castells, The Rise, cit. 90 Come ammette anche, da posizioni neoliberiste estreme, lo stesso Gilder, Beyond Google, cit., nella sua disanima delle vie per “superare Google”. 91 C. Castellano - S. Fortunato - V. Loreto, Statistical Physics of Social Dynamics, in «Reviews of Modern Physics», 81, 2009, 2, pp. 591-646. 92 C.R. Sunstein, Republic.com 2.0, Princeton, Princeton University Press, 2001. Cfr. De Rosa in questo numero. 93 Cfr. G. Caldarelli, Le reti nel mondo odierno: impatto su informazione e democrazia di questa nuova forma di aggregazione, in questo numero dello ISPF-LAB; e infra, § 7. Silvia Caianiello 22 dipendono dalla forza intrinseca del messaggio “falso”, ma sono piuttosto di- retta conseguenze di una architettura frammentata di sottoreti che si autoisola- no94, di modo che invece di filtrare e ridimensionare messaggi paradossali o tendenziosi ne amplificano la diffusione. Dall’altra parte, la disintermediazione ha distrutto le forme di mediazione politica, sociale e culturale del ’900, e, come mostra Fasano95, la possibilità stes- sa di portare attori collettivi organizzati ad un’espressione politica stabile. Infi- ciando il ruolo di partiti e delle organizzazioni formali e informali di gruppi di interessi dotate della forza adeguata a interloquire con i decisori politici ed eco- nomici, e capaci di mediare tra interessi molteplici, ha ridotto il singolo ad indi- viduo-massa, che della massa non ha più il potere di concentrare il dissenso e ancorarlo a una causa comune96. Nel corto raggio di un esasperato presenti- smo97, varie forme di “sondocrazia” hanno alterato il ritmo della democrazia rappresentativa, che «con verifiche elettorali distanziate nel tempo consentiva di metabolizzare le misure impopolari e di rendere percepibili gli effetti delle politiche a lungo termine»98, e così di negoziare l’urgenza di interessi presenti ed immediati. Se l’io “leggero”99, atomizzato e decontestualizzato del cittadino disinterme- diato sembra impossibilitato a costituire un “noi” politico stabile, l’apparenza virtuale di prossimità sembra renderlo particolarmente suscettibile a identifica- zioni largamente emozionali con leader carismatici, un fenomeno che ha con- seguenze fatali sulla stessa struttura interna e stabilità delle organizzazioni poli- tiche100. Né la rete sembra, infine, avere mantenuto la promessa di diminuire il “knowledge gap” tra utenti ed esperti, o avere prodotto condizioni propizie al dialogo deliberativo. L’effetto democratizzante della rete rispetto alla distribu- zione della conoscenza, tale da rendere possibile fare l’economia della media- zione di qualunque forma di “autorità”101, di singoli esperti o “istituzioni epi- 94 Cfr. M. Del Vicario - A. Bessi - F. Zollo - F. Petroni - A. Scala - G. Caldarelli - H.E. Stanely - W. Quattrociocchi, The Spreading of Misinformation Online, in «Proceedings of the Na- tional Academy of Science», 113, 2016, 3, pp. 554-559. 95 Cfr. L. M. Fasano, La rappresentanza politica e degli interessi fra dis-intermediazione e re- intermediazione: un primo bilancio, in questo numero dello ISPF-LAB. 96 Cfr. Byung-Chul Han, Nello sciame, cit. Cfr. Z. Bauman, La solitudine del cittadino globale, tr. it., Milano, Feltrinelli, 2000, p. 22, parla di «dispersione del dissenso». 97 Cfr. F. Hartog, Vers une nouvelle condition historique, in «Le Débat», 188, 2016, 1, pp. 169- 180, p. 180: «Tout apparaît sur le même plan dans un présent aussi étendu que le réseau lui- même». 98 S. Rodotà. Iperdemocrazia, Roma, Laterza, 2013. 99 C. Benedetti, Disumane lettere, Roma-Bari, Laterza, 2011; cfr. Byung-Chul Han, Nello sciame, cit., riconduce l’impossibilità del noi alla «mancanza di interiorità» della folla composta di «narcisistiche macchine egotiche». 100 Cfr. Fasano in questo numero; F. Musella, Political Leaders Beyond Party Politics, Cham, Palgrave Macmillan, 2018, cap. 1. 101 Barlow, Declaration, cit. Rete, democrazia e complessità 23 stemiche”102 avrebbe spesso piuttosto sortito effetti opposti, fomentando il dubbio che abbia prodotto piuttosto uno statistico aumento di pubblica stupi- dità103. E neppure necessariamente un aumento di cultura media, sembrano indicare dati eclatanti, come la impressionante correlazione tra il basso livello di educazione dell’elettorato di Trump e l’alta alfabetizzazione dell’elettorato con- trario nelle ultime elezioni americane, una polarizzazione che significativamente è risultata del tutto indipendente dal reddito, o da parametri di natura analoga, co- me il digital divide104. Ma molteplici fenomeni, sociali prima che politici, mostrano gli effetti che la disintermediazione ha avuto anche nel dialogo tra diversi saperi “esperti”. In Italia, basta pensare alla ratifica governativa alla sperimentazione del metodo Stamina nel 2013105 e ai magistrati che lo hanno prematuramente sdoganato, o a quelli che hanno avvalorato immaginarie correlazioni tra vaccini e autismo. Abbastanza, dunque, da mettere in discussione teorie semplificanti della na- tura dello spazio pubblico, ancora ancorate ad un’ideale universalistico di ra- zionalità106. Tra le ragioni per le quali la rete non ha supportato il progetto di una democrazia deliberativa – né evidentemente confermato l’assunto della potenzialità di principio di ciascun cittadino di divenire, nello spazio dialogico di un ambiente digitale condiviso, abbastanza “competente” da potere attiva- mente contribuire al processo decisionale politico –, è utile considerare più da vicino alcune caratteristiche strutturali della “società della conoscenza”, in par- ticolare la asimmetria informativa che la connota107. 102 M. Adolf - N. Stehr, Knowledge: Is Knowledge Power?, II ed., London - New York, Routledge - Taylor & Francis Group, 2017, § 7.1. 103 Cfr. Keen, Dilettanti.com, cit.; N. Carr, Internet ci rende stupidi?, Milano, Raffaello Cortina, 2011; B. Stiegler, Ètat de choc. Bêtise et savoir au XXI siècle, Paris, Fayard/Mille et une nuits, 2012; Graeber, The Utopia of Rules, cit.; D. de Kerckhove, La rete ci renderà stupidi?, Roma, Castelvecchi, 2016. 104 J.D. Bolter, The Digital Plenitude, Cambridge MA, The MIT Press, 2019; cfr. N. Silver, Education, Not Income, Predicted Who Would Vote For Trump, <https://fivethirtyeight.com/ features/education-not-income-predicted-who-would-vote-for-trump/>, visto il 14/11/2019. Le analisi di Silver hanno evidenziato la strettissima correlazione tra il basso livello di educazione (e non di censo) e il voto a favore di Trump, e inversamente tra alto livello di educazione e voto contrario. 105 Cfr. E. Cattaneo - G. Corbellini, Stem Cells: Taking a Stand Against Pseudoscience, in «Na- ture», 510, 2014, pp. 333-335. 106 Cfr. S.P. Turner, Liberal Democracy 3.0, London, SAGE Publication, 2003, e la sua analisi critica della idea universalistica della ragione alla base della concezione di Habermas dello spazio pubblico, che è un riferimento essenziale del dibattito sulla democrazia nella infosfera (cfr. per es. Musiani - Löblich, Net Neutrality, cit.). Questo tipo di critica ritorna in P. Dahlgren, The Political Web, Basingstoke, Palgrave Macmillan, 2013; e Chadwick, Web 2.0, cit. 107 L’enfasi sull’acquisizione di competenze è un tema ricorrente nella letteratura politica sul rapporto tra società della conoscenza e istanza democratica. Tipica è l’insistenza sul potenzia- mento dell’educazione pubblica come base per un concetto di cittadinanza «proattivo, dinami- co, epistemicamente impegnato» (S. Jasanoff, Designs on Nature, Princeton, Princeton University Press, 2007, p. 255: tr. it. Fabbriche della natura. Biotecbnologie e Democrazia, Milano, Il Saggiatore 2008), come la “cittadinanza biologica” (N. Rose - C. Novas, Biological Citizenship, in A. Ong - S.J. Collier - G.C. Bowker (a cura di), Global Assemblages, Malden MA, Blackwell, 2005, pp. 439- 463), o la “paideia digitale” (Collettivo Ippolita, La Rete è libera e democratica (Falso!), Roma - Bari, Silvia Caianiello 24 6. Società della conoscenza e asimmetria informativa La società basata sulla conoscenza è innanzitutto una categoria economica, che designa la transizione, a partire dagli anni ’70, da un sistema di produzione indu- striale, nel quale la crescita economica dipende primariamente dalla produzione di beni, ad uno post-industriale, nel quale la crescita si concentra nei servizi alla produzione e alle imprese, secondo il cosiddetto processo di terziarizzazione dell’economia; un processo dunque di lungo periodo, cui tuttavia la rete e le tecnologie dell’informazione hanno impresso una accelerazione decisiva108. La conoscenza che crea nuovo valore è in primis tecnico-scientifica e comunque “esperta”, dal marketing al product management al design, concentrandosi nel “cognitariato” dei lavoratori della conoscenza, o “symbolic workers”, che crea- no e manipolano simboli e “affetti”109. Tale “produzione” va ad accrescere l’“enorme inventario” di conoscenza “oggettivata” negli artefatti; un patrimo- nio cui vanno annoverati ora anche gli algoritmi sempre più “intelligenti”, ca- paci di autonoma creazione di conoscenza e dunque di valore, che diminuisco- no progressivamente il ruolo umano nella rete “ibrida” della produzione della conoscenza110. L’approccio economico alla società della conoscenza, pur non esaustivo, ha fornito a quello sociologico uno strumento importante per articolare più anali- ticamente la “divisione” della conoscenza in questo ecosistema informazionale in modo quantitativo, in termini di costi – costi non necessariamente quantifica- bili in un valore monetario, ma nondimeno misurabili nei termini di un’econo- mia del tempo e dell’attenzione111. Herbert Simon, teorico di una epistemologia Laterza, 2015), o in generale come processo di acquisizione di “skills” e virtù epistemiche ne- cessarie all’esercizio della democrazia, come l’immaginazione e il pensiero critico (M. Nus- sbaum, Non per profitto. Perché le democrazie hanno bisogno della cultura umanistica, Bologna, Il Mulino, 2014). Per quanto ampiamente condivisibili nei loro obiettivi concreti, queste posizioni rischia- no di semplificare l’entità del problema, e in particolare la complessità del processo decisionale nelle società moderne (cfr. C. Biancalana, La disintermediazione: una proposta di framework interpreta- tivo, in Id. (a cura di), Disintermediazione e nuove forme di rappresentazione, Milano, Fondazione Giangiacomo Feltrinelli, 2018). Demandare all’individuo, già oppresso dalla congestione “in- formazionale e temporale” della infosfera (Byung-Chul Han, Nello sciame, cit.) un simile compi- to non è solo insufficiente, ma a mio avviso può correre il rischio di legittimare surrettiziamen- te gli immaginari neoliberali di “individui-tutto” cui queste visioni intendono spesso contrap- porsi. Si veda anche Pinto, La parte di Tersite, in questo numero. 108 Cfr. Bell, Welcome to the Postindustrial Society, cit; Adolf e Stehr, Knowledge, cit.; Krings, The Sociological Perspective, cit.; Castells, The Rise, cit., parla di “capitalismo informazionale”. Cfr. la correlazione tra produttività e crescita del comparto ICT a partire dagli anni ’90 messa in luce da F. Schivardi - T. Schmitz, The IT Revolution and Southern Europe’s Two Lost Decades, in «Journal of the European Economic Association», 2019, pp. 1-46. 109 Cfr. Srnicek, Platform Capitalism cit. 110 Cfr. Adolf - Stehr, Knowledge, cit.; K. Hosanagar, A Human’s Guide to Machine Intelligence, New York, Viking, 2019: Barabas et al., Defending Internet Freedom, cit. Cfr. infra, § 10. 111 Cfr. H. Simon, Designing Organizations for an Information-rich World, in M. Greenberger (a cura di), Computers, Communication, and the Public Interest, Baltimore, The Johns Hopkins Press, 1971, pp. 37-52; T.H. Davenport - J.C. Beck, The Attention Economy, Boston, Harvard Business School Press, 2001; L. Weng - M. Karsai - N. Perra - F. Menczer - A. Flammini, Attention on Rete, democrazia e complessità 25 della razionalità limitata di tutt’altro tenore ed esito rispetto a quella di Hayek, segnalava già come uno dei costi fondamentali quello dell’elaborazione dell’in- formazione. Ma la rappresentazione più efficace dell’asimmetria informativa è quella mutuata dal concetto di “conoscenza tacita” del filosofo e scienziato Mi- chael Polanyi112. Per Polanyi, il “sapere più di quanto si possa dire” connota la conoscenza, scientifica o in generale esperta, ma anche morale. La conoscenza “competente”, l’episteme non è difatti mera conoscenza teorica, ma anche e soprattutto una conoscenza acquisita e radicata nel contesto semantico circo- scritto dal metodo, dall’esperienza e dalla pratica, frutto di un lento processo di interiorizzazione, e non direttamente trasmissibile113. A questa conoscenza, dal costo elevato, si usa contrapporre l’informazione, che può essere facilmente estrapolata dal contesto e trasmessa rapidamente, ma non porta di per sé alla capacità di farne uso o in generale di dare ad essa senso in un preciso contesto di applicazione114. Che il popolo della rete sia potuto crescere soltanto attraverso la reintermedia- zione dei “capitalisti della conoscenza”, ossia usufruendo della rete senza cari- carsi gli oneri della conoscenza oggettivata nelle interfacce facilitate, riconferma le ragioni strutturali di quella che solo superficialmente può essere considerata la “pigrizia” dell’utente finale. Ragioni intrinseche all’economia della società della conoscenza – i “costi” della conoscenza tacita, la natura strutturale della divisione cognitiva – aiutano a comprendere come mai anche nell’epoca della massima interattività dei mezzi di comunicazione e dell’accesso all’informa- zione persista l’assioma fondativo del cosiddetto “knowledge gap”: che l’au- mento del flusso di informazione benefici in misura molto maggiore gli strati sociali più colti115, e che dunque la divisione della conoscenza si configuri in ultima analisi come una differenza nella capacità di assimilare l’informazione, ossia di apprendere (division of learning)116. Weak Ties in Social and Communication Networks, in S. Lehmann - Y.-Y. Ahn (a cura di), Complex Spreading Phenomena in Social Systems, Cham, Springer International Publishing, 2018, pp. 213- 228. 112 M. Polanyi, The Tacit Dimension (1966), Chicago and London, The University of Chicago Press, 2009; questo testo è una delle fonti del practice turn nella filosofia e storia della scienza, cfr. H.M. Collins, What is tacit knowledge?, in T.R.Schatzki - K. Knorr Cetina - E. von Savigny (a cura di), The Practice Turn in Contemporary Theory, London - New York, Routledge, 2001, pp. 115- 128. 113 Cfr. La recente “rivendicazione” della lentezza nell’educazione medica di D. Wear - J. Zarconi - A. Kumagai - K. Cole-Kell, Slow Medical Education, in «Academic Medicine», 90, 2015, 3, pp. 289-293. 114 Cfr. Adolf - Stehr, Knowledge, cit. 115 U. Saxer, Medienverhalten und Wissensstand. Zur Hypothese der wachsenden Wissenskluft, in Buch und Lesen, Bertelsmann Texte 7, Gütersloh, Bertelsmann, pp. 35-70, condusse un celeb- re esperimento in questo senso, in epoca ancora di mass media. 116 Non si usa qui l’espressione nel senso politico di Zuboff, The Age of Surveillance, cit., quanto piuttosto nel senso cognitivo che dà a learning H.A. Simon, The Many Shapes of Knowledge, in «Revue d’économie industrielle», 88, 1999, 1, pp. 23-39; un concetto analogo a quello di capitale umano della attuale sociologia economica. Silvia Caianiello 26 Lo iato tra costo della conoscenza e disponibilità dell’informazione sembra aver aggravato quella che già Simmel definiva la “condizione problematica dell’uomo moderno”, descrivendo con efficacia la duplice natura, cognitiva ed emozionale, dell’impotenza del singolo di fronte all’ “overload” di informazio- ne che caratterizza la attuale infosfera: La quantità incalcolabile di spirito oggettivo in costante aumento avanza pretese sul soggetto, suscita in lui velleità, lo abbatte con un sentimento di insufficienza e impo- tenza, lo trascina in un nesso complessivo alla cui totalità non può sottrarsi, ma di cui non può padroneggiare i singoli elementi. Così sorge la tipica situazione problematica dell’uomo moderno: la sensazione di essere circondato da innumeri elementi culturali per lui non insignificanti, ma neppure dotati di un senso del cui fondamento possa appropriarsi; una massa che in qualche modo lo oppime, perché non può assimilarli interiormente senza neppure poterli semplicemente rigettare, in quanto sono, per così dire in potenza, interni alla sfera del suo sviluppo culturale117. Questo iato, per i teorici dell’intelligenza collettiva, potrebbe e dovrebbe es- sere colmato dalla “computazione distribuita” che la infosfera sembra oggi rendere possibile. Ma se, come mostrano le indagini sulla diffusione di fake news delle scienze sociali computazionali, è innanzitutto la topologia polarizzata che nelle reti so- ciali distorce invece di potenziare la capacità ad una “elaborazione collettiva”, è sulla sua genesi che si cercherà di volgere brevemente l’attenzione, con un per- corso che passa per l’epistemologia della razionalità limitata di Simon per ricol- legarsi ad analisi recenti sulle condizioni “topologiche” che indeboliscono o rafforzano il legame sociale nelle società complesse. 7. Oltre il mercato. Dall’economia organizzazionale allo studio del legame sociale Herbert Simon, figura multiforme di scienziato sociale che siede a buon diritto tra i padri fondatori dell’economia cognitiva (e Nobel per l’economia nel 1978), delle scienze della complessità e dell’intelligenza artificiale, propone una epi- stemologia della razionalità limitata dalle conseguenze fortemente divergenti dalla “divisione della conoscenza” di Hayek118. Critico quanto Hayek dell’idea 117 G. Simmel, Der Begriff und Tragödie der Kultur (1911), in Philosophische Kultur, II ed., Stutt- gart, Alfred Kröner Verlag, 1919, disponibile all’URL <http://www.socio.ch/sim/phil_kultur/ kul_13.htm>. Cfr. Y. Ezrahi, Science and the Political Imagination in Contemporary Democracies, in Jasanoff (a cura di), States of Knowledge, London-New York, Routledge, p. 254-273, definisce lo iato tra conoscenza e informazione uno dei temi principali della modernità. 118 Cfr. H.A. Simon, The Sciences of the Artificial, III ed., Cambridge (MA), The Mit Press, 1996, p. 166, dove il concetto di “bounded rationality” è definito come «the meaning of ration- ality in situations where the complexity of the environment is immensely greater than the com- putational powers of the adaptive system». Cfr. P. Mirowski, Machine Dreams Economics Becomes a Cyborg Science, Cambridge - New York, Cambridge University Press, 2002, in part. pp. 452-479. Simon è anche autore del primo modello di crescita scale-free di una rete attraverso preferential attachment; cfr. Dorogovtsev - Mendes, Evolution of Networks, cit. cap 7. Su Simon e Hayek, oltre a Martinez Solano, La complejidad, cit., si veda S. Fiori, Is H.A. Simon a Theoretician of Decentralized Planning? A Comparison with F.A. Hayek on Planning, Market, and Organizations, in «Constitutional Rete, democrazia e complessità 27 neoclassica della razionalità economica e del decisore onnisciente che le sot- tende, confuta tuttavia l’idea che il mercato sia uno strumento efficace di coor- dinazione e un modo adeguato di rappresentare le dinamiche in gioco in una società complessa, in ragione del suo basso livello di organizzazione. In parallelo con le teorie evoluzionistiche che cominciavano allora a mettere in luce il vantaggio evolutivo della cooperazione, Simon disegna la realtà dell’economia contemporanea in termini di “economia organizzazionale”119. Deriva infatti, dal lungo studio dei processi decisionali all’interno delle grandi organizzazioni, amministrative come commerciali, una rappresentazione della loro dinamica come decentralizzata, secondo una topologia che, nel 1962, ge- neralizza nella teoria della “quasi-scomponibilità” dei sistemi complessi120. Le grandi organizzazioni sono in grado di risolvere problemi complessi gra- zie a una divisione dei compiti, una “dipartimentalizzazione” dei problemi, che vengono così decentralizzati e contestualizzati localmente in un regime di quasi indipendenza dal progetto globale che caratterizza l’organizzazione nel suo in- sieme. I sottosistemi, caratterizzati da un’alta interconnessione tra i componen- ti, riconfigurano sulla base di informazione contestuale i fini generali, e li modi- ficano dinamicamente grazie all’interazione “minima ma non trascurabile” che li mantiene in connessione, e che in ultima analisi garantisce la coerenza di lun- go periodo della loro sinergia, nonché la riformulazione “adattiva” degli obiet- tivi globali. In questi termini, Simon riabilita il valore e l’importanza del progetto: di una “pianificazione sociale senza fini fissi”, analogo sociale dell’evoluzione naturale121. Il flusso informazionale così articolato è ricco e variegato, e non avviene at- traverso la koiné semplificata del denaro; esso è piuttosto mediato e filtrato da organizzazioni strutturate, le quali sono informate da principi interni, di effi- cienza ma anche da meccanismi coesivi motivazionali non solo economici, qua- li la identificazione, l’appartenenza, la lealtà, “virtù” strettamente apparentate a quelle attivamente selezionate in contesto sociale122. Political Economy», 21, 2010, 2, pp. 145-170; M. Egidi - L. Marengo, Near-Decomposability, Or- ganization, and Evolution: Some Notes on Herbert Simon’s Contribution, in M. Augier - J.J. March (a cura di), Models of A Man: Essays in Memory of Herbert A. Simon, Cambridge (MA), The MIT Press, 2004, pp. 335-350. 119 H.A. Simon, Organization and Markets, in «The Journal of Economic Perspectives», 5, 1991, 2, pp. 25-44. 120 H.A. Simon, The Architecture of Complexity, in «Proceedings of the American Philosophical Society», 106, 1962, 6, pp. 467-482. 121 Cfr. Simon, The Sciences of the Artificial, cit., p. 165. 122 Cfr. H.A. Simon, Reason in human affairs, Stanford, Stanford University Press, 1983, pp. 55 sgg.; Id., The Sciences, cit., p.44-46. Simon attribuisce così, come già Durkheim, un’im- portanza determinante alla selezione sociale come eccedente quella naturale, in quanto il regime selettivo rilevante per l’evoluzione umana (cfr. S. Caianiello, Corpi biologici e corpi sociali: il caso della divisione del lavoro, in «Laboratorio dell’Ispf», 3, 2006, pp. 20-48). Seppure per vie diverse, anche M. Granovetter (cfr. infra) sottolinea, in continuità con Karl Polanyi (fratello maggiore del già citato Michael), la “embeddedness” del comportamento economico nel contesto più ampio delle relazioni sociali (cfr. M. Granovetter, Economic Action and Social Structure, in R. Swe- Silvia Caianiello 28 Nel 1962, Simon generalizza l’architettura quasi-scomponibile a tutti i si- stemi complessi adattivi, da quelli biologici a quelli “artificiali”, categoria nella quale include tutti i sistemi sociali e tecnologici, annullando l’opposizione san- cita da Hayek tra mercato come sistema naturale e stato come artificiale. In tal modo, Simon fornisce alla sua concezione un fondamento evolutivo più poten- te, oltre che scientificamente più aggiornato, di quello di Hayek. Se la maggio- ranza dei sistemi complessi in natura sono quasi-scomponibili, e questa pro- prietà è la cifra della “complessità organizzata”123, significa che la selezione li ha preferiti per il loro valore di fitness: in quanto sono i più stabili, i più flessibili alle trasformazioni anche estreme dell’ambiente, ossia, per usare un termine contemporaneo, i più “evolvibili”124. Ma evidentemente, nel caso dei sistemi economici e sociali, la generalizza- zione di Simon ha un significato prescrittivo125, e volutamente tale, come mo- stra il saggio Predire o plasmare il futuro?, nel quale Simon, all’alba di Web 2.0, ra- giona sul compito di “progettare” le condizioni perché la tecnologia – e la tec- nologia dell’informazione in particolare – resti «sintonizzata» con l’obiettivo umano di un mondo «sostenibile ed accettabile»126. dberg - M. Granovetter (a cura di), The Sociology of Economic Life, Boulder, Westview Press, 1992, pp. 53-81). 123 Cfr. W. Weaver, Science and Complexity, in «American Scientist», 36, 1948, 4, pp. 536-544. 124 Un singolo sottosistema, in virtù del suo relativo isolamento, può cambiare senza infi- ciare il funzionamento del tutto, e la sua innovazione, se benefica, aumenta la fitness dell’intero sistema; cfr. S. Caianiello, Les modules de la variation, L’évo-dévo ou la nouvelle genèse des formes, in «Critique», 62, 2011, 764-765, pp. 130-142. Il concetto di evolvability, a partire dal seminale saggio di D. Dawkins (The Evolution of Evolvability (1987), in S. Kumar - P. Bentley (a cura di), On Growth, Form and Computers, Amsterdam, Elsevier, 2003, pp. 239-255) è divenuto una chiave di volta della riflessione teorica sulla biologia evoluzionistica, e la sua principale innovazione è di ampliare la interrogazione dal vantaggio adattivo di uno o più tratti del fenotipo alle proprietà disposizionali intrinseche alla sua organizzazione che conferiscono all’organismo uno spettro più ampio di adattabilità. Per una sintesi sull’importanza di Simon per il pensiero biologico, cfr. W. Callebaut, Simon’s Silent Revolution, in «Biological Theory», 2, 2007, 1 pp. 76-86. Simon invoca la spinta alla centralizzazione che caratterizza l’economia di guerra come esempio del- l’inefficienza del mercato a gestire situazioni estreme. L’argomento principale è che i prezzi sono predizioni efficaci solo se l’“ambiente” socio-economico è stabile; a fronte di grandi perturbazioni che producono molteplici forme di incertezza, i prezzi stessi diventano incerti, riducendo «la capacità degli attori di rispondere razionalmente»; in questi casi le organizzazioni, in quanto dotate della autorità di stabilire regole e assicurare coordinamento, sono molto più efficaci nel generare “aspettative” e risposte razionali (Simon, Organizations and Markets, cit., pp. 40, 39). 125 Cfr. Martinez Solano, La complejidad, cit. 126 H.A. Simon, Forecasting the Future or Shaping It?, in «Industrial and Corporate Change», 11, 2002, pp. 601-605; cfr. anche Id., Bandwagon and Underdog Effects and the Possibility of Election Pre- dictions, in «Public Opinion Quarterly», 18, 1954, 3, pp. 245-253. La reintroduzione da parte di Simon di quello che Hayek chiamava “costruttivismo” come pratica epistemologica inscindibile dalla modellazione è espressione dello iato profondo tra la cibernetica delle origini e quella che si usa definire cibernetica di “secondo ordine”, nella quale la posizione dell’osservatore diventa parte integrante dell’assetto epistemico; cfr. F. Heylighen - J. Joslyn, Cybernetics and Second Order Cybernetics, in R.A. Meyers (a cura di), Encyclopedia of Physical Science and Technology, Amsterdam, Elsevier, 2001, pp. 155-169. Rete, democrazia e complessità 29 Questa brevissima e del tutto parziale sintesi del pensiero di Simon, in quan- to autorevole sostenitore di una visione della complessità economica e sociale fondata sulla razionalità limitata e alternativa a quella neoliberista, fa emergere un concetto che ha una storia autonoma ma egualmente intrecciata con l’evo- luzione delle scienze della complessità, in una delle sue radici più importanti, le scienze sociali. La formula della complessità “sostenibile” secondo l’ “olismo pragmatico” di Simon si caratterizza per un’organizzazione modulare, nella quale sottosistemi con alto grado di connettività interna mantengono una rela- zione comunicativa con altri sottosistemi egualmente integrati attraverso una connessione “debole”127. Questa architettura risolveva il problema evidenziato negli stessi anni dallo studio cibernetico dei grandi sistemi dinamici non lineari, che metteva in luce l’esistenza di una precisa soglia oltre la quale la connettività eccessiva porta a una instabilità catastrofica128: un esito che la modularizzazione in sottosistemi poteva adeguatamente sventare, a ulteriore riprova della supe- riore robustezza evolutiva della quasi-scomponibilità. La cifra della complessità organizzata in una articolazione di connessioni “forti” e “deboli” trova riscontro nella teoria dei “legami” che ha origine nelle scienze sociali dagli studi di Mark Granovetter129. I legami in questione sono interazioni sociali interpersonali, intese come strutturalmente bidirezionali. Nel suo modello ancora “speculativo”, Granovet- ter riduce la multidimensionalità che caratterizza i legami sociali nelle semplici categorie di “amico” e “conoscente”, quantificandole attraverso una soglia nel- la frequenza delle interazioni. Il modello rende applicabile la sociometria delle reti alle relazioni sociali, e serve il fine di connettere il livello microscopico dei processi interpersonali con pattern macrosociali, e – last but not least – di po- tere dunque valutare come e quanto la struttura di comunità emergente a gran- de scala retroagisce sulla formazione o dissoluzione dei legami individuali. Il fenomeno che Granovetter prende come oggetto è la ricerca di lavoro, e il risultato del suo campionamento è che i legami più “poveri”, quelli di cono- scenza superficiale, rivelano una “forza” sorprendente che eccede quella dei legami forti130. Il motivo è che i legami deboli garantiscono la diffusione di in- formazione tra cerchie anche molto distanti, mentre l’informazione scambiata attraverso legami forti resa confinata nella cerchia ristretta e diviene così presto ridondante. In quanto veicoli di informazione “nuova” in cerchie autoreferen- ziali, i legami deboli sono motori di innovazione e trasformazione sociale. La conclusione di Granovetter è che l’organizzazione della comunità sociale è seriamente compromessa dalla rimozione di legami deboli; questi “ponti”, che possono essere molto lunghi e mantenere la comunicazione tra cerchie so- 127 Cfr. Simon, The Architecture, cit. 128 M.R. Gardner - W.R. Ashby, Connectance of Large Dynamic (Cybernetic) Systems: Critical Val- ues for Stability, in «Nature» 228, 1970, p. 784. 129 M. Granovetter, The Strength of Weak Ties, in «The American Journal of Sociology», 78, 1973, 6, pp. 1360-1380. 130 Sull’importanza paradigmatica di questi studi, cfr. Borgatti et al., Network Analysis, cit. Silvia Caianiello 30 ciali assai distanti, agiscono da “stabilizzatori” dei sistemi complessi131. Questo risultato provava che la topologia della rete sociale a grande scala consente di misurare la coesione sociale, la «capacità differenziale delle comunità di agire per raggiungere fini condivisi»132. Passare dalla formalizzazione della topologia delle reti sociali – con la loro virtù epistemica di mettere in relazione microdinamiche e macrofenomeni – al disse- zionamento analitico delle forze e delle condizioni che ne determinano l’emer- genza, è l’ambizione della recente scienza sociale computazionale. Questa am- bizione si fonda sulla disponibilità di big data – quelli accumulati dalle grandi piattaforme, e in particolare i social network – che rendono possibile un ap- proccio statistico; sulla elaborazione di strumenti computazionali volti a gestire e integrare dati eterogenei; sul fondamentale contributo delle scienze sociali, che fornisce gli strumenti concettuali e qualitativi per identificare le diverse di- mensioni rilevanti per descrivere la complessità delle interazioni sociali; e sulla simulazione, che, consentendo di alterare “sperimentalmente” in silico moltepli- ci parametri nel modello fino a ricalcare il fenomeno “emergente” in esame133, rappresenta lo strumento epistemologico che consente di rivendicare l’attin- gimento di una spiegazione causale134. L’obiettivo è «classificare e comprendere nuovi pericoli e patologie dei sistemi sociali complessi», in particolare gli «effet- ti contrastanti» delle nuove tecnologie sulla società, ed in primis, a partire dai pionieristici lavori di Robert Axelrod, i fenomeni di polarizzazione, la segrega- zione delle reti sociali in gruppi distinti e incomunicanti135. Alla base della differenziazione e del mantenimento di gruppi culturali di- stinti Axelrod aveva identificato la tendenza a legarsi con il simile, ossia con persone con cui si condividono più tratti culturali; un processo che per sua na- tura si autoamplifica, in quanto «l’interazione porta ad un aumento di somi- 131 P. Csermely, Weak links. Stabilizers of Complex Systems from Proteins to Social Networks, Ber- lin - New York, Springer, 2006. 132 Granovetter, The Strength, cit., p. 1375. 133 Lo strumento principale è la classe di modelli detti “agent-based”, simulazioni computa- zionali del comportamento di «agenti interagenti che producono effetti a grande scala». R. Axelrod, The Complexity of Cooperation, Princeton, Princeton University Press, 1997, p. 4; cfr anche J.M. Epstein, Agent-Based Computational Moderns and Generative Social Science, in «Complexity», 4, 1999, 5, pp. 41-60. 134 Cfr. il concetto di “generative sufficiency”, che si ottiene quando agenti che inter- agiscono secondo un sistema di regole «generano macrostrutture che mimano quelle osservate» (Epstein, Agent-Based, cit., p. 48). La simulazione della coevoluzione delle interazioni nonlineari tra agenti eterogenei consente di modellare l’emergenza di fenomeni macrosociali, dove l’as- sunto principale è che le regole che essi seguono non sono necessariamente razionali, ma adattive (Axelrod, The Complexity, cit., p. 4). In questi casi, il principio è «if you didn’t grow it, you didn’t explain its emergence» (J.M. Epstein, Generative Social Science, Princeton - Oxford, Princeton University Press, 2006, p. 8). 135 R. Conte et al., Manifesto of Computational Social Science, in «European Physical Journal», 214, 2012, 1, pp. 325-346, p. 326. Rete, democrazia e complessità 31 glianza»136. L’“omofilia” porta alla “convergenza locale”, alla costituzione cioè di legami “forti”, e può avere come esito estremo la “polarizzazione globale”, ossia su scala macrosociale. Sembrerebbe risultarne che il grado di coesione sociale discende dalla interazione equilibrante tra la forza “omofilica” e quella opposta, i legami “deboli” che agirebbero da veicoli di integrazione sociale, perché attraverso di essi l’influenza sociale (o “contagio”, termine che sottoli- nea la circolazione non solo di idee e informazione ma di emozioni, compor- tamenti, atteggiamenti e credenze) riesce a viaggiare tra cerchie distinte. Dal saggio seminale di Axelrod si può isolare per il presente discorso un’indicazione molto suggestiva per l’epoca attuale, una vera e propria predi- zione, considerando che è scritta prima dell’avvento di Web 2.0: ossia che con il venire meno, con la comunicazione elettronica, delle barriere geografiche nel- l’interazione sociale, con interazioni dunque basate interamente su “self- selection”, la tendenza a “convergenza locale e polarizzazione globale” avrebbe avuto il sopravvento137. Come si è accennato, un’ampia messe di studi quantita- tivi recenti sulle reti sociali ha confermato la validità del modello. Le scienze sociali computazionali hanno un ruolo importante nel diffondere consapevolezza sull’effetto delle nuove tecnologie sulle relazioni che struttura- no la società (si veda Caldarelli in questo numero). Di contro, il loro lato più oscuro è proprio di utilizzare i dati disponibili sulle reti sociali come una piatta- forma sperimentale a grande scala138 per elaborare proprio quel tipo di predi- zioni che possono tradursi in algoritmi non innocenti se utilizzati come stru- menti di potere. A fronte di uno dei fenomeni più preoccupanti nella “antropologia politica” contemporanea, la difficoltà del cittadino disintermediato non solo e tanto di costituire un “noi” politico, il che ancora avviene nelle “reti di indignazione e di speranza”, nelle grandi onde emozionali che aggregano in tempi brevissimi anche milioni di persone su scala globale139; ma un noi politico che non sia transeunte (cfr. Fasano in questo numero), quasi “a progetto” come la forma sempre più diffusa del lavoro – viene da chiedersi cosa questi nuovi potenti strumenti di indagine, plasmati dalle scienze della complessità per far fronte alla sfida cognitiva e politica dell’ecosistema digitale, possano dirci sulle condizioni in grado di promuovere e sostenere nel tempo dinamiche virtuose di coesione sociale. Un lavoro recente di Damon Centola, metodologicamente improntato a una integrazione tra la tradizionale ricerca sociale sulle popolazioni140 e gli strumenti 136 R. Axelrod, The Dissemination of Culture: A Model with Local Convergence and Global Polariza- tion, in «Journal of Conflict Resolution», 41, 1997, 2, pp. 203-226, p. 205. 137 Ivi, p. 224. 138 Cfr. Castellano et al., Statistical Physics, cit. 139 Cfr. M. Castells, Reti di indignazione e di speranza, Milano, Università Bocconi, 2012; si pensi al recente fenomeno del movimento ecologista “dei ragazzi” guidato da Greta Thunberg. 140 In particolare, l’analisi delle “cerchie sociali” di G. Simmel (cfr. G. Simmel, Die Kreuzung sozialer Kreise, in Id. Soziologie, Leipzig, Duncker & Humblot, 1908, pp. 403-453) come ripresa da P.M. Blau - J.E. Schwartz, Crosscutting Social Circles, New York, Routledge, 1997. Cfr. anche Silvia Caianiello 32 della scienza sociale computazionale, contiene alcune indicazioni interessanti, e alcune assonanze con i requisiti di Simon per una complessità sociale “organiz- zata” ed evolvibile. Centola indaga un particolare tipo di influenza sociale, quella del contagio “complesso”. Il contagio complesso riguarda la trasmissione non passiva o ri- petitiva, ma quella che implica una presa in carico, intrinsecamente costosa e proattiva, di pratiche culturali, norme sociali e azioni collettive: la diffusione cioè di tratti omogeneizzanti passibili di produrre a livello globale effetti di in- tegrazione culturale e sociale. A differenza che nel contagio “semplice”, il suc- cesso del contagio complesso non dipende solo dall’equilibrio dinamico tra “small worlds” di legami forti ed un sufficiente numero di legami trasversali, “cross-cutting ties”141. La dinamica microsociale alla base di questa differenza è che l’adozione di norme e comportamenti nuovi richiede l’azione di segnali rinforzanti da più fonti distinte nel proprio gruppo di affiliazione. Il contagio sociale richiede dunque una soglia di validazione normativa da parte del gruppo al di sotto della quale la transizione da uno stato ad un altro non avviene. Cen- tola arriva così a stabilire che, perché una transizione si inneschi, il gruppo di affiliazione deve essere sufficientemente “ricco” culturalmente da consentire affiliazioni non solo omofiliche ma multiple, che passano per tratti culturali eterogenei, e nel quale l’individuo possa situarsi «all’intersezione di multiformi influenze sociali»142. La struttura di questo metagruppo è quella di una “rete” di mesolivello, capace, come “gli incroci di cerchie sociali” teorizzati da Simmel, di traversare più gruppi omofilici contigui, «di trascendere legami locali eppure restare entità del tutto concrete»143. La loro “concretezza” consiste nella capaci- tà di svolgere le funzioni affiliative del gruppo, e così in sintesi di rendere pos- sibili – non diversamente dalle organizzazioni di Simon – dinamiche interne di identificazione e affiliazione144. Queste reti fanno emergere una “struttura di comunità” connesse tra loro da ponti sufficientemente “ampi” da consentire «la trasmissione di un nuovo comportamento quando l’adozione richiede un rinforzo sociale minimale». La struttura di comunità che ne emerge appronta «il tessuto sociale necessario per sostenere la diffusione di norme e pratiche con- divise attraverso una popolazione». Di contro, una società dalla topologia «al- tamente interconnessa», priva di queste strutture intermedie, elimina l’ «infra- struttura sociale necessaria» a supportare la diffusione e il mantenimento di norme e comportamenti coesivi145. A. Flache - M.W. Macy, Local Convergence and Global Diversity: From Interpersonal to Social Influence, in «Journal for Conflict Resolution», 55, 2011, 6, pp. 970-995. 141 Cfr. A. Degenne - M. Forsé, Les réseaux sociaux, Paris, PUF, 1007, cap. 8. 142 Simmel, Soziologie, cit., p. 14. 143 Ivi, p. 415. 144 Simon, Organizations and Markets, cit. 145 D. Centola, The Social Origins of Networks and Diffusion, in «American Journal of Sociolo- gy», 120, 2015, 5, pp. 1295-1338, pp. 1318-1319 e 1297. Un sintomo quantificabile della enor- me crescita di “weak ties” nelle reti sociali è la diminuzione dei gradi di separazione misurata da Backstrom et al., Four Degrees, cit. Cfr. Caldarelli in questo numero. Rete, democrazia e complessità 33 8. Scenari per Web 3.0 Le definizioni di Web 3.0 attualmente in circolazione sono lungi dall’essere univoche. Identificata inizialmente con il progetto di “rete semantica” autore- volmente promosso da Tim Berners-Lee, il cui bilancio appare ad oggi larga- mente fallimentare146, o più in generale come l’avvento massiccio di funzioni e algoritmi di intelligenza artificiale e “data-driven machine-learning” che media- no sempre più attivamente il rapporto degli utenti con il gigantesco ammasso di dati e informazioni esistenti in rete147, ci sembra possibile intenderla più ge- neralmente come il luogo in cui attualmente si proiettano e sperimentano sce- nari correttivi ai mali di Web 2.0. Tra le diagnosi di questi mali, la più condivisa è l’imputazione di responsabi- lità alle grandi corporations che dominano la rete, il cui strapotere va contrasta- tato al fine di restituire agli utenti il diritto alla proprietà sui propri dati e sul loro 146 Nonostante la tendenza dei suoi promotori a presentarla come già realizzata (cfr. J. Hendler - T. Berners-Lee, From the Semantic Web to Social Machines: A Research Challenge for AI on the World Wide Web, in «Artificial Intellgience, 174, 2010, 2, pp. 151-161), è più realistico parlare di suo fallimento, come analiticamente dimostrato da Halpin, Decentralizing the Social Web, cit., non tanto perché alcuni aspetti di questo progetto ambizioso non siano stati implementati con successo, ma perché la loro implementazione nella realtà non ha avuto affatto l’effetto “demo- cratizzante” di disintermediazione auspicato da Berners-Lee, e anzi di essa si sono di fatto ap- propriati proprio i Big Tech contro i quali si rivolgeva, in particolare nei “like” di Facebook. In termini estremamente generali, l’idea della rete semantica è di strutturare tutta l’informazione esistente in rete convertendola in un formato universale e interoperabile interpretabile da com- puter, di modo che questi possano elaborare (e continuamente aggiornare) attraverso processi automatizzati delle “ontologie” condivise, che renderebbero le ricerche degli utenti indipenden- ti dalla mediazione di motori di ricerca centralizzati. Il risparmio cognitivo dell’utente sarebbe ulteriormente garantito dall’assistenza di software di intelligenza artificiale, capaci di contestua- lizzare e personalizzare la ricerca sulla base di una profilazione individualizzata dell’utente. Cfr. T. Berners-Lee - J. Hendler - O. Lassila, The Semantic Web. A New Form of Web Content That Is Meaningful to Computers Will Unleash a Revolution of New Possibilities, in «Scientific American», 284, 2001, 5, pp. 1-5, secondo cui la rete semantica svolgerebbe le funzioni di un «linguaggio logico unificante» capace di «legare progressivamente» i diversi concetti e innovazioni prodotti nei linguaggi speciali dei singoli gruppi «in una rete universale». Nel web semantico, dunque, gli “attanti” umani rivestirebbero il ruolo di fonte di dati semantici, mentre la funzione propria- mente “riflessiva” di elaborare, codificare e continuamente aggiornare il sapere collettivo in “ontologie” diviene prerogativa degli “attanti” informatici, cui è demandata di fatto la transi- zione tra il livello microsociale della significazione individuale e la configurazione macrosociale dell’“intelligenza collettiva”. Ma il fallimento di questo progetto, specie quando esso ambisce a creare ontologie di significati condivisi dalle regioni della rete più “destrutturate” come i social media e i blog, avrebbe motivi “filosofici” più profondi, che sono stati analiticamente esposti da L. Floridi, Web 2.0 vs. the Semantic Web: A Philosophical Assessment, in «Episteme», 6, 2009, 1, pp. 25-37, ossia l’ambizione di realizzare una versione “forte” di AI sulla cui possibilità esisto- no radicati dubbi. Si veda anche U. Ultes-Nitsche, Web 3.0 – wohin geht es mit dem World Wide Web?, in «HMD Praxis der Wirtschaftsinformatik», 47, 2010, 1, pp. 6-12, sui problemi di sicu- rezza e affidabilità che il progetto comporta. 147 Cfr. la voce Web 3.0, in Lessico del XXI secolo, Roma, Istituto della Enciclopedia Italiana, 2013, consultabile online: <http://www.treccani.it/enciclopedia/web-3-0_%28Lessico-del- XXI-Secolo%29/>, visto il 20/11/2019. Silvia Caianiello 34 uso – o, come secondo molti sarebbe più corretto dire, semplicemente il diritto fondamentale e inalienabile alla privacy148. Pochi degli osservatori critici della rete si asterrebbero dal sottoscrivere i principi della Magna Charta o – più infelice- mente – “contratto” per una internet etica, promosso da Tim Berners-Lee e di cui è da poco uscita una prima stesura, che assegna doveri e responsabilità a governi, compagnie commerciali e utenti: in particolare, a questi ultimi viene demandato il compito di costruire «comunità forti che rispettino il discorso civico e la dignità umana»149. Altri obiettivi significativi, sebbene meno universalmente ricorrenti e esplici- tati, nei progetti di riforma della rete sono quello di promuovere qualche forma di controllo umano sugli algoritmi che governano la rete; il superamento del regime di “presentismo” della rete attuale, dotandola di forme di memoria150, e della frammentazione e polarizzazione del mondo sociale digitale. Ma sui modi per mantenere il web aperto come una «risorsa pubblica globa- 151 le» , le strategie differiscono quanto le analisi. Ai due estremi di questo spettro complesso di posizioni stanno quello che propongo di chiamare, con Morozov, il “soluzionismo tecnologico”152, la cui idea chiave è che restaurare e assicurare più solidamente, grazie a nuove tecnologie, alla rete il suo originario carattere 148 Cfr. Schneier, Data and Goliath, cit. Almeno sul piano giurisprudenziale, la recente Gene- ral Data Protection Regulation (GDPR, Regolamento UE 2016/679) in vigore dal 25 maggio 2018 ha posto l’Unione Europea all’avanguardia assoluta nella legislazione in questo campo, non ultimo perché attribuisce ai service provider l’onere di garantire e accertare il rispetto della privacy. 149 Cfr. <https://contractfortheweb.org/draft-07-2019/>, visto il 20/11/2019. 150 Questo è l’obiettivo della Wayback Machine promossa da Brewster Kahle, fondatore di Internet Archive, nel contesto del progetto di una Universal Library distribuita; cfr. J. Kaplan, Locking the Web Open: A Call for a Decentralized Web, 11/8/2011, <http://brewster.kahle.org/ 2015/08/11/locking-the-web-open-a-call-for-a-distributed-web-2/>, visto il 21/11/2019. Tuttavia, in questo progetto le funzioni di memorizzazione delle pagine Web andrebbero piuttosto decentralizzate in molte «Wayback Machines gestite da molte organizzazioni diverse», dacché evidentemente non sarebbe agevole convincere gli utenti a cedere pezzi della memoria dei propri computer per conservare il passato. Dovrebbero essere dunque grandi agenzie o istituzioni senza fini di lucro a occuparsene, e ad assumere così funzioni pubbliche di intermediazione e di certificazione dei contenuti. L’alternativa realmente distribuita per la conservazione del passato digitale sarebbe secondo molti quella dei sistemi peer-to-peer, dove la storicità dei dati viene garantita direttamente dai produttori di contenuti, che li certificano e datano in modo unico e irreversibile attraverso degli hash identificativi crittografati, secondo la tecnologia blockchain. Cfr. Gilder, Beyond Google, cit.: «The new era will move beyond Markov chains of disconnected probabilistic states to blockchain hashes of history and futurity, trust and truth». Oltre a sollevare tutti i problemi cui in generale blockchain è ritenuta esposta (cfr. infra), c’è una criticità generale in cui incorrono tutte le tecnologie distribuite rispetto alla funzione di memorizzare il passato digitale su base individuale e volontaristica, ossia che si conserverebbero solo dati e pagine web “popolari”, mentre quelle di nicchia, meno frequentate e dunque condivise, «vivrebbero giorno dopo giorno sull’orlo dell’estinzione»; cfr. A. Pettinati, Project Maelstrom: il browser P2P dai creatori di BitTorrent, 28/5/2015, <https://www.ridble.com/ bittorrent-project-maelstrom/>, visto il 20/11/2019. 151 Cfr. <https://contractfortheweb.org/draft-07-2019/>, cit. 152 Cfr. E. Morozov, To Save Everything, Click Here. Smart Machines, Dumb Humans, and the Myth of Tecnological Perfectionism, New York, Perseus Book, 2013. Rete, democrazia e complessità 35 distribuito, sia sufficiente a ripristinare le condizioni per la democrazia153; e quello regolamentativo, volto a ideare per la rete una nuova “costituzione”, condivisa e vincolante (cfr. De Rosa in questo numero), o comunque impegna- to nel complesso lavorio politico-legale di costruire e promuovere norme, agenzie che le implementino, e politiche antimonopolistiche. A scopo esempli- ficativo, cercherò di tratteggiare sommariamente questi due estremi, in quanto essi delimitano in qualche modo lo spazio argomentativo in cui si situa la ricer- ca di rimedi efficaci a problemi estremamente complessi154. 9. Soluzionismo tecnologico Il “soluzionismo tecnologico” parte dall’assunto che realizzare una architettura pienamente distribuita sia sufficiente a restituire agli utenti la proprietà e il con- trollo sui propri dati e a rendere innecessaria la mediazione dei grandi hub cen- tralizzati. Le soluzioni al centro del dibattito si basano tutte sulla tecnologia di rete paritetica (peer-to-peer, P2P), nella quale ogni nodo agisce sia da client che da server rispetto agli altri nodi senza bisogno di coordinamento centrale. Esempio paradigmatico di questo approccio è la tecnologia blockchain, la tecnologia alla base delle criptomonete digitali. Essa unisce alla capacità di P2P di condivisione delle risorse, distribuite fisicamente tra le memorie dei compu- ter di tutti gli utenti, la identificazione universale di ogni contenuto – e dunque della sua proprietà – attraverso uno hash crittografato e irreversibilmente data- to (timestamped). L’operazione di creare un blocco della catena corrisponde alla sottoscrizione di un contratto “algoritmico”, attraverso software, o “smart contract” che viene iscritto in un registro (ledger) decentralizzato e universal- mente accessibile a garanzia delle transazioni. Trasferita dalla moneta ai dati, da quelli personali a quelli commerciabili, come produzioni creative, significa che, senza bisogno di fiducia o di agenzie terze che la garantiscano, l’utente può ce- derne l’uso senza mai perderne la proprietà, e farsi eventualmente remunerare in modo altrettanto decentralizzato. Inoltre, la distribuzione fisica dello storage dei dati tra vari computer assicura la loro persistenza in modo del tutto indi- 153 A questo estremo si può ascrivere la posizione neoliberista di Gilder, Beyond Google, cit. che ritiene questa soluzione di gran lunga preferibile per efficienza e dinamicità ad aumenti di regolamentazione; e sembra così avere perso la memoria del fatto che proprio il dominio dere- golato del mercato ha prodotto la topologia attuale della rete, così come del fatto che già Hayek aveva chiarissimo che non il mercato libero, ma solo gli Stati possono assicurare le condizioni per la competizione; cfr. Rodrigues, Embedding Neoliberalism, cit. 154 Evidentemente, sono in proporzione maggiormente affetti dal soluzionismo tecnologico i “tecnici”, ingegneri informatici e scienziati attivi nel campo, e da “costituzionalismo” giuristi e scienziati politici. Ma c’è, mi pare, ampia e crescente consapevolezza che gli approcci vadano integrati; come dimostrano lo stesso “contratto” promosso da Berners-Lee, il fatto che il MIT finanzi un “The Center for Civic Media & The Digital Currency Initiative”, che ha prodotto nel 2017 il già citato Report, un documento estremamente significativo (Barabas et al., Defending Internet Freedom, cit.); nonché tecnici puri e duri come Schneier, esperto di crittografia, ed inventore dell’analogia tra Web 2.0 e il regime feudale, che nel suo Data and Goliath (cit.) propone misure prevalentemente giuridiche. Silvia Caianiello 36 pendente dai grandi hub dei provider di servizi, dai loro malfunzionamenti co- me dalla loro eventuale azione di controllo. La domanda ovviamente è «se le forze che hanno trasformato la rete in una serie di hub centralizzati saranno efficacemente contrastate da architetture e protocolli che le consentono di decentralizzarsi», specialmente considerando che la centralizzazione attuale è nata “over the top” di una rete originariamente distribuita155. Il rischio insomma che la tragedia di Web 2.0, di grandi speranze iniziali trasformate in altrettanto grandi incubi, si ripeta in forma di farsa, se- condo l’adagio di Marx156. Questa domanda è oggetto di intenso dibattito, e le risposte sono in verità al momento poco promettenti. Uno – tra i molti individuati – punti critici è nel processo detto “mining” che ha la funzione di validare i blocchi, un processo complesso che richiede personale esperto e notevole potenza di calcolo, ed ec- cede le capacità di un singolo operatore. Grandi mining pool in mano a gruppi privati ripropongono il problema di una centralizzazione funzionale passibile di trasferire il potere «da istituzioni finanziare pubblicamente responsabili a grup- pi oligarchici autonomi privi di alcun vincolo di responsabilità». Egualmente preoccupante è l’ingenuità giuridica degli “smart contract”, di ritenere che la creazione di un contratto, «intelligente o meno», possa essere confusa con il processo legale che solo può garantire il suo rispetto157. Su blockchain inoltre incombono seri problemi di scalabilità, la cui risoluzione è spesso demandata alla bacchetta magica della cosiddetta legge di Moore che aumenterà all’infinito potenza e velocità dei computer158, e altrettanto seri dubbi sulla probabilità che un utente ordinario sia interessato a pagare il costo cognitivo di procedure complesse e impegnative. Last but not least, nulla sembra poter impedire che tecnologie blockchain siano implementate per funzioni di controllo centralizza- to se non totalitario, come il Social Credit System cinese159. 155 D. Weinberger, How the Father of the World Wide Web Plans to Reclaim it from Facebook and Google, 10/8/2016, <https://www.digitaltrends.com/web/ways-to-decentralize-the-web/>, visto il 21/11/2019; cfr. Barabas et al., Defending Internet Freedom, cit. 156 Cfr. Halpin, Decentralizing the Social Web, cit., p. 189. 157 I. Kaminska, Blockchain as Gosplan 2.0, 2016, <http://bb9.berlinbiennale.de/blockchain- as-gosplan-2-0/>, visto il 21/11/2019; cfr. Quiniou, Blockchain, cit., p. 11; A.D. Signorelli, Come funzionerà la cryptointernet, il web 3.0 basato sulla blockchain, in «Wired», 22/11/2018, https:// www.wired.it/internet/web/2018/10/22/cryptointernet-web-3-0-blockchain/, visto il 21/11/ 2019; Golumbia, The Politics, cit. 158 Cfr. R. Chen, The State Growth Problem Facing Blockchains, 22/7/2019, <https:// thecontrol.co/state-growth-a-look-at-the-problem-and-its-solutions-6de9d7634b0b>, visto il 21/11/2019. 159 A. Antonovici, Will China Adopt Blockchain for its Social Credit System?, 15/11/2019, <https://bitcoinist.com/will-china-adopt-blockchain-for-its-social-credit-system/>, visto il 21/11/2019. Cfr. il recente pronunciamento del presidente cinese Xi Jinping a favore di una ampia adozione di blockchain, <http://chinaplus.cri.cn/news/politics/11/20191025/ 372103.html>, visto il 20/11/2019. Rete, democrazia e complessità 37 Risorge dunque, nel soluzionismo tecnologico, il pericolo già individuato da Barabási, di confondere codice con architettura: la quale è «il prodotto del codice e delle azioni umane collettive che ne fanno uso»160. 10. Il partito regolamentativo Tutte le soluzioni politiche e legali discusse e proposte da questo secondo ap- proccio richiedono il ripristino di forme di intermediazione e controllo traspa- renti, attraverso agenzie e auctorities pubbliche o sottoposte al controllo pub- blico. Una parte importante di questo lavorio iniziato sin dal 2005 riguarda cri- teri e metodi per implementare una “Net Neutrality”, dispositivi giuridici ma anche tecnologici di intervento sulla rete che garantiscano la libertà degli utenti nella scelta di contenuti e servizi e la rimozione di ogni barriera al libero merca- to delle idee161. Come mostra il GDPR europeo, molte proposte riguardano le misure per la salvaguardia della privacy dei dati e/o la loro riappropriazione da parte dei cit- tadini digitali162. Altrettanto cruciale è l’invocazione di interventi politici e legali in senso antimonopolistico, oltre che fiscale; e mi sembra legittimo il sospetto che politiche antimonopolistiche risolute e avvertite possano stimolare la costi- tuzione di uno spazio pubblico meno colonizzato e più pluralistico – incluse le tecnologie per realizzarlo163 – molto più semplicemente che demandando a sempre più sofisticate soluzioni tecnologiche il potere di “build in” la demo- crazia nella infrastruttura della rete164. Ma, indubbiamente, uno dei capitoli più spinosi nello scenario di Web 3.0, e del quale il partitito del “soluzionismo tecnologico” tende a ignorare la rilevan- za, è quello posto dalla crescente “governamentalità algoritmica” ossia il pro- blema della «governance dei sistemi complessi automatizzati che permeano il mondo di oggi»165. Un mondo, cioè, in cui il ruolo crescente dell’intelligenza artificiale rende la divisione dei compiti nella rete ibrida «co-costituita e co-prodotta da utenti e strumenti computazionali» sempre meno paritetica, relegando il ruolo degli at- 160 Barabási, Linked, cit., p. 174. 161 L. Belli - P. De Filippi, General Introduction: Towards a Multistakeholder Approach to Network Neutrality, in Belli - De Filippi (a cura di), Net Neutrality Compendium, cit., p. 3; cfr. ivi, p. 10: «gli Stati hanno il dovere di intervenire in modo da assicurare che il design della rete sia tale da pro- muovere l’esercizio dei diritti umani» (corsivo mio). 162 Cfr. V. Mayer-Schönberger - T. Ramge, A Big Choice for Big Tech, in «Foreign Affairs», cit., pp. 48-54, p. 54. 163 Cfr. le interessanti considerazioni di Halpin, Decentralizing the Social Web, cit., sui motivi anche “sociologici” per cui informatici fortemente motivati alla costruzione di protocolli di rete aperti non sono ancora riusciti ad accordarsi su un formato aperto interoperabile unitario. 164 Cfr. T. Walsh, Facebook and Google are run by today’s robber barons. Break them up, in «The Guardian», 23/11/2018, <https://www.theguardian.com/technology/2018/oct/23/ facebook-and-google-are-run-by-todays-robber-barons-break-them-up>, visto il 21/11/2019. 165 Cfr. A. Rouvroy - T. Berns, Il regime della verità digitale. Dalla governamentalità algoritmica a un nuovo Stato di diritto, in «La Deleuziana», 3, 2016, pp. 6-29; Musiani, Governance by Algorithms, cit. Si veda anche Pinto, La parte di Tersite, in questo numero. Silvia Caianiello 38 tanti umani a cavie e assistenti dell’apprendimento delle macchine166. Non si tratta in verità di distopie fantascientifiche di macchine che utilizzano la propria “autonomia” per elaborare fini propri rispetto a quelli umani, possibilità che al momento naviga ancora piuttosto nel territorio della metafisica che in quello della scienza; ma pur sempre di problemi estremamente complessi, per i quali l’appello o anche l’accertamento obbligatorio della “trasparenza” dell’algoritmo all’utente che lo ingaggia o che è coinvolto nel suo processo decisionale ri- schiano di risultare meri palliativi psicologici. Anche nel caso degli algoritmi emerge l’impossibilità di risolvere a livello di codice il loro effettivo comportamento nel tempo. Iscrivere nel “source code” degli algoritmi regole etiche risulta di principio impossibile167. Infatti, special- mente gli algoritmi odierni, che incorporano aspetti di intelligenza artificiale e machine-learning, sono «pezzi viventi di codice che evolvono nel tempo», in grado di modificare se stessi tramite l’interazione con il mondo esterno168. An- che il programmatore che ne conosce e manipola il design, non può impedire che «una volta che cominciano la loro operazioni routinarie tendano a recedere in una relativa opacità». Se il controllo algoritmico è «governance in motion», il suo realizzarsi in tempo reale rischia di non lasciare più lo spazio tra infor- mazione e regole che sarebbe necessario per controllarne o controagirne gli effetti169. Inoltre gli algoritmi sono – anche nel caso ideale che non contengano alcu- na forma di bias170 – ragionamenti basati su dati del passato, remoto e prossi- mo. La loro capacità di predizione si basa sull’assunto di una continuità lineare tra passato e futuro. Il rischio non sta dunque solo nel pericolo “politico” che questa capacità predittiva si traduca nel potere di influenzare la realizzazione la propria predizione, assottigliando fino a minacciare l’esistenza di una “auto- nomia” della preferenza dell’utente171. Nell’espansione dilagante di processi de- cisionali algoritmici in campi “diagnostici”, in cui la predizione ricade immedia- tamente sulla vita dell’individuo, come la suscettibilità a malattie e la probabilità che il responsabile di un crimine lo ripeta in futuro, un altro consistente rischio 166 Musiani, Governance by Algorithms, cit., p. 3; cfr. B. Stiegler, La société automatique, 1. L’Avenir du travail, Paris, Fayard, 2015. 167 Musiani, Governance by Algorithms, cit. 168 Cfr. Barabas et al., Defending Internet Freedom, cit, p. 20; cfr. K. Hosanagar, A Human’s Guide, cit.; R. Manzocco, La terra promessa del deep learning, in «Nova - Il Sole 24Ore», 19/01/2015, <https://nova.ilsole24ore.com/frontiere/la-terra-promessa-del-deep-learning/>, visto il 21/11/2019. 169 Cfr. Muellerleile - Robertson, Digital Weberianism, cit., pp. 204, 207; N. Wiener, Some Moral and Technical Consequences of Automation, in «Science», 131, 1960, 3410, p. 1335. 170 Cfr. supra n. 59. 171 Cfr. Benkler, Degrees of Freedom, cit., che menziona un esperimento sul “controllo comportamentale” con cui Facebook può alterare le emozioni – e dunque le decisioni – dei suoi utenti. Rete, democrazia e complessità 39 è che si finisca per legittimare l’esercizio di un vero e proprio determinismo sociale172. A questo scenario si aggiunge la assenza di “accountability” (responsabilità giuridica) degli algoritmi stessi, che, non ultimo per la loro intrinseca natura dinamica, non può essere demandata a coloro che ne redigono il codice sor- gente. Si pensi al caso recente del disastro aereo del Boeing 737 delle Ethiopian Airlines, nel quale in pratica un algoritmo ha preso il controllo dell’aereo in presenza di un sensore difettoso173 – una catastrofe che sicuramente costerà alla ditta produttrice una multa milionaria, ma di certo nessun ingegnere andrà in prigione. A fronte del paradosso della “algocrazia” come potere senza accountability, spiegare all’utente come è costruito un algoritmo rischia di non aumentarne la trasparenza. Se risposte adeguate sono possibili, la loro condizione minimale può essere fornita solo da “istituzioni epistemiche” estremamente forti e strut- turate, comunità di esperti terzi, capaci di simulare e magari così almeno intra- vedere le peggiori tra le possibili conseguenze di specifici algoritmi174. 11. Conclusioni Quali di queste misure o strategie saranno in grado di agire sulla topologia so- ciale attuale della rete riducendone i drammatici effetti di polarizzazione? La diagnosi di Kaminska, secondo la quale gli effetti di una eventuale diffu- sione epidemica di blockchain sarebbero di frammentare ulteriormente la so- cietà digitale175, sollecita la riflessione. Rafforzare il pluralismo, per esempio finanziando – invece che sottraendo risorse, come di recente proposto da poli- tici italiani – alla stampa, forse non avrebbe effetti immediati nel contrastare l’insularità delle camere di risonanza attuali, ma sarebbe un segnale forte nel rafforzare il ruolo dello Stato nella lotta per tenere aperta una società dilaniata da forze che la precipitano nella chiusura; o reintroducendo l’obbligo di mode- razione dei contenuti per contrastare pratiche di hate speech e preservare le voci delle minoranze176. 172 Cfr. J.L. Zittrain - C. Barabas - K. Dinakar - J. Ito - M. Virza, Interventions over Predictions: Reframing the Ethical Debate for Actuarial Risk Assessment, in Proceedings of Machine Learning Research, vol. 81, 2018, pp. 62-76, <http://proceedings.mlr.press/v81/barabas18a.html>, visto il 22/11/2019. 173 Cfr. C. O’Neil, Algorithms are Replacing Nearly All Bureaucratic Processes, in Internet, Big Data & Algorithms: Gateway to a New Future or a Threat to Privacy and Freedom, The Aspen Institute Congressional Program, pp. 17-20, <https://assets.aspeninstitute.org/content/uploads/ 2019/06/MIT-Conference-Report.pdf>, visto il 21/11/2019. 174 Prevedibilmente, si lavora all’obiettivo di affidare un compito così complesso agli stessi algoritmi; cfr. P.S. Thomas - B. Castro da Silva - A.G. Barto - S. Giguere - Y. Brun - E. Brun- skill, Preventing Undesirable Behavior of Intelligent Machines, in «Science», 366, 2019, 6468, pp. 999- 1004, il progetto di un “Seldonian” algorithm – tratto dall’omonimo personaggio della celebre trilogia galattica di Isaac Asimov – capace di «specificare limiti alla probabilità che un algoritmo produca un preciso comportamento indesiderabile» che l’utente ha la possibilità di selezionare. 175 Kaminska, Blockchain, cit. 176 Barabas et al., Defending Internet Freedom, cit., p. 111. Silvia Caianiello 40 Più che indicare soluzioni si possono qui osservare alcune tendenze interes- santi e speculare sulla opportunità che esse aprono. Per esempio, quelle ineren- ti alla tendenza geopolitica alla riterritorializzazione della rete, che ha sfatato il mito originario che la rete globale avrebbe annullato l’importanza dello spazio anche in economia177. Una tendenza che non coincide solo con la volontà di controllo dei governi, ma che nasce anche dal basso, dall’esigenza dei cittadini di ricostituire la dimensione linguistica e culturale della comunità, come dimo- stra il declino dell’inglese178; e che trova espressione anche ad es. nelle “grassroot community network”, che sperimentano a livello locale l’uso della rete come bene comune179. La rivincita dello spazio, che nel settore economico ha indotto varie compagnie nate come digitali a optare per uno statuto “ibri- do”, scoprendo la convenienza di “rimaterializzarsi” anche in negozi reali, sembra indicare la strada verso comunità ibride, capaci di coniugare vicinanza virtuale e reale per una esperienza più piena e meno volatile della prossimità. Progetti, in sintesi, di re-intermediazione che, come prospettato da Fasano in questo numero, utilizzano gli strumenti srtessi della disintermediazione per ri- fondare la «funzione discorsiva della comunicazione». Rifondare «comunità forti che rispettino il discorso civico e la dignità uma- na», ossia capaci insieme di coesione e di apertura, contrastando le forze “si- stemiche” che spingono alla polarizzazione non può essere forse un processo interamente delegato alla buona volontà dei singoli, né alla mera decentralizza- zione della rete. Richiede, come avverte il denso Report del 2017, che si «coltivi un ecosi- stema di piattaforme in grado di competere, diverse nelle loro strategie di go- vernance, interoperabili e connesse da una diversità di clienti federati» nonché «il lavoro legale, normativo e tecnico necessario perché questi progetti prospe- rino»180. Quel che è certo è che solo un progetto, inteso con Simon come assunzione di responsabilità, può contrastare la deriva dello «spettatorismo»181. 177 Cfr. Goldsmith - Wu, Who Controls the Internet?, p. 53 sgg.; P.A. Balland - C. Jara-Figueroa - S. Petralia - M. Steijn - D.L. Rigby - C.A. Hidalgo, Complex Economic Activities Concentrate in Large Cities, 24/7/2018, <http://dx.doi.org/10.2139/ssrn.3219155>, visto il 21/11/2019. 178 Cfr. Goldsmith - Wu, Who Controls the Internet?, cit., cui Baur-Ahrens, The Power of Cyberspace Centralisation, cit., ha contrapposto una lettura fortemente negativa del significato politico della riterritorializzazione come ricentralizzazione nelle mani degli Stati. Per quanto accurata, questa analisi sottovaluta in primis la componente sociale dal basso del fenomeno, e semplifica l’aspetto bifronte del controllo, in cui fatalmente si fondono, oltre a usi esecrabili di sorveglianza politica degli utenti, problemi imprescindibili di sicurezza sia nel senso generico della difesa che di salvaguardia della giurisdizione nazionale contro il potere delle corporations multinazionali. 179 Cfr. P. De Filippi - F. Tréguer, Wirelees Community Networks: Towards a Public Policy for the Network Commons?, in Belli et al., Net Neutrality Compendium, cit., pp. 261-270. 180 Barabas et al., Defending Internet Freedom, cit., p. 112. 181 Simon, Forecasting the Future or Shaping it?, cit., p. 605. Simon non cita Guy Debord, ma è possibile che si riferisca al suo testo La società dello spettacolo (1968), in cui l’atteggiamento dello Rete, democrazia e complessità 41 Lavorare ad un simile ecosistema è un’impresa complessa. Come avvertiva ancora Mumford nel saggio menzionato all’inizio di questa riflessione, La storia ci mostra che è molto più semplice liquidare la democrazia con un dispositi- vo istituzionale che dà autorità solo a quelli che sono all’apice della gerarchia sociale, di quanto sia incorporare pratiche democratiche in un sistema ben organizzato e cen- tralizzato, che raggiunge il massimo grado di efficienza meccanica quando coloro che vi lavorano non hanno pensiero o fine propri. Ma, mutatis mutandis, la sfida è ancora la stessa: […] sacrificare la mera quantità per restaurare una scelta qualitativa, spostare il luogo dell’autorità dalla collettività meccanica alla personalità umana e al gruppo autonomo, favorire varietà e complessità ecologica invece di promuovere indebita uniformità e standardizzazione182. spettatore viene definito come la forma di alienazione propria ad «un sistema di linguaggio senza risposta» (Milano, Baldini e Castoldi, 2015, p. 168). 182 Mumford, Authoritarian and Democratic Techniques, cit., pp. 2, 8. Silvia Caianiello 42 Ringraziamenti Desidero ringraziare Guido Caldarelli, Ruggero Cerino, Rosanna De Rosa, Luciano Fasano, Roberto Mazzola e Leonardo Pica Ciamarra per gli stimolanti commenti e le opportune correzioni che hanno avuto la gentilezza di suggerirmi. Silvia Caianiello ISPF-CNR, Napoli
[email protected]– Rete, democrazia e complessità Citation standard: CAIANIELLO, Silvia. Rete, democrazia e complessità. Laboratorio dell’ISPF. 2019, vol. XVI (3). DOI: 10.12862/Lab19CNS. Online: 30.12.2019 ABSTRACT Network, Democracy and Complexity. The paper analyzes the different causal factors – technological, economic, political and sociological – that led to the actual centraliza- tion of the network architecture, and discusses the current debate on the future of the network as polarized between a “technological solutionism” approach, which aims at a technology-driven decentralization of the network, and a more “institutionally- minded” one, which deems decentralization as such as insufficient and promotes a new regulatory and anti-monopolistic framework for endorsing pluralism and demo- cratic reshaping of the infosphere ecosystem. KEYWORDS Internet; Democracy; Complexity; Pluralism; Digital turn SOMMARIO L’articolo ricostruisce la trasformazione di internet e WWW in una architettura centra- lizzata, analizzando diverse serie di fattori, tecnologici, filosofici, economici e politici, che hanno contribuito a questo esito. Discute inoltre sulla base di questa analisi il di- battito attuale sulla riforma della rete in senso democratico, e la sua polarizzazione in un partito a favore di una decentralizzazione radicale (soluzionismo tecnologico), da implementarsi con nuove tecnologie, e uno "istituzionale-regolamentativo", che ritiene la decentralizzazione da sola insufficiente e privilegia la promozione di politiche anti- monopolistiche e di un nuovo quadro giuridico per la regolamentazione della rete. PAROLE CHIAVE Internet; Democrazia; Complessità; Pluralismo; Svolta digitale Laboratorio dell’ISPF ISSN 1824-9817 www.ispf-lab.cnr.it