giovedì, luglio 24, 2025

L’era digitale richiede responsabilità

di Luciano Floridi da "La Lettura" del Corriere della Sera del 20 Luglio 2025

In molti contesti si parla ancora di «tecnologie emergenti» e «nuovi media», come se il digitale fosse una novità. Ma la rivoluzione digitale è già avvenuta da decenni: è tempo di farla evolvere nella direzione che preferiamo. 

Siamo di fronte a un momento senza precedenti: a differenza delle rivoluzioni agricola e industriale, che richiesero millenni la prima e secoli la seconda per dispiegarsi, la trasformazione digitale sta avvenendo in pochi decenni. 

Lo stordimento è comprensibile, ma trattarla ancora come un’innovazione è un errore che rischia di diventare alibi per l’inazione. È oggi che plasmiamo le fondamenta ancora malleabili della società digitale futura. Dalla crisi nei rapporti internazionali ai cambiamenti climatici, dalla non equità economica alle migrazioni, dalle guerre alla violenza sulle minoranze, le soluzioni partono dalla politica e quindi anche dalla creazione di una società digitale migliore, trasformando il possibile in preferibile. Se non interveniamo ora, gli errori diventeranno sempre più difficili da correggere, e le opportunità mancate sempre più irrecuperabili.

Data questa premessa storica — la rivoluzione digitale è ormai un fatto storico in corso da decenni — e morale — dobbiamo gestirla ora e al meglio, foss’altro perché oggi è più facile che domani — è utile analizzare almeno tre architetture principali e quattro macro-tendenze che stanno definendo la struttura e il funzionamento delle società digitali, per comprenderne la natura profonda e dove si può intervenire.

La prima architettura è fattuale. I filosofi la chiamerebbero ontologica. La realtà diventa sempre più anche digitale ma soprattutto progettata per il digitale (digital-friendly): gli oggetti, i servizi, i processi, le infrastrutture, persino le persone e le loro interazioni vengono modellate e gestite per interagire fluidamente con sistemi digitali. Si pensi al mondo della formazione, del lavoro, dell’intrattenimento, oppure alla domotica, alle smart city, alle automobili a guida autonoma: lo spazio fisico diventa un ambiente ottimizzato per il digitale che non si aggiunge semplicemente a ciò che già esiste, ma ne trasforma la natura intrinseca. Le città sono piene di telecamere e sensori, trasformandosi in smart city che respirano dati. I nostri corpi sono interfacce e fonti di dati, costantemente avvolti da dispositivi che tracciano parametri vitali. I documenti nascono e muoiono in formato elettronico e vengono stampati su carta solo occasionalmente, per necessità specifiche o abitudine. Persino il denaro ha perso molta della sua fisicità: oggi è essenzialmente un flusso di informazioni che viaggia tra server e app

In questo contesto, termini come «infosfera» e «onlife», che ho introdotto molti anni fa, cercano di fornire il vocabolario adeguato a cogliere i nuovi fenomeni di un ambiente sempre più analogico e digitale al contempo, e una vita in cui essere o meno connessi non è più una reale opzione.

La seconda architettura è «agentica». In un mondo sempre più digitale, assistiamo da anni allo sviluppo di nuove forme di agency («agenzia» non si dice in italiano, e «capacità di azione» non rende bene l’idea), soprattutto con l’Intelligenza artificiale e la robotica, che trasformano radicalmente il concetto stesso di lavoro, produzione e decisione. 

L’IA guida veicoli autonomi, diagnostica malattie, crea contenuti di ogni genere, o decide chi riceve un prestito bancario. Amazon sta per impiegare più robot (oltre un milione) che esseri umani nei suoi magazzini. Queste tecnologie operano autonomamente, come agenti sociali ed economici. Un algoritmo di trading può comprare e vendere azioni in microsecondi, eseguendo migliaia di operazioni senza alcun intervento manuale. I chatbot e gli assistenti virtuali sono sempre più in grado di sostenere conversazioni complesse. Ci sembrano umani. Un sistema di raccomandazione online può influenzare le scelte di milioni di persone. 

Questa agency artificiale è priva di qualsiasi intelligenza — nel senso comune del termine, il resto è un dibattito semantico —, comprensione, interessi o intenzionalità. Purtroppo, il marketing delle grandi aziende che la promuovono, e la fede quasi religiosa di quelli che la sviluppano rendono necessaria questa chiarificazione. Ma — e questa è sì la cosa straordinaria — stiamo scoprendo che un’infinità di compiti che credevamo richiedessero intelligenza per essere svolti, di fatto possono essere affidati a sistemi statistici, se si hanno sufficienti dati, algoritmi, dollari, ed energia elettrica. 

Così l’IA sarà sempre più una forza lavoro indispensabile, distribuita ovunque si possa fare algoritmicamente quello che avrebbe richiesto un po’ d’intelligenza a un essere umano. Lo sviluppo di questa architettura agentica è reso possibile dalla digitalizzazione del mondo vista sopra. Agenti a intelligenza zero sarebbero un disastro in un mondo del tutto analogico, ma funzionano sempre meglio in un contesto sempre più digitale, disegnato per loro. Sono come pesci in un mare in cui noi, esseri analogici, possiamo solo immergerci grazie ad altre tecnologie di sostegno. Il QR code del menu di un ristorante non è scritto per essere letto da noi. 

Per questo, l’architettura agentica sta già rivoluzionando il mercato del lavoro, che soffre di disoccupazione non per mancanza di domanda — i posti di lavoro sono disponibili — ma per il mancato allineamento tra la domanda e l’offerta. Non si tratta quindi di adottare misure keynesiane per incrementare la domanda, ma di investire in formazione per migliorare l’allineamento. 

E infine, lo sviluppo e la diffusione dell’IA pone enormi interrogativi etici — dalla discriminazione all’opacità delle decisioni — un tema sempre più esplorato, ma che resta largamente irrisolto. Si può partire da quest’ultimo punto per introdurre 

La terza architettura, che è etico-giuridica e riguarda la governance della società digitale.

La società digitale necessita di nuove regole per gestire e indirizzare le trasformazioni in corso. 

L’AI Act europeo, gli Executive Order statunitensi, la Convenzione del Consiglio d’Europa sono alcuni degli esempi concreti più noti di come si stia cercando di regolamentare la complessità digitale, proteggendo al contempo i valori umani fondamentali e l’ambiente naturale. Non a caso, a livello globale si stanno moltiplicando gli sforzi per colmare questa lacuna. Negli Stati Uniti, pur con un approccio culturalmente diverso, più orientato all’innovazione e alla sicurezza nazionale, proprio in questo periodo il Senato ha fermato il tentativo dell’amministrazione Trump di impedire che i singoli Stati possano legiferare sull’IA e i suoi vari aspetti. 

È un fenomeno meno visibile dall’Europa ma macroscopico. Ne abbiamo discusso recentemente con i senatori dei vari Stati coinvolti ad un convegno che ho organizzato a Yale. Ma la sfida normativa va oltre gli aspetti legislativi; è una sfida intellettuale (direi filosofica, se il termine non fosse diventato dispregiativo) perché richiede il ripensamento e il rinnovamento di categorie che hanno fatto un buon lavoro in epoca moderna ma non sono più in grado di coprire il nostro deficit concettuale. 

Per esempio, in un mondo di sensori pervasivi, riconoscimento facciale e raccolta continua e capillare di dati, con sistemi IA che ci conoscono meglio di altre persone, il concetto tradizionale di privacy inteso come il diritto a essere lasciati in pace non è errato ma obsoleto. 

O si pensi al concetto di colpa: la catena della responsabilità nelle decisioni algoritmiche è opaca e sempre più difficile da risolvere. Infine, la nostra identità digitale, composta dai nostri profili social, dai dati di navigazione, dalle nostre impronte online, è ormai tanto reale quanto la nostra identità fisica. 

In questi come in molti altri casi, non basta «allungare la coperta moderna» per coprire i nuovi fenomeni etici e giuridici: c’è bisogno di innovazioni concettuali, nuove o rinnovate idee all’altezza delle sfide e dei problemi che dobbiamo affrontare. C’è bisogno di un design concettuale di alta qualità, partendo dal passato, ma non fermandosi a esso.

All’interno di queste tre architetture evolutive, emergono quattro macro-tendenze che ridefiniscono il presente e plasmeranno il futuro della società digitale.

  • La prima è l’eclisse dell’analogico, inteso come la realtà fisica, tangibile, e le esperienze umane non mediabili digitalmente. I modelli digitali, per quanto dettagliati, sono sempre astrazioni parziali della realtà. Un medico può conoscere perfettamente la cartella clinica di un paziente — ma si potrebbe usare l’esempio del profilo digitale di una studentessa, di un lavoratore o di una cliente — senza comprenderne la storia personale o il contesto socio-economico. Come ricordava Norbert Wiener, «il miglior modello di un gatto è un gatto, possibilmente lo stesso gatto». Confondere la mappa digitale con il territorio analogico significa perdere dimensioni essenziali dell’esperienza umana e quindi correre più rischi, in termini di errori e mancate opportunità.
  • La seconda macro-tendenza riguarda l’agency delegata alle macchine, che diventerà sempre di più una commodity (altra parola inglese che si traduce male) diffusa, accessibile, flessibile, a basso costo, un po’ come l’elettricità un secolo fa. A questo proposito vale la pena ricordare che l’elettricità impiegò circa mezzo secolo per passare da tecnologia sperimentale a infrastruttura urbana essenziale, tra il 1880 e il 1930, con le aree rurali in molti Paesi sviluppati non completamente elettrificate fino agli anni Cinquanta, e alcune regioni in via di sviluppo molto più tardi. Non aspettiamoci che l’IA impieghi solo mesi, ci vorrà ancora qualche anno. È difficile stimare quante persone usino una qualche forma di IA, e le aziende tendono a fornire dati ottimistici, ma si parla di circa 1,7-1,8 miliardi negli ultimi sei mesi, con 500-600 milioni di persone che la usano quotidianamente. Siamo ancora lontani dai 5,8 miliardi di utenti di telefoni cellulari, ma non troppo. Quando ogni telefono includerà IA app, l’accesso sarà sempre più diffuso e ordinario — democratizzato, dicono gli informatici, con un termine fuorviante — e la vera questione sarà come saperla usare e per quali scopi. Questa «democratizzazione» dell’agency artificiale può aprire opportunità straordinarie, accelerando l’innovazione, aumentando la produttività e permettendo la creazione di nuovi servizi, come la generazione di contenuti on-demand. Si immagini poter vedere un film creato per noi sulla base di poche righe di descrizione (prompt).
  • La terza macro-tendenza, solo apparentemente paradossale, è che in un mondo sempre più digitale il controllo delle infrastrutture fisiche, cioè dell’analogico, risulta ancora più decisivo. Anche in questo caso, qualche esempio è sufficiente. L’infrastruttura digitale dipende criticamente da materie prime strategiche: elementi come neodimio (una delle cosiddette «terre rare», fondamentale per la produzione di magneti), tantalio, cobalto e litio sono indispensabili per smartphone, server e componenti elettronici avanzati. La concentrazione di questi materiali essenziali — la Cina produce circa l’80% delle terre rare e il Congo il 70% del cobalto — crea vulnerabilità nelle filiere globali e forti dipendenze geopolitiche. La pervasività di cloud, IA e connettività comporta un consumo energetico in rapida crescita: si ritiene che i data centre da soli assorbano circa il 2% dell’elettricità mondiale, rendendo il sistema digitale vulnerabile ai blackout e alle oscillazioni dei costi energetici. La collocazione geografica dei data centre, una sorta di «cattedrali» dell’era digitale, segue logiche strategiche: energia a basso costo, climi freddi, stabilità politica. A marzo del 2025, l’Italia era all’ottavo posto per numero di data centre, dopo Stati Uniti, Germania, Gran Bretagna, Francia, Australia, Paesi Bassi e Russia. Negli Stati Uniti, la più alta concentrazione di data centre si trova in Virginia, nella Contea di Loudoun, che gestisce circa il 70% del traffico internet globale. Un quarto dell’energia elettrica prodotta dallo Stato è consumato da servizi digitali. Inoltre, l’infrastruttura digitale si estende nello spazio e negli oceani: le costellazioni di satelliti in orbita bassa e la rete globale di cavi sottomarini costituiscono una nuova frontiera strategica, poiché chi le controlla può isolare intere regioni dal resto della rete. Infine, il quasi monopolio di Taiwan (produce oltre il 90% dei chip più avanzati) costituisce un rischio sistemico, che ha spinto Stati Uniti, Unione Europea, Cina e Giappone a investire centinaia di miliardi per aumentare la propria autonomia tecnologica.

In sintesi, il digitale, pur sembrando ed essendo pubblicizzato come immateriale, è reso possibile da un substrato fisico, fatto di hardware, infrastrutture e materie prime, che qualcuno possiede e controlla. Questa materialità del digitale ha profonde implicazioni per la sovranità nazionale del Ventunesimo secolo. Paesi che controllano nodi critici dell’infrastruttura fisica possono esercitare forme di «sovranità digitale» ben oltre i propri confini geografici. Al contempo, Paesi che dipendono interamente da infrastrutture estere si trovano in posizione di vulnerabilità strutturale, esposti a possibili pressioni economiche o restrizioni all’accesso. Così la corsa al controllo dell’infrastruttura fisica del digitale ridisegna le mappe del potere globale, creando nuove alleanze e rivalità che trascendono i tradizionali confini territoriali, in un paradossale ritorno alla geopolitica classica nell’era apparentemente più smaterializzata della storia umana.

  • La quarta macro-tendenza è la fusione sempre più marcata, e spesso opaca, tra il potere politico e quello digitale. Da un lato, aziende ricchissime, con miliardi di utenti, operano ormai come «quasi-Stati», esercitando un’influenza diretta e pervasiva sulle vite di popolazioni più vaste di quelle di molti Paesi tradizionali. Dall’altro lato, i governi sfruttano tecnologie digitali belliche e per la sorveglianza di massa per estendere il loro controllo ben oltre i limiti tradizionali della sovranità fisica. Le decisioni cruciali su come raccogliere e gestire i dati, come progettare ed esercitare algoritmi, o come esercitare e implementare l’IA sono spesso prese dai consigli di amministrazione delle big tech o negli uffici riservati delle agenzie governative, ma hanno conseguenze sistemiche per miliardi di persone. Questa commistione di potere, legata a enormi flussi di capitale, è sempre più politica.

Da quanto appena delineato derivano rischi sistemici che non possiamo permetterci di ignorare. 

Iniziamo con la vulnerabilità dell’elemento «analogico» — le persone, con le loro fragilità psicologiche e sociali, le comunità, e l’ambiente naturale — che resta sotto-protetto rispetto alla rapidità della digitalizzazione. Investiamo miliardi per proteggere reti e dati, ma trascuriamo la sicurezza anche psicologica delle persone online. Ottimizziamo l’efficienza algoritmica, ma sottovalutiamo competenze umane fondamentali come il pensiero critico, l’empatia e la creatività nei sistemi educativi. Automatizziamo e delocalizziamo la produzione, ma rischiamo di lasciare indietro intere comunità senza adeguati programmi di riconversione. Inoltre, una società sempre più interconnessa diventa anche più fragile di fronte ai nuovi pericoli.

C’è poi il rischio che il controllo del digitale, apparentemente immateriale e distante, si trasformi in una forma indiretta ma estremamente efficace di controllo sulle vite delle persone e sulle dinamiche della società analogica. Chi controlla gli algoritmi di raccomandazione, ad esempio, non si limita a suggerire un prodotto o un contenuto; orienta in modo impercettibile ciò che leggiamo, le nostre scelte, le notizie che riceviamo, le nostre opinioni anche politiche, e perfino, in alcuni casi, le persone che incontriamo o che ci vengono presentate. Chi gestisce le grandi piattaforme della gig economy — come i servizi di food delivery o le piattaforme di trasporto — determina le condizioni occupazionali di milioni di lavoratori in tutto il mondo. Nei soli Stati Uniti, la gig economy coinvolge in vario modo 42 milioni di lavoratori nel 2025. Chi possiede e gestisce i dati sanitari di una popolazione può influenzare l’accesso alle cure, alle polizze assicurative, e persino alla ricerca medica e allo sviluppo di farmaci. Questo potere indiretto è spesso meno evidente rispetto alle forme tradizionali di dominio basate sulla forza o sulla proprietà fisica ma non per questo meno efficace.

Infine, c’è il rischio di un’oligarchia digitale, intrinsecamente non democratica, costituita da un piccolo gruppo di attori: alcuni Paesi con capacità digitali avanzate, le grandi aziende tecnologiche, e pochi individui, il famoso 1%. I vantaggi competitivi nel digitale tendono ad auto-rafforzarsi, innescando spirali di concentrazione della ricchezza e del potere. Questa dinamica, lasciata a sé stessa senza interventi correttivi consapevoli e robusti, conduce a monopoli o oligopoli tecno-politici pericolosi.

Di fronte a questi rischi, non possiamo permetterci né l’ottimismo ingenuo che crede che la tecnologia si autoregolamenterà — i mercati fanno bene una cosa sola su tre: la creazione della ricchezza, ma non la distribuiscono, l’accentrano, e non proteggono ma esacerbano i danni generati dalla sua creazione — né il pessimismo che porta alla rassegnazione o alla iper-regolamentazione. 

Il populismo ha dimostrato che anche in democrazie mature e avanzate tenere le dita incrociate non è una strategia. In politica si può iniziare da «va tutto male» ma non si può finire con «non c’è niente da fare». 

Per affrontare questi rischi, servono almeno tre strategie fondamentali. Nessuna è originale, tutte richiedono la volontà politica.

  1. Investire nella formazione diffusa e consapevole. Ogni generazione nasce ignorante ma ha l’obbligo morale di morire educata, usando quello che ha imparato e capito per vivere una vita migliore e creare migliori condizioni di vita per chi le succede. Ogni tecnologia fornisce anche i mezzi per la sua gestione. La stessa IA offre straordinarie opportunità per l’alfabetizzazione e la formazione digitale, che deve accompagnarsi a un’educazione civica adeguata. Si può fare, ma ciò implica la volontà di imparare e disimparare continuamente e rapidamente.
  2. Garantire un controllo democratico, responsabilizzato e trasparente dei processi digitali che incidono direttamente sulle vite dei cittadini. Questo significa anche rendere gli algoritmi più comprensibili e spiegabili, permettendo di capire come prendono le loro decisioni, quali dati utilizzano e quali criteri applicano, con sistemi di appello e rettifica. E creare nuovi strumenti di partecipazione e supervisione democratica all’altezza dell’era tecnologica. Anche in questo caso, il digitale ha potenzialità enormi e sottoutilizzate.
  3. Sviluppare una progettualità politica lungimirante e consapevole della società digitale. L’evoluzione tecnologica non dovrebbe procedere per inerzia di mercato o secondo logiche puramente ingegneristiche e di massimizzazione del profitto. Queste sono il motore necessario, ma le mani sul volante, e la decisione su dove andare, restano alla società e alla politica. Se ci piace la direzione presa, la velocità con cui si svilupperà la società digitale sarà benvenuta. Questo implica investimenti strategici in ricerca e innovazione orientate esplicitamente al bene comune, non solo al profitto.

In sintesi, solo con più e migliore conoscenza, democrazia, e politica potremo governare la transizione digitale anziché subirla. È questo il compito della nostra generazione. 
Riecheggiando Gramsci: la società moderna è finita, quella digitale è solo all’inizio. 
È in questa transizione che possiamo fare le scelte migliori. 
La storia si fa sempre oggi.

Luciano Floridi (Roma16 novembre 1964) è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell'informazione presso l'Oxford Internet Institute dell'Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l'Università di Bologna.
Floridi è principalmente conosciuto per il suo lavoro di ricerca filosofica riguardante: la filosofia dell'informazione, la filosofia dell'informatica e l'etica informatica e per aver coniato il termine Onlife.
Dal 28 gennaio 2025 è presidente della Fondazione Leonardo - Civiltà delle Macchine, succeduto a Luciano Violante.

Nessun commento:

Posta un commento