dal SOLE24Ore del 25 Ottobre 2024
di Luca Mari e Alessandro Giordani
Un articolo di Nicholas Carr pubblicato sull’Atlantic nel 2008, e da allora diventato celebre, poneva domande emblematiche – a partire dal suo titolo – sulla transizione che allora stavamo vivendo: “Google ci sta rendendo stupidi? Cosa sta facendo internet ai nostri cervelli?” (Is Google Making Us Stupid? What the Internet is doing to our brains).
In quel testo si riflette
intorno alle criticità dell’influenza dei sistemi digitali sulle nostre
capacità intellettuali: “I media non sono solo canali passivi di
informazione. Forniscono la materia del pensiero, ma modellano anche il
processo di pensare. E ciò che internet sembra produrre è di indebolire la
[nostra] capacità di concentrazione e comprensione”.
Quale che sia la risposta che quindici anni fa avremmo dato, e oggi daremmo, alle domande di quell’articolo relativamente a internet e ai motori di ricerca (da cui il riferimento a Google), è ragionevole porsi oggi dubbi analoghi a proposito dei sistemi di intelligenza artificiale a comportamento appreso (machine learning), soprattutto nella loro versione generativa e in particolare conversazionale: i cosiddetti “chatbot”, “macchine da conversazione” insomma, di cui ChatGPT è l’esempio più noto.
E non siamo né i primi né gli
unici a porci questo genere di dubbi: la prestigiosa rivista scientifica
Nature, per esempio, ha pubblicato nei mesi scorsi un articolo dal titolo
eloquente: Use of large language models might affect our cognitive
skills.
Considerando poi che è da solo
dalla fine del 2022 che ChatGPT è stato reso disponibile, e quindi che le
vicende connesse all’uso di questi chatbot hanno una storia ancora breve, ha
senso porre la domanda in termini più specifici, distinguendo tre problemi che
la diffusione dei chatbot ci sollecita a considerare:
(i)
è vero che l’uso di questi sistemi sta
modificando i nostri processi cognitivi?
(ii)
se questo è vero, le nostre attitudini cognitive
si stanno modificando in peggio?
(iii)
e, se questo è vero, che cosa possiamo fare per
evitarlo?
(i) L’uso dei chatbot sta modificando i nostri processi cognitivi?
A proposito del primo problema –
l’uso dei chatbot sta modificando i nostri processi cognitivi? –, ormai
sappiamo per esperienza che l’interazione con i chatbot è cognitivamente
multidimensionale, e va ben oltre la funzione strumentale di accesso a informazioni.
Per esempio, in un nostro
percorso di apprendimento possiamo chiedere loro di farci da docenti o tutor,
oppure di essere nostri compagni di apprendimento in un lavoro “alla pari”,
oppure anche di essere nostri allievi, per realizzare così il principio secondo
cui un buon modo di imparare qualcosa è di doverlo insegnare a qualcun’(o
dunque ora a qualcos’)altro.
Se da millenni i testi scritti e,
più recentemente, i materiali multimediali hanno contribuito alla formazione
dei nostri processi cognitivi in quanto strumenti di supporto all’interazione
tra esseri umani, la disponibilità di entità artificiali con queste capacità di
interazione attiva, e con poche o nulle limitazioni di risorse (immaginiamo non
frequente la situazione di docenti o tutor umani che accetterebbero di
interagire con studenti a notte fonda…) potrebbe cambiare ulteriormente gli
scenari a cui siamo abituati.
Quanto questo avrà effetti sui
nostri processi di apprendimento è ancora troppo presto per saperlo, ma pare
sensato concludere in via preliminare che, sì, i chatbot hanno il potenziale
per modificare, in meglio o in peggio, i nostri processi cognitivi. E con ciò
proseguiamo dunque la nostra riflessione.
(ii) L’interazione con i chatbot porterà a un complessivo peggioramento delle nostre abilità cognitive?
Il secondo problema –
l’interazione con i chatbot porterà a un complessivo peggioramento delle nostre
abilità cognitive? – è più delicato, proprio perché mette in gioco la questione
della stupidità da cui siamo partiti.
Per comprendere il senso in cui
potremmo essere soggetti a un peggioramento cognitivo, possiamo rifarci alla
considerazione degli effetti che le rivoluzioni tecnologiche in passato hanno
avuto sulle attività umane.
Per esempio, la diffusione dei
telai meccanici fece progressivamente perdere la capacità di tessere
manualmente, e le macchine calcolatrici hanno preso il posto nelle attività
ordinarie delle tante persone il cui compito era di fare calcoli manualmente, con
l’esito che certe procedure di calcolo non sono più conosciute, e ormai nemmeno
più insegnate.
La sostituzione di attività umane
con attività realizzate da entità artificiali, e la conseguente perdita della
capacità degli esseri umani di eseguire determinati compiti, è spiegabile come
un processo di delega: avendo ideato, costruito e messo in opera entità
artificiali che svolgono tali compiti meglio di come lo facciamo noi, affidiamo
a esse la loro realizzazione.
In questo c’è, innegabilmente,
una razionalità, ancestrale e sempre rinnovata: quando abbiamo un problema da
risolvere e il nostro obiettivo è di risolvere quel problema, applichiamo la
strategia che consideriamo migliore, che richieda l’attività di esseri umani o
di entità artificiali, che possibilmente abbiamo progettato e realizzato
proprio a questo scopo.
Con ciò, osserviamo comunque che
perdere la capacità di eseguire determinati compiti manuali non costituisce di
per sé un problema – pensiamo soltanto a quelle attività che in passato
venivano svolte da schiavi –, né lo è, di principio, anche quando i compiti
sono cognitivamente complessi.
Insomma, non essere più in
grado di eseguire certe procedure non implica ancora diventare più stupidi.
In questo la distinzione tra
stupidità e ignoranza è dunque cruciale.
Per riprendere un esempio non più
controverso, oggi in pratica non facciamo più calcoli complessi a mano: è una
competenza che abbiamo perso, e a proposito della quale siamo dunque diventati
più ignoranti. Ma dal fatto che non sappiamo più calcolare radici quadrate
senza l’ausilio di una calcolatrice non concludiamo di essere diventati più
stupidi.
Questo genere di ignoranza non
ci preoccupa, perché riteniamo che essa abbia come conseguenza non una
diffusione di stupidità, ma una liberazione di risorse cognitive per affrontare
problemi diversi e più interessanti.
Così, avere a disposizione
sistemi con grandi capacità di calcolo automatico ha avuto come conseguenza non
una riduzione ma un incremento della ricerca scientifica, dato dal fatto che
ora i ricercatori possono dedicare più tempo all’ideazione di teorie che ai
calcoli necessari per mettere alla prova le teorie stesse.
Ciò non è però sufficiente per
considerare chiarito il secondo problema che ci siamo posti, e questo perché
possiamo cominciare oggi a delegare a sistemi di Intelligenza artificiale (Ia)
delle attività in cui fino a poco tempo fa avremmo considerato il ruolo degli
esseri umani insostituibile per una ragione non strumentale: perché si tratta
di attività che richiedono intelligenza per essere realizzate.
La possibilità di essere
sostituiti da sistemi di IA nell’esecuzione di queste attività è per qualcuno
fonte di timore, perché si intravede in questo un rischio di diffusione di
stupidità: poiché è ben plausibile che l’intelligenza debba essere
sviluppata e preservata usandola, se smettessimo di svolgere attività che
richiedono intelligenza potremmo perderla progressivamente, e diventare così
progressivamente stupidi, forse senza nemmeno accorgercene.
Il problema, perciò, è dato dal
fatto che ci sono capacità intellettuali che non possiamo permetterci di
perdere, e prima ancora di non sviluppare, senza con ciò davvero avviarci verso
la stupidità.
Quali sono, e come ci stiamo
assicurando di promuoverne lo sviluppo nella nostra società?
Per esplorare il tema partiamo da tre constatazioni, a cui faremo riferimento nelle riflessioni che seguono.
La prima:
ci siamo evoluti applicando strategie per risolvere problemi in modo non
soltanto efficace, ma anche efficiente, e dunque minimizzando il consumo di
energia, risorsa necessaria per la sopravvivenza.
La seconda:
risolvere problemi esercitando la propria intelligenza ha generalmente un costo
individuale, energetico e non solo, maggiore di quello richiesto se si affida
la soluzione ad altre entità, naturali o artificiali che siano.
La terza:
i sistemi di intelligenza artificiale stanno diventando sempre più efficaci
nella realizzazione di compiti che richiedono intelligenza (non entriamo qui
nella discussione se entità artificiali possano essere “davvero” intelligenti,
limitandoci a fare riferimento a compiti che, se svolti da esseri umani,
richiederebbero intelligenza).
Queste constatazioni suggeriscono
che la questione della delega, e quindi della nostra sostituibilità, si pone
non soltanto per attività strumentali come fare dei calcoli, ma anche nel caso
stesso, estremo, del pensare: allo scopo di cercare di risolvere certi
problemi, potrebbe essere razionale decidere di delegare delle attività (che se
svolte da esseri umani sarebbero considerate) cognitivamente sofisticate a
entità artificiali.
D’altra parte, se supponiamo che,
se questa sostituzione sia non episodica, perché relativa alla soluzione di
specifici problemi, ma sistematica, non la si considererebbe più desiderabile,
per le sue implicazioni sull’idea stessa di individuo e di responsabilità
individuale, che è un fondamento della nostra società.
Abbiamo con ciò ottenuto una
risposta almeno condizionale al secondo problema: anche se, al momento, non
sappiamo se le nostre attitudini cognitive si stiano modificando in peggio a
causa della diffusione dei chatbot, possiamo inferire che ciò accadrebbe se
iniziassimo a delegare in modo sistematico il pensiero a entità artificiali.
È perciò cruciale il terzo problema che ci siamo posti: cosa fare perché ciò
non accada?
(iii) Che cosa fare perché ciò non accada?
A questo proposito, dobbiamo
considerare che il principio di ricerca di efficienza a cui abbiamo fatto
riferimento non è l’unico criterio di decisione per le nostre azioni: quando
la sopravvivenza non è più un problema, e dunque “ce lo possiamo permettere”,
facciamo cose come andare in palestra o dedicare tempo ai videogiochi,
apparentemente sprecando così energie fisiche e mentali per la soluzione di
problemi che potremmo evitare di affrontare.
E, ancora per esempio, a quanto
pare, non si è mai giocato a scacchi tanto come in questi anni, nonostante sia
noto che ci sono sistemi software che battono sistematicamente anche i migliori
giocatori umani, per cui, se l’unico obiettivo per cui si gioca una partita a
scacchi fosse di vincerla, sarebbe razionale far giocare un’entità artificiale.
Come possiamo spiegarci tutto ciò?
Un’interessante risposta a
queste domande si rintraccia nella teoria dell’autodeterminazione,
formulata dagli psicologi Edward Deci e Richard Ryan riprendendo idee dalla
tradizione filosofica classica, a proposito della motivazione intrinseca,
cioè di quello che ci muove a realizzare un’attività non perché strumentale ad
altro ma perché la consideriamo soddisfacente in sé.
È questa, per esempio, la
condizione che ogni docente auspica e cerca di realizzare: avere studenti
motivati a imparare perché riconoscono il valore dell’apprendimento (la
motivazione intrinseca), e non (solo) per aumentare la loro probabilità di
avere nel futuro un buon lavoro (una motivazione estrinseca a lungo
termine), o per essere promossi (una motivazione estrinseca a medio
termine), o per evitare i rimproveri dei genitori (una motivazione
estrinseca a breve termine).
Operare in modo motivato
intrinsecamente è il risultato di un processo, più o meno consapevole, di
interiorizzazione. Chi gioca a scacchi pur sapendo di non poter vincere
contro un giocatore artificiale, e nonostante ciò senza farsi sostituire da un
giocatore artificiale, forse lo fa perché, più o meno consapevolmente appunto,
trova nel giocare un motivo di autorealizzazione, con ciò scalando fino
all’ultimo gradino la piramide di Maslow, secondo cui, quando tutti i
nostri altri (e “più bassi”, nella piramide) bisogni sono stati soddisfatti –
bisogni fisiologici, di sicurezza, di appartenenza, di stima –, andiamo alla
ricerca di realizzare noi stesse/i.
Come ci autorealizziamo?
La teoria di Deci e Ryan riparte
da qui, e alla domanda cruciale, come ci autorealizziamo? , propone una
risposta (inevitabilmente) antropologica: attraverso la soddisfazione dei tre
bisogni fondamentali di autonomia, relazione e competenza.
Insomma, ci realizziamo quando
riusciamo a stare bene con
- noi stessi, dimostrandoci autonomi,
- con gli altri, dimostrandoci capaci di relazione,
- e con il mondo, dimostrandoci capaci di operare efficacemente, perché in modo competente, in esso.
Considerando tutto ciò alla luce del principio di razionalità nell’uso efficiente delle risorse a cui abbiamo fatto cenno sopra, il terzo problema che abbiamo posto trova una formulazione ovvia: in una società che co-abiteremo con entità artificiali intelligenti, è conciliabile la sostituzione degli individui per la soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione degli individui stessi, e dunque della loro intelligenza (e non della loro stupidità)?
Per comprendere fino in fondo questa domanda, già cruciale, introduciamo un ultimo punto, che potrebbe essere quello che nel nostro prossimo futuro farà la differenza.
Riscriviamola allora,
espandendola: in una società che co-abiteremo con entità artificiali
intelligenti, è conciliabile la sostituzione degli individui per la
soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione
di tutti gli individui (e non solo dei più intelligenti, ricchi, …), e dunque
della loro intelligenza (e non della loro stupidità)?
In questo modo chiariamo che
quello che stiamo discutendo, e che dovremmo proporci di evitare, non è tanto
lo scenario radicalmente distopico in cui le intelligenze artificiali
assoggettano (tutte) quelle naturali, rendendoci (tutti) stupidi, quanto della
situazione, che riteniamo più probabile, in cui la tecnologia potrebbe operare,
anche in questo caso e ancora una volta, da amplificatore delle differenze.
È lo scenario di una società
in cui alcuni esseri umani intelligenti vivono governando le entità artificiali
intelligenti di cui sono circondati, e per questo diventano sempre più
(efficaci, efficienti e) intelligenti, mentre gli altri sono a rischio di stupidità
e vanno a costituire quella che lo storico Yuval Harari ha chiamato la classe
degli inutili.
Data la notevole, e terribile, complessità di questo scenario, e pur senza la pretesa di avere alcuna sfera di cristallo da consultare, suggeriamo di interpretare analiticamente la domanda difensiva – c’è qualcosa in cui gli esseri umani non sono sostituibili da entità artificiali? – distinguendo in essa due problemi distinti: saremo sostituibili nel lavoro? e diventeremo stupidi?
Saremo sostituibili nel
lavoro?
Nella prospettiva che stiamo
esplorando, il primo problema ha a che vedere con l’efficacia e l’efficienza
nella soluzione di problemi, il secondo con la nostra tensione
all’autorealizzazione. È ben vero che per una (piccola?) parte dell’umanità per
una (piccola?) parte della storia il lavoro è stato una fonte importante, forse
la principale, di realizzazione individuale, e questo ha connesso le due
domande, quasi che fosse: senza lavoro non ci può essere realizzazione
personale, e dunque senza lavoro si è destinati alla stupidità (con mille
eccezioni, ovviamente: non è una legge della fisica…). Ma non c’è nulla di
necessario e ineluttabile in questo, e anzi potremmo riconoscere che questa
connessione sia puramente contingente.
Una prova evidente di ciò è in
istituzioni di cui la nostra società si è dotata e a cui le società avanzate
dedicano risorse sempre più rilevanti, pur non essendo direttamente finalizzate
alla soluzione efficace ed efficiente di problemi: la scuola e l’università.
In accordo alle serie storiche
che l’ISTAT mette a disposizione, in Italia
nel 1861 c’erano 8 milioni
e 400mila persone tra i 5 e 24 anni e 1 milione di persone iscritte a una
scuola o a un’università;
nel 2021 le persone in
quella fascia di età erano 11 milioni e 500 mila e le persone iscritte a una
scuola o a un’università erano 9 milioni.
Assumendo in prima
approssimazione che a scuola o in università vadano soltanto persone nella
fascia di età considerata, siamo passati dal 12% di persone che la società
italiana del 1861 si permetteva di lasciare fuori dal “mondo del lavoro” per un
buon periodo della loro vita al 78% del 2021.
È un segnale che abbiamo già
istituzionalizzato il riconoscimento dell’importanza di altro che non siano
soltanto l’efficacia e l’efficienza nella soluzione di problemi? Non
necessariamente.
Chi intende scuola e università
come istituzioni finalizzate soltanto a preparare le persone appunto “al mondo
del lavoro”, può interpretare il periodo della vita dedicato all’istruzione in
modo esclusivamente strumentale, come un investimento che oggi la società può
permettersi di fare per rendere i suoi futuri componenti adulti più produttivi.
La conseguenza di ciò sarebbe che
quanto più fossero entità artificiali a risolvere i problemi per noi, tanto
meno, per coerenza, la società dovrebbe investire nella formazione diffusa
delle persone.
Insomma, in accordo a una visione
tayloristica razionale dell’istruzione, dovremmo aspettarci nel futuro
un’inversione di tendenza, e perciò una riduzione della durata media degli
studi: meno necessità di lavoro, meno richiesta (anche nel senso concreto di
“obbligo”) di istruzione. Per quanto forse inattesa, perché stupirsi di questa
possibile conclusione? Non è consequenziale all’idea, non raramente ripetuta,
che la scuola e l’università devono “prepararci al lavoro”?
Ma questa è soltanto una
possibile interpretazione, che la diffusione dei sistemi di IA potrebbe
mostrare sempre più contraddittoria con un’altra: che la formazione ha lo
scopo di prepararci a una buona, anche perché consapevole, vita.
Sostenendo che la diffusione dei
sistemi di GenAI ci ha introdotto in una nuova e inaspettata rivoluzione
culturale, alludiamo anche alla convinzione che questioni come queste, dunque
sul ruolo sociale dell’istruzione, siano diventate imprescindibili. Certo,
possiamo sperare che la necessità di risposte diventi cogente soltanto in un
futuro non così prossimo, ma non è credibile che questi problemi spariscano, o
si risolvano positivamente senza un nostro intervento esplicito.
Infatti, i sistemi di IA ci
stanno mettendo nelle mani dei super-poteri cognitivi, e da grandi poteri
derivano grandi responsabilità (per citare un antico pezzo di sapienza
attualmente celebre grazie a un super-eroe).
Scenari positivi per tutti?
Possiamo
immaginare scenari positivi per tutti, dunque scenari in cui l’IA non diventi
un amplificatore di differenze?
Scenari in cui l’IA sia di
supporto non soltanto rispetto alla dimensione cognitiva della vita umana, ma
anche rispetto a quella della sua realizzazione?
Ci sembra un buon obiettivo, di
cui dobbiamo ammettere ancora una volta la criticità: una persona
intelligente priva di grandi poteri può migliorare, ma uno stupido dotato di
grandi poteri (per esempio con il controllo di armi di distruzione di massa) è
forse la situazione peggiore che possiamo immaginarci.
“Saremo sostituiti nel
lavoro?” e “Diventeremo stupidi?” sono dunque domande essenzialmente diverse.
Alla prima domanda possiamo
trovare risposte creative, inventando nuove occupazioni o perfino riconoscendo
che si può trovare un senso alla vita anche senza un lavoro, con ciò ammettendo
che farsi sostituire, invece che soltanto aiutare, nel lavoro da agenti
artificiali non è in sé una scelta irrazionale o moralmente sbagliata:
l’abbiamo fatto e continueremo a farlo.
Alla seconda domanda, DIVENTEREMO STUPIDI? la risposta, imperativamente, deve essere:
“No, il grande potere di cui disponiamo e
disporremo ci rende responsabili di diffondere intelligenza”.
Vincere questa sfida, senza
innescare un processo di amplificazione di differenze, non è un compito ovvio.
Nessun commento:
Posta un commento