Chi siamo

mercoledì, novembre 13, 2024

L’intelligenza artificiale ci sta rendendo stupidi?

 

dal SOLE24Ore del 25 Ottobre 2024 di Luca Mari e Alessandro Giordani

Un articolo di Nicholas Carr pubblicato sull’Atlantic nel 2008, e da allora diventato celebre, poneva domande emblematiche – a partire dal suo titolo – sulla transizione che allora stavamo vivendo: “Google ci sta rendendo stupidi? Cosa sta facendo internet ai nostri cervelli?” (Is Google Making Us Stupid? What the Internet is doing to our brains).

In quel testo si riflette intorno alle criticità dell’influenza dei sistemi digitali sulle nostre capacità intellettuali: “I media non sono solo canali passivi di informazione. Forniscono la materia del pensiero, ma modellano anche il processo di pensare. E ciò che internet sembra produrre è di indebolire la [nostra] capacità di concentrazione e comprensione”.

Quale che sia la risposta che quindici anni fa avremmo dato, e oggi daremmo, alle domande di quell’articolo relativamente a internet e ai motori di ricerca (da cui il riferimento a Google), è ragionevole porsi oggi dubbi analoghi a proposito dei sistemi di intelligenza artificiale a comportamento appreso (machine learning), soprattutto nella loro versione generativa e in particolare conversazionale: i cosiddetti “chatbot”, “macchine da conversazione” insomma, di cui ChatGPT è l’esempio più noto.

E non siamo né i primi né gli unici a porci questo genere di dubbi: la prestigiosa rivista scientifica Nature, per esempio, ha pubblicato nei mesi scorsi un articolo dal titolo eloquente:  Use of large language models might affect our cognitive skills.

Considerando poi che è da solo dalla fine del 2022 che ChatGPT è stato reso disponibile, e quindi che le vicende connesse all’uso di questi chatbot hanno una storia ancora breve, ha senso porre la domanda in termini più specifici, distinguendo tre problemi che la diffusione dei chatbot ci sollecita a considerare:

(i)                      è vero che l’uso di questi sistemi sta modificando i nostri processi cognitivi?

(ii)                    se questo è vero, le nostre attitudini cognitive si stanno modificando in peggio?

(iii)                 e, se questo è vero, che cosa possiamo fare per evitarlo?

(i) L’uso dei chatbot sta modificando i nostri processi cognitivi?

A proposito del primo problema – l’uso dei chatbot sta modificando i nostri processi cognitivi? –, ormai sappiamo per esperienza che l’interazione con i chatbot è cognitivamente multidimensionale, e va ben oltre la funzione strumentale di accesso a informazioni.

Per esempio, in un nostro percorso di apprendimento possiamo chiedere loro di farci da docenti o tutor, oppure di essere nostri compagni di apprendimento in un lavoro “alla pari”, oppure anche di essere nostri allievi, per realizzare così il principio secondo cui un buon modo di imparare qualcosa è di doverlo insegnare a qualcun’(o dunque ora a qualcos’)altro.

Se da millenni i testi scritti e, più recentemente, i materiali multimediali hanno contribuito alla formazione dei nostri processi cognitivi in quanto strumenti di supporto all’interazione tra esseri umani, la disponibilità di entità artificiali con queste capacità di interazione attiva, e con poche o nulle limitazioni di risorse (immaginiamo non frequente la situazione di docenti o tutor umani che accetterebbero di interagire con studenti a notte fonda…) potrebbe cambiare ulteriormente gli scenari a cui siamo abituati.

Quanto questo avrà effetti sui nostri processi di apprendimento è ancora troppo presto per saperlo, ma pare sensato concludere in via preliminare che, sì, i chatbot hanno il potenziale per modificare, in meglio o in peggio, i nostri processi cognitivi. E con ciò proseguiamo dunque la nostra riflessione.

(ii) L’interazione con i chatbot porterà a un complessivo peggioramento delle nostre abilità cognitive?

Il secondo problema – l’interazione con i chatbot porterà a un complessivo peggioramento delle nostre abilità cognitive? – è più delicato, proprio perché mette in gioco la questione della stupidità da cui siamo partiti.

Per comprendere il senso in cui potremmo essere soggetti a un peggioramento cognitivo, possiamo rifarci alla considerazione degli effetti che le rivoluzioni tecnologiche in passato hanno avuto sulle attività umane.

Per esempio, la diffusione dei telai meccanici fece progressivamente perdere la capacità di tessere manualmente, e le macchine calcolatrici hanno preso il posto nelle attività ordinarie delle tante persone il cui compito era di fare calcoli manualmente, con l’esito che certe procedure di calcolo non sono più conosciute, e ormai nemmeno più insegnate.

La sostituzione di attività umane con attività realizzate da entità artificiali, e la conseguente perdita della capacità degli esseri umani di eseguire determinati compiti, è spiegabile come un processo di delega: avendo ideato, costruito e messo in opera entità artificiali che svolgono tali compiti meglio di come lo facciamo noi, affidiamo a esse la loro realizzazione.

In questo c’è, innegabilmente, una razionalità, ancestrale e sempre rinnovata: quando abbiamo un problema da risolvere e il nostro obiettivo è di risolvere quel problema, applichiamo la strategia che consideriamo migliore, che richieda l’attività di esseri umani o di entità artificiali, che possibilmente abbiamo progettato e realizzato proprio a questo scopo.

Con ciò, osserviamo comunque che perdere la capacità di eseguire determinati compiti manuali non costituisce di per sé un problema – pensiamo soltanto a quelle attività che in passato venivano svolte da schiavi –, né lo è, di principio, anche quando i compiti sono cognitivamente complessi.

Insomma, non essere più in grado di eseguire certe procedure non implica ancora diventare più stupidi.

In questo la distinzione tra stupidità e ignoranza è dunque cruciale.

Per riprendere un esempio non più controverso, oggi in pratica non facciamo più calcoli complessi a mano: è una competenza che abbiamo perso, e a proposito della quale siamo dunque diventati più ignoranti. Ma dal fatto che non sappiamo più calcolare radici quadrate senza l’ausilio di una calcolatrice non concludiamo di essere diventati più stupidi.

Questo genere di ignoranza non ci preoccupa, perché riteniamo che essa abbia come conseguenza non una diffusione di stupidità, ma una liberazione di risorse cognitive per affrontare problemi diversi e più interessanti.

Così, avere a disposizione sistemi con grandi capacità di calcolo automatico ha avuto come conseguenza non una riduzione ma un incremento della ricerca scientifica, dato dal fatto che ora i ricercatori possono dedicare più tempo all’ideazione di teorie che ai calcoli necessari per mettere alla prova le teorie stesse.

Ciò non è però sufficiente per considerare chiarito il secondo problema che ci siamo posti, e questo perché possiamo cominciare oggi a delegare a sistemi di Intelligenza artificiale (Ia) delle attività in cui fino a poco tempo fa avremmo considerato il ruolo degli esseri umani insostituibile per una ragione non strumentale: perché si tratta di attività che richiedono intelligenza per essere realizzate.

La possibilità di essere sostituiti da sistemi di IA nell’esecuzione di queste attività è per qualcuno fonte di timore, perché si intravede in questo un rischio di diffusione di stupidità: poiché è ben plausibile che l’intelligenza debba essere sviluppata e preservata usandola, se smettessimo di svolgere attività che richiedono intelligenza potremmo perderla progressivamente, e diventare così progressivamente stupidi, forse senza nemmeno accorgercene.

Il problema, perciò, è dato dal fatto che ci sono capacità intellettuali che non possiamo permetterci di perdere, e prima ancora di non sviluppare, senza con ciò davvero avviarci verso la stupidità.

Quali sono, e come ci stiamo assicurando di promuoverne lo sviluppo nella nostra società?

Per esplorare il tema partiamo da tre constatazioni, a cui faremo riferimento nelle riflessioni che seguono.

La prima: ci siamo evoluti applicando strategie per risolvere problemi in modo non soltanto efficace, ma anche efficiente, e dunque minimizzando il consumo di energia, risorsa necessaria per la sopravvivenza.

La seconda: risolvere problemi esercitando la propria intelligenza ha generalmente un costo individuale, energetico e non solo, maggiore di quello richiesto se si affida la soluzione ad altre entità, naturali o artificiali che siano.

La terza: i sistemi di intelligenza artificiale stanno diventando sempre più efficaci nella realizzazione di compiti che richiedono intelligenza (non entriamo qui nella discussione se entità artificiali possano essere “davvero” intelligenti, limitandoci a fare riferimento a compiti che, se svolti da esseri umani, richiederebbero intelligenza).

Queste constatazioni suggeriscono che la questione della delega, e quindi della nostra sostituibilità, si pone non soltanto per attività strumentali come fare dei calcoli, ma anche nel caso stesso, estremo, del pensare: allo scopo di cercare di risolvere certi problemi, potrebbe essere razionale decidere di delegare delle attività (che se svolte da esseri umani sarebbero considerate) cognitivamente sofisticate a entità artificiali.

D’altra parte, se supponiamo che, se questa sostituzione sia non episodica, perché relativa alla soluzione di specifici problemi, ma sistematica, non la si considererebbe più desiderabile, per le sue implicazioni sull’idea stessa di individuo e di responsabilità individuale, che è un fondamento della nostra società.

Abbiamo con ciò ottenuto una risposta almeno condizionale al secondo problema: anche se, al momento, non sappiamo se le nostre attitudini cognitive si stiano modificando in peggio a causa della diffusione dei chatbot, possiamo inferire che ciò accadrebbe se iniziassimo a delegare in modo sistematico il pensiero a entità artificiali. È perciò cruciale il terzo problema che ci siamo posti: cosa fare perché ciò non accada?

(iii) Che cosa fare perché ciò non accada?

A questo proposito, dobbiamo considerare che il principio di ricerca di efficienza a cui abbiamo fatto riferimento non è l’unico criterio di decisione per le nostre azioni: quando la sopravvivenza non è più un problema, e dunque “ce lo possiamo permettere”, facciamo cose come andare in palestra o dedicare tempo ai videogiochi, apparentemente sprecando così energie fisiche e mentali per la soluzione di problemi che potremmo evitare di affrontare.

E, ancora per esempio, a quanto pare, non si è mai giocato a scacchi tanto come in questi anni, nonostante sia noto che ci sono sistemi software che battono sistematicamente anche i migliori giocatori umani, per cui, se l’unico obiettivo per cui si gioca una partita a scacchi fosse di vincerla, sarebbe razionale far giocare un’entità artificiale. Come possiamo spiegarci tutto ciò?

Un’interessante risposta a queste domande si rintraccia nella teoria dell’autodeterminazione, formulata dagli psicologi Edward Deci e Richard Ryan riprendendo idee dalla tradizione filosofica classica, a proposito della motivazione intrinseca, cioè di quello che ci muove a realizzare un’attività non perché strumentale ad altro ma perché la consideriamo soddisfacente in sé.

È questa, per esempio, la condizione che ogni docente auspica e cerca di realizzare: avere studenti motivati a imparare perché riconoscono il valore dell’apprendimento (la motivazione intrinseca), e non (solo) per aumentare la loro probabilità di avere nel futuro un buon lavoro (una motivazione estrinseca a lungo termine), o per essere promossi (una motivazione estrinseca a medio termine), o per evitare i rimproveri dei genitori (una motivazione estrinseca a breve termine).

Operare in modo motivato intrinsecamente è il risultato di un processo, più o meno consapevole, di interiorizzazione. Chi gioca a scacchi pur sapendo di non poter vincere contro un giocatore artificiale, e nonostante ciò senza farsi sostituire da un giocatore artificiale, forse lo fa perché, più o meno consapevolmente appunto, trova nel giocare un motivo di autorealizzazione, con ciò scalando fino all’ultimo gradino la piramide di Maslow, secondo cui, quando tutti i nostri altri (e “più bassi”, nella piramide) bisogni sono stati soddisfatti – bisogni fisiologici, di sicurezza, di appartenenza, di stima –, andiamo alla ricerca di realizzare noi stesse/i.

Come ci autorealizziamo?

La teoria di Deci e Ryan riparte da qui, e alla domanda cruciale, come ci autorealizziamo? , propone una risposta (inevitabilmente) antropologica: attraverso la soddisfazione dei tre bisogni fondamentali di autonomia, relazione e competenza.

Insomma, ci realizziamo quando riusciamo a stare bene con

  •  noi stessi, dimostrandoci autonomi,
  • con gli altri, dimostrandoci capaci di relazione,
  • e con il mondo, dimostrandoci capaci di operare efficacemente, perché in modo competente, in esso.

Considerando tutto ciò alla luce del principio di razionalità nell’uso efficiente delle risorse a cui abbiamo fatto cenno sopra, il terzo problema che abbiamo posto trova una formulazione ovvia: in una società che co-abiteremo con entità artificiali intelligenti, è conciliabile la sostituzione degli individui per la soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione degli individui stessi, e dunque della loro intelligenza (e non della loro stupidità)?

Per comprendere fino in fondo questa domanda, già cruciale, introduciamo un ultimo punto, che potrebbe essere quello che nel nostro prossimo futuro farà la differenza.

Riscriviamola allora, espandendola: in una società che co-abiteremo con entità artificiali intelligenti, è conciliabile la sostituzione degli individui per la soluzione efficace o efficiente di problemi con l’obiettivo della realizzazione di tutti gli individui (e non solo dei più intelligenti, ricchi, …), e dunque della loro intelligenza (e non della loro stupidità)?

In questo modo chiariamo che quello che stiamo discutendo, e che dovremmo proporci di evitare, non è tanto lo scenario radicalmente distopico in cui le intelligenze artificiali assoggettano (tutte) quelle naturali, rendendoci (tutti) stupidi, quanto della situazione, che riteniamo più probabile, in cui la tecnologia potrebbe operare, anche in questo caso e ancora una volta, da amplificatore delle differenze.

È lo scenario di una società in cui alcuni esseri umani intelligenti vivono governando le entità artificiali intelligenti di cui sono circondati, e per questo diventano sempre più (efficaci, efficienti e) intelligenti, mentre gli altri sono a rischio di stupidità e vanno a costituire quella che lo storico Yuval Harari ha chiamato la classe degli inutili.

Data la notevole, e terribile, complessità di questo scenario, e pur senza la pretesa di avere alcuna sfera di cristallo da consultare, suggeriamo di interpretare analiticamente la domanda difensiva – c’è qualcosa in cui gli esseri umani non sono sostituibili da entità artificiali? – distinguendo in essa due problemi distinti: saremo sostituibili nel lavoro? e diventeremo stupidi?

Saremo sostituibili nel lavoro?

Nella prospettiva che stiamo esplorando, il primo problema ha a che vedere con l’efficacia e l’efficienza nella soluzione di problemi, il secondo con la nostra tensione all’autorealizzazione. È ben vero che per una (piccola?) parte dell’umanità per una (piccola?) parte della storia il lavoro è stato una fonte importante, forse la principale, di realizzazione individuale, e questo ha connesso le due domande, quasi che fosse: senza lavoro non ci può essere realizzazione personale, e dunque senza lavoro si è destinati alla stupidità (con mille eccezioni, ovviamente: non è una legge della fisica…). Ma non c’è nulla di necessario e ineluttabile in questo, e anzi potremmo riconoscere che questa connessione sia puramente contingente.

Una prova evidente di ciò è in istituzioni di cui la nostra società si è dotata e a cui le società avanzate dedicano risorse sempre più rilevanti, pur non essendo direttamente finalizzate alla soluzione efficace ed efficiente di problemi: la scuola e l’università.

In accordo alle serie storiche che l’ISTAT mette a disposizione, in Italia

nel 1861 c’erano 8 milioni e 400mila persone tra i 5 e 24 anni e 1 milione di persone iscritte a una scuola o a un’università;

nel 2021 le persone in quella fascia di età erano 11 milioni e 500 mila e le persone iscritte a una scuola o a un’università erano 9 milioni.

Assumendo in prima approssimazione che a scuola o in università vadano soltanto persone nella fascia di età considerata, siamo passati dal 12% di persone che la società italiana del 1861 si permetteva di lasciare fuori dal “mondo del lavoro” per un buon periodo della loro vita al 78% del 2021.

È un segnale che abbiamo già istituzionalizzato il riconoscimento dell’importanza di altro che non siano soltanto l’efficacia e l’efficienza nella soluzione di problemi? Non necessariamente.

Chi intende scuola e università come istituzioni finalizzate soltanto a preparare le persone appunto “al mondo del lavoro”, può interpretare il periodo della vita dedicato all’istruzione in modo esclusivamente strumentale, come un investimento che oggi la società può permettersi di fare per rendere i suoi futuri componenti adulti più produttivi.

La conseguenza di ciò sarebbe che quanto più fossero entità artificiali a risolvere i problemi per noi, tanto meno, per coerenza, la società dovrebbe investire nella formazione diffusa delle persone.

Insomma, in accordo a una visione tayloristica razionale dell’istruzione, dovremmo aspettarci nel futuro un’inversione di tendenza, e perciò una riduzione della durata media degli studi: meno necessità di lavoro, meno richiesta (anche nel senso concreto di “obbligo”) di istruzione. Per quanto forse inattesa, perché stupirsi di questa possibile conclusione? Non è consequenziale all’idea, non raramente ripetuta, che la scuola e l’università devono “prepararci al lavoro”?

Ma questa è soltanto una possibile interpretazione, che la diffusione dei sistemi di IA potrebbe mostrare sempre più contraddittoria con un’altra: che la formazione ha lo scopo di prepararci a una buona, anche perché consapevole, vita.

Sostenendo che la diffusione dei sistemi di GenAI ci ha introdotto in una nuova e inaspettata rivoluzione culturale, alludiamo anche alla convinzione che questioni come queste, dunque sul ruolo sociale dell’istruzione, siano diventate imprescindibili. Certo, possiamo sperare che la necessità di risposte diventi cogente soltanto in un futuro non così prossimo, ma non è credibile che questi problemi spariscano, o si risolvano positivamente senza un nostro intervento esplicito.

Infatti, i sistemi di IA ci stanno mettendo nelle mani dei super-poteri cognitivi, e da grandi poteri derivano grandi responsabilità (per citare un antico pezzo di sapienza attualmente celebre grazie a un super-eroe).

Scenari positivi per tutti?

Possiamo immaginare scenari positivi per tutti, dunque scenari in cui l’IA non diventi un amplificatore di differenze?

Scenari in cui l’IA sia di supporto non soltanto rispetto alla dimensione cognitiva della vita umana, ma anche rispetto a quella della sua realizzazione?

Ci sembra un buon obiettivo, di cui dobbiamo ammettere ancora una volta la criticità: una persona intelligente priva di grandi poteri può migliorare, ma uno stupido dotato di grandi poteri (per esempio con il controllo di armi di distruzione di massa) è forse la situazione peggiore che possiamo immaginarci.

“Saremo sostituiti nel lavoro?” e “Diventeremo stupidi?” sono dunque domande essenzialmente diverse.

Alla prima domanda possiamo trovare risposte creative, inventando nuove occupazioni o perfino riconoscendo che si può trovare un senso alla vita anche senza un lavoro, con ciò ammettendo che farsi sostituire, invece che soltanto aiutare, nel lavoro da agenti artificiali non è in sé una scelta irrazionale o moralmente sbagliata: l’abbiamo fatto e continueremo a farlo.

Alla seconda domanda, DIVENTEREMO STUPIDI? la risposta, imperativamente, deve essere

“No, il grande potere di cui disponiamo e disporremo ci rende responsabili di diffondere intelligenza”.

Vincere questa sfida, senza innescare un processo di amplificazione di differenze, non è un compito ovvio.


Nessun commento:

Posta un commento