Chi costruisce il nostro
sguardo sul mondo?
La risposta potrebbe sembrare
semplice: i giornali, le persone che seguiamo, le fonti a cui ci affidiamo. La
realtà diventa però più complessa non appena ci spostiamo nel digitale, dove
ogni contenuto che vediamo è il risultato del calcolo di un algoritmo.
In questo articolo proveremo ad
affrontare una piccola parte di questa grande complessità con una parola, e domani con una notizia e un’intervista.
Parola: La comfort zone delle filter
bubble
Se ti è mai capitato di pensare,
scrollando sui social, che i contenuti che vedi sembrano essere selezionati
apposta per te è perché, beh, le cose stanno proprio così.
È l’effetto delle filter
bubble, in italiano “bolle di filtraggio”, il fenomeno per cui veniamo
esposti quasi esclusivamente a contenuti che rispecchiano ciò che già pensiamo,
proviamo o crediamo.
Il termine è stato coniato nel
2011 da Eli Pariser, nel saggio “The Filter Bubble: What the Internet Is Hiding from You”
e descrive un meccanismo molto semplice: ogni azione che compiamo sui
social viene registrata e analizzata dagli algoritmi per
personalizzare il nostro feed e mostrarci ciò che (secondo le analisi
dell’algoritmo) ci interessa di più.
Tutto ciò che contrasta o che
viene ritenuto lontano o inutile viene automaticamente escluso.
Questo sistema, presente su tutte
le principali piattaforme, ha delle conseguenze potentissime:
- alimenta la polarizzazione, rafforzando esclusivamente le nostre opinioni,
- genera intolleranza, impoverendo il pensiero critico con l’assenza di punti di vista diversi,
- e favorisce l’ostilità, soprattutto nei casi di utenti che abitano bolle particolarmente estreme.
Nel tempo, questo circolo di
conferme finisce per rafforzare i nostri pregiudizi, ridurre la varietà
informativa e minare la nostra capacità di mettere in discussione ciò in cui
crediamo.
Il feed si trasforma in uno
specchio che non riflette la realtà, ma una versione su misura della nostra
visione del mondo, priva di qualsiasi forma di diversità culturale,
politica e sociale.
Qual è la soluzione,
allora?
L’antidoto agli effetti
collaterali delle filter bubble non sta nella quantità, perché il punto non
è tanto il numero di informazioni che leggiamo quanto lo sguardo con cui lo
facciamo.
Serve più consapevolezza
critica.
Serve iniziare a riconoscere
che i feed sono costruiti per tenerci incollati allo schermo, per
intrattenerci, per farci cliccare e consumare sempre più contenuti, e
non per tenerci informati.
Serve iniziare a chiederci
perché stiamo vedendo un determinato contenuto, da chi è stato costruito e
quali punti di vista, rispetto a quello che ci racconta, non stiamo
considerando.
Ovviamente questo non vuol dire
diffidare di tutto quello che leggiamo o iniziare a cercare le fonti per
verificare se il TikTok del gabbiano sul monopattino (che ha fatto impazzire
tutto il team di Parole O_Stili qualche tempo fa) sia reale oppure generato
dall’IA.
Al contrario, è un invito a imparare
a navigare la complessità e ad accogliere quello che ci chiama a mettere in
discussione le nostre certezze, accompagnandoci fuori dalla nostra comfort
zone digitale per costruire un pensiero più ampio, rispettoso e capace di
confronto.
Nessun commento:
Posta un commento