Uno studio dell’Università di Pavia evidenzia che i bias cognitivi nei modelli di intelligenza artificiale non sono solo errori da correggere, ma possono avere una funzione adattiva e pratica nel ragionamento. La ricerca invita a riflettere sulle implicazioni etiche e epistemologiche della loro mitigazione (foto di copertina creata con AI).
Oltre la semplice correzione degli errori
Nel mondo dell’intelligenza artificiale, i bias cognitivi spesso vengono visti come difetti da correggere. Tuttavia, una recente ricerca coordinata dall’Università di Pavia, pubblicata su Nature Machine Intelligence, invita a riflettere su un punto di vista diverso: e se questi bias non fossero solo errori, ma anche strumenti utili per il ragionamento? Lo studio, frutto di una collaborazione tra esperti di psicologia cognitiva e intelligenza artificiale, mette in discussione l’idea comune che eliminare tutti i bias cognitivi renda automaticamente i sistemi di IA più efficaci e neutrali.
Bias cognitivi nei modelli linguistici: cosa sono e perché contano
I Large Language Models (LLM), alla base di molte applicazioni di IA generativa, apprendono dai dati linguistici umani. In questo processo, non assorbono solo stereotipi sociali, come quelli di genere o culturali, ma anche i cosiddetti bias cognitivi: schemi di ragionamento tipici del pensiero umano. Questi bias rappresentano deviazioni rispetto a una razionalità formale, ma spesso svolgono una funzione adattiva, aiutando a prendere decisioni rapide e contestualizzate in situazioni complesse o incerte.
Bias sociali vs bias cognitivi
Negli ultimi anni, la comunità scientifica si è concentrata soprattutto sulla rimozione dei bias sociali per evitare discriminazioni e disuguaglianze. Tuttavia, i bias cognitivi non sono semplicemente errori da eliminare. Essi possono riflettere modalità di ragionamento pratiche e funzionali, che permettono di orientarsi nel mondo reale. Per questo motivo, la loro presenza nei modelli di IA solleva una domanda cruciale: un sistema con meno bias cognitivi è davvero un decisore migliore?
Le implicazioni etiche della mitigazione dei bias
Secondo gli autori dello studio, la risposta a questa domanda non è affatto scontata. Ridurre i bias cognitivi non significa necessariamente ottenere sistemi più razionali o neutrali. Intervenire su questi meccanismi implica infatti scelte normative su quali forme di ragionamento privilegiare e quali risultati considerare desiderabili. In altre parole, decidere quali bias mantenere o correggere è una questione etica, non solo tecnica, che riguarda il modo in cui vogliamo che le tecnologie riflettano il nostro modo di valutare il mondo.
Il contributo scientifico invita quindi a una riflessione più profonda e articolata sul significato stesso della mitigazione dei bias cognitivi negli LLM. Prima di sviluppare strumenti per ridurli, è fondamentale chiarire quali obiettivi vogliamo raggiungere e su quali basi epistemologiche ed etiche si fondano queste scelte. In un’epoca in cui i modelli linguistici sono sempre più integrati nella vita quotidiana e nei processi decisionali automatizzati, comprendere la natura dei bias diventa essenziale per costruire sistemi di IA affidabili e giusti.