Read the original English version in Nature

I laboratori gestiti dall'intelligenza artificiale sono già una realtà. Quello nella foto si trova a Suzhou, Cina. Credit: Qilai Shen/Bloomberg/Getty

Gli scienziati in tutti i campi stanno abbracciando l’uso dell'intelligenza artificiale (IA): dallo sviluppo di laboratori "a guida autonoma", in cui robot e algoritmi lavorano insieme per ideare e condurre esperimenti, alla sostituzione dei partecipanti umani con bot negli esperimenti di scienze sociali1.

Conosciamo diversi aspetti negativi dei sistemi di IA. Ad esempio, l'IA generativa, come quella su cui si basa ChatGPT, tende a inventare, o "allucinare", e il funzionamento dei sistemi di apprendimento automatico è poco trasparente.

In un articolo su Nature2, un gruppo di scienziati sociali afferma che i sistemi di IA presentano un ulteriore rischio: che i ricercatori comincino a guardare a questi strumenti come se fossero dotati di capacità sovrumane in fatto di obiettività, produttività e comprensione di concetti complessi. Gli autori sostengono che in questo modo i ricercatori rischiano di trascurare i limiti di questi strumenti, come il rischio di perdere la visione d’insieme dei problemi scientifici, o di indurre gli utenti a pensare di aver compreso un concetto meglio di quanto non facciano in realtà.

Gli scienziati che intendono utilizzare l'IA "devono valutare questi rischi ora, mentre le applicazioni dell'IA sono ancora in fase nascente, perché sarà molto più difficile affrontarli se gli strumenti dell'IA diventeranno profondamente integrati nel lavoro di ricerca", scrivono i coautori Lisa Messeri, antropologa dell'Università di Yale a New Haven, nel Connecticut, e Molly Crockett, scienziata cognitiva dell'Università di Princeton nel New Jersey.

L'articolo lancia un allarme su ciò che potrebbe andare perduto se gli scienziati adottassero sistemi di IA senza considerare a fondo tali rischi. Deve essere ascoltato dai ricercatori e da coloro che programmano la ricerca, compresi i finanziatori e i direttori delle riviste. Ci sono modi per mitigare i rischi. Ma richiedono che l'intera comunità scientifica guardi ai sistemi di IA con gli occhi ben aperti.

Messeri e Crockett hanno esaminato un centinaio di articoli, preprint, atti di conferenze e libri sottoposti a peer review, pubblicati principalmente negli ultimi cinque anni. Da questi hanno ricavato un quadro dei modi in cui gli scienziati vedono i sistemi di IA come un miglioramento delle capacità umane.

In una diffusa "visione", chiamata AI as Oracle, gli strumenti di IA leggono e digeriscono instancabilmente i documenti scientifici e sono quindi in grado di esaminare la letteratura scientifica in modo più completo delle persone. In un'altra visione, chiamata AI as Arbiter, i sistemi valutano le scoperte scientifiche in modo più oggettivo rispetto alle persone, perché hanno meno probabilità di selezionare la letteratura per sostenere un'ipotesi desiderata o di mostrare favoritismi. In una terza visione, AI as Quant, gli strumenti di intelligenza artificiale superano i limiti della mente umana nell'analisi di insiemi di dati vasti e complessi. Nella quarta visione, l'IA come surrogato, gli strumenti di IA simulano dati troppo difficili o complessi da ottenere.

Sulla base delle loro conoscenze di antropologia e scienze cognitive, Messeri e Crockett prevedono i rischi che derivano da queste visioni. Uno di questi è l'illusione della profondità esplicativa3: le persone che si affidano a un'altra persona - o in questo caso a una macchina - per la loro conoscenza tendono a scambiarla con la propria e a pensare di avere raggiunto una comprensione più profonda di quanto non sia avvenuto in realtà.

Un altro rischio è che la ricerca si sbilanci verso lo studio di ciò che i sistemi di IA possono testare: i ricercatori chiamano questa illusione di ampiezza esplorativa. Per esempio, nelle scienze sociali, la visione dell'IA come surrogato potrebbe incoraggiare gli esperimenti che riguardano i comportamenti umani che possono essere facilmente simulati da un'IA e scoraggiare quelli che non possono, come quelli che richiedono l’uso del corpo.

C'è anche l'illusione dell'obiettività, per cui i ricercatori vedono i sistemi di IA come se rappresentassero tutti i punti di vista possibili o non avessero un punto di vista, quando in realtà questi strumenti riflettono solo i punti di vista trovati nei dati su cui sono stati addestrati e sono noti per incorporare i pregiudizi trovati in quei dati. "C'è il rischio di dimenticare che ci sono domande sugli esseri umani a cui non possiamo rispondere usando gli strumenti di intelligenza artificiale", afferma Crockett. L'illusione dell'obiettività è particolarmente preoccupante se si considerano i vantaggi dell'inclusione di punti di vista diversi nella ricerca.

Evitare le trappole

Se siete scienziati che intendono utilizzare l'IA, ci sono modi per mitigare i rischi. Un modo è mettere in relazione l'applicazione che avete in mente con una di quelle visioni, e chiedersi quali sono le trappole in cui è più probabile cadere. Un altro approccio è quello di scegliere coscientemente in che modo utilizzare l'IA. Secondo Crockett, utilizzare gli strumenti di IA per risparmiare tempo su qualcosa in cui il team è già esperto è meno rischioso che utilizzarli per fornire competenze che non si hanno.

Ma anche i direttori delle riviste che ricevono articoli in cui si dichiara l'uso di sistemi di IA devono considerare i rischi posti da queste visioni, così come i finanziatori che esaminano le richieste di fondi e gli amministratori delle università. Riviste e finanziatori dovrebbero tenere sotto controllo la ricerca che pubblicano e che finanziano, e assicurarsi che, di fronte alla miriade di possibilità dell'IA, il ventaglio di domande, i metodi usati e i punti di vista adottati rimanga ampio.

Tutti i membri della comunità scientifica devono considerare l'uso dell'IA non come inevitabile per alcn compito, né come una panacea, ma piuttosto come una scelta con rischi e benefici che devono essere attentamente soppesati. Per decenni, e molto prima che l'IA diventasse una realtà per la maggior parte delle persone, gli scienziati sociali hanno studiato l'IA. Ora tutti - compresi i ricercatori di ogni campo - devono ascoltare cos'hanno da dire.