Chatgp pensa in modi stranamente simili agli umani, inclusi scorciatoie mentali e punti ciechi. Questi pregiudizi rimangono piuttosto stabili in molte situazioni aziendali ma possono cambiare man mano che l'IA si evolve da una versione all'altra
L'intelligenza artificiale pensa come tutte le persone.
Possiamo davvero fidarci dell'IA per prendere decisioni migliori degli umani? Un nuovo studio dice ... non sempre. I ricercatori hanno scoperto che il Chatgp di Openai, uno dei modelli di intelligenza artificiale più avanzati e popolari, fa gli stessi tipi di errori decisionali degli umani in alcune situazioni mostrando pregiudizi come l'eccessiva fiducia, ma si comporta in modo disumano in altri.
Pubblicato sulla rivista INFORMS journal Manufacturing & Service Operations Management (1), lo studio rivela che Chatgp non si limita a interpretare: “pensa” in modi stranamente simili agli umani, incluse scorciatoie mentali e punti ciechi. Questi pregiudizi rimangono piuttosto stabili in diverse situazioni aziendali ma possono cambiare man mano che l'IA si evolve da una versione all'altra.
AI: un assistente intelligente con difetti umani
Lo studio, “Un manager e un AI camminano in un bar: Chatgpt prende decisioni distorte come noi?” (A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?), mette Chatgpt attraverso 18 diversi test di distorsione. I risultati?
- L'intelligenza artificiale cade in trappole per la decisione umana - Chatgpt ha mostrato pregiudizi come la fiducia in eccesso o l'avversione all'ambiguità in quasi la metà dei test.
- L'intelligenza artificiale è brava in matematica, ma lotta con le chiamate di giudizio - eccelle in problemi logici e basati sulla probabilità, ma inciampa quando le decisioni richiedono ragionamento soggettivo.
- Il pregiudizio non sta andando via - sebbene il nuovo modello GPT-4 sia più analiticamente accurato del suo predecessore, a volte mostrava pregiudizi più forti in compiti basati sul giudizio.
Perché questo è importante
Dall'assunzione di lavoro alle approvazioni dei prestiti, l'IA sta già dando forma alle principali decisioni negli affari e nel governo. Ma se l'IA imita i pregiudizi umani, potrebbe rafforzare le decisioni sbagliate invece di ripararle?
«Come l'IA impara dai dati umani, può anche pensare come un essere umano: pregiudizi e tutto il resto», afferma il dottor Yang Chen (2), autore principale e professore associato alla Western University. «La nostra ricerca mostra quando l'IA viene utilizzata per effettuare chiamate di giudizio, a volte impiega le stesse scorciatoie mentali delle persone».
Lo studio ha scoperto che Chatgp tende a:
- Gioca in modo sicuro - l'IA evita il rischio, anche quando le scelte più rischiose potrebbero produrre risultati migliori.
- Sopravvalutare se stesso - Chatgpt presuppone che sia più preciso di quanto non sia in realtà.
- Cerca la conferma - l'IA favorisce le informazioni che supportano ipotesi esistenti, piuttosto che sfidarle.
- Evita l'ambiguità - l'IA preferisce alternative con più informazioni e meno ambiguità.
«Quando una decisione ha una chiara risposta giusta, l'IA la inchioda: è meglio trovare la formula giusta rispetto alla maggior parte delle persone», afferma il dottor Anton Ovchinnikov (3) della Queen's University. «Ma quando è coinvolto il giudizio, l'IA potrebbe cadere nelle stesse trappole cognitive delle persone».
Quindi, possiamo fidarci dell'IA per prendere grandi decisioni?
Con i governi in tutto il mondo che lavorano sui regolamenti dell'intelligenza artificiale, lo studio solleva una domanda urgente: dovremmo fare affidamento sull'intelligenza artificiale per effettuare ricerche importanti quando il risultato potrebbe essere distorto allo stesso modo di quello degli umani?
«L'intelligenza artificiale non è un arbitro neutro», afferma il dottor Samuel Kirshner (4) della UNSW Business School. «Se lasciata incontrollata, potrebbe non risolvere i problemi decisionali: potrebbe effettivamente peggiorarli».
Secondo i ricercatori, è per questo motivo che le aziende e i politici devono monitorare le decisioni dell'IA da vicino come un decisore umano.
«L'intelligenza artificiale dovrebbe essere trattata come un dipendente che prende decisioni importanti: ha bisogno di supervisione e linee guida etiche», afferma la dottoressa Meena Andiappan (5) della McMaster University. «Altrimenti, rischiamo di automatizzare il pensiero imperfetto invece di migliorarlo».
Qual è il prossimo?
Gli autori dello studio raccomandano audit regolari di decisioni basate sull'intelligenza artificiale e di raffinazione dei sistemi di intelligenza artificiale per ridurre i pregiudizi. Con l'influenza dell'intelligenza artificiale in crescita, assicurarsi un miglioramento del processo decisionale - piuttosto che replicare i difetti umani - sarà la chiave.
«L'evoluzione da GPT-3.5 a 4,0 suggerisce che gli ultimi modelli stanno diventando più umani in alcune aree, ma meno umane ma più accurate in altre», afferma Tracy Jenkin della Queen's University. «I manager devono valutare come si comportano diversi modelli sui loro casi d'uso decisionali e rivalutano regolarmente per evitare sorprese. Alcuni casi d'uso richiederanno un significativo perfezionamento del modello».
Riferimenti:
(1) A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?
(2) Yang Chen
(4) Samuel Kirshner
(5) Meena Andiappan
Descrizione foto: L'intelligenza artificiale pensa come tutte le persone. - Credit: ChatGPT.
Autore traduzione riassuntiva e adattamento linguistico: Edoardo Capuano / Articolo originale: AI Thinks Like Us – Flaws and All: New Study Finds ChatGPT Mirrors Human Decision Biases in Half the Tests