Chatgpt pense comme nous, y compris les défauts: l'étude qui révèle les erreurs cognitives et les biais de l'IA
Une recherche montre que Chatgpt répète certaines erreurs de décision de décision humaine: biais de confirmation, erreur du joueur et surestimation de leurs compétences
L'intelligence artificielle peut-elle vraiment être un juge impartial et rationnel? Selon une nouvelle étude publiée dans le magazine Gestion des opérations de fabrication et de servicela réponse est plus compliquée que vous ne le pensez. Les auteurs de la recherche ont découvert que Chattel'un des modèles linguistiques les plus avancés d'Openai, reproduit plusieurs biais cognitifs typiques de la pensée humainetombant dans la même décision – des trains qui affligent les gens, comme le Fallacia du joueur et lesécurité excessive dans leurs réponses.
Pourtant, dans d'autres cas, l'IA se comporte d'une manière opposée à l'être humain, démontrant une certaine immunité à des erreurs courantes telles que le Fallacia du coût irrécupérable ou le mépris pour la fréquence de base.
Chatgpt échoue dans la moitié des tests
Au cours de l'étude intitulée « Un manager et un à la marche dans un bar: Chatgpt prend-il des décisions biétaire comme nous? »les chercheurs ont soumis le chatpt a 18 tests spécifiques pour identifier les biais cognitifs. Les résultats révèlent que Le modèle a montré des comportements déformés dans près de la moitié des casconfirmant combien ses «décisions» peuvent être influencées par raccourcis mentaux similaires aux humains.
Parmi les biais trouvés plus fréquemment, se démarquez:
- Aversion à l'ambiguïté: Chatgpt préfère les options avec plus d'informations, en évitant les situations nébuleuses.
- Confiance excessive: tend à surestimer sa précision, même lorsqu'il n'est pas pris en charge par les données.
- Biais de confirmation: favoriser les réponses qui confirment les hypothèses initiales, en évitant ceux qui les contredisent.
- Erreur de la conjonction (également connu sous le nom de « Linda Problem »): Erreur de raisonnement dans laquelle Chatgpt juge un ensemble d'événements conjoints plus susceptibles qu'un seul.
Le comportement de l'IA est apparu cohérent à travers différents contextes d'entreprise, mais une différence significative est également apparue entre les différentes versions du modèle. Gpt-4par exemple, montré plus grande précision analytique que GPT-3.5mais en même temps ça semblait plus enclin à biais dans les tâches qui nécessitent un jugement subjectif.
Les applications de l'intelligence artificielle dans les zones de prise de décision délicates – telles que Embauche du personnel, Concessions de prêt ou Sélection de candidats – Ils sont de plus en plus répandus. Mais si un modèle comme Chatgpt répond aux mêmes erreurs cognitives humaines, risques perpétuant les mauvaises décisions plutôt que de les corriger.
« Lorsque l'IA apprend des données humaines, elle finit par penser comme un être humain, y compris le parti pris », explique-t-il Yang Chenl'auteur principal de l'étude et professeur à l'Université Western. Le risque, les autres chercheurs soulignent également, est que l'IA est perçue comme un arbitre impartial, alors qu'en réalité il peut s'engager les mêmes erreurs systématiques qui interprètent des gens.
Anton Ovchinnikovde Queen's University, clarifie:
En ce qui concerne les problèmes logiques ou probabilistes, l'IA est supérieure à la moyenne des êtres humains. Mais dans les tâches qui nécessitent des évaluations subjectives, il tombe dans les mêmes trains mentaux.
Samuel Kirshnerde la UNSW Business School, ajoute:
L'IA n'est pas un juge neutre. S'il n'est pas surveillé, cela pourrait aggraver les problèmes de prise de décision au lieu de les résoudre.
Un contrôle humain continu est nécessaire
À la lumière de ces résultats, les chercheurs en recommandent un Supervision continue Et revues périodiques décisions prises par les modèles d'intelligence artificielle. L'utilisation croissante de ces outils dans le domaine de la gestion et du public nécessite une approche éthique et responsablequi prévoit des contrôles constants sur les processus de prise de décision automatisés, comme il le dit Mena etppan de l'Université McMaster:
Il est essentiel de traiter l'IA comme un employé avec un pouvoir de prise de décision. Nous avons besoin d'un système de règles, de surveillance et de directives éthiques, sinon vous risquez d'autosumer une pensée déformée au lieu de l'améliorer.
À la fin, Tracy Jenkin de l'Université Queen's souligne comment l'évolution du modèle GPT-3.5 à GPT-4 suggère Une tendance à une plus grande « humanisation » dans certains aspects cognitifstandis que dans d'autres, cela améliore la précision mathématique et logique:
Le gestionnaire doit évaluer en permanence comment les différents modèles se comportent en fonction de l'utilisation spécifique. Certaines zones nécessiteront une personnalisation importante du modèle.
Source: Gestion des opérations de fabrication et de service
