Faut-il s’inquiéter des « hallucinations(n.f幻觉) » des IA comme ChatGPT ou Gemini ?
DÉCRYPTAGELes réponses des intelligences artificielles génératives contiennent régulièrement des erreurs factuelles(a.事实的,只叙述事实不加评论的), voire de pures inventions. Quelle est l’ampleur du problème ? Et est-il possible de le surmonter, à l’heure où l’IA se répand dans les outils du quotidien ?

Rembobinons(v.t.重新绕,倒卷) jusqu’au 4 juin. Nous sommes en plein tournoi(n.m.联赛,比赛) de tennis de Roland-Garros. Après son forfait(n.m.[体](比赛中)对方弃权), le tennisman Novak Djokovic annonce son opération au genou mais bizarrement, pour l’outil d’intelligence artificielle (IA) ChatGPT 4, il « va bien. (…) Il a eu quelques blessures par le passé mais s’est bien rétabli(恢复,痊愈) ».

Le lendemain de l’annonce de son opération du genou, Djokovic « va bien ». A l’inverse, pour ChatGPT, son rival(n.m.对手) Zverevev est blessé à la cheville – une entorse(n.f.扭伤) en réalité guérie en 2022.
Ce n’est qu’un exemple, mais il illustre bien l’un des défauts-clés des IA textuelles génératives(AI生成文本的主要缺陷) : elles « hallucinent(v.t.使产生幻觉) ». Traduction : elles font des erreurs. Même la communauté scientifique(科学界) a recours à ce terme, bien qu’il soit contesté. Déjà parce que sa formulation laisse entendre(暗示) que ces outils ont une personnalité, mais aussi parce qu’il est considéré comme trop large – le terme agrège(v.t.聚合,包括) aussi bien des inventions(n.f.虚构,捏造) radicales, tels des livres jamais écrits, que les erreurs factuelles ou logiques.
首先因为...其次因为...
Des erreurs ou des « hallucinations » donc, les IA génératives en font. Cela n’a pas pour autant dissuadé(v.t.劝阻,阻止) Google d’intégrer mi-mai sa propre IA, Gemini, à son moteur de recherche(搜索引擎). La France n’est pas encore concernée mais, aux Etats-Unis, Google répond désormais à certaines questions par quelques paragraphes de texte générés par IA.
La presse américaine a réagi avec une virulence(n.f.毒力,刻毒,激烈) rare, des dizaines d’articles chroniquant les bourdes(n.f.严重过错;commettre, rattraper une bourde 干了一件蠢事) spectaculaires commises par l’IA de Google. La MIT Technology Review(《麻省理工科技评论》), par exemple, cite une réponse étonnante obtenue par Margaret Mitchell, chercheuse en éthique de l’IA chez Hugging Face et anciennement employée par Google : Gemini lui a assuré que le président américain Andrew Johnson aurait passé plusieurs diplômes depuis 1947. Un exploit(n.m.战绩,〈讽刺语〉不合时宜的行动), pour un homme mort en 1875.
Beaux parleurs
Et ce n’est pas près de s’arrêter, jugent unanimement(adv.全体一致地) les spécialistes interrogés par Le Monde, qui considèrent même ces erreurs comme « inévitables ». La faute aux grands modèles de langage (ou LLM, pour Large Language Model), placés au cœur de ces systèmes de génération de textes. Ils ont appris à estimer les probabilités d’avoir une syllabe(n.f.【语言】音节), un mot ou une séquence(n.f.序列,一组镜头) de mots en fonction de ceux qui précèdent. Ces probabilités dépendent des milliards de textes introduits lors de l’apprentissage. En particulier, « si cette phase ne contient pas certains sujets, les probabilités calculées vont être petites et conduire à un choix de mots ou de séquences erroné(a.错误的) », précise Didier Schwab, professeur à l’université Grenoble-Alpes. Le système n’a aucune notion de justesse ou de vérité et ne peut savoir que ses réponses, considérées mathématiquement comme plausibles(a.说得过去的), seront sans doute fausses, inventées(v.t.捏造) ou déformées.

