D’après un article de Bloomberg, les employés de Google qualifient le chatbot IA Bard de « pire qu’inutile » et de « menteur pathologique ».
Les soucis s’enchaînent pour Google dans le domaine de l’intelligence artificielle. Afin de ne pas se laisser distancer par ses rivaux Microsoft et OpenAI, Google a lancé son propre chatbot IA baptisé Bard au mois de mars. Ce dernier a récemment été accusé d’avoir été formé avec des données de ChatGPT, même si Google a démenti ces informations. Aujourd’hui, un nouveau rapport publié par Bloomberg montre que les employés de Google ont critiqué à plusieurs reprises le chatbot Bard dans des communications internes, qualifiant l’outil IA de « menteur pathologique » et suppliant le géant du web de ne pas le lancer publiquement.
Google confronté à sa propre éthique dans la course à l’IA générative
L’article de Bloomberg est assez édifiant, il cite des discussions avec 18 employés et ex-employés de Google et montre des captures d’écran de messages internes. Lors de ces discussions, un employé a indiqué que le chatbot IA Bard prodiguait fréquemment des conseils douteux, voire dangereux, aux utilisateurs sur des sujets comme faire atterrir un avion ou la pratique de la plongée sous-marine. Un autre employé a déclaré : « Bard est pire qu’inutile : s’il vous plaît, ne le lancez pas ».
Toujours selon l’article, Google a même rejeté les conclusions d’une évaluation des risques soumise par une équipe de sécurité interne, selon laquelle le système n’était pas prêt pour une utilisation publique. Google n’y a pas tenu compte et a ouvert un accès anticipé au chatbot « expérimental » au mois de mars dernier. Ce rapport de Bloomberg illustre bien la manière dont Google a apparemment mis de côté les préoccupations éthiques de ses équipes pour rester dans la course à l’IA générative face à des concurrents comme Bing Chat de Microsoft et ChatGPT d’OpenAI.
Google vante régulièrement ses travaux en matière de sécurité et d’éthique dans le domaine de l’intelligence artificielle, mais dans les faits, le géant du web est depuis longtemps critiqué pour donner la priorité aux affaires. Fin 2020 et début 2021, la société a licencié deux chercheurs en IA, Timnit Gebru et Margaret Mitchell, pour un mémoire de recherche exposant les failles des modèles de langage IA qui alimentent les chatbots comme Bard.
Aujourd’hui, alors que ces nouveaux outils IA menacent le modèle économique du moteur de recherche classique de Google, la société semble encore plus avoir mis de côté la sécurité. Comme le résume l’article de Bloomberg, en paraphrasant les témoignages d’employés : « le géant de la recherche sur Internet, qui jouit d’une grande confiance, fournit des informations de mauvaise qualité dans une course à la concurrence, tout en accordant moins d’importance à ses engagements éthiques ».
D’autres personnes chez Google et dans le domaine de l’IA en général ne sont pas d’accord avec ce point de vue. L’argument principal des défenseurs des modèles de langage actuels est que des tests publics sont essentiels pour le développement et l’optimisation de ces systèmes et que les dommages connus causés par les chatbots sont minimes. Certes, ils produisent parfois des textes toxiques et des informations erronées, mais il en va de même pour de nombreuses autres sources sur la toile. Ce à quoi nous pouvons répondre que diriger un internaute vers une mauvaise source d’information est différent que de lui donner cette information directement avec toute l’assurance d’un système d’intelligence artificielle. Les concurrents de Google sont sans aucun doute tout aussi compromis, mais la différence est qu’ils ne sont pas leaders dans le domaine de la recherche web et qu’ils ont sûrement moins à perdre.
De son côté, Google a indiqué à Bloomberg que l’éthique de l’IA restait une priorité absolue pour l’entreprise : « Nous continuons à investir dans les équipes qui travaillent à l’application de nos principes d’IA dans notre technologie ».
Google Bard reviendra plus fort et plus compétitif, pour une meilleure expérience ! Pour le reste, suis d’accord avec le commentaire précédent.
Esperons que ce soit le cas, cette course dans l’IA s’avère passionnante je trouve
En même temps, les premiers temps où il avait été lancé en accès libre, Bard annonçait lui même sa propre fermeture en reprenant une fausse information publié je sais plus où… Google a clairement voulu lancé un équivalent à ChatGPT pour pas perdre la face. Le problème c’est que comme dit dans l’article, le grand public ne connaissait pas ou peu OpenAI avant décembre dernier alors que Google était clairement attendu au tournant.