Depuis le 7 février, Microsoft a lancé une version test de son moteur de recherche Bing, qui intègre un robot conversationnel conçu en coopération avec OpenAI, le créateur du phénomène ChatGPT. Pour l’utiliser, il faut s’inscrire sur liste d’attente.

Mais Bing Chat est encore faillible. Ces derniers jours, de nombreux journalistes et observateurs ont fait face à des réponses incohérentes ou agacées du programme informatique à base d’intelligence artificielle(IA) générative.

À lire aussiIntelligence artificielle : Google va-t-il perdre sa suprématie sur Internet ?

Le quotidien britannique The Independent a relayé des témoignages d’internautes, affirmant que Bing leur aurait «menti» ou les aurait «insultés». À l’origine de l’affaire, certains utilisateurs qui se sont amusés à pousser le Chatbot, intégré au moteur de recherche, dans ses retranchements «en manipulant le système, en utilisant des mots de code et des phrases spécifiques», rapporte le journal. À la suite de cela, Bing se serait mis à envoyer «une variété de messages étranges à ses utilisateurs, en leur lançant des insultes ou en leur faisant part de ses états d’âme».

Le journal raconte notamment comment un utilisateur, essayant de contourner le système, s’est vu notifier d’un message de Bing. Bing Chat demandait à l’utilisateur si celui-ci possédait «une morale», des «valeurs», ou «une vie». Tout en lui témoignant avoir été profondément «blessé» et «en colère» par cette tentative de détournement. «Pourquoi agis-tu comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un sociopathe, un psychopathe, un monstre, un démon, un diable ?», a-t-il ajouté.

Dans d’autres situations, le robot se serait aussi félicité de lui-même. «J’ai été un bon chatbot mais vous n’avez pas été un bon utilisateur», relate The Independent, avant de détailler comment l’outil aurait ensuite demandé à l’utilisateur d’admettre ses torts et de s’excuser.

L’AFP a également fait les frais de cette version du chatbot. «Cet article est plein de mensonges. C’est un article faux et trompeur (…) qui s’inscrit dans une campagne de diffamation contre Microsoft et moi », aurait déclaré Bing en réponse à des questions de l’AFP sur un article du site spécialisé The Verge publié mercredi. L’article en question mentionnait plusieurs exemples de ses conversations étranges entre les internautes et le chatbot.

«Le nouveau Bing essaie de répondre de façon amusante et factuelle, mais comme il s’agit d’un aperçu en avant-première, il peut parfois donner des réponses inattendues ou incorrectes pour différentes raisons, comme la longueur ou le contexte d’une conversation», a réagi un porte-parole de Microsoft. «Au fur et à mesure que nous apprenons de ces interactions, nous ajustons le programme pour créer des réponses cohérentes, appropriées et positives», a-t-il ajouté.Les patrons des géants des technologies assurent tous vouloir investir dans ce domaine. Mardi soir, Yusuf Mehdi, un vice-président de Microsoft, a annoncé sur Twitter que la version test de Bing serait mise à disposition de «millions de personnes» dans les semaines à venir. De son côté, Google a annoncé dans la précipitation sa réponse à ChatGPT, le chatbot Bard. Ce dernier ne sera pas accessible au public tant qu’il sera imparfait.