ChatGPT serait-il plus enclin à faire des réponses détaillées si vous êtes poli avec lui ou si vous lui proposez de l’argent ? C’est ce qu’affirment des utilisateurs du réseau social Reddit. «Quand on le flatte, ChatGPT est plus performant!», témoignent, surpris, certains d’entre eux. Tandis qu’un autre explique avoir proposé une récompense de 100.000 dollars au célèbre robot conversationnel développé par l’entreprise californienne OpenAI, ce qui l’aurait incité à «faire beaucoup plus d’efforts» et à «travailler beaucoup mieux», relaie le média américain Tech Crunch.

Un point également soulevé par des chercheurs de Microsoft, de l’Université normale de Pékin et de l’Académie chinoise des sciences, qui ont détaillé dans un rapport paru en novembre 2023, que les modèles d’IA générative sont plus performants lorsqu’ils sont sollicités de manière polie ou avec une notion d’enjeu.

Par exemple, en formulant des phrases comme «Il est crucial que je réussisse ma soutenance de thèse» ou «c’est très important pour ma carrière», le robot formule des réponses plus complètes à la question posée par l’internaute. «Il y a plusieurs suppositions depuis quelques mois. Avant l’été, des utilisateurs avaient également assuré que ChatGPT donnait des réponses détaillées si on lui proposait des pourboires», remarque également Giada Pistilli, chercheuse en philosophie et responsable de l’Éthique pour la start-up Hugging Face, qui défend une conception open source des ressources en intelligence artificielle.

Cette façon d’agir de la part de la machine, trouve son origine dans les données avec lesquelles elle est alimentée. «Il faut voir les données en question comme un bloc de texte, où ChatGPT lit et découvre que deux utilisateurs ont une conversation bien plus riche lorsqu’ils sont polis entre eux», explique Giada Pistilli, « Si l’utilisateur lui pose une question de façon courtoise, ChatGPT va reprendre ce scénario et répondre sur le même ton».

«Les modèles comme ChatGPT, font de la probabilité. Par exemple, on lui donne une phrase qu’il doit compléter. En fonction de ses données, il va chercher la meilleure option pour y répondre», complète Adrian-Gabriel Chifu, docteur en informatique et enseignant-chercheur à l’Université d’Aix-Marseille, «Cela n’est que mathématique, ChatGPT est entièrement dépendant des données avec lesquelles il a été entraîné». Ainsi, le robot conversationnel est capable aussi de se montrer presque agressif dans sa réponse, si l’utilisateur lui formule une demande abruptement et que la manière dont a été construit le modèle l’autorise à l’être aussi.

Les chercheurs de Microsoft, de l’Université normale de Pékin et de l’Académie chinoise des sciences parlent même «d’incitations émotionnelles» dans leur rapport. Derrière ce terme, ils incluent les façons de s’adresser à la machine qui la pousse à «simuler, le plus possible, le comportement humain», analyse Giada Pistilli.

Pour que ChatGPT incarne un rôle adapté à la réponse recherchée, il suffit d’utiliser certains mots-clefs, qui provoqueront des personnifications différentes de la machine. «En lui proposant des pourboires, il va percevoir l’action comme un échange de service et incarner ce rôle serviciel», prend-elle pour exemple.

Le robot conversationnel peut rapidement adopter, dans l’esprit de certains utilisateurs et en fonction de leurs demandes, le ton de conversation que pourrait avoir un professeur, un écrivain ou un cinéaste. « Ce qui nous fait tomber dans un piège : celui de le traiter comme un être humain et de le remercier pour son temps et son aide comme on le ferait avec une véritable personne», constate la chercheuse en philosophie.

Le danger étant de considérer totalement cette simulation de comportements, réalisé par un calcul au sens littéral de la machine, comme une véritable «humanité» de la part du robot. «L’anthropomorphisme est recherché depuis les années 70 dans le développement des chatbots», rappelle Giada Pistilli, qui évoque en exemple le cas du Chatbot Eliza.

Ce programme d’intelligence artificielle conçu par l’informaticien Joseph Weizenbaum dans les années 60, simulait à l’époque un psychothérapeute. «Dans les années 70, cela n’allait pas encore si loin dans les réponses, une personne pouvait expliquer à Eliza qu’il avait des problèmes avec sa mère pour que celui-ci lui réponde simplement “je crois que vous avez des problèmes avec votre mère?’’», note Giada Pistilli. «Mais cela suffisait déjà à ce que certains utilisateurs l’humanisent et lui donnent un pouvoir».

«Quoi qu’’il arrive, l’IA va surtout dans notre sens en fonction de ce qu’on lui demande», rappelle le chercheur et maître de conférences Adrian-Gabriel Chifu. «D’où la nécessité d’être toujours prudent dans nos usages avec ces outils».

Dans la pop culture, l’idée que les robots dotés d’intelligence puissent un jour se confondre avec des humains est régulièrement convoquée. Le manga «Pluto», du japonais Naoki Urazawa, paru dans les années 2000 et adapté en série par Netflix en 2023 ne fait pas exception. Dans cet ouvrage, les robots vivent avec les humains, vont à l’école et exercent des métiers tout comme eux. Leur différence est de plus en plus difficile à distinguer.

Au cours de l’épisode 2, un robot s’étonne même qu’un autre, plus performant, arrive à déguster une crème glacée avec le même plaisir qu’un humain. «Plus je fais semblant, plus j’ai l’impression de comprendre», explique ce dernier. À ce propos, le chercheur Adrian-Gabriel Chifu repense au célèbre test du mathématicien Alan Turing, qui avait pour but d’observer la capacité de l’intelligence artificielle à imiter l’humain. «Turing se demandait jusqu’ou la machine pourrait arriver à duper l’humain en fonction des données qu’il possède…et c’était en 1950», conclut-il, pensif.