L’effet placebo peut-il influencer notre perception de l’IA ? Une étude suggère que cet effet est résistant aux descriptions négatives de l’IA et pourrait avoir un impact sur l’expérience utilisateur.
Les créateurs de technologies ont souvent recours à la psychologie humaine pour améliorer ou manipuler l’expérience des utilisateurs. Cependant, les résultats finaux ne dépendent pas seulement de l’intelligence artificielle (IA) et de sa qualité, mais aussi de la façon dont les humains réagissent à cette IA. Deux études récentes se sont penchées sur l’influence des attentes des individus vis-à-vis de l’IA sur leur confiance envers celle-ci et leur propension à suivre ses conseils.
L’une de ces études a révélé qu’un fort effet placebo contribue à façonner l’opinion des personnes à l’égard d’un outil d’IA donné. Dans le cadre de cette expérience, des participants se sont apprêtés à interagir avec un chatbot de santé mentale. Avant cette interaction, ils ont été informés que le robot était bienveillant, manipulateur ou ni l’un ni l’autre, et qu’il n’avait aucun mobile particulier. Après avoir utilisé le chatbot, qui était basé sur le modèle d’IA générative GPT-3 d’OpenAI, la plupart des participants qui avaient été amenés à croire que l’IA était bienveillante ont déclaré qu’elle l’était réellement.
Par définition, un placebo est un procédé thérapeutique qui n’a aucune efficacité particulière mais qui agit sur le patient par le biais de mécanismes psychologiques et physiologiques. L’effet placebo de l’IA dans l’interaction homme-machine (IHM), inspiré de la recherche médicale, montre qu’un système d’IA peut véritablement apporter des bénéfices subjectifs et réels, accompagnés de changements de comportement et de physiologie. Thomas Kosch, qui étudie l’interaction entre les humains et l’IA à l’Université Humboldt de Berlin, a soutenu dans son rapport d’étude intitulé « L’effet placebo de l’intelligence artificielle dans l’interaction homme-machine » que les attentes vis-à-vis de la technologie de l’IA influencent considérablement les résultats des études et faussent donc l’évaluation scientifique si elles ne sont pas contrôlées.
Des recherches antérieures sur les effets placebo dans les IHM ont été rapportées dans des contextes de jeu, où de faux éléments d’amélioration qui ne font aucune différence dans le jeu et des descriptions fictives de l’adaptation de l’IHM augmentent l’immersion. Dans les médias sociaux, de faux paramètres de contrôle pour un fil d’actualités peuvent conduire à une plus grande satisfaction des utilisateurs. Kosch a montré que la croyance en l’utilisation de l’IA adaptive peut améliorer les performances. Les chercheurs ont également constaté que des attentes élevées à l’égard des systèmes d’évaluation basés sur l’IA augmentent les risques liés à la prise de décision et influent sur le traitement de l’information. Ainsi, la technologie de l’IA peut entraîner des effets secondaires susceptibles de modifier les comportements grâce à l’augmentation des attentes positives.
Cependant, il convient de souligner deux points importants. Premièrement, aucun effet direct sur le comportement n’a été constaté. Deuxièmement, il n’est pas clair si les effets de la cooptation, c’est-à-dire les faibles attentes qui entravent le comportement, ont autant d’influence que les attentes positives basées sur les descriptions verbales dans les IHM.
Il est évident que les individus ont des attentes vis-à-vis de l’IA. Selon les résultats d’une enquête, les craintes concernant l’impact perturbateur de l’IA l’emportent sur l’enthousiasme du public. Les discours sur l’IA varient selon les acteurs et évoluent avec le temps. Par exemple, les politiques nationales de pays comme la Chine, l’Allemagne, les États-Unis et la France mettent en évidence le potentiel perturbateur de l’IA, et ces discours ont un impact généralisé qui influence l’utilisation de l’IA. Des études antérieures ont exploré des domaines clés tels que les attentes en matière de transparence, les relations homme-IA et l’autonomie, qui sont à la base de la conception des interfaces d’IA.
Mais quel est l’impact des attentes négatives sur l’expérience utilisateur en IHM ? Les effets placebo et nocebo ne se limitent pas aux contextes médicaux, mais affectent également les contextes de performance tels que le sport. Les effets placebo de l’IA dans l’IHM et leur impact sur les performances ont été récemment étudiés, mais les connaissances sur les effets nocebo sont encore très limitées. Les premières études laissent entendre que des effets nocebo peuvent être provoqués par des artefacts technologiques, mais peu d’études empiriques ont directement examiné la mise en œuvre d’attentes négatives vis-à-vis de l’IA. Par exemple, le chercheur Martin Ragot a découvert que les œuvres d’art générées par l’IA et étiquetées comme telles étaient moins bien notées que si elles étaient étiquetées comme créées par un humain. Un effet nocebo aurait un impact négatif sur les performances et sur des mesures subjectives telles que la facilité d’utilisation ou l’expérience utilisateur. En somme, des attentes négatives peuvent avoir un impact négatif sur les performances et l’expérience utilisateur.
Il est important de souligner que l’effet placebo de l’IA est complexe. Par exemple, le chercheur Martin Ragot a découvert que les œuvres d’art générées par l’IA et étiquetées comme telles étaient moins bien notées que si elles étaient étiquetées comme créées par un humain. Les chercheurs ont également constaté que même lorsque les participants étaient prévenus de mauvaises performances d’un faux système d’IA, ils obtenaient de meilleurs résultats et réagissaient plus rapidement, démontrant ainsi un effet de substitution significatif. Contrairement aux études précédentes, cela indique que l’effet placebo de l’IA n’est pas facilement annulé par des descriptions verbales négatives, ce qui soulève des questions sur les méthodes actuelles de contrôle des attentes dans les études en IHM. De plus, la croyance en l’assistance de l’IA a facilité les processus de prise de décision, même lorsque le récit sur l’IA était négatif, soulignant ainsi que l’influence de l’IA va au-delà de simples histoires. Cela met en évidence la complexité et l’impact des récits sur l’IA et suggère la nécessité d’une approche équilibrée dans la recherche et l’évaluation de l’utilisation pratique de l’IA.
Cependant, il convient de mentionner que cette étude présente certaines limites. Tout d’abord, il est évident que les chercheurs n’ont pas pris en compte l’influence des émotions en appliquant la perspective socio-émotionnelle d’Atlas à leurs résultats. Bien qu’il soit généralement recommandé de créer un environnement confortable et convivial dans les évaluations en IHM, des recherches antérieures ont révélé que des émotions positives peuvent contrecarrer la réponse nocebo lors d’expériences douloureuses. Ainsi, l’affect positif pourrait expliquer pourquoi les chercheurs n’ont pas observé d’effets nocebo dans cette étude. Il convient cependant de noter que l’étude n’a pas été en mesure de susciter des attentes négatives au départ. Il serait donc intéressant que les recherches futures prennent en compte l’impact des émotions lors des tests, peut-être en les modifiant délibérément.
Selon Thomas Kosch, l’effet placebo constituera