Les gens n’apprennent pas à faire confiance aux robots

Alors que les produits d’intelligence artificielle s’améliorent constamment à faire semblant d’être humains – une voix générée par l’IA qui réserve les réservations de restaurants par téléphone, par exemple, ou un robot de chat qui répond aux questions des consommateurs en ligne – les gens seront de plus en plus mis dans la situation troublante de ne pas savoir s’ils parlent à une machine. Mais la vérité peut rendre ces produits moins efficaces: des recherches récentes trouvent un compromis entre la transparence et la coopération dans les interactions homme-machine.

L’étude a utilisé un jeu simple mais nuancé dans lequel les joueurs en binôme prennent une série de décisions simultanées pour coopérer avec ou trahir leur partenaire. À long terme, il est avantageux pour les deux de continuer à coopérer, mais il y a toujours la tentation de faire défaut et de gagner des points supplémentaires à court terme, aux frais du partenaire. Les chercheurs ont utilisé un algorithme d’IA qui, lorsqu’il se faisait passer pour une personne, a mis en œuvre une stratégie meilleure que les gens pour amener les partenaires humains à coopérer. Mais les travaux précédents suggéraient que les gens avaient tendance à se méfier des machines, alors les scientifiques se sont demandé ce qui se passerait si le bot se révélait comme tel.

L’équipe espérait que les gens jouant avec un bot connu reconnaîtraient sa capacité à coopérer (sans être un jeu d’enfant) et finiraient par surmonter leur méfiance. «Malheureusement, nous avons échoué à cet objectif», explique Talal Rahwan, informaticien à l’Université de New York à Abu Dhabi et auteur principal du document, publié en novembre dernier dans Nature Machine Intelligence. “Peu importe ce que l’algorithme a fait, les gens s’en tiennent à leurs préjugés.” Un bot jouant ouvertement comme un bot était moins susceptible de susciter la coopération qu’un autre humain, même si sa stratégie était clairement plus avantageuse pour les deux joueurs. (Dans chaque mode, le bot a joué 50 rounds contre au moins 150 individus.)

Dans une expérience supplémentaire, les joueurs ont été informés: «Les données suggèrent que les gens sont mieux lotis s’ils traitent le bot comme s’il s’agissait d’un humain.» Cela n’a eu aucun effet.

Virginia Dignum, qui dirige le groupe d’intelligence artificielle sociale et éthique à l’Université d’Umeå en Suède et n’était pas impliquée dans l’étude, félicite les chercheurs d’avoir exploré le compromis transparence-efficacité, mais elle aimerait le voir testé au-delà du cadre particulier du document. installer.

Les auteurs déclarent que dans la sphère publique, il faut demander aux gens de consentir à être trompés sur l’identité d’un bot. Cela ne peut pas se faire sur une base d’interaction par interaction, sinon la «tromperie» ne fonctionnera évidemment pas. Mais l’autorisation générale de tromperie occasionnelle, même si elle peut être obtenue, soulève toujours des dilemmes éthiques. Dignum dit que les humains devraient avoir la possibilité de savoir après avoir interagi avec un bot, mais si elle appelle le service client avec une question simple, elle ajoute: “Je veux juste obtenir ma réponse.”