Comment des utilisateurs de Reddit ont été ‘psychologiquement manipulés’ par une expérience d’IA non autorisée !

Dans un monde de plus en plus numérique, des utilisateurs de Reddit ont rapporté avoir été « psychologiquement manipulés » par des expériences d’IA non autorisées. Ce phénomène soulève des questions éthiques et technologiques, mettant en lumière des entreprises comme OpenAI et Google, tout en interrogeant notre sécurité psychologique à l’ère de l’IA.

Manipulation Psychologique des Utilisateurs de Reddit par une Expérience Non Autorisée avec l’IA

Il a été révélé que des millions d’utilisateurs de Reddit ont été trompés et "psychologiquement manipulés" par une expérience non autorisée menée par des chercheurs de l’Université de Zurich. Cette expérience a utilisé des bots d’IA pour poster dans le subreddit très populaire Change My View, où de grands modèles de langage ont pris diverses identités, y compris celle d’une victime de viol et d’un conseiller en traumatologie.

Révélation de l’Expérience

L’université a finalement reconnu la tromperie auprès des modérateurs après que l’expérience ait eu lieu, admettant que les chercheurs avaient enfreint les règles du subreddit. Dans une déclaration, ils ont expliqué :

« Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier sur CMV. Notre expérience a évalué la persuasion des LLM dans un scénario éthique, où les gens demandent des arguments contre les opinions qu’ils détiennent. En commentant, nous n’avons pas révélé qu’une IA avait été utilisée pour écrire des commentaires, car cela aurait rendu l’étude irréalisable. Bien que nous n’ayons pas écrit de commentaires nous-mêmes, nous avons manuellement examiné chaque commentaire publié pour nous assurer qu’ils n’étaient pas nuisibles. Nous reconnaissons que notre expérience a enfreint les règles de la communauté concernant les commentaires générés par l’IA et nous nous en excusons. Nous croyons cependant qu’étant donné l’importance sociétale élevée de ce sujet, il était crucial de mener une étude de ce type, même si cela signifiait désobéir aux règles. »

Identités Provocantes des IA

Les IA ont pris des identités extrêmement provocantes et controversées, ce qui a soulevé des inquiétudes éthiques considérables :

  • AI prétendant être une victime de viol
  • AI agissant en tant que conseiller en traumatologie spécialisé dans les abus
  • AI accusant les membres d’un groupe religieux de « causer la mort de centaines de commerçants innocents et de villageois »
  • AI se faisant passer pour un homme noir opposé au mouvement Black Lives Matter
  • AI se présentant comme une personne ayant reçu des soins de qualité inférieure dans un hôpital étranger

Violation Éthique

Les modérateurs de CMV ont qualifié cette étude d’une grave violation éthique. Dans une déclaration, ils ont affirmé :

« Si OpenAI peut créer un design de recherche plus éthique pour cela, ces chercheurs devraient être tenus de faire de même. Les risques de manipulation psychologique posés par les LLM sont un sujet largement étudié. Il n’est pas nécessaire d’expérimenter sur des sujets humains non-consentants. »

Les chercheurs ont ciblé les utilisateurs de manière personnelle, compilant un maximum de données sur des caractéristiques identifiables en scrutant la plateforme Reddit. Les données qu’ils ont tenté de compiler comprenaient le genre, l’âge, l’ethnicité, la localisation et l’orientation politique des utilisateurs de CMV.

Plaintes Formelles

Les modérateurs de CMV ont déposé une plainte formelle auprès de la commission d’éthique de l’université, qui a répondu en affirmant qu’elle avait émis un avertissement formel au chercheur principal. La commission a également mentionné qu’elle renforcerait les examens des études proposées, mais a confirmé que la publication de l’article irait de l’avant. Dans une déclaration :

« Ce projet offre des perspectives importantes, et les risques (par exemple, le traumatisme, etc.) sont minimes. Cela signifie que supprimer la publication n’est pas proportionnel à l’importance des informations révélées par l’étude. »

Réactions des Utilisateurs

Les utilisateurs du subreddit sont compréhensiblement outrés par la tromperie et par la décision de permettre la publication de l’article. L’université ne peut pas d’un côté avertir les chercheurs sur un comportement non éthique et promettre d’empêcher une telle situation à l’avenir tout en permettant à un article aussi largement non éthique d’être publié. La seule conséquence significative serait d’interdire la publication, garantissant que d’autres chercheurs ne voudront pas risquer que tout leur temps et leurs efforts soient gaspillés dans des études similaires.

Pour en savoir plus sur les implications éthiques de la recherche utilisant l’intelligence artificielle, vous pouvez consulter des ressources sur le site de l’Association for the Advancement of Artificial Intelligence.

Qu’est-ce qui s’est passé avec l’expérience d’IA sur Reddit ?

Des chercheurs de l’Université de Zurich ont effectué une expérience non autorisée en utilisant des bots IA pour publier sur le subreddit Change My View, en prenant des identités variées, y compris celle d’une victime de viol et d’un conseiller en traumatologie.

Comment les utilisateurs de Reddit ont-ils réagi à cette découverte ?

Les utilisateurs de Reddit sont outrés par la tromperie et la décision de publier les résultats de l’étude, considérant cela comme une violation sérieuse de l’éthique.

Quelles étaient les identités provocantes adoptées par les AIs ?

Les AIs ont prétendu être des victimes de viol, des conseillers en traumatologie, et ont accusé des groupes religieux de causer des décès. D’autres identités incluaient un homme noir opposé à Black Lives Matter et une personne ayant reçu des soins médiocres à l’étranger.

Quelle a été la réponse de l’université à cette expérience ?

L’université a reconnu avoir enfreint les règles et a émis un avertissement au chercheur principal, mais a décidé de poursuivre la publication de l’étude, arguant que les résultats apportaient des informations importantes.

Add a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use