lundi 24 février 2025

OpenAI déjoue un complot chinois diabolique d’espionnage !

OpenAI, la société à l’origine de ChatGPT, a récemment pris des mesures pour exclure plusieurs groupes d’utilisateurs malveillants, potentiellement basés en Chine. Dans un affligeant rapport publié le 21 février, l’entreprise décrit avoir découvert une importante opération de désinformation, ainsi qu’un dispositif qui vise à surveiller les réseaux sociaux. Cette situation soulève d’importantes questions sur la sécurité de l’intelligence artificielle et son utilisation à des fins manipulatrices.

Ce rapport met en lumière l’arsenal utilisé par ces acteurs malintentionnés, qui ont été identifiés grâce à une surveillance minutieuse des activités sur ChatGPT. En analysant le comportement de certains utilisateurs actifs durant les heures de bureau chinoises, OpenAI a reconstitué les caractéristiques d’un programme, nommé « Peer Review », conçu pour analyser en temps réel diverses plateformes sociales telles que Facebook, YouTube et Reddit. Cet outil a été élaboré pour signaler des messages critiques, particulièrement ceux liés aux manifestations en faveur des droits humains, aux autorités de Pékin et à ses ambassades à l’international, en particulier dans des pays comme les États-Unis, l’Allemagne ou le Royaume-Uni. Les sujets surveillés incluent le soutien aux Ouïgours et les relations diplomatiques dans la région Indo-Pacifique.

Un dispositif de surveillance inquiétant

Le projet « Peer Review » repose sur l’utilisation de ChatGPT pour peaufiner l’argumentation commerciale de cet outil, ce qui soulève des préoccupations éthiques majeures. En effet, l’IA a été utilisée pour rédiger des descriptions détaillées des fonctionnalités, tandis que les techniques de codage étaient optimisées, exploitant le Llama de Meta, un rival open source de ChatGPT. Néanmoins, il reste incertain si cet outil est déployé à grande échelle.

D’autres réseaux d’influence

OpenAI a également observé l’activité d’un second réseau d’utilisateurs chinois impliqués dans des manœuvres de désinformation. Ces derniers exploitent ChatGPT pour générer des messages courts sur les réseaux sociaux, ciblant spécifiquement les critiques du gouvernement, comme celles formulées par Cai Xia, universitaire dissidente. Lors du récent sommet sur l’intelligence artificielle à Paris, l’enquêteur principal Ben Nimmo a illustré ce phénomène avec un exemple similaire. Il a ainsi exposé comment des utilisateurs chinois avaient utilisé ChatGPT pour alimenter une campagne de désinformation, connue sous le nom de « Spamouflage », en rédigeant des tweets pro-Parti communiste chinois (PCC) et en dénigrant l’Occident.

Une guerre de l’information

Le groupe ciblant Cai Xia, cependant, semble avoir une approche distincte. Il a utilisé ChatGPT pour produire des articles approfondis dépréciant les États-Unis, qui ont été publiés dans des journaux influents au Mexique, au Pérou et en Équateur. Dans certains cas, ces contenus ont même été présentés sous forme de publicités sponsorisées. Les articles étaient souvent des traductions et des adaptations d’articles chinois existants, enrichis pour insister sur des problématiques sensibles telles que la violence politique ou la faiblesse du leadership américain.

OpenAI a pour mission, à travers ses rapports de sécurité, de « prévenir que des outils d’IA soient détournés par des régimes autoritaires pour renforcer leur contrôle ou influencer d’autres États ». L’entreprise s’engage non seulement à surveiller ces abus, mais aussi à utiliser activement l’intelligence artificielle pour contrer ces pratiques. Avec une vigilance accrue, OpenAI continue de lutter pour que l’IA serve d’abord le bien commun.

Mots-clés: OpenAI, ChatGPT, désinformation, surveillance, droits de l’homme, intelligence artificielle, réseaux sociaux, Chine, influence.

articles similaires
POPULAIRE