Le ministre délégué chargé de la transition numérique, Jean-Noël Barrot, a fait part de ses réflexions sur les robots conversationnels qui sont devenus un sujet important dans le secteur de l’intelligence artificielle. Il a qualifié le robot ChatGPT d’« perroquet approximatif » et a souligné que ce dernier ne peut fournir que des informations datant d’avant 2021.
M. Barrot a également reconnu les risques liés à l’utilisation de l’intelligence artificielle, notamment la discrimination, la manipulation et la déshumanisation. Il a donc déclaré qu’il fallait agir et viser la formation de 400 000 experts du numérique d’ici 2030 pour que la France ne soit pas à la traîne.
Le ministre a également souligné l’importance de la responsabilité des concepteurs d’intelligence artificielle et a suggéré que les établissements scolaires puissent s’approprier les outils liés à l’intelligence artificielle et les utiliser comme démonstrateur de ce que peut et ne peut pas faire une IA.
Cependant, Jean-Noël Barrot a regretté que l’entreprise d’intelligence artificielle à l’origine de ChatGPT n’ait pas attendu d’avoir mis en place des filtres pour détecter l’utilisation de son logiciel avant de le publier.
Cette déclaration de Jean-Noël Barrot met en lumière les risques liés à l’utilisation de l’intelligence artificielle et rappelle l’importance de la formation des experts du numérique pour que la France ne soit pas à la traîne.
Mots-Clés: Jean-Noël Barrot, ChatGPT, Intelligence Artificielle, Union Européenne, Discrimination, Manipulation, Déshumanisation, Experts du Numérique, Open AI.