C’est la nouvelle intelligence artificielle qui affole le monde de la tech. Mais si elle n’est pas cadrée, ChatGPT risque de mener à une multiplication des « fake news » et autres contenus mensongers, estiment la directrice de recherche au CNRS Claire Mathieu et le professeur d’informatique à Sorbonne Université Jean-Gabriel Gana
« Nous avons là un outil purement rhétorique, un beau parleur qui sait disserter sur n’importe quoi pour produire avec une apparence d’autorité des affirmations qui semblent raisonnablement étayées, mais ne reposent sur rien. »
« Nous avons là un outil purement rhétorique, un beau parleur qui sait disserter sur n’importe quoi pour produire avec une apparence d’autorité des affirmations qui semblent raisonnablement étayées, mais ne reposent sur rien. » (Dallas Stribley/Getty Images)
Que signifie « penser » pour une machine ? Alan Turing, pionnier de l’informatique, imagina l’exemple d’une machine avec laquelle on dialoguerait à s’y méprendre. Nombre de chercheurs y virent l’un des grands défis lancés à l’intelligence artificielle. Avec ChatGPT-3, pour l’essentiel, nous y sommes.
Par des techniques d’apprentissage machine, cet outil génère de nouveaux textes, en français si on le veut. Préalablement nourri d’une grande quantité de documents, il en a extrait des règles de proximité à partir de l’observation des mots et des groupes de mots adjacents, puis des phrases et des paragraphes voisins. Ainsi, un contexte étant donné, il utilise les éléments de langage associés, et les enfile les uns à la suite des autres. Plus le corpus d’apprentissage est large, plus l’analyse préliminaire prend du temps, mais plus le résultat est crédible.
L’outil ChatGPT-3 s’adapte même aux souhaits exprimés par l’interlocuteur : poèmes, citations littéraires, références à des textes savants ou à des articles. Il parvient même à se plier à un style « à la manière de » (comme, par exemple, créer les paroles d’une chanson qui imitent le style d’un chanteur célèbre), fixé par l’interlocuteur. Le résultat donne des textes d’une telle qualité qu’ils mettent mal à l’aise.
Ceci peut faire gagner un temps précieux à l’utilisateur intègre, par exemple pour rédiger une note de synthèse à partir de quelques documents ou une demande de financement dans son domaine d’expertise. Grâce à cette expertise, l’utilisateur peut alors contrôler lui-même l’exactitude du texte. Mais sans supervision, l’outil risque de broder et de raconter n’importe quoi, puisque le sens lui est étranger. De plus, il n’est pas conçu pour garder le lien entre les informations générées et leurs sources, ce qui rend difficile la vérification par un non-spécialiste.
Qu’est-ce que le « dabloon », la monnaie fictive qui affole TikTok ?
Il existe aussi des utilisations moins avouables… Tricherie de lycéens ou d’étudiants pour rédiger des devoirs à leur place par exemple, ou encore fabrication automatique d’articles scientifiques par des officines qu’on appelle des « usines à articles » pour chercheurs peu scrupuleux, articles ensuite soumis pour publication. L’outil peut ajouter une liste de références bibliographiques plausibles, mais en fait inventées de toutes pièces. Enfin, de tels outils sont aussi utilisés pour générer des « fake news ».
Le problème fondamental est donc celui du rapport à la vérité. Nous avons là un outil purement rhétorique, un beau parleur qui sait disserter sur n’importe quoi pour produire avec une apparence d’autorité des affirmations qui semblent raisonnablement étayées, mais ne reposent sur rien. Non seulement, il est par construction indifférent à la vérité de ses assertions, mais de plus, il les adapte à son interlocuteur. Il n’y a donc, même pas, de cohérence interne. C’est le relativisme à l’état pur.
L’urgence d’une IA éthique et de confiance
On peut considérer que le test de Turing est essentiellement réussi, mais où cela nous mène-t-il ? Comment gérer l’arrivée dans la société d’escrocs virtuels, en canalisant leur potentiel tout en gardant le contrôle ? Pour l’instant, il faut interagir avec ChatGPT-3, comme on le ferait avec un collègue cultivé et travailleur efficace, mais qui serait un menteur pathologique.
Nous devons d’urgence faire avancer la recherche sur la transparence, la certification, et une IA éthique et de confiance. En attendant, préparons-nous à un déferlement de fausses informations sur les réseaux sociaux, pendant les campagnes électorales, etc. La première ligne de défense sera l’éducation aux médias, afin d’apprendre à confronter différentes sources et à développer un sens critique.
Discussion about this post