Le tableau de John William Waterhouse "Echo et Narcisse" de 1903 a été adapté à notre époque en utilisant des algorithmes et des êtres humains. Et si les scientifiques faisaient également de ces programmes intelligents leurs co-créateurs? | Photos: Jonas Wyssen

Le générateur intelligent de texte ChatGPT connaît un fort engouement depuis quelques mois, notamment parce que l’entreprise OpenAI y a donné l’accès gratuit. Il ouvre également de toutes nouvelles possibilités dans le domaine académique, avec des résultats étonnants, que ce soit en matière de recherche, de rédaction ou d’évaluation par les pairs – ou même pour tricher. La revue scientifique Nature a, en tout cas, déjà édicté des règles pour l’utilisation de l’IA. Les auteures doivent notamment présenter de manière transparente la provenance d’une déclaration générée par une machine.

«Il semble qu’on ait atteint l’un de ces moments qui constituent une percée, surtout en termes d’utilisation.»Mathias Grote

L’historien des sciences Mathias Grote de l’Université de Bielefeld diagnostique un tournant: «Il semble qu’on ait atteint l’un de ces moments qui constituent une percée, surtout en termes d’utilisation.» Internet, le moteur de recherche de Google ou encore les smartphones ont connu des moments comparables. Il était prévisible depuis un certain temps déjà que l’IA finirait par s’imposer. Mathias Grote se souvient des débats du début des années 2000: «A l’époque, il s’agissait encore davantage d’une clarification catégorique et d’une discussion théorique.» A savoir, sur ce qu’est vraiment l’intelligence artificielle. Alors qu’aujourd’hui, c’est la technologie elle-même qui figure au premier plan. Et les motivations économiques et politiques jouent bien sûr un rôle important dans le développement de l’IA: les grandes entreprises de données et les grandes maisons d’édition, par exemple, poursuivraient des intérêts monétaires avec les programmes de texte.

La fin de la réflexion indépendante?

Ce qui depuis le ChatGPT-4 est accessible à tout le monde est également utilisé pour la rédaction de textes scientifiques. Le cardiologue Matthias Barton de l’Université de Zurich, coéditeur de la revue spécialisée en accès libre pour la biomédecine et les sciences de la vie eLife, se dit horrifié et ébranlé par les nouveaux instruments que «les entreprises Internet mettent à la disposition des étudiantes et des chercheurs». «On ne sait pas vraiment qui est derrière ces programmes», explique-t-il. En outre, ils sont promus avec des affirmations très douteuses – par exemple que l’intelligence artificielle permet à un ordinateur, sans intervention humaine, de penser comme un être humain. Il estime d’ailleurs que le terme d’IA est abusif, évoquant même une tromperie. Parce que, selon lui, on ne peut pas parler d’intelligence, il s’agit d’une banale utilisation d’algorithmes, en particulier dans le système de publication. Mais au fond, ce à quoi on assiste, là, c’est à une dépersonnalisation, dit Matthias Barton. La réflexion personnelle est reléguée à l’arrière-plan. «Cette situation conduit à ce que des étudiantes et de jeunes chercheurs, qui en matière de connaissances sont encore des novices dans leur spécialité, soient en mesure de produire avec l’IA, totalement ou en partie, des travaux scientifiques et de s’en dire les auteurs.»

Pas trop de contrôle

Pour enrayer dès les études cette nouvelle forme de tricherie, il faut de nouvelles approches. L’historien des sciences Caspar Hirschi propose que les enseignantes transmettent aux étudiantes une éthique de l’autodiscipline. Un contrôle proprement dit des travaux d’étudiants ne peut être effectué qu’en cas de soupçons fondés, par exemple lors de grandes différences dans la qualité de l’expression au sein d’un même texte. Par contre, la quantité de textes à examiner rend pratiquement impossibles des contrôles de portée plus large. C’est pourquoi Caspar Hirschi est convaincu de l’importance de «la confiance mutuelle, liée à l’obligation d’une déclaration personnelle, comme le fait Nature».

«La confiance mutuelle, liée à l’obligation d’une déclaration personnelle, est importante.»Caspar Hirschi

Toutefois, c’est insuffisant pour lutter contre la fraude dans les revues spécialisées. Matthias Barton plaide pour des directives. «Ce serait aux Académies suisses des sciences d’agir, particulièrement en médecine – et vite!» Il propose que les autrices et auteurs soient tous obligés de certifier par écrit ne pas avoir utilisé d’IA. Caspar Hirschi peut aussi l’envisager, mais n’y voit pas de quoi vraiment changer la donne. «Le système de la science moderne est basé sur une culture de la confiance dans le sérieux du travail des autres», explique-t-il. Il en aurait toujours été ainsi dans la recherche expérimentale. La science n’a jamais pu appliquer ses mécanismes de contrôle à large échelle. Sinon, le système se serait effondré.

En fait, la recherche connaît des problèmes similaires depuis un certain temps déjà, à savoir des travaux rédigés par des ghostwriters. Et de la lutte contre les plagiats. A l’ère de l’IA, il est particulièrement important d’exiger une contribution intellectuelle originale, estime néanmoins l’historien des sciences Mathias Grote. Tout au plus, un filigrane numérique constituerait une partie de la solution du problème. Soit une marque technique dans les textes permettant de retracer les sources. Mais pour reconnaître les falsifications réalisées avec l’aide de l’IA, il faudrait aussi tout simplement s’exercer à son utilisation scientifique, ce qui devrait faire partie de la formation de la relève. L’historien considère toutefois les interdictions comme étant contre-productives.

Textes utilitaires dans le style de Wikipédia

Le recours à l’IA pour les publications scientifiques soulève cependant aussi des questions au-delà de la déclaration de son utilisation. Pour Matthias Barton, rédiger un résumé par exemple – et ici on fait déjà souvent appel à des programmes générateurs de textes – fait en réalité partie d’un processus d’apprentissage de la rédaction scientifique. Or, en utilisant l’IA, cette expérience se perd.

En principe, une publication apporte une petite contribution au savoir pour faire avancer la science dans son ensemble. «Mais la pression de publier de la part des universités est grande. Ce qui arrange bien les éditeurs», note Matthias Barton. Et elle a pour conséquence que des doctorantes ou des postdocs peuvent être incités à travailler avec des programmes d’IA au lieu de lire de manière autonome les travaux d’autres scientifiques et d’apprendre ainsi la rédaction scientifique.

«L’être humain choisit par nature la facilité et utilise ce qui est à sa disposition.»Matthias Barton

«Cela arrive malheureusement souvent en médecine, dit Matthias Barton. J’ai connaissance de traductions automatiques réalisées par l’IA DeepL qui ont été copiées telles quelles dans des manuscrits, naturellement sans que ce soit mentionné.» Ici aussi, il manque les réglementations indispensables, telles celles édictées récemment par le Conseil d’éthique allemand ou par diverses universités britanniques. «Car l’être humain choisit par nature la facilité et utilise ce qui est à sa disposition.»

Caspar Hirschi estime que «l’IA permet de faire écrire un texte qui n’est pas si mauvais que ça». Elle réunit les arguments standards, un peu comme Wikipédia. Mais un tel texte ne reflète qu’un état des connaissances, n’est pas toujours référencé et est dépourvu de toute originalité. De plus, il est impossible de mener un travail de recherche et d’établir des liens. Les nouvelles approches ou méthodes ne peuvent pas être déléguées à une AI et doivent être menées par la recherche. «Ainsi, le fossé entre recherches novatrices et simples synthèses s’élargit.»

Mathias Grote porte un jugement analogue. L’IA permet de produire vite et efficacement des textes utilitaires et de procéder à des recherches. «Ils sont en grande partie corrects si le programme peut s’appuyer sur suffisamment de faits connus et disponibles, mais pas entièrement.» C’est pourquoi ils ne peuvent, au mieux, qu’être une base de travail et qu’il est indispensable de les remanier, de les réviser et de les corriger. «J’ai du mal à imaginer que de véritables découvertes scientifiques soient un jour faites par une IA seule.» Celle-ci doit plutôt être utilisée comme un outil pratique pour réunir rapidement des informations standards et effectuer des tâches de routine telles que des calculs – comme l’ont été dans le passé les manuels, les tableaux et les calculatrices de poche.

En dépit de toutes les critiques sur l’utilisation de l’IA, Matthias Barton y voit aussi une chance. «Un algorithme bien programmé permet de déléguer des recherches à l’IA, ce qui économise du temps et de l’argent», explique-t-il. Mais il est indispensable de vérifier les résultats obtenus, sans quoi les risques sont trop grands. En médecine, l’IA peut jusqu’à un certain point représenter un avantage dans le traitement de grandes quantités de données. Mais quand des propositions de recherche mentionnent l’utilisation de l’IA simplement parce qu’elle est en vogue, quelque chose ne joue pas. «Il vaudrait mieux faire une pause et se demander si on peut vraiment parler d’un progrès.»

«J’ai du mal à imaginer que de véritables découvertes scientifiques soient un jour faites par une IA seule.»Mathias Grote

L’IA est aussi déjà utilisée par les revues spécialisées dans leurs procédures d’évaluation par les pairs. Coéditeur d’eLife, Matthias Barton ne la considère pas comme appropriée pour cela, puisqu’elle ne dispose pas de connaissances spécialisées. Elle ne peut pas non plus évaluer la pertinence sur le fond des passages cités dans les travaux scientifiques. Chez eLife, seules des spécialistes avérées entrent en considération pour ces expertises. Toutefois, de tels programmes constituent des aides déjà largement répandues pour l’évaluation par les pairs. De nombreuses maisons d’édition les emploient par exemple pour identifier des spécialistes. «De nombreux éditeurs sont déjà contents quand ils en trouvent.»

Mais le processus d’évaluation par les pairs s’appuie également sur l’IA pour d’autres choses. Parce que même si l’on a trouvé une experte, elle est en général surchargée et doit répartir son temps entre son travail régulier et l’évaluation. L’IA peut par exemple réduire ce stress en lui soumettant des propositions sur la base de ses commentaires, interactions et travaux antérieurs. C’est au moins ce que promettent ceux qui offrent de tels programmes.

Matthias Barton n’est pas étonné que des sociétés telles que la maison d’édition Elsevier ou des éditeurs en ligne tels que MDPI misent sur l’IA dans l’évaluation par les pairs. «De nombreuses entreprises ont déjà délocalisé depuis longtemps le processus de publication en Chine, en Inde ou au Pakistan.» Grâce à la main-d’œuvre extrêmement bon marché, les éditeurs ont énormément réduit leurs coûts mais aussi la responsabilité pour le contenu des revues qu’ils publient. Plus le système est ouvert, plus il est vulnérable. De par sa nature, chaque algorithme a ses limites et ses imprécisions, qui ensuite passent dans le processus scientifique.