Point de vue
«La modération de Reddit se voit comme gardienne»
Des scientifiques de l’Université de Zurich ont mené une expérience bluffante d’IA sur Reddit, mais sans informer de l’étude l’entreprise, les modérateurs, ni les utilisateurs. Cela a soulevé un tollé. Samia Hurst, bioéthicienne à l’Université de Genève, commente.

«Tout le monde sait aujourd’hui qu'on doit être informé des risques lorsqu’on participe à une étude scientifique», dit la bioéthicienne Samia Hurst, membre de la Commission nationale d’éthique en médecine humaine. | Photo: Salvatore Di Nolfi / Keystone
Des scientifiques de l’Université de Zurich ont mené une expérience d’IA sur Reddit. Dans le subreddit «Change My View», les gens tentent mutuellement de se faire changer d’avis. Une IA y a été trois à six fois meilleure que des humains. Bluffant, sauf que le groupe de recherche n’avait informé de l’étude ni l’entreprise, ni les modérateurs, ni les utilisateurs. Cela a soulevé un tollé.
Samia Hurst, comprenez-vous ce tollé?
Oui. Les gens n’ont pas été invités à donner leur accord. Tout le monde sait aujourd’hui que participer à une enquête, c’est rendre service à la science. Et que même si les risques sont minimes, on doit en être informé. Dans cet exemple, il y a un risque d’humiliation. Ou un message de l’IA pourrait réveiller des choses pénibles. Une étude à faible risque ne comporte que le type de risques auxquels vous êtes confronté au quotidien.
Les scientifiques doivent-ils toujours demander le consentement?
En psychologie ou en sociologie, il y a des exceptions s’il n’existe pas d’autre méthode scientifique pour étudier la question. Ce serait la prochaine case que j’aurais cochée si j’avais fait partie de la commission d’éthique: existe-t-il une autre possibilité?
Mais seulement si le gain de savoir potentiel est assez important?
Oui. Ce serait la troisième case. Et il y en a d’autres encore: les scientifiques doivent aviser un ou une participante au plus tôt de la réalisation d’une étude sans leur aval et du pourquoi. Et ils doivent lui donner la possibilité de refuser l’utilisation de ses données. C’est le post-traitement nécessaire.
Et l’information des modératrices et modérateurs de Reddit?
C’est encore un tout autre niveau. Le consentement de l’autorité d’une communauté est par exemple essentiel pour y mener des recherches. Cette règle initialement prévue pour les communautés rurales s’applique aussi aux études menées en contexte scolaire, par exemple. Vous ne pouvez pas arriver à l’improviste et interroger les enfants, mais devez avoir le feu vert préalable de la direction de l’école. Les deux cas portent sur des structures communautaires avec des gens qui protègent un espace. C’est ainsi que les scientifiques auraient dû traiter la modération de Reddit. Celle-ci se considère comme la gardienne de la communauté. A juste titre. Elle a accepté une mission et fait respecter les règles.
L’IA s’est, entre autres, fait passer pour une thérapeute spécialisée dans les traumatismes.
Ce point aurait probablement fait sortir l’étude de la catégorie «à faible risque». Personne ne parle de son vécu traumatique dans sa vie au quotidien.
Qu’auriez-vous décidé si vous aviez contrôlé l’étude en commission d’éthique?
C’est compliqué par après. Je sais maintenant des choses que j’ignorais avant. J’aurais exigé l’aval des modérateurs. Et que les participantes et les participants puissent se retirer de l’étude après coup. Mais je n’aurais peut-être pas prévu que l’IA prétende être spécialiste en traumatismes.