L'accélérateur de particule ne sert plus seulement aux physisicens, mais également aux agronomes, archéologues et ingénieurs. | Illustration: Aurel Märki

«Big Science, hallelujah!» En 1982, la chanteuse Laurie Anderson lance l’expression dans la culture pop américaine. «Hallelujah!» en effet: cette manière de faire de la recherche en équipe autour d’infrastructures titanesques jouit d’une aura qui s’apparente au sacré. Née durant la Seconde Guerre mondiale avec le développement du radar et de la bombe atomique, la «méga-science» a évolué depuis lors: elle s’incarne en accélérateurs de particules sous nos pieds, réseaux de télescopes dans le désert et autres observatoires en orbite au-dessus de nos têtes. Avec leurs instruments colossaux, ces laboratoires géants se trouvant sous la tutelle de groupes d’Etats interrogent les origines de l’univers – et stimulent ainsi la recherche fondamentale, notamment en physique et en astronomie.

«La recherche biomédicale constitue aujourd’hui le domaine qui attire le plus de monde vers ces infrastructures.»Catherine Westfall

Incontestablement, l’effort a porté. C’est notamment au CERN et au Fermilab américain que l’on doit le développement du Modèle standard, cette «théorie du presque tout» qui décrit la matière et les forces de l’univers à l’aide de douzaines de particules élémentaires. Et c’est le télescope spatial Hubble qui nous a offert des images renversantes del’expansion du cosmos, des effets gravitationnels des trous noirs et des pouponnières où se forment les étoiles. La puissance militaire s’est ainsi prolongée en prestige culturel, traduisant un élan vers le grandiose. En 1961, le physicien Alvin Weinberg voit ces infrastructures comme l’équivalent contemporain des cathédrales.

Mais vers le tournant du millénaire, cette approche a commencé à se diversifier. Le cercle des parties prenantes s’est fortement ouvert à d’autres disciplines ainsi qu’à l’industrie, et la gouvernance de la mégascience s’est démocratisée. Les attentes et les promesses rattachées aux grands projets sont devenues plus concrètes: on parle désormais de retour sur investissement, de développement économique régional, de solutions apportées à des problèmes de société dans le domaine de l’énergie, de l’alimentation ou de la santé. Enfin, les notions de taille se sont brouillées: on fait aujourd’hui de la mégascience avec de modestes moyens, et de la petite science avec des synchrotrons géants.

Place aux archéologues et agronomes

«Ce qui frappe aujourd’hui en observant un centre tel que le Laboratoire national d’Argonne en Illinois, où se trouve l’un des trois plus grands synchrotrons au monde, c’est la diversité de ses utilisateurs», note Catherine Westfall, historienne des sciences à la Michigan State University et auteure de plusieurs études sur le devenir de la mégascience. Autrefois au service exclusif de la physique des particules, les grands accélérateurs ont en effet considérablement élargi leur palette. «J’y ai rencontré des agronomes qui développaient des semences, des archéologues en quête de nouvelles techniques pour leurs fouilles, quelqu’un qui voulait construire un turboréacteur d’avion moins sensible aux collisions avec les oiseaux…» Les faisceaux de particules servent de plus en plus à explorer les applications pratiques de la matière, qu’il s’agisse de métaux ou de protéines. «La recherche biomédicale est aujourd’hui le domaine qui attire le plus de monde vers ces infrastructures, celui qui est mis en avant et dans lequel il est le plus facile de lever des fonds.»

Dans ce processus, le lien entre les méga-infrastructures et les projets de recherche se brouille. Olof Hallonsten, sociologue et historien des sciences à l’université suédoise de Lund, auteur d’une somme savante sur les métamorphoses de la Big Science, compare deux moments pour évoquer ce virage. «En 1984, Carlo Rubbia et Simon van der Meer reçoivent le prix Nobel de physique pour la découverte des bosons W et Z. Le Nobel est toujours attribué à des personnes, mais à travers elles, il récompense le centre de recherche où la découverte a eu lieu: le CERN.» La situation est différente vingt-cinq ans plus tard: «En 2009, la biologiste moléculaire Ada Yonath et ses confrères reçoivent le prix Nobel de chimie pour leur travail sur le ribosome des cellules. Une demi-douzaine de centres de recherche à travers le monde s’empressent de diffuser des communiqués de presse pour expliquer que ce sont leurs grands appareils qui ont permis ces travaux.»

FET Flagship: les nouveaux projets à 1 milliard d’euros
Avec son programme FET Flagships (initiatives phare des technologies futures et émergentes), la Commission européenne soutient une mégascience développée «bottom-up»: ce sont les scientifiques eux-mêmes qui proposent des projets d’un budget d’environ un milliard d’euros. Un nouvel appel d’offre est en cours dans les domaines de la société connectée, de la santé et de l’environnement. Parmi les 33 propositions retenues se trouvent deux initiatives impliquant fortement l’EPFL: Time Machine, qui ambitionne de convertir les archives historiques en simulations du passé, et HealthEU, qui compte développer des avatars numériques sur lesquels tester des soins médicaux personnalisés.

A la suite de la sélection effectuée par des responsables scientifiques, politiques et industriels, un ou deux projets seront lancés en 2020. L’EPFL coordonne déjà le Human Brain Project, démarré en 2013 en même temps que le second flagship Graphene. Le programme Quantum, dédié aux technologies quantiques, débute en 2019.

De plus en plus souvent, on fait «de la petite science avec de gros outils», résume Olof Hallonsten. Les centres de recherche créés autrefois autour d’un mégaprojet font place à des plateformes de grande taille mais sans but précis, orientées vers les besoins des utilisateurs. «La plupart des scientifiques qui utilisent ces centres possèdent un emploi et une source de financement ailleurs. Ils travaillent habituellement sur des équipements de petite taille, mais ont besoin ponctuellement d’une très grosse machine. Ils font une demande, il y a une certaine compétition et si tout va bien, ils obtiennent un accès. Ils mènent leur expérience et repartent avec les résultats. Dans ce modèle, les grands accélérateurs ou réacteurs ne sont plus l’apanage d’équipes qui ont pour mission de gagner une guerre ou d’enquêter sur l’origine de l’univers. Ils deviennent une ressource tendanciellement ouverte à tout le monde. C’est donc un modèle plus démocratique, moins surdéterminé par des décisions politiques ou militaires.»

Le temps des consortiums

La déconnexion entre la taille des projets et celle des infrastructures s’observe également en sens inverse: on peut faire de la mégascience, mobilisant des méga-budgets et poursuivant des méga-objectifs, sans passer par des outils géants. C’est le cas du Human Genome Project, et plus généralement de la biologie. Pendant un temps, celle-ci a pourtant tenté d’imiter la physique dans sa course au gigantisme, analyse Bruno Strasser, professeur d’histoire des sciences à l’Université de Genève et auteur de plusieurs études sur l’histoire des sciences biomédicales, du Big Data et de la recherche participative. «Lorsque le Laboratoire européen de biologie moléculaire (EMBL) a été créé à Heidelberg en 1974, on espérait y faire un travail analogue à celui des physiciens au CERN, autour d’une question centrale et grâce à un instrument scientifique trop onéreux pour un laboratoire universitaire. En réalité, ce centralisme n’était pas nécessaire, car cette discipline n’utilisait pas de grands instruments. En biologie, la bonne science est de la petite science, selon la formule du biochimiste américain Bruce Albert. Les chercheurs de l’EMBL ont donc passé leur temps à essayer de justifier le bien-fondé de l’infrastructure.» Lorsque le séquençage de l’ADN se répand, dans la deuxième moitié des années 1970, «l’EMBL saute sur l’occasion, qui lui apparaît enfin comme un moyen de se légitimer: c’est ainsi qu’il établit en 1982 la première banque de données publique de séquences génomiques, la Nucleotide Sequence Database». Si le séquençage ne nécessite pas de gros outils, il produit du Big Data qui, lui, nécessite une infrastructure de taille.

En 1990, le Human Genome Project (HGP) entreprend le séquençage complet de l’ADN humain. L’importance de l’objectif et de son potentiel médical est mise en avant dans des proclamations publiques. En 2000, le président américain Bill Clinton déclare qu’il est «tout à fait possible que, pour les enfants de nos enfants, le cancer ne soit plus qu’une constellation du zodiaque». Le projet, présenté comme relevant de la Big Science, prend en réalité une forme adaptée à l’échelle modeste des laboratoires de biologie. «Il s’écarte du modèle CERN, qui concentre les ressources en un lieu unique, fermé comme un microcosme et aussi peuplé qu’une petite ville, note Bruno Strasser. Le HGP, au contraire, fonctionne de manière éclatée dans l’espace, avec des recherches menées dans un grand nombre d’institutions qui se rassemblent pour l’occasion en un consortium international.»

«Quand on reçoit de l’argent de la même source, on a tendance à se parler davantage.»Bruno Strasser

Cette logique est poussée aujourd’hui encore plus loin. C’est le cas, selon l’historien, avec SystemsX, une initiative helvétique en biologie des systèmes menée par un consortium de recherche sur plusieurs sites et représentant le plus vaste projet scientifique à ce jour dans le pays. Lancée en 2008 et clôturée en 2018, elle ne s’appuie pas sur une infrastructure géante et ne tend pas vers un grand but unique. Il s’agit plutôt d’un faisceau de projets qui partagent une devanture commune, comme le montre la thèse soutenue à l’ETH en 2017 par Alban Frei. «Mais la coordination de SystemsX et sa manière de se présenter empruntent à la mégascience, poursuit Bruno Strasser. L’initiative dispose de chargés de communication à plein temps qui s’occupent de son image. Elle permet aux chercheurs de donner à voir leurs travaux sous une lumière nouvelle, en mesure de toucher le public et les politiques. C’est très habile du point de vue du dialogue avec le reste de la société et des levées de fonds.»

Se rassembler pour atteindre une masse critique et doper la visibilité: s’agit-il là d’une pure affaire d’image? «D’un côté, on pourrait dire que l’opération SystemsX ne répond pas à une nécessité scientifique, répond le chercheur genevois. Après tout, personne ne sait vraiment ce qu’est la biologie des systèmes… Mais l’initiative stimule des recherches intéressantes. Elle encourage les échanges car, quand on reçoit de l’argent de la même source, on a tendance à se parler davantage. On s’attend à une fertilisation entre les différents projets, qui profitent d’un cadre commun dans lequel les différentes pièces peuvent se mettre ensemble en faisant apparaître un motif.»

Le retour des amateurs

En passant d’un fonctionnement centraliste à un modèle en réseau, la science des grands projets renoue avec une situation plus ancienne, observe Bruno Strasser: «Au XIXe siècle, la mégascience était celle des biologistes. Ses centres de recherche étaient les jardins botaniques et les muséums d’histoire naturelle de Berlin ou de Londres. Ses grands projets passaient par l’exploration du monde. Il s’agissait alors de coordonner des centaines de personnes partant aux quatre coins de la planète sur des bateaux et de faire travailler ensemble des gens de nationalités et cultures diverses, parmi lesquels on trouvait un grand nombre d’amateurs.»

«Les bâtiments circulaires sont grandioses et majestueux. Un décor idéal pour que des politiciens serrent des mains sous l’oeil des caméras.»Olof Hallonsten

Il est frappant de remarquer que les non-spécialistes réapparaissent aujourd’hui à travers la science citoyenne. «Selon nos estimations, il y aurait quelque 10 millions de personnes dans le monde qui s’activent dans ce cadre, poursuit le chercheur genevois. Les domaines où la participation du public croît vite et se déploie largement sont les mêmes qui ont vu historiquement une implication importante d’amateurs, à savoir les sciences naturalistes et l’astronomie.» On contribue au classement de millions de galaxies dans le cadre de Galaxy Zoo, on contribue à suivre l’évolution de la biodiversité en postant des photos en ligne, on prend part à l’étude du changement climatique en relevant le moment où les feuilles commencent à tomber… Ce mouvement représente une autre manière de faire de la recherche à très large échelle, réalisant un mégaprojet à partir d’une myriade de menues contributions individuelles. «Finalement, la participation publique à la recherche, qui était la norme aux XVIIIe et XIXe siècles, n’aura peut-être vécu qu’une éclipse au siècle dernier, au cours de laquelle le public aura été un pur consommateur d’informations scientifiques et du spectacle de la science, avant de retrouver un rôle plus actif.»

La pratique participative se greffe parfois sur des données générées massivement par la science professionnelle. C’est le cas de l’Annotathon, projet en ligne dont les participants sont invités à annoter les séquences d’ADN issues du projet Global Ocean Sampling de Craig Venter. «Il faut relever que la production de données ouvertes constitue l’un des effets secondaires de la mégascience, note Bruno Strasser. Ce principe d’ouverture est d’autant plus solide qu’il ne résulte pas d’une forme d’idéalisme, mais d’une nécessité, notamment dans le cadre des consortiums. Impossible de se coordonner s’il existe la possibilité que chaque participant retire ses données.» Adoptés dans le cadre du Human Genome Project, les Principes des Bermudes (1996) et les accords de Fort Lauderdale (2003) instaurent en effet la pratique du libre accès et de la diffusion instantanée des données dans le domaine du génome.

Un faisceau de possibilités

La Big Science paraît aujourd’hui s’engager simultanément dans de multiples directions. L’exemple du Global Ocean Sampling reflète le brouillage de frontières en cours dans ce domaine. Cette entreprise consistant à circumnaviguer le globe pour relever la diversité génétique de la population microbienne marine se déploie en réalité à partir de l’infrastructure relativement modeste d’un yacht privé. Son promoteur, Craig Venter, est à la fois un scientifique et un homme d’affaires. Le pool de financement regroupe des fondations privées, la chaîne de télé Discovery Channel pour mettre l’expédition en spectacle et le Département de l’énergie américain, qui espère trouver dans les microbes des solutions innovantes aux besoins énergétiques nationaux. Et l’Annotathon relie le projet à une dimension participative.

A côté de cela, d’autres projets prolongent des trajectoires plus classiques de course à la grandeur (voir «La mégascience en six projets», p. 14). Mais d’une manière ou d’une autre, la plupart d’entre eux sont confrontés à des exigences d’ouverture et de diversification. Le Human Brain Project a mis en sourdine ses vertigineuses proclamations initiales – reproduire le fonctionnement du cerveau humain, voire la conscience, sur un superordinateur – pour se recentrer davantage sur le développement d’une plateforme technologique dans le domaine de la neuro-informatique.

L’Extreme Light Infrastructure européenne a mis en chantier la construction des lasers les plus puissants du monde sans définir des objectifs de recherche précis, laissés de fait à ses futurs utilisateurs. Il en va de même pour la European Spallation Source (ESS), qui se bâtit actuellement en Suède autour d’une source de neutrons pulsés annoncée comme trente fois plus puissante que ses homologues actuels. L’ESS s’inscrit dans le nouveau paradigme de la «petite science avec de gros outils», au service d’une quête ouverte d’applications pratiques. Mais si le frisson de la grandeur n’est pas provoqué par un objectif de recherche herculéen, il est déclenché ici par l’aspect physique des lieux, observe Olof Hallonsten: «Je vois le chantier depuis la fenêtre de mon bureau à l’Université de Lund. Les bâtiments circulaires sont grandioses et majestueux. C’est un décor idéal pour que des politiciens serrent des mains sous l’oeil des caméras.»

Ce gigantisme pourrait déployer quelques effets pervers, selon le chercheur suédois: «L’un des risques, c’est que les investissements dans ces infrastructures imposantes se fassent au détriment des budgets qui financent le travail des chercheurs. En Suède, on a entendu des politiciens s’adresser à la communauté scientifique en disant: nous avons mis tous ces fonds dans l’ESS; vous l’avez donc eu, votre argent! A l’opposé, le gouvernement danois – qui a également beaucoup investi dans le projet – a annoncé que pour chaque euro alloué à l’ESS, un autre euro financera les scientifiques afin qu’il puissent utiliser l’infrastructure.» Loin des projets placés sur une trajectoire unique, la mégascience contemporaine trace aujourd’hui ses voies au pluriel, en un faisceau de possibilités.

Nic Ulmi est journaliste libre à Genève.