Bases et limites de l'expertise scientifique


Schéma et considérations

 


A l'heure où l'écologisme militant prend le pas sur l'écologie scientifique,  provoque l'émoi de l'opinion publique par des prédictions catastrophistes et gagne aussi l'adhésion de décideurs politiques de haut niveau, il est temps de rappeler quel est le champ de l'expertise scientifique (pointe de la recherche), ses bases et limites d'application, à la lumière de quelques étapes cruciales de son histoire récente. Le schéma ci-dessus s'appuie sur la distinction réalisée par André LANGANEY entre le démontré jusqu'à nouvel ordre, le probable, l'hypothétique et l'inconnu (in: Article dans la revue La recherche n°296 de mars 1997, intitulé Ce que l'on ne sait pas de l'évolution, pages 118 à 124).

La progression des connaissances scientifiques s'est concrétisée par de multiples réussites technologiques dans la maîtrise de l'énergie, de la matière et de l'information. Forte de ses succès, l'investigation scientifique a gagné en confiance et en assurance et s'est ainsi rapidement étendue non seulement au niveau microscopique mais aussi macroscopique, vers des systèmes dynamiques, de plus en plus complexes, de la dimension subatomique à la dimension planétaire et même astronomique. Elle a dû s'adapter rapidement par l'adoption de nouvelles méthodes, de nouveaux outils et paradigmes.

Au paradigme du déterminisme total et des processus réversibles de la mécanique classique a succédé celui de la physique statistique, des processus irréversibles et surtout des systèmes ouverts à l'écart de l'équilibre, sonnant le glas des certitudes. Avec les systèmes auto-organisés adaptatifs et les systèmes vivants évolutifs, fondamentalement instables, ont dû être adoptées des méthodes de prospective selon un nouveau paradigme stochastique où seules des probabilités bayesiennes peuvent être évaluées, mais sans jamais savoir si les événements prévus auront lieu comme simulés. Le hasard ou l'inconnu peuvent toujours s'immiscer dans le déroulement des processus identifiés ou pressentis. Le fleuron de la méthode expérimentale n'a pas pu se développer ni même se conserver dans les investigations de tels systèmes. Il en a résulté un recours plus important à l'observation, à la collecte et à l'analyse des données mais aussi à des méthodes plus intuitives d'identification et de représentation des processus.

A la grande échelle des mégasystèmes complexes et dynamiques c'est-à-dire de taille au moins multi-kilométrique, aux composants nombreux, interactifs et évolutifs dans le temps comme les écosystèmes ou l'écosphère, les processus identifiés ont pris une allure chaotique, presque toujours non linéaire, marqués par l'émergence de comportements imprévisibles et de propriétés surprenantes propres à la complexité. Selon Ivar EKELAND (Le Chaos,1995, Dominos Flammarion), l'évolution de tels systèmes est certes déterminée par leur état actuel mais on ne peut pas prévoir leur avenir, le déterminisme créant son propre hasard. La prédictibilité de l'évolution du système y est en effet contrariée par des incertitudes sur les conditions initiales ou sur les mécanismes en jeu. De plus, l'expérimentation devient quasi impossible et les observations limitées à des données éparses et fragmentaires par rapport aux nombre de degrés de liberté. Des méthodes virtuelles comme la simulation par modèle numérique prévisionnel prennent alors le pas sur l'expérimentation tandis que les observations restent rares ou indirectes. Dans cette évolution des paradigmes, méthodes et outils d'investigation, l'incertitude des connaissances grandit à tel point que l'inconnu n'est plus entamé que par des hypothèses de plus en plus fragiles.

Annick LESNE (1) remarque que les "visions déterministes et stochastiques ne s'excluent pas l'une l'autre, mais qu'au contraire elles s'entrecroisent, suivant l'échelle à laquelle elles se situent." LESNE donne notamment comme exemple type le mouvement brownien qui est parfaitement déterministe à l'échelle atomique suivant les lois de la dynamique newtonienne, mais dont la dynamique devient chaotique aux échelles supérieures par défaut d'accès à la vitesse initiale des molécules et de leur nombre trop grand pour pouvoir décrire l'ensemble des degrés de liberté associés...

Il résulte finalement que les moyens limités des scientifiques face à la complexité des systèmes auto-organisés ou vivants, plusieurs échelles spatio-temporelles doivent être considérées et ne permettent plus de prédire leurs comportements. Les modèles proposés par les scientifiques sont alors plus des outils prospectifs que des prévisions. Leur vérification dans le passé maintiendra en suspens leur validation par les événements futurs. Ils pourront et devront se soumettre à des révisions et corrections. Les informations que ces modèles fournissent sont certes rationnelles mais restent hypothétiques dans le cadre du schéma du champ de l'expertise scientifique présenté plus haut.

Une conclusion s'impose quant à l'application du fameux principe de précaution. Ce principe est de nature politique et ne s'applique pas comme tel à la recherche scientifique. Les experts ont tendance à surestimer le degré de confiance en leurs modèles théoriques. Ils doivent cependant faire preuve d'humilité lorsqu'il s'agit d'apporter une aide à la décision politique.

Il en va de même pour l'application des sciences sur le terrain où les enjeux socio-économiques ou de santé publique imposent non seulement la précaution mais aussi le débat. Je renvoie à ma petite analyse épistémologique sur le principe de précaution, disponible sur ce site: Principe-précaution.pdf

____________________________

(1): Annick LESNE. Déterminisme et aléatoire dans les systèmes complexes: un faux débat? Consulté le 29.07.2013 à l'adresse:<www.lptl.jussieu.fr/user/lesne/Cerisy_Lesne.pdf>.