Il y a deux ordres de raisons pour lesquelles on peut affirmer que le concept de progrès scientifique doit être considéré comme un concept fondamental de la culture et de l’histoire de notre temps. Il y a des raisons théoriques, et il y a des raisons pratiques.

Naissance du concept de progrès scientifique

À l’ère post-moderne, le concept même de progrès scientifique semble avoir besoin d’une certaine justification, d’un plaidoyer vital. Apparemment notre époque a renoncé à toute universalité dans la fragmentation des concepts de la pensée et de l’histoire, dans un particularisme relativiste du temps et de l’espace. De la sorte le seul discours épistémologiquement – et même moralement – possible serait celui d’une description contextualisée de celui-ci. Il n’est pas possible d’affirmer des relations causales universelles ou une « universalité » de principe.

Comme nous le savons tous, le progrès scientifique est un concept de la modernité. Décrit, ou plutôt imaginé, par Francis Bacon, le concept de progrès scientifique commence avec la cinématique du De Revolutionibus orbium coelestium de Nicolas Copernic (1543), passe par Galileo Galilei, et atteint la mécanique des Philosophiae naturalis principia mathematica d’Isaac Newton (1687).

Le monde antique ne connaissait pas de vision cohérente et organique du progrès des connaissances scientifiques. D’ailleurs le concept même de progrès en général, tant dans le domaine moral que dans le domaine matériel, n’a jamais eu, ni dans le monde grec ni dans celui du latin classique, l’intention et l’extension qu’il aura après l’avènement du christianisme.

Cependant, quelque chose de beaucoup plus spécifique s’applique au concept de progrès scientifique. Certes le monde grec possédait toutes les catégories épistémologiques dans le domaine des sciences naturelles – du concept de loi de la nature à celui d’axiomatique ; du concept de déterminisme/ indéterminisme à celui de mathématiques de la nature. Pour autant il ne possédait pas la catégorie de probabilité (ce sera le fruit d’une extraordinaire union entre la philosophie morale de Blaise Pascal et l’intérêt des mathématiciens français contemporains pour les jeux de cartes joués à Versailles). De la sorte on peut raisonnablement dire que le monde grec ignorait lui aussi le concept de progrès scientifique.

Le progrès scientifique est une catégorie intellectuelle et historique née, par conséquent, de la révolution astronomique et physique. Il va prendre une place centrale dans la philosophie des Lumières, notamment française. L’idée d’un progrès continu de la science aura une fonction purement idéologique :  la raison doit remplacer l’histoire, la tradition et la religion.

Le siècle qui sera dominé par l’idée de progrès scientifique, comme description et comme prescription, sera le dix-neuvième. Et il sera indissociable du concept – et de la réalité – du progrès technologique, c’est-à-dire de l’application de la science.

Philosophie positiviste

L’idée de progrès scientifique et technologique au XIXe siècle est inextricablement liée à la philosophie du « Positivisme », en particulier dans sa version française.

Le corollaire de la vision positiviste de la science a été la déclinaison de la mécanique newtonienne, passée des raffinements et des extensions de Pierre Simon de Laplace, comme terme invariable ad quem, et – avec ce qu’on appellera plus tard la « microphysique » ou la « physique de la matière », ainsi qu’avec les recherches sur les phénomènes électriques et électromagnétiques – d’André-Marie Ampère à Michael Faraday à James Clerck Maxwell.

La seconde moitié du XIXe siècle a vu une progression ininterrompue et formidable des sciences physiques et de l’idéologie positiviste.

À la fin du « long siècle » – pour paraphraser l’heureuse expression d’Eric Hobsbawm – se manifeste ce qu’Edmund Husserl appelle en 1934 « Die Krisis der Europaeischen Wissenschaften ». Le testament spirituel de Husserl est un magnifique exemple du véritable contenu de l’image hégélienne de Die Eule der Minerva, la « chouette de Minerve ». Selon cette philosophie, comme la chouette prend son envol au bout de la lumière, la réalité n’est expliquée qu’à la fin de son processus de réalisation.

S’il est vrai qu’en 1934 la crise des sciences européennes s’était en fait terminée bien avant, et s’il est vrai que les sciences physiques – mais pas seulement les sciences physiques – étaient dans une phase de floraison extraordinaire, il est tout aussi vrai qu’elles avaient connu une crise de leurs propres fondements conceptuels à l’époque où Husserl, réfléchissant sur la nature des mathématiques, avait posé les bases de la phénoménologie.

Une crise épistémologique

Cette crise était essentiellement épistémologique. Considérée comme une limite « transcendantale », pour utiliser un terme kantien de manière métaphorique, la vérité de la mécanique classique suggère que le progrès peut consister soit en une progression des données d’observation, soit en une évolution des données expérimentales. Il peut également s’agir d’une progression des outils mathématiques pour l’application de l’observation à l’explication et à la prévision des phénomènes. La célèbre solution donnée par Henri Poincaré en 1890 au problème séculaire des « trois corps » (ou problème de calcul, compte tenu des positions initiales, des masses et des vitesses de trois corps soumis à une attraction gravitationnelle réciproque, et de l’évolution de ce système) en est un exemple paradigmatique.

En revanche, le point crucial est que si une théorie scientifique prend le statut d’une structure transcendantale, elle passe de la vérité empirique à la vérité analytique, ou quasi-analytique. C’est-à-dire que ses applications se transforment d’explications empiriques, qui peuvent être vraies ou fausses, en outils de description des phénomènes, auxquels les différentes catégories d’utilité sont appliquées avec différentes gradations.

Le conventionnalisme et l’instrumentalisme sont ainsi devenus les deux visions dominantes à la fin du XIXe siècle. L’idéologie de l’empirisme positiviste s’est transformée, dialectiquement, en la résurgence des modèles épistémologiques qui dominaient l’astronomie avant Copernic et avant Galilée.

Pierre Duhem fut le principal théoricien de la résurgence des modèles épistémologiques. Dans l’achèvement de la mécanique classique, il voulait voir le triomphe – même à titre posthume ! –du cardinal Roberto Bellarmino sur Galileo Galilei. La science ne peut pas produire des déclarations vraies sur la réalité, mais seulement des outils informatiques qui permettent de sozein ta phainomena, de « sauver les phénomènes ». Par conséquent, le progrès scientifique ne peut pas être défini comme un progrès vers une vérité toujours plus étendue et toujours plus profonde, mais comme une augmentation des capacités instrumentales. Ainsi, l’idéal de la science en tant qu’itinerarium mentis in veritatem – de la révolution scientifique de la Renaissance à l’idéal de la philosophie et de la théologie médiévales lancé par Bonaventura da Bagnoregio en tant qu’itinerarium mentis in Deum – a dû prendre fin.

L’ouvrage de Duhem dans lequel il exprime ses thèses a été publié en 1906, un an seulement après Zur Elektrodynamik bewegter Körper d’Albert Einstein. Relancée par Willard van Orman Quine en 1951, la thèse sera l’un des arguments les plus forts utilisés par ceux qui, dans la seconde moitié du XXe siècle, veulent nier la rationalité du progrès de la science et en même temps la possibilité de définir le progrès scientifique de manière linéaire.

Quant à la vision conventionnelle, elle s’appliquait aux arguments selon lesquels les concepts fondamentaux de la physique classique, comme le deuxième principe de la dynamique, avaient essentiellement une valeur de définition –syntaxique. Cette vision s’étendait aux concepts mathématiques, dont tout fondement était nié dans l’intuition humaine. Prenez, par exemple, la géométrie euclidienne, qui a perdu toute position privilégiée par rapport aux théories de Riemann ou de Lobacevskij. En allant plus loin, le concept de géométrie a été séparé de celui de vérité descriptive.

D’Einstein à Simon : le relativisme

Depuis lors, depuis le début du XXe siècle et jusqu’à nos jours – jusqu’aux résultats spectaculaires très récents de la physique des hautes énergies – les progrès de la science doivent être attribués au fait que, dans l’éternelle dialectique entre expérience et théorie (ou, si l’on préfère, entre expérience et raison), le modèle qui s’est imposé était le modèle hypothético-déductif, par opposition au modèle inductif.

La naissance de la mécanique quantique a eu lieu « officiellement » en 1900, avec un essai de Max Planck : Ueber Verbesserung der Wienschen Spektralgleichung. En 1878, Johann von Jolly, un éminent physicien expérimental, avait conseillé à Planck, alors âgé de vingt ans, de ne pas entreprendre l’étude de la physique, estimant que dans ce domaine tout avait déjà été découvert, et que le seul travail qui restait à faire était de combler les lacunes.

La naissance « officielle » de la mécanique relativiste est venue avec l’essai d’Einstein de 1905. La relativité spéciale a été étendue à la relativité générale dans ses quatre essais de 1915, en commençant par Grundgedanken der allgemeinen Relativitaetstheorie und Anwendung dieser Theorie in der Astronomie.

Ce que l’on peut soutenir, et qui me semble le plus pertinent, c’est que tant la vision quantique que la vision relativiste n’ont pas dérivé et ne pouvaient pas logiquement découler d’un processus de type inductif. Chacune des configurations d‘un tel processus a été définie. On peut le comprendre en se référant à la plus célèbre tentative faite au XXe siècle pour donner forme et substance à une logique (inductive) de la découverte des lois de la nature : celle d’Herbert Simon, père fondateur de l’Intelligence Artificielle.

Dans un essai de 1977, il déclarait :

[La] découverte des lois signifie seulement trouver des modèles dans les données qui ont été observées. Un processus de découverte des lois est un processus de recodage, de manière parcimonieuse, d’ensembles de données empiriques. Une théorie normative de la découverte scientifique est un ensemble de critères d’évaluation des processus de découverte de la loi.

 La question de savoir si la définition de Simon est généralement adéquate d’un point de vue descriptif est une question à laquelle j’ai consacré une partie importante de mes recherches, pour arriver à une conclusion négative. Je suis néanmoins profondément reconnaissant à Simon et j’honore sa mémoire pour l’attention qu’il a accordée à mes positions au fil des ans. Il a basé tous ses travaux puissants sur cette définition, et a construit des modèles d’Intelligence Artificielle qui sont censés avoir une force logique et une adéquation historiographique suffisantes pour reproduire certaines des grandes lois naturelles de l’histoire des sciences, de la Troisième Loi de Kepler à la loi de Coulomb en passant par le cycle de Krebs.

Au-delà de la question de sa pertinence générale, logique et historiographique, il est certain que les deux grandes découvertes paradigmatiques de la physique contemporaine – les lois fondamentales de la microphysique quantique, et les lois fondamentales de la macrophysique relativiste – n’avaient rien à voir avec un « recodage, de manière parcimonieuse, d’ensembles de données empiriques ». Il n’y avait rien dans les « données » dont disposait Planck, et encore moins dans les « données » dont disposait Einstein pour suggérer – par interpolation, extrapolation, ou par tout autre raisonnement statistique inductif – que la matière et l’énergie avaient une nature discrète, que la masse était une quantité vectorielle et non scalaire, et que la lumière était soumise à une attraction gravitationnelle.

Il suffira ici de rappeler cette dernière notion. Conséquence directe de la relativité générale, la courbure de la lumière solaire a été observée par Arthur Eddington depuis l’île de Principe, sur la côte ouest de l’Afrique, en utilisant l’éclipse de soleil du 29 mai 1919. Mais aucune observation ou expérience d’optique, ni classique ni électromagnétique, n’avait jamais enregistré un chemin de lumière qui n’était pas droit. Ni dans les laboratoires, ni dans les observations de l’univers, même avec des instruments précis et puissants comme ceux dont disposaient déjà les physiciens et les astronomes. Épistémologiquement, la Relativité Générale introduit un concept qui n’était pas contenu dans les données précédentes, même pas en tant que singularité.

Révolution scientifique des XVIe et XVIIe siècles

Il n’y a pas de différence significative dans la relation entre l’expérience et la théorie, entre la révolution de la physique du XXe siècle et la révolution scientifique des XVIe et XVIIe siècles.

Un seul point suffira à le prouver. La révolution scientifique des XVIe et XVIIe siècles avait deux fondements. D’abord, l’héliostaticisme/héliocentrisme de Copernic. Deuxièmement, le principe d’inertie de Galilée. Le principe de Galilée permet la formulation des lois du mouvement, et la naissance de la mécanique moderne, avec l’unification de la physique terrestre et de la physique céleste, comprise plus tard par Newton.

Aucune observation astronomique et aucune expérience n’avait jamais enregistré ni la rotation de la terre ni son orbite. Pour la première, il faudra attendre quelques expériences, non concluantes, à la fin du XVIIIe siècle et, définitivement, Foucault en 1851. Pour la seconde, il faudra attendre la mesure de la parallaxe stellaire par Friedrich Wilhelm Bessel en 1838.

En ce qui concerne le principe de l’inertie, aucune observation ou expérience – ni le bon sens, ni les premières expériences du temps de Galilée, ni même les calculatores du Merton College d’Oxford au XIVe siècle – n’ont jamais enregistré un mouvement qui restait dans le même état si des forces extérieures n’agissaient pas sur lui.

La révolution scientifique, de Copernic à Newton, a été rendue possible par le fait que chaque concept fondamental a été introduit de manière contre-inductive, et par le fait que les grands innovateurs ont en fait suivi une méthode hypothético-déductive. Les observations et les expériences avaient pour fonction de vérifier la pertinence des hypothèses théoriques. Mais elles n’étaient pas et ne pouvaient pas être l’origine, ni logique, ni psychologique, ni historique, des concepts fondamentaux de la nouvelle science.

Le manque de compréhension de ces vérités de l’histoire et de la structure des deux grandes révolutions de la science est la raison de l’échec substantiel du néopositivisme logique, le mouvement le plus important de la philosophie des sciences au siècle dernier. Le néopositivisme soutenait que la révolution quantique et la révolution relativiste pouvaient être structurées selon les schémas cognitifs de l’ancien Positivisme. Lorsque les outils de la logique formelle moderne ont été ajoutés à cela, le concept d’expérience a été affiné à travers les lentilles de la théorie psychologique de Mach. Mais le problème n’était ni dans les instruments logiques ni dans l’adéquation du concept d’ « expérience » (d’abord de Mach, puis de Moritz Schlick et d’Otto Neurath). De plus, ce dernier était destiné à se heurter aux résultats de la psychologie contemporaine de la Gestalt.

Succession de paradigmes ?

La Structure des révolutions scientifiques de Thomas S. Kuhn (1962) placera à nouveau la question des révolutions scientifiques au centre de l’histoire et de la philosophie des sciences. Kuhn avancera deux thèses fondamentales. La première est que la voie de la science voit se succéder ce qu’il appelle la « science normale » et les révolutions. Alors que dans la première, les scientifiques tentent de résoudre les problèmes en supposant la validité des théories déjà établies, sans les remettre en question, dans la seconde, il y a un changement de « paradigme ». Celui-ci est à la fois théorique, psychologique et linguistique. La deuxième thèse est que les nouveaux paradigmes sont radicalement différents des précédents, au point d’être incommensurables. Il n’y a pas de mesure commune des concepts théoriques, et il n’y a pas de mesure commune des données d’observation expérimentales.

La conséquence de la thèse de Kuhn est que toute possibilité de cumul des progrès scientifiques est niée. Puisque chaque paradigme ne définit et ne structure que les expériences qu’il considère comme telles, toute idée de « progrès vers » une fin objective logique-épistémique – comme la vérité, ou la probabilité de vérité – perd tout son sens. Il n’est pas logique de décrire les relations hiérarchiques entre les structures syntaxiques. Tout ce que l’histoire des sciences nous permettrait d’affirmer est un « progrès à partir de ». Et cela ne pourrait être qu’une reconstruction de la succession historique des paradigmes.

La question de savoir si les révolutions dans la science étaient en fait la succession de paradigmes et de théories incommensurables est un sujet d’analyse historiographique, logique et épistémologique. Personnellement, j’ai consacré une partie importante de mes recherches à l’étude de la révolution copernicienne. J’ai compris que dans la transition du modèle et du cosmos ptolémaïque vers le modèle et le cosmos copernicien, il n’y avait pas d’incommensurabilité. Il n’y avait pas d’incommensurabilité dans les observations – Copernic a construit le De revolutionibus orbium coelestium presque exclusivement sur les données de l’Almagest de Ptolémée – et il n’y avait et n’y a pas d’incommensurabilité dans les modèles astronomiques, qui sont commensurables dans un sens strictement mathématique. De même, il m’a semblé qu’il était possible d’affirmer que la succession de la théorie copernicienne à la théorie ptolémaïque était le résultat d’un processus parfaitement rationnel, si l’on considère à la fois les structures des modèles et leur pouvoir explicatif et prédictif. Chaque thèse différente découle de la confusion de ces aspects avec l’histoire des sciences en tant que moment, bien que particulier, de l’histoire générale de l’humanité. Pour utiliser une distinction célèbre, elle confond l’histoire interne de la science avec son histoire externe.

Les vues de Kuhn sur la science et le néopositivisme sont généralement considérées comme profondément alternatives. La seconde repose sur la double hypothèse de la primauté de l’expérience phénoménale, d’une part, et de la dérivation (inductive) des théories de l’expérience phénoménale, d’autre part. Cependant, il y a un élément fondamental que les deux visions partagent. Cet élément est que toutes deux considèrent la dynamique de la science – c’est-à-dire l’évolution des théories/paradigmes – comme guidée par la comparaison entre elles et par leur capacité à expliquer les données observationnelles et expérimentales. Pour reprendre une célèbre dichotomie illustrée par Hans Reichenbach, les deux sont placées du côté de la confirmation des théories, comme radicalement distinctes de celle de leur découverte. Et tous deux considèrent que les processus et le contenu de l’explication et de la prédiction sont symétriques.

Mais c’est précisément la question de la découverte des lois scientifiques et la question des prédictions qui sont au centre du problème de la détermination de l’existence d’un progrès scientifique et de sa nature. Tant que l’on considère que le cadre de référence est celui de théories données qui sont comparées à des résultats observationnels et expérimentaux donnés, il est possible d’élaborer une série de visions conventionnelles ou instrumentalistes de la science. La vision de Kuhn est parfaitement descriptible comme l’affirmation d’un conventionnalisme/instrumentalisme qui fonctionne dans le cadre de chaque paradigme. Il est évident que le conventionnalisme et l’instrumentalisme sont tous deux des visions antiréalistes de la science. La science n’aurait ni la possibilité ni le but de découvrir une structure ontologique de la réalité ; elle organiserait plutôt systématiquement les preuves disponibles et acceptées.

Les découvertes font la science

La limite fondamentale du conventionnalisme et de l’instrumentalisme est qu’ils ne tiennent pas compte d’une dimension clé des théories scientifiques : la capacité de prévoir des types de phénomènes qui n’ont jamais été observés auparavant. Nous avons déjà mentionné le cas de la courbure de la lumière grâce à la gravité. Mais d’autres cas abondent, et tous sont d’une importance absolue : de la prédiction des phases de Vénus (théorie copernicienne) à la fission nucléaire de la physique atomique (dans les années 1930). Il n’y a pas d’autre explication possible pour ce genre de prédiction que la vérité de la conception réaliste de la science.

La physique des hautes énergies semble être une parfaite confirmation de la thèse selon laquelle la science progresse vers quelque chose et que sa progression est guidée par une méthodologie hypothético-déductive et non inductive.

Permettez-moi de mentionner deux moments fondamentaux. Le premier est la découverte des bosons de jauge de l’interaction faible, W et Z. Leur introduction fait partie de la théorie « électrofaible », qui vise à unifier les forces faibles et électromagnétiques dans une seule interaction. La théorie électrofaible a été formulée par Glashow, Weinberg et Salam dans les années 1960, et pour cela ils ont reçu le prix Nobel en 1979. Les bosons W et Z ont été détectés au CERN en 1984, lors de l’expérience menée par van der Meer et Rubbia. Le second est le boson de Higgs. Son existence a été théorisée en 1964. Sa détection a eu lieu, avec la précision requise (probabilité d’erreur inférieure à 0,000006 %) – le 5 avril 2012, lorsque l’anneau du CERN a atteint l’énergie de 8000 électronvolts.

La complexité de l’interaction entre la théorie et les observations/expériences – pour lesquelles les nouvelles preuves entrent dans un processus herméneutique-heuristique dans la formulation de nouvelles théories – ne peut pas nous faire oublier, ni même mettre à l’arrière-plan, le fait que parmi les « expériences sensibles » et les « certaines démonstrations » de Galilée, ce sont ces dernières qui donnent la direction du progrès scientifique.

Dans cet article, j’ai essayé de faire valoir que la seule façon de comprendre le progrès scientifique est de combiner le réalisme scientifique avec une méthodologie hypothético-déductive. En dehors de cette union, des visions conventionnelles et instrumentales sont inévitablement générées, et elles ne sont pas en mesure de rendre compte du progrès réel de la recherche scientifique et de l’obtention de ses plus grands résultats.

J’ai déclaré au début de cet article qu’il existe des raisons théoriques et des raisons pratiques pour que le progrès scientifique soit considéré comme un concept fondamental de la culture de notre temps. La principale raison théorique, qui, je l’espère, découle de ce qui précède, est que la science, surtout dans les moments de grands changements, ne peut faire abstraction d’une prise de conscience de la part des scientifiques de la direction dans laquelle elle doit aller, des hypothèses conceptuelles qui constituent un facteur de développement, et de celles qui constituent au contraire un facteur d’involution ou de retard de développement.

Limites du progrès scientifique ?

Pour mieux illustrer cette thèse, permettez-moi de reprendre la célèbre distinction hégélienne entre progrès ad finitum et progrès ad infinitum. Chez Hegel, les deux termes désignaient respectivement le progrès des concepts et le progrès de l’histoire. Pour les sciences naturelles, la distinction soulève la question de savoir si le progrès scientifique – à supposer qu’il existe et qu’il ait une direction – a ou n’a pas de limite, qu’elle soit due à la nature ou au scientifique.

L’un des plus célèbres philosophes du XXe siècle, Karl Popper, pensait que la recherche était sans fin. Il affirmait que la science n’avait pas de limite intrinsèque et qu’elle passerait toujours d’une révolution à l’autre.

Un des grands physiciens du siècle dernier, Richard Feynman, était d’un avis contraire. Il a déclaré qu’après la découverte du big bang et de la théorie de l’évolution et de la biologie moléculaire, il y aurait une dégénérescence des idées, semblable à ce que ressent un grand explorateur lorsqu’il voit les touristes envahir son territoire.

Dans un sens similaire mais non égal, on a fait valoir que la révolution quantique et la révolution relativiste (et, en biologie, la découverte de l’ADN) resteront à jamais les dernières révolutions scientifiques. Notre capacité à comprendre les lois fondamentales de la nature, et le nombre énorme d’observations et d’expériences de contrôle auxquelles les théories scientifiques communes ont été soumises, rendront les futurs moments révolutionnaires (au sens de Kuhn ou au sens de Popper) peu probables. Si vous voulez, c’est le retour à une vision qui a prévalu dans la physique de la fin du XIXe siècle.

Cette vision ad finitum semble être la conséquence inévitable de la microphysique. Au fil des siècles, l’univers a toujours été le laboratoire pour comprendre la nature de la matière. Depuis les années 1930, la relation s’est inversée : les laboratoires sont désormais le moyen de comprendre la nature de l’univers. La recherche des composants ultimes de la matière se fait dans le domaine de la microphysique. La désignation du boson de Higgs comme « particule de Dieu » a un sens plus pertinent que la simple inventivité journalistique.

Les raisons théoriques peuvent ici être converties en raisons pratiques. Car la justification de la science dans la société est inextricablement liée au fait qu’elle est perçue (non seulement par les scientifiques mais par toute personne ayant une autorité politique ou sociale) comme étant continuellement progressiste ; elle n’est pas considérée comme une activité ayant des limites prédéfinies et même identifiables. Avec cette approche la science pourrait devenir une activité autoréférentielle au sein d’une communauté engagée dans ce que Kuhn appelle la « résolution de puzzles ». En effet, des visions de la science comme celle du « Programme fort » de la sociologie, développé par David Bloor et Barry Barnes, ou celle de Bruno Latour, qui considère la science comme complètement séparée de toute logique et de toute pratique de recherche d’une vérité objective (et donc toutes les décisions scientifiques reflètent en fin de compte les intérêts personnels des scientifiques) ont connu et continuent de connaître un niveau de succès vraiment effrayant. C’est un exemple d’une importance fondamentale.

Il peut être tentant de croire que l’acceptation sociale de la science (la condition dans laquelle les sociétés démocratiques peuvent former un large consensus pour allouer des ressources de plus en plus vastes) restera la conséquence nécessaire de la perception. Après tout, la plupart des citoyens apprécient certainement l’utilité du progrès technologique. Cependant, cette solution n’est ni générale ni souhaitable. Nous pouvons voir combien de progrès dans l’histoire des sciences, comme ceux de l’astronomie et de la thermodynamique, n’ont pas eu de retombées technologiques, ou comment dans nombre de cas aucune retombée n’a été ressentie depuis des siècles ou des décennies. Mais rechercher un consensus en matière scientifique sur la base des implications technologiques signifie éliminer toutes les branches de la recherche fondamentale pour lesquelles les répercussions technologiques ne sont pas prévisibles.

Que presque tous les gouvernements aient tendance à « finaliser » la recherche scientifique – à la soutenir dans la mesure où ses applications pratiques sont prévisibles – n’est pas un phénomène positif. Il s’agit plutôt d’une approche très négative pour le progrès de la science.

Je voudrais conclure par un exemple. Il existe aujourd’hui un grand intérêt pour les « Big Data » et pour le développement d’algorithmes permettant de gérer ces données. Les ressources publiques se sont considérablement déplacées des secteurs traditionnels (tels que les mathématiques pures) vers ce nouveau domaine de recherche. Les ressources ont même été transférées de la physique fondamentale à l’informatique quantique, ce qui promet des outils de gestion des « Big Data » beaucoup plus puissants que les outils actuels.

Les « Big Data » sont sans aucun doute un outil puissant pour gérer des domaines d’une grande importance pratique tels que l’information, la santé, les réseaux de communication, et bien plus encore. Et la recherche scientifique en bénéficie certainement aussi : la plus grande évolution se produit lorsque les « Big Data » alimentent les progrès de l’intelligence artificielle.

Cependant, ce serait une terrible erreur d’adhérer à la position de ceux qui pensent que les « Big Data » plus l’intelligence artificielle rendront inutile l’activité de construction de théories –à savoir l’invention de théories et la construction de modèles théoriques. Si la vision inductive du développement des connaissances scientifiques était vraie, cette position serait justifiable. Mais, comme j’espère avoir été clair, la position inductive est fausse : logiquement, méthodologiquement et historiquement fausse.

Il s’ensuit qu’aucune interpolation ou extrapolation de données, quelle que soit la méthode ou la puissance de calcul, ne peut établir des relations de cause à effet différentes de celles qui découlent des théories déjà connues. Une telle approche permettrait d’en savoir plus sur les territoires déjà explorés, mais pas de découvrir de nouveaux territoires : et ce dernier, je m’y risquerais, est la définition et même la raison d’être de la science et de ses progrès.

Angelo Maria Petroni est Professeur de Logique et Philosophie des Sciences, Université de Rome. Ancien professeur à l’Université de Bologne, et ancien directeur de l’École Nationale d’Administration italienne. Membre de l’Académie des Sciences de l‘Institut de Bologne.

 
About Author

Journal des Libertés

Laisser un commentaire