La science pure, son objet et sa méthode
Recherche scientifique et application technique sont fondamentalement différentes, ne serait-ce que parce que cette dernière répond soit aux lois de l’offre et de la demande en économie de marché, soit aux impératifs politiques d’un pouvoir dirigiste, quel qu’il soit.
Cette frontière entre recherche pure et recherche appliquée – ou entre science et technique – bien que difficile parfois à définir n’en est pas moins réelle. Le Manuel de Frascati de l’OCDE en proposait une définition qui est largement admise depuis 1963 (OCDE, 2015) :
« Qu’elle soit empirique ou conceptuelle, la recherche fondamentale vise à expliquer des phénomènes et des faits d’expérience et à en découvrir la cause, indépendamment de toute considération utilitaire … la recherche appliquée vise au contraire à développer un nouveau savoir ; elle a un objectif spécifique, pratique et concret. »

Ce manuel de l’OCDE popularisa ainsi l’expression « recherche fondamentale ». Mais, alors que les termes « science pure » et « recherche fondamentale » sont presque équivalents, ils n’ont pas la même portée : la seconde n’évoque aucune finalité immédiate ; mais elle n’exclut pas de déboucher sur des applications futures, parfois imprévisibles.
Cette distinction prit une importance nouvelle avec les recherches nucléaires engagées sur financement public aux États-Unis pendant la seconde guerre mondiale. Ces financements, destinés pour partie à des entreprises privées, débouchèrent à la fois sur des développements technologiques et sur des applications industrielles ; y compris dans le domaine militaire. A la sortie de la guerre, en 1947, la « grande science » émergeait sous l’impulsion d’une physique nucléaire aux visées clairement belliqueuses, conduisant Edwards Shils à s’interroger sur les raisons de la science pure : « 1/ la nécessité de distinguer le champ de la « science pure » de celui de la science appliquée et 2/ la conviction que découvrir des lois de la nature est une bonne chose en soi ». Shils écartait l’idée que le savoir appliqué soit une activité de recherche autonome : « la recherche appliquée n’a pratiquement rien dévoilé de nouveau sur la nature » écrivait-il[1]. Un jugement proche de celui de Pasteur, des décennies plus tôt, en plein positivisme, qui niait l’existence d’une « science appliquée autonome » mais reconnaissait l’importance des retombées de la science ! En conséquence et en pratique, Shils en déduisait que les dotations publiques ne devraient pas viser un résultat ; mais doter globalement la recherche et laisser les scientifiques et eux seuls (ou entre eux), répartir ces ressources ; pour lui, c’était une procédure essentielle en démocratie
Que cette science moderne se définisse et se distingue des autres activités cognitives par sa méthode est une question épistémologique incontournable, au moins depuis Galilée. Distinguant l’expérience sensible, d’une part, et l’impératif de preuve, d’autre part, la méthode galiléenne aurait-elle un caractère universel ? S’appliquerait-elle aussi bien à la physique et à la chimie qu’à d’autres savoirs pour lesquels la dimension historique a une grande importance, comme c’est le cas pour la biologie ? Existe-t-il une priorité, temporelle ou logique, entre la recherche théorique et l’observation ou la recherche expérimentale ? Quelles que soient les réponses apportées à ces questions, contester la méthode scientifique – ou affirmer son inanité – est un point de vue très minoritaire, adopté par exemple par Paul Feyerabend.
Par sa démarche et par sa finalité, la méthode scientifique cherche à découvrir les lois de la nature. Mais, tout comme nous venons de le souligner à propos de cette méthode, la structure et le statut épistémologique de ces lois font débat : pour les réalistes, ces lois ont un caractère ontologique (elles seraient consubstantielles à la nature) ; mais pour d’autres, les conventionnalistes[2], les lois naturelles ne seraient qu’une simple description du monde, un ensemble d’observations et d’expériences, classées et organisées, mais strictement descriptif. Cette opinion qui dénie ou qui conteste la quête des lois naturelles et qui refuse d’en faire le propos essentiel de la science, est toutefois, une fois encore, minoritaire.
Intelligence artificielle, méthode scientifique et lois naturelles
L’avènement spectaculaire de l’intelligence artificielle semble avoir à la fois profondément renouvelé notre regard et sur la méthode scientifique et sur les lois de la nature. Dans le sillage de l’intelligence artificielle, le déferlement des « données massives »[3] nous dispenserait-il de théoriser, de concevoir et de construire des modèles du monde (theory building), démarche qui fut l’essence de la méthode scientifique, depuis des siècles ? C’est la thèse que soutient notamment Chris Anderson :
« les données massives annoncent la fin de la méthode scientifique … [C]ouplé avec nos puissantes méthodes d’analyses statistiques, ce déluge de données nous offre une nouvelle façon de comprendre le monde. Remplaçant la causalité, la corrélation nourrit désormais la science ; plus besoin de modéliser ni de théoriser ; il suffit de corréler.»
Anderson poursuit :
« Arrêtons de modéliser ; plus besoin d’hypothèse préalable ; entrons les données dans les plus puissants ordinateurs que la Terre a connus et laissons nos algorithmes statistiques repérer des tendances que la science (classique) ne peut détecter (…) L’hypothèse de Google est que rien ne permet d’affirmer que telle page est meilleure que telle autre ; mais si l’analyse des liens entrants l’affirme, cela nous suffit. Plus besoin de sémantique ni de causalité (…) Abandonnons nos vieilles pratiques et demandons-nous seulement : que Google peut-il apporter à la science [4] ? »
Serait-ce donc la fin de la méthode scientifique née à la Renaissance et de la Révolution scientifique (qui la suivit) ?
Cette thèse remonte à 2008. Or l’intelligence artificielle a beaucoup progressé depuis, pas seulement en volume : à partir de 1950, il s’agissait surtout d’automatiser des règles logiques, voire des formes de grammaire ou de langage ; aujourd’hui, l‘apprentissage profond[5] procède tout autrement : oubliant le formalisme logique, il cherche à détecter des relations probables (patterns) au sein d’un ensemble de données, massif et inorganique avec l’aide d’une pluralité de méthodes statistiques et bayésiennes qui sont au cœur des réseaux informatiques neuronaux[6].
Des lois révélées ex post ?
Pour comprendre le défi que lance l’apprentissage profond à la science pure et à sa démarche théorique, revenons sur ce qu’Herbert Simon avait dit de l’IA naissante, il y a un demi-siècle. Son fameux article de 1973 disait, en substance :
« La découverte de lois signifie uniquement la découverte de relations (patterns) entre les données observées. Un processus de découverte de lois est un processus de recodage, de manière parcimonieuse, d’ensembles de données empiriques. Une théorie normative de la découverte scientifique est un ensemble de critères permettant d’évaluer les processus de découverte de lois[7].»
Est-ce là une description exacte du processus de recherche de lois par l’intelligence artificielle[8] ? Mes travaux antérieurs et mes échanges avec Simon m’ont conduit à répondre par la négative. Je ne partage pas ses prémisses[9].
Au-delà du problème général que posa Simon[10], deux découvertes majeures de la physique moderne – la théorie quantique et la relativité – n’eurent vraiment rien à voir avec une quelconque « mise en évidence de régularités au sein d’un ensemble de données d’expérience ». Aucune des « données » disponibles pour Planck, et encore moins celles dont disposait Einstein, ne leur aurait permis de déduire – par interpolation, extrapolation ou par toute autre raisonnement inductif ou statistique – qu’énergie et matière sont des grandeurs discrètes[11]; que la masse est une grandeur vectorielle et non scalaire[12]; et que la lumière est soumise aux forces de la gravité…
Autre argument fondamental en faveur de notre thèse sur l’impossibilité de découvrir des lois à partir de l’IA seulement, d’une moindre force logique mais d’une plus grande importance factuelle et historique : formulées dans ses « Principes » et conjuguées avec les données expérimentales de cette époque, les lois de Newton permirent des prédictions précises, surtout dans le domaine de l’astronomie. Des instruments plus précis (comme des télescopes d’une meilleure résolution) permirent des prévisions plus exactes, sans rien changer à ces lois. En toute logique, et dans la mesure où il s’agit de lois déterministes, la méthode déductive permit à la fois d’expliquer et de prévoir les phénomènes, dans la droite ligne nomologique posée par Hempel, Popper & Oppenheim[13]. Si les lois de Newton n’avaient été qu’une simple exploitation des données empiriques de son temps, elles n’auraient rien dévoilé d’autre que ce qui était déjà contenu dans ces mêmes données. Conjuguées avec l’arrivée au fil du temps de données plus précises, ces lois n’auraient pas permis de mettre en évidence des phénomènes invisibles (par exemple, les planètes extérieures au système solaire) lors de la découverte de ces lois.
Il en aurait été de même des lois de Coulomb, de Gauss et des équations de Maxwell… Pour ce qui est de la relation entre théorie et expérience – et nonobstant leur cadre historique, le savoir théorique et les outils mathématiques de leur époque –, on peut donc dire qu’il n’y a pas de différence majeure entre la révolution que connut la physique du XXème siècle et la Révolution scientifique des XVIème et XVIIème siècles. En fait, la Révolution scientifique des temps modernes reposait sur deux piliers :
- sur l’héliocentrisme de Copernic et
- sur le principe d’inertie de Galilée.
Ce dernier conduisit Newton aux lois du mouvement et à la mécanique qui devint du même coup universelle, valable sur Terre tout autant que dans l’espace.
Aucune observation astronomique ni aucune expérience n’avait enregistré la rotation de la Terre ni son orbite avant l’expérience du pendule de Foucault qui, après de nombreuses tentatives infructueuses au cours du XVIIIème siècle, prouva la rotation de la Terre sur son axe en 1851. Quant à l’orbite terrestre, c’est à Bessel que l’on en doit la preuve : il mesura une parallaxe stellaire en 1838. Pour le principe d’inertie enfin, aucune observation ni aucune expérience – qu’il s’agisse de considérations de bon sens ou des expériences que l’on pouvait faire au temps de Galilée[14] – n’a jamais enregistré le mouvement continu d’un corps détaché de toute force extérieure.
De Copernic à Newton, en passant par Galilée et Kepler, la Révolution scientifique des temps modernes reposa sur des concepts fondamentaux introduits de façon contre-intuitive. L’observation et l’expérimentation servirent à tester ces théories ; ou, plus précisément, elles vérifièrent l’aptitude des modèles mathématiques à prévoir des phénomènes en conjuguant données empiriques et relations formelles. Mais, que ce soit du point de vue de la logique, de celui de la psychologie ou encore de celui de l’histoire, ni l’observation ni l’expérience ne forgèrent – ni ne pouvaient forger – les concepts fondamentaux d’une nouvelle science[15].
Si ces arguments se tiennent, ils démolissent les affirmations d’Anderson : quelle que soit la puissance et la capacité d’interpolation ou d’extrapolation des algorithmes qui moulinent des données, aucun « déluge de données » ne peut dévoiler des lois aussi générales que celles qui ont fait l’histoire des sciences et particulièrement de la physique. Enfin, sans la découverte de ces lois, jamais la science n’aurait progressé aussi vite qu’elle l’a fait[16].
« Apprentissage profond » et découverte scientifique
Anderson affirme toutefois que l’intelligence artificielle « peut faire progresser la science sans modèle cohérent ni théorie explicative ». Ces derniers temps, on a tenté de prouver que « l’apprentissage profond » pourrait redécouvrir des lois physiques fondamentales à partir de la seule analyse de données issues de l’observation et de l’expérimentation. Cette tentative a notamment porté sur trois lois déjà citées : celles de Kepler, de Newton et l’héliocentrisme de Copernic. L’idée maîtresse de l’un de ces programmes de recherche – qui faisait appel uniquement à des données vidéo – était de chercher un ensemble aussi restreint que possible de variables en mesure d’expliquer le phénomène observé (un pendule ou une flamme par exemple). Il permit d’établir, selon les promoteurs de ce programme, que « sans aucune connaissance préalable de la physique sous-jacente, notre algorithme découvre la dimension intrinsèque de la dynamique observée et identifie les ensembles potentiels pour les variables d’état »[17].
Dans l’absolu, cette démarche consistant à redécouvrir certaines lois fondamentales de la physique grâce à l’ « apprentissage profond » est intéressante. Mais son apport fondamental n’est pas de révolutionner l’histoire des sciences ; il consiste plutôt à fournir un outil théorique à même de faciliter la découverte de nouvelles lois. Nous pouvons mettre cela au crédit d’Anderson : l’IA n’annonce pas « la fin de la théorie », mais encourage l’avènement de nouveaux savoirs théoriques.
Il n’est pas encore possible, de notre point de vue, de se prononcer vraiment sur de tels programmes de recherche pour deux raisons : méthodologiquement, ces essais sont très différents les uns des autres ; d’autre part, leurs résultats et l’interprétation qui en est faite divergent sur de nombreux points. Une chose est sûre, certaines de ces tentatives – lorsque évaluées d’un point de vue méthodologique et non dissocié d’une perspective historiographique – ont tout de l’incongruité. En voici deux exemples.
Premier exemple : la troisième loi de Kepler. Cornelio et al. (2023) expliquent :
« Nous avons étudié les problèmes liés à la dérivation de la troisième loi de Kepler sur le mouvement planétaire […] Extraire cette loi à partir de données expérimentales est un défi, en particulier lorsque les masses impliquées sont de grandeurs très différentes. C’est le cas du système solaire, par exemple, où la masse solaire est bien plus grande que les masses planétaires. Le module de raisonnement aide à choisir entre différentes formules et à identifier celle qui a la pertinence la plus générale : en utilisant nos données et l’intégration de la théorie, nous avons pu ‘redécouvrir’ la troisième loi de Kepler. »
Or il se trouve que cette loi est purement cinématique ; elle omet la masse des planètes, concept qui n’apparaît qu’avec Newton. Faire appel à la notion de masse pour « redécouvrir » une loi cinématique, est une démarche incongrue[18]. Au surplus, en raison de sa grande simplicité, cette troisième loi a déjà été « réinventée » par la méthode de Simon qui buta, par contre, tant sur la première que sur la seconde loi de Kepler qui sont plus universelles que la troisième.
Notre second exemple concerne la gravitation universelle de Newton. Les auteurs de cette tentative de redécouverte expliquent avoir
« (re)découvert la formule de Newton pour la force gravitationnelle à partir des trajectoires observées du soleil, des planètes et des lunes de notre système solaire, et fait des estimations précises des propriétés cachées. »
Ils précisent également :
« Bien que notre méthode nous permette de redécouvrir la formule de Newton et les masses, il est important de noter que cela n’a été possible que grâce à l’utilisation de biais inductifs, en particulier les deuxième et troisième lois de Newton et la symétrie sphérique.[19] »
Mais cette précision est insuffisante : en s’appuyant sur les deuxième et troisième lois de Newton, en faisant l’hypothèse qu’il doit y avoir « une propriété cachée » – et que la loi de la gravité en découle –on peut difficilement revendiquer avoir « redécouvert » une loi à partir des seules données de l’expérience.
Le progrès est-il fini ou pas ?[20]
L’intelligence artificielle aboutirait-elle à renouveler la méthode scientifique, à défaut de l’abolir comme le soutient Anderson ? Si oui, cela nous conduit à revisiter cette interrogation épistémologique classique : le progrès scientifique aurait-il une fin (ad finitum), ou serait-il sans fin (ad infinitum) ?
L’un des grands physiciens du XXème siècle, Richard Feynman, soutenait en 1964 que le progrès de la science est borné (ad finitum) :
« Nous avons la chance de vivre à une époque où nous faisons encore des découvertes. C’est comme la découverte de l’Amérique : on ne peut la découvrir qu’une fois. L’époque dans laquelle nous vivons est celle où nous découvrons les lois fondamentales de la nature, et ce jour ne reviendra plus jamais. C’est très excitant, c’est merveilleux, mais cet enthousiasme finira par s’arrêter. Bien sûr, à l’avenir, d’autres intérêts apparaîtront. Il y aura l’intérêt de relier un niveau de phénomène à un autre – des phénomènes en biologie, etc. Ou, si vous parlez d’exploration, peut-être explorerons-nous d’autres planètes. Mais ce ne sera toujours pas similaire à ce que nous faisons aujourd’hui. »
A l’avenir, concluait-il, nous sentirons « ce que ressentent les grands explorateurs… qui voient des touristes (déambuler) sur les terres sauvages qu’ils ont découvertes[21]».
Cette opinion est aux antipodes de celle de Popper pour qui aucune recherche n’est « définitive » et le progrès scientifique est sans fin. Aucune vérité établiene survit éternellement aux progrès de la recherche ; la science ne consisterait donc pas à résoudre des problèmes mais à aborder des questions de plus en plus complexes[22].
La thèse selon laquelle la recherche n’aura pas de fin repose sur deux prémisses. La première pose que la compréhension du réel est toujours incomplète et que le réel, s’il n’est pas infini, est certainement indéfini ce qui implique, pragmatiquement, que l’on ne puisse pas borner le savoir. La seconde prémisse pose que toute découverte nait de la confrontation entre le réel et un schéma mental qui change à chaque génération. La découverte tire aussi parti des nouveaux instruments d’observation et d’expérience afin d’améliorer et d’affiner la connaissance du réel. En reprenant l’image de Feynman, l’exploration ne se limite jamais à une seule dimension ; en termes classiques, c’est donc bien le rapport du sujet à l’objet qui fait que la recherche ne saurait avoir une fin ; elle est ainsi toujours progressive, ce que Federigo Enriques relevait fort bien dès 1907[23].
Cela soulève une autre question : celle de la dynamique propre à la recherche scientifique et du rôle des « révolutions scientifiques ». Il n’y a eu aucun changement « révolutionnaire » au cours de la période allant : pour la physique jusqu’aux années 1930 – époque de la relativité et des quanta – et jusqu’aux années 1950 pour la biologie – découverte de l’ADN – ; aucun changement de paradigme pendant plus d’un siècle !
Pour Popper, le triomphe d’une théorie scientifique ne préjuge pas de sa véracité. Cette thèse, que l’on a pu appeler l‘induction pessimiste et qui affirme qu’historiquement toutes les théories à succès ont tôt ou tard été réfutées, peut aussi être mise à l’épreuve de la scientométrie[24]. Rappelons, à cet égard que 90% des hommes de science que cette terre a portés depuis l’aube des temps vivent à notre époque ! Le volume des recherches effectuées ces dernières années est exponentiellement plus élevé que par le passé. En conséquence, si les principes fondamentaux de la physique et de la biologie n’ont pas encore été réfutés, l‘induction pessimiste, malgré sa valeur historiographique, n’est peut-être pas applicable à la science contemporaine. Pour reprendre les propos de Ludwig Fahrbach :
« tandis que les théories scientifiques du passé étaient en permanence menacées par un renversement de paradigme, les meilleures théories actuelles, largement confirmées par l’expérience au cours des récentes décennies, semblent stables dans le temps ; elles devraient donc être immunisées contre une nouvelle révolution scientifique et contre un changement de paradigme[25]. »
Si cette thèse est correcte , il en résulterait que les avancées scientifiques à venir consisteraient surtout à affiner les théories fondamentales existantes, grâce à de très puissants moyens de calcul, à une grande finesse d’observation et de mesure, plutôt qu’à les contester.
Intelligence artificielle et progrès des sciences[26]
Conséquence de l’analyse précédente : considérer que le progrès scientifique est borné (ad finitum) renforce évidemment l’idée que la quête de nouvelles lois naturelles, qui inspira la science depuis la Révolution scientifique jusqu’au milieu du XXème siècle, n’aura plus et a peut-être déjà perdu de son importance. On progresserait désormais surtout en affinant et en approfondissant les données d’observation et d’expérience. Quant au progrès théorique, il ne dépendrait plus – ou découlerait beaucoup moins – de l’invention de théories contrefactuelles, du type de cellesqui ont inspiré les grandes évolutions scientifiques. Les avancées théoriques à venir concerneraient plutôt notre capacité à extraire des données les éléments permettant de mieux expliquer ou prévoir des phénomènes. Dit autrement, l’amélioration du pouvoir de description et de prédiction sera le fruit d’une amélioration du contenu empirique plutôt que des modèles logiques eux-mêmes.
Pour reprendre la dichotomie classique introduite par Thomas Kuhn au début des années 1960 – science « révolutionnaire » et science « normale » – c’est la « science normale » qui prévaudra désormais.
Il est fort probable, selon nous, que « l’apprentissage profond » jouera un rôle-clé et croissant dans la dynamique scientifique, réduisant symétriquement la centralité, si ce n’est la nécessité, de la construction théorique.
Soyons cependant clairs : il ne s’agit pas d’une substitution épistémologique (entre démarche théorique et traitement de données) puisque l’une et l’autre contribuent à la connaissance et que leur interaction est fructueuse.
La modélisation (numérique) est un bon exemple de coopération entre apprentissage profond et recherche théorique. Max Black et Mary Hesse l’ont noté : le progrès scientifique doit beaucoup à cette modélisation, tout comme il doit beaucoup à la métaphore – c’est-à-dire au rapprochement, voire au transfert analogique d’un concept entre un domaine et un autre. Modélisation et métaphores sont deux méthodes heuristiques puissantes pour théoriser[27]. A cet égard, les algorithmes de l’IA constituent un excellent outil pour modéliser.
C’est probablement pourquoi l’intelligence artificielle et l’apprentissage profond séduisent autant les chercheurs. La Communauté scientifique et industrielle des organismes de recherche (CSIRO) a relevé que 11% des publications en sciences physiques et 4% de celles en sciences de la vie sont « imprégnées » de l’IA[28]! La modélisation et la conception des expériences se trouvent au cœur du développement de plusieurs « sciences fondamentales » (biomédical, physique et mécanique quantique p. ex.). Cela est favorable à la « science pure » dont nous disions plus haut « qu’elle est expérimentale et théorique ».
Implications pratiques pour le financement de la recherche
D’un point de vue très pragmatique, des choix s’imposent lorsque vient le moment crucial de l’attribution des budgets de la recherche publique. Soyons clairs : les sommes allouées à la science pure n’augmentent plus. Le rapport de l’UNESCO intitulé Towards 2030,publié en 2015 et révisé en 2016, tout comme celui de l’OCDE cité plus bas, en atteste :
« Le changement de priorité est clair à la vue des montants aujourd’hui alloués à la science appliquée […] Les chercheurs font plus d’efforts que jamais pour tirer de leurs découvertes fondamentales un produit ou une technologie exploitable commercialement avec un impact socio-économique potentiellement bénéfique. […] La découverte scientifique vise donc moins la recherche pure que la grande science appliquée[29]. »
Plus récemment, l’OCDE admettait elle aussi que : « Dans plusieurs pays, la recherche fondamentale progresse un peu ces dernières années dans les entreprises, alors qu’elle progresse moins dans l’Université et dans les centres publics de recherche » [30].
Cependant, il n’est guère satisfaisant que l’argent public investi dans la « science pure » doive se justifier par ses « applications futures ». On sait en effet que des savoirs fondamentaux dans des domaines comme l’astronomie ou la thermodynamique n’ont guère eu de retombée pratique pendant des décennies, voire pendant des siècles. L’horizon temporel n’est pas une donnée à prendre en compte dans les décisions de politique publique. On peut néanmoins admettre qu’il en va autrement de l’investissement public dans de nouvelles technologies nécessaires pour l’avancement des sciences – c’est-à-dire, permettant de mener à bien de nouvelles observations (en astronomie) et de nouvelles expériences (par exemple, dans la physique des hautes énergies). Dans ce cas, la dépense publique trouve une justification directe, contrairement au financement d’une recherche non ciblée.
Parallèlement, il est aussi tentant de penser qu’une société démocratique n’attribuera des ressources importantes et croissantes à la science que si ses citoyens sont en grande majorité persuadés de l’utilité du progrès technique. Mais chercher un consensus sur la base des retombées technologiques revient à affaiblir toutes les branches de la recherche dont les retombées pratiques ne sont ni certaines ni prévisibles.
A cet égard, il ne fait aucun doute que l’intérêt pour l‘apprentissage profond vient de sa capacité à résoudre des problèmes complexes liés à des applications. Et cet espoir peut attirer les budgets au détriment des « sciences pures » – comprises comme la recherche de nouvelles lois de la nature – ou des mathématiques fondamentales. Une illustration de cette tendance, d’autant plus parlante qu’elle touche directement l’intelligence artificielle nous est donnée par le Prix Turing. Fondé en 1966 ce prix a été décerné entre autres à des scientifiques tels que Marvin Minsky, Allen Newell, Herbert Simon et Stephen Cook pour leurs contributions essentielles au calcul et à l’intelligence artificielle, dans la droite ligne de l’œuvre de Turing. Or ce Prix – dont le montant est aujourd’hui élevé[31] – fut attribué en 2019 à Patrick Hanrahan & Edwin Catmull pour : « leur contribution fondamentale au calcul 3D et à l’impact ‘révolutionnaire’ de ces techniques sur l’imagerie artificielle, sur la réalisation cinématographique et sur d’autres applications ». Les retombées pratiques ont ainsi pris le pas sur la recherche fondamentale !
Remarques finales
Les considérations présentées ici sont sans lien avec le débat sur l’éventualité, pour une intelligence artificielle, de reproduire l’esprit humain. La position la plus connue en la matière est probablement celle de John Searle et, comme le savent bien les historiens de la philosophie, le débat remonte directement à Descartes et à Leibnitz dont les arguments demeurent intéressants et pertinents aujourd’hui encore. Pour ma part je crois que toute tentative pour démontrer –ontologiquement ou même méthodologiquement – l’existence de limites à la capacité pour une machine de singer l’intelligence humaine n’a pas plus de sens que l’Ignorabimus d’Émile Dubois-Raymond (1872) énonçant les sept mystères qui échapperont toujours à l’investigation scientifique. Pour les matérialistes, l’idée qu’un esprit/cerveau humain est une réalité unique et qu’il ne peut donc être reproduit ni par la nature ni par l’homme lui-même, est fausse.
Ma thèse est autre : le fait qu’il ne soit actuellement pas possible de remplacer l’imagination théorique par l’intelligence artificielle telle que nous la connaissons à ce jour ne préjuge pas d’une impossibilité de principe. Ce n’est qu’une thèse, certes pas très originale, mais elle repose sur des considérations logiques et méthodologiques, et sur notre compréhension des étapes-clé de l’histoire des sciences.
Références
Anderson, C. (2008) “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete,” Wired Magazine, https://www.wired.com/2008/06/pb-theory/.
Aspen Institute (2022) In Favor of Pure Science: A Report Pure-Science-Aspen-Institute-2022.pdf (aspeninstitute.org)
Association for Computing Machinery (ACM) https://amturing.acm.org/
Black, M. (1962) Models and Metaphors, Ithaca, N.Y., Cornell University Press.
Chen, B., K. Huang, S. Raghupathi, I. Chandratreya, Q. Du, H. Lipson (2021) “Discovering State Variables Hidden in Experimental Data” arXiv:2112.10755
Contucci, P. (2023) Rivoluzione intelligenza artificiale. Sfide rischi e opportunità, Bari, Edizioni Dedalo
Contucci, P. (2024) « Intelligenza artificiale: cos’è e quali sono le sue applicazioni », Enciclopedia Treccani, Appendice XI, Roma, Istituto dell’Enciclopedia Italiana
Cornelio, C., S. Dash, V. Austel, T.R. Josephson, J. Goncalves, K.L. Clarkson, N. Megiddo, B. El Khadir, L. Horesh (2023) “Combining data and theory for derivable scientific discovery with AI-Descartes,” Nature Communications https://doi.org/10.1038/s41467-023-37236-y
CSIRO (2022) “Artificial Intelligence for Science. Adoption trends and future development pathways,” Artificial Intelligence for Science report – CSIRO
Enriques, F. (1907) Il valore della scienza, Annuario dell’Università di Bologna, 1907-1908, Bologna, Tipografia Monti, pp. 29-55. Reprinted in F. Enriques, Scienza e razionalismo, Bologna, Nicola Zanichelli Editore, 1912, pp. 2-37.
Fahrbach, L. (2017) “Scientific Revolutions and the Explosion of Scientific Evidence,” Synthese, 194, pp. 5039-5072.
Feynman, R. (1965) The Character of Physical Laws, Cambridge, MASS. and London, MIT. Press.
Hesse, M. (1963) Models and Analogies in Science, London, Sheed and Ward.
Ippoliti, E. (2023) Guida critica alle intelligenze artificiali, Milano, Egea.
Lemos, P., N. Jeffrey, M. Cranmer, S. Ho, P. Battaglia (2022) “Rediscovering orbital mechanics with machine learning” arXiv:2202.02306 pp. 1-11https://doi.org/10.48550/arXiv.2202.02306
OCDE (2015), Frascati Manual 2015: Guidelines for Collecting and Reporting Data on Research and Experimental Development, 7th ed. Paris http://oe.cd/frascati and https://www.oecd.org/publications/frascati-manual-2015-9789264239012-en.htm.
Petroni, A.M. (1988) « Sur quelques positions récentes relatives à la logique de la découverte scientifique », Les études philosophiques, LXIII, 4, pp. 454-479.
Petroni, A.M. (1990) I modelli, lʹinvenzione e la conferma. Saggio su Keplero, la rivoluzione copernicana, e la «New Philosophy of Science», Milano, Franco Angeli.
Petroni, A.M. (1992a) “On Some Problems of the Logic of Scientific Discovery,” in W. H. Newton‐Smith, J. Tianji (eds.), Popper in China, London, Routledge.
Petroni, A.M. (1992b) “Why Have a Heuristic of Scientific Discovery?” in International Studies in the Philosophy of Science, VI, 1, pp-53-55.
Petroni, A.M. (1997) « La logica e la storia della scoperta scientifica. Una critica di modelli di H.A. Simon », Sistemi intelligenti, IX, 2, pp.193-204.
Petroni, A.M. (1999) “Formalizing Discovery, Discovering Realism,’ in R. Rossini Favretti, G. Sandri, R. Scazzieri (eds.), Incommensurability and Translation. Kuhnian Perspectives on Scientific Communication and Theory Change, Cheltenham, UK, and Northampton, MA, Elgar.
Petroni, A.M. (2020) « El concepto de progreso cientìfico hoy », Revista de Occidente,5, pp. 5-26.
Popper, K.R. (1974) “Autobiography of Karl Popper,” in P.A. Schilpp (ed.), The Philosophy of Karl Popper, vol. I, pp. 2-184, La Salle, Ill., Open Court Publishing.
Polanyi, M. (1951) The Logic of Liberty, Chicago, The University of Chicago Press.
Shils, E. A. (1947) “A Critique of Planning — The Society for Freedom in Science,” Bulletin of Atomic Scientists, III,3, pp. 80-82.
Simon, H. A. (1973) “Does Scientific Discovery Have a Logic?” Philosophy of Science, XL, 4 (1973), pp.471-480. Reprinted in Simon, Models of Discovery and Other Topics in the Methods of Science, Boston Studies in the Philosophy of Science, vol. 54, Dordrecht, D. Reidel Publishing Co., 1977, pp.326-335
Simon, H. A. (1998) « La logica della scoperta: una critica delle posizioni di Petroni », Sistemi intelligenti, X,1, pp.137-144.
The Economist (2023) “How Artificial Intelligence can revolutionise science.”14 septembre.
UNESCO (2015), Science Report: towards 2030.
[1] Shils 1947, pp. 80-81.
[2] NdE : notion précisée par l’auteur in : JdL n°8, pp. 51-52.
[3] NdT : Expression française pour Big Data.
[4] NdT : notre traduction d’Anderson (2008) cité en anglais par l’auteur .
[5] NdT : Expression française pour « Deep learning ».
[6] NdT : Stanislas Dehaene, professeur émérite au Collège de France, explique ainsi la méthode bayésienne qui fut inspirée par Laplace: « dans le monde réel, les observation sont…incertaines, probabilistes ; (Bayes et Laplace) nous ont dit… comment raisonner… lorsque les données ne sont pas parfaites mais probables, afin de remonter aux causes probables de nos observations ! » in : S. Dehaene : Apprendre ! Talents du cerveau, défi des machines, O. Jacob, Paris (2018), p. 89. Consacré à Pierre-Simon Laplace, le Hors-série n° 88 de la Revue Tangente (déc. 2023) résume l’œuvre magistrale de ce « philosophe du hasard » qui associa subtilement le « déterminisme » aux « probabilités » (articles de Bertrand Hauchecorne & Jean Dhombres, pp. 36-41).
[7] Simon, 1973, p. 327.
[8] C’est en tous les cas sur cette procédure que furent développés les modèles d’IA de Simon et ceux de son école, afin de redécouvrir quelques-unes des grandes lois de l’histoire des sciences, celles de Kepler, de Coulomb ou de Krebs, par exemple.
[9] NdE : Dans l’article précité, l’auteur explique ce qu’il doit à Simon et ce qui le distingue de ce maître qu’il respecte : cf. JdL n°8, pp. 53-56.
[10] Simon (1998) ; Petroni (1988, 1992 a & b, 1997, 1998,) et Ippoliti, (2023).
[11] NdT : c’est-à-dire, discontinues voire corpusculaires.
[12] NdT : c’est-à-dire : orientée dans l’espace.
[13] cf. Woodward (2014) pour une synthèse sur leur interprétation des lois et des modèles (nomographie).
[14] Pas même les « calculatores » du collège Melton d’Oxford, au XIVème siècle.
[15] Petroni (1999).
[16] Petroni (2000).
[17] Chen & al. (2021). Les auteurs expliquent que « Toutes les lois physiques sont décrites comme des relations entre des variables d’état qui donnent une description complète et non redondante de la dynamique du système concerné ». Contucci (2024) écrit : « En science, l’utilité de l’IA en tant qu’outil est énorme, mais il n’existe toujours pas d’intelligence artificielle capable de découvrir des théories physiques à partir de données expérimentales, ni de proposer des fragments de théories ou des modèles. Les rapports sensationnalistes sur l’IA brodent autour de maigres résultats, mal digérés. En mathématiques, l’IA a permis des conjectures que des mathématiciens ont ensuite démontrées. » Contucci ajoute que l’IA peut aider concrètement la découverte scientifique telles les simulations numériques qui, depuis un demi-siècle, ont fait des merveilles, en chimie organique, par exemple! L’apprentissage profond court-circuite également l’étude analytique des protéines et des molécules pharmaceutiques (conversation avec l’auteur de l’article).
[18] Cf. Cornelio et al. (2021).
[19] P. Lemos et al. (2022).
[20] NdE : l’auteur complète ici sa thèse exposée in : JdL n°8, pp. 61 sq.
[21] Feyman (1965, p. 172).
[22] Popper (1974) ; publication intitulée « Une quête sans fin » (n. traduction).
[23] Enriques (1907).
[24] NdT : La bibliométrie mesure l’occurrence livresque d’un thème ou d’un sujet quelconque ; la scientométrie, de même, mesure l’occurrence d’un propos scientifique dans la littérature. Ces deux méthodes sont très proches.
[25] Fahrbach (2017), p. 5070.
[26] NdE : l’auteur rebondit ici sur l’exposé antérieur : JdL n°8, pp. 58 sq.
[27] Hesse (1963) & Black (1962).
[28] CSIRO (2022), The Economist (2023). Contucci (2023) en donne une vision d’ensemble.
[29] UNESCO, 2015, p. 55.
[30] OCDE, STI scoreboard, 2017 & Aspen Institute, 2022.
[31] NdT : Il est aujourd’hui doté d’un million de dollars versé par Google-Alphabet.
*Adapté de l’italien, avec l’accord de l’auteur. Cet article prolonge et complète l’article du Pr. Petroni : « L’idée de progrès scientifique aujourd’hui » publiée pp. 47-64, n°8 du Journal des Libertés (printemps 2020). Titrage de la rédaction. Les notes de l’éditeur (NdE) et du traducteur (NdT) complètent celles de l’auteur qui renvoie à sa bibliographie finale. NB : le terme « intelligence artificielle » est parfois abrégé en IA au fil de ce texte.