Une étude combinant l'épistémologie, la didactique des sciences et certaines démarches pratiques d'enseignement dans les classes du primaire et du secondaire. Après avoir souligné l'intérêt de la philosophie des sciences pour la transmission du savoir scientifique, l'auteur explore les moyens et les méthodes permettant de renouveler les approches pédagogiques classiques en la matière.
Dans cet ouvrage, Franck Varenne pose la question du réalisme scientifique, essentiellement dans sa forme contemporaine, et ce jusqu'aux années 1980. Il s'est donné pour cela la contrainte de focaliser l'attention sur ce que devenaient sa formulation et les réponses diverses qu'on a pu lui apporter en réaction spécifique à l'évolution parallèle qu'ont subie les notions de théories et surtout de modèles dans les sciences, à la même époque. Même si, bien sûr, on ne peut pas attribuer le considérable essor des modèles au XXe ?siècle au projet qu'auraient eu les scientifiques de régler cette question, en grande partie philosophique, du réalisme - car les modèles scientifiques ont bien d'autres fonctions et ils proviennent de bien d'autres demandes techniques, cognitives et sociales -, son choix épistémologique a consisté à suivre la littérature contemporaine désormais classique, tant scientifique que philosophique, sur les théories puis sur les modèles afin d'une part, d'en rapporter l'évolution générale, mais, d'autre part aussi, afin de l'interroger de proche en proche, et systématiquement, sur ce qu'elle entend à chaque fois réévaluer ou remettre en débat au moyen de cette question persistante du réalisme et de la réalité en science. Au-delà de l'enquête historique, cette étude se révèle donc également comparative. Elle présente l'intérêt de mettre en évidence des similitudes de forme remarquables (identités, symétries, inversions, déplacements) entre des séquences argumentatives produites par des auteurs différents, dans des contextes distincts, au sujet de cette capacité qu'aurait - ou non - la science à rendre véritablement compte de la réalité.
Ainsi, via l'analyse épistémologique historique et comparative qu'en propose Franck Varenne, la question cruciale de la médiation du réel par nos outils conceptuels ou expérientiels reçoit dans ce livre l'éclairage d'auteurs dont les conceptions sont, pour certaines encore, méconnues du lecteur non anglophone : Peter Achinstein, Max Black, Ludwig Boltzmann, Nancy Cartwright, Pierre Duhem, Ian Hacking, Mary Hesse, Evelyn Fox Keller, Imre Lakatos, Ernst Mach, Ernest Nagel, Henri Poincaré, Willard V.O. Quine, Bas van Fraassen, etc.
Depuis la célèbre fiction forgée par Laplace en 1814 dans ses Essai philosophique sur les probabilités - dite du démon de Laplace, abondamment commentée dans ce Matière première -, qui voit une intelligence infinie calculer selon certaines lois tous les états du monde, le déterminisme est un cadre central de la connaissance scientifique. Pourtant, de nombreux débats parcourent cette idée. Existe-t-il un seul paradigme déterministe, dont les modifications seraient en fait des variantes, ou faut-il pluraliser les déterminismes selon les sciences (biologiques, historiques et sociales, etc.) et les positionnements philosophiques ? Face aux limites des modèles déterministes et du cadre laplacien, qu'il s'agisse de mécanique classique, de mécanique quantique, de biologie, des sciences humaines ou de philosophie, doit-on accepter l'écart entre l'horizon de notre connaissance et sa mise en pratique, éventuellement en nuançant l'idéal laplacien, ou faut-il au contraire tenter de dépasser tout paradigme déterministe ? Tombe-t-on alors nécessairement dans l'indéterminisme ontologique, comme on l'a souvent affirmé précipitamment ? Enfin, philosophiquement, quelles sont les implications d'un déterminisme conséquent, en particulier sur le plan moral ?
Ce numéro de Matière première aborde d'une manière multiple et interdisciplinaire ces questions. Il articule des enjeux scientifiques, épistémologiques et philosophiques autour de la tension entre le déterminisme, ses critiques et l'indéterminisme. Epistémologues, historiens des sciences (naturelles et humaines), scientifiques et philosophes font le point sur les approches classiques et proposent de nouvelles perspectives.
A l'ère des neurosciences et de leur numérisation massive, la détermination des structures fines du cerveau et la compréhension de son fonctionnement sont devenues des enjeux de premier ordre. Dans ce contexte, l'IRM s'est imposée comme une technique reine. Grâce à elle, le cerveau s'offre au regard, dévoilant arcanes et tréfonds scintillants... La visualisation des processus cognitifs via des images spectaculaires, qui fascinent les chercheurs autant que le public, engendre une nouvelle relation à notre corps pensant et agissant. Mais que sont ces objets numériques d'un nouveau genre?? Comment ces images sont-elles acquises, sur quelles bases techniques et par quels protocoles?? Et quel projet anime ceux qui établissent des atlas de référence, dessinant un cerveau pixelisé dans lequel tous les autres doivent se fondre??
Pour le savoir, Giulia Anichini s'est immergée plusieurs années durant dans deux centres de recherche en imagerie où elle a pu observer les pratiques et les savoir-faire, décrire les implicites. Partant des lieux et des acteurs de ces pratiques, de leur environnement matériel, elle décrit les méthodes d'acquisition des images, leurs transformations successives et les bricolages informatiques mis en oeuvre pour sauver des résultats pas toujours probants. Elle montre comment les banques de données saturées d'images obtenues selon des choix techniques et théoriques hétérogènes constituent désormais une extension inéluctable du laboratoire de neuro-imagerie, où s'élabore une science data driven prétendument affranchie de la théorie. L'accumulation de ces résultats à la fiabilité pas toujours assurée n'est pas neutre, notamment par ses implications dans le champ des neurosciences sociales, quand les émotions dites morales tracent leur géographie dans le «?cortex numérique?».
Entre enquête ethnologique, sociologie des sciences et analyse épistémologique, Giulia Anichini propose ici une vision inédite des neurosciences, de leurs présupposés, leurs conjectures et leurs ambitions
Modèles analogiques, modèles mathématiques, multimodélisations, simulations numériques, simulations à base d'objets ou à base d'agents, simulations hybrides, simulations multi-échelles, multi-aspects ou multi-physiques... Cet ouvrage entreprend de faire le point sur la variété des techniques contemporaines de modélisation et de simulation en sciences. Le paysage a sensiblement évolué ces dernières années et la variété des pratiques s'est accentuée. À partir de l'essor des approches individus-centrées et des approches orientées-objets ou fondées sur des agents informatiques, par exemple, les simulations n'ont plus toujours été conçues comme des calculs approchés de modèle mathématique mais aussi parfois comme des systèmes de représentations à visée plus ou moins réaliste. À côté des approches de simulations numériques toujours plus fines et puissantes, on parle ainsi de laboratoire virtuel, d'observatoire virtuel ou encore d'expérimentation in silico. Dans ce cadre-là, le statut épistémologique des simulations a de nouveau été activement interrogé. Autre déplacement notable dû à ce changement des outils et des pratiques : les modèles, sous le nom de « modèles de simulation », n'apparurent plus nécessairement comme appelés à demeurer simples, en tout cas au sens où les méthodologies de naguère semblaient l'exiger de manière définitive.L'objectif de cet ouvrage est de se faire l'écho de ces bouleversements, de ces déplacements et de ces interrogations multiples de manière à donner au lecteur - tant scientifique ou philosophe que curieux des nouveaux agencements de ces pratiques scientifiques - certaines des pistes de réflexion et d'analyse qui paraissent les plus représentatives ou les plus prometteuses en ce domaine.Ce tome 1 de Modéliser & simuler est divisé en deux grandes parties. La première rassemble onze contributions de nature épistémologique, émanant de philosophes des sciences ou de scientifiques modélisateurs. La seconde partie présente vingt-deux chapitres de nature plus proprement méthodologique et applicative écrits par des scientifiques modélisateurs elle est subdivisée en trois sous-parties dont la justification est, quant à elle, classique puisque résolument disciplinaire, et cela même si la modélisation a justement parfois pour effet de brouiller les frontières disciplinaires[2.1] Physique, sciences de la Terre et de l'Univers, [2.2] Sciences du vivant, [2.3] Sciences sociales. Cette classification disciplinaire par défaut a le double avantage de donner un premier outil d'orientation au lecteur plus familier des objets que des méthodes et aussi de lui donner d'emblée l'idée de l'extrême étendue du spectre des domaines scientifiques où ces pratiques contemporaines se multiplient effectivement et se croisent. Ces parties sont assez équilibrées entre elles. Elles contiennent chacune entre 6 et 9 chapitres. Elles sont elles-mêmes ordonnées en fonction de l'échelle ou du niveau d'intégration croissant ou décroissa
Modèles analogiques, modèles mathématiques, multimodélisations, simulations numériques, simulations à base d'objets ou à base d'agents, simulations hybrides, simulations multi-échelles, multi-aspects ou multi-physiques... Cet ouvrage entreprend de faire le point sur la variété des techniques contemporaines de modélisation et de simulation en sciences. Le paysage a sensiblement évolué ces dernières années et la variété des pratiques s'est accentuée. À partir de l'essor des approches individus-centrées et des approches orientées-objets ou fondées sur des agents informatiques, par exemple, les simulations n'ont plus toujours été conçues comme des calculs approchés de modèle mathématique mais aussi parfois comme des systèmes de représentations à visée plus ou moins réaliste. À côté des approches de simulations numériques toujours plus fines et puissantes, on parle ainsi de laboratoire virtuel, d'observatoire virtuel ou encore d'expérimentation in silico. Dans ce cadre-là, le statut épistémologique des simulations a de nouveau été activement interrogé. Autre déplacement notable dû à ce changement des outils et des pratiques : les modèles, sous le nom de « modèles de simulation », n'apparurent plus nécessairement comme appelés à demeurer simples, en tout cas au sens où les méthodologies de naguère semblaient l'exiger de manière définitive.L'objectif de cet ouvrage est de se faire l'écho de ces bouleversements, de ces déplacements et de ces interrogations multiples de manière à donner au lecteur - tant scientifique ou philosophe que curieux des nouveaux agencements de ces pratiques scientifiques - certaines des pistes de réflexion et d'analyse qui paraissent les plus représentatives ou les plus prometteuses en ce domaine.Ce tome 1 de Modéliser & simuler est divisé en deux grandes parties. La première rassemble onze contributions de nature épistémologique, émanant de philosophes des sciences ou de scientifiques modélisateurs. La seconde partie présente vingt-deux chapitres de nature plus proprement méthodologique et applicative écrits par des scientifiques modélisateurs elle est subdivisée en trois sous-parties dont la justification est, quant à elle, classique puisque résolument disciplinaire, et cela même si la modélisation a justement parfois pour effet de brouiller les frontières disciplinaires[2.1] Physique, sciences de la Terre et de l'Univers, [2.2] Sciences du vivant, [2.3] Sciences sociales. Cette classification disciplinaire par défaut a le double avantage de donner un premier outil d'orientation au lecteur plus familier des objets que des méthodes et aussi de lui donner d'emblée l'idée de l'extrême étendue du spectre des domaines scientifiques où ces pratiques contemporaines se multiplient effectivement et se croisent. Ces parties sont assez équilibrées entre elles. Elles contiennent chacune entre 6 et 9 chapitres.
Il y a trente-cinq ans paraissait en France l'importante synthèse dirigée par Pierre Delattre et Michel Thellier : Elaboration et justification des modèles. Depuis cette date, que de chemins parcourus ! La simulation a pris un poids considérable. Sa pratique n'est plus seulement numérique. L'approche objets, la simulation à base d'agents, la simulation sur grille, le calcul parallèle se sont développés.
La diversité des pratiques s'est donc considérablement accrue, essentiellement à la faveur de l'enrichissement des possibilités offertes par la computation. Si cette augmentation de la diversité a pu apparaître comme occasionnant un morcellement des pratiques de modélisation, on ne peut oublier qu'elle a été accompagnée d'une tendance inverse : l'intégration de différents types de sous-modèles dans des systèmes uniques de simulation.
Reste que la puissance calculatoire des ordinateurs, la diversité des modes de simulation, l'amplification du phénomène " boîte noire " impliquée par ces deux facteurs, ont pu concourir à un effet de " sidération " devant l'effectivité de ces expériences in silico. Une forme de " scepticisme computationnel " doit alors être à l'oeuvre pour s'en prémunir. Il fallait tâcher de rendre compte de ces mouvements riches et en partie contradictoires.
Il fallait tâcher d'en proposer des analyses épistémologiques en profitant des progrès de la philosophie des sciences sur la notion de modèle, fruits d'inflexions importantes qui ont également eu lieu dans cette discipline au cours des dernières décennies depuis l'analyse des théories scientifiques vers l'examen des modèles. Les 23 chapitres du tome 2 de Modéliser & simuler entendent compléter le vaste état des lieux commencé dans le tome 1 en mettant en valeur des disciplines et des approches qui n'y étaient pas représentées, par exemple la modélisation matérielle en physique, la modélisation formelle et la simulation en chimie théorique et computationnelle, en architecture ou encore en ingénierie et dans les sciences de la conception.
Épistémologie française, cela peut signifier deux choses. C'est d'une part une entité géographique (l'ensemble des épistémologues de langue et de culture française), d'autre part le nom d'une forme de pensée spécifique, qui affirme la solidarité de problèmes (allant de la théorie des fondements de la connaissance à la philosophie des sciences) que d'autres traditions tendent à dissocier.
Les études rassemblées ici ont un double objectif. Le premier est d'identifier les écoles de pensée et les institutions. L'attitude adoptée par des penseurs français tels que Pierre Duhem, Henri Poincaré, Louis Rougier relativement au positivisme est étudiée, mais aussi l'influence d'auteurs tels que ce même Duhem et Emile Meyerson sur la philosophie américaine des sciences (Quine, Kuhn). Sont aussi examinés les auteurs qui ont établi un dialogue entre épistémologie et histoire des sciences, et les institutions qui ont favorisé ce dialogue.
Le second objectif a trait aux grandes figures de la philosophie des sciences en France. On examine d'abord les auteurs qui ont présenté des vues générales sur la science, avant et après l'apparition du mot « ?épistémologie » : Auguste Comte, Antoine-Augustin Cournot, Claude Bernard, Gaston Bachelard. Puis sont considérées les contributions à la philosophie des sciences spéciales? : logique et mathématiques (Jacques Herbrand, Jean Nicod, Jean Cavaillès), sciences physiques et chimiques (Henri Poincaré, Emile Meyerson, Alexandre Kojève, Jean-Louis Destouches), biologie et médecine (Félix Ravaisson, Georges Canguilhem), enfin le droit (Charles Eisenman).