13/02/2011
Fondements des mathématiques
La fondation, ou les fondements, des mathématiques sont les principes sur lesquels est établie cette science. Le logicisme a été prôné notamment par Gottlob Frege et Bertrand Russell. La mathématique pure présente deux caractéristiques : la généralité de son discours –- la considération des particuliers existants est exclue -- et la déductibilité du discours mathématique –- les inférences qui structurent le discours mathématique sont des implications formelles (elles affirment non pas les propositions elles-mêmes, mais la nécessité de leur connexion) --. En ce que le discours mathématique ne prétend qu’à une vérité formelle, il est possible de réduire les mathématiques à la logique, les lois logiques étant les lois du « vrai ». Par exemple, la définition logique du nombre, loin d’être réduite à l’opération concrète de dénombrement d’objets, consiste en la référence à l’égalité numérique de deux classes (deux classes ont le même nombre s’il est possible d’instaurer entre leurs éléments respectifs une relation bijective). Le logicisme a rencontré néanmoins, à ses débuts, de réelles difficultés en tant qu’il s'engage ontologiquement par rapport aux classes. La théorie des classes avait conduit à desparadoxes logiques maintenant résolus mais qui avaient mis au jour la nécessité de clarifier les axiomes. Le formalisme soutenu par David Hilbert : les mathématiques se présentent comme une pure construction de l’esprit. La tâche des mathématiciens est de déduire des théorèmes à partir d’axiomes qui ne sont ni vrais ni faux. La validité ne repose plus que sur la structure des énoncés, et non sur la nature de ce dont ils parlent. La vérité des mathématiques est réduite à leur cohérence interne, la non contradiction des propositions. Le débat sur cette conception formaliste a été relancé par le théorème d'incomplétude de Gödel qui affirme que tout système formel cohérent et récursif contenant l'arithmétique, possède une proposition valide (ou disons « vraie ») qui n’est ni démontrable, ni réfutable. L’intuitionnisme défendu de manière paradigmatique par Brouwer : les mathématiques ont un fondement intuitif. Sans l’intuition, la logique s’avère stérile. Défendre une conception intuitionniste a des conséquences importantes. Ainsi, selon la logique intuitionniste, on ne peut pas éliminer la double négation (ce que fait la logique classique) : « non non p » ne se réduit pas à « p ». Il s’ensuit que « non p ou p » n'est pas un théorème. Ces refus sont justifiés par le fait qu'en logique intuitionniste « q implique r » signifie que « d'une démonstration de q je peux construire une démonstration de r », or l'affirmation « non non p implique p» ne permet pas de construire une démonstration de p à partir d'une démonstration de « non nonp ». Brouwer concevait l'intuitionnisme comme un positionnement philosophique sur les mathématiques et a acueilli avec scepticisme sa formalisation donnée ultérieurement par Arend Heyting[réf. nécessaire]. L’œuvre de Hilbert est très représentative de la crise des fondements qui s’est produite en mathématiques pendant le XIXe et au début du xxe siècle. Hilbert, comme d’autres logiciens et mathématiciens de son temps, s’est rendu compte que la géométrie euclidienne était incomplète, pas au sens où l’axiome des parallèles n’y est pas déductible, mais parce que tous les géomètres depuis Euclide se servent dans leurs preuves d’axiomes qui n’avaient jamais été explicités. À la suite des travaux de Pasch, Hilbert a donné une formulation presque complète de la géométrie euclidienne, dans son livre Les Fondements de la géométrie, pour laquelle aucun axiome géométrique n’était laissé dans l’ombre. Ce programme de fondation de la géométrie n’était cependant pas achevé pour deux raisons. D’une part, les règles de raisonnement admises étaient encore laissées dans l’ombre.[réf. nécessaire] D’autre part, un des axiomes de la géométrie, relatif à la continuité de l’espace, posait des problèmes d’interprétation associés à ceux de la définition des nombres réels et de la théorie des ensembles de Cantor. L’analyse, que l’on peut aussi appeler calcul infinitésimal, ou calcul différentiel et intégral, repose maintenant sur la définition de l’ensemble des nombres réels. Depuis les découvertes de Newton et Leibniz, il avait fallu sortir du cadre des Éléments d'Euclide. Les mathématiciens du XIXe siècle, notamment Cauchy et Weierstrass, pour l'analyse proprement dite, puis Dedekind et Cantor ont donné une formulation précise de principes qui permettent de raisonner avec rigueur et exactitude sur les nombres réels. Ceux-ci sont définis par Dedekind comme des ensembles de nombres rationnels. Peano a donné des axiomes et des méthodes formelles pour développer d’une façon logiquement rigoureuse l’arithmétique et celle-ci suffit pour fonder la théorie des nombres rationnels. La théorie des ensembles de Cantor, qui n'était pas vraiment formalisée, semblait cependant le cadre idéal, paradisiaque selon l’expression de Hilbert, pour fonder l’analyse et plus généralement les mathématiques. Frege, de son côté avait donné des règles formelles précises et explicites pour une théorie logique qui devait permettre de fonder les mathématiques. On pouvait espérer une base solide. Mais cette base n'a pas tardé à montrer ses faiblesses. La découverte du paradoxe de Burali-Forti (l'ensemble de tous les ordinaux est bien ordonné, ce bon ordre est supérieur à tous les ordinaux, donc à son propre ordinal), puis celle du paradoxe de Russell, proche sur le principe mais nettement plus simple (l'ensemble des ensembles qui ne s'appartiennent pas à eux-mêmes est un ensemble, il ne peut ni s'appartenir, ni ne pas s'appartenir à lui-même), montrent l'incohérence de ces deux théories (Russell a donné son paradoxe initialement pour la théorie de Frege). Des solutions pour éviter ces paradoxes furent rapidement trouvées. L'une, initiée par Russell, et développée dans les Principia Mathematica, stratifie les prédicats grâce à la notion detype : on ne peut plus écrire qu'un ensemble appartient à lui-même. L'autre, initiée par Zermelo, restreint la définition des ensembles par compréhension, c'est-à-dire par une propriété de ses éléments : la propriété de ne pas appartenir à soi-même ne définit plus un ensemble. Mais pouvait-on s'assurer que l'on ne puisse pas dériver de nouveaux paradoxes dans ces théories ? Pour répondre à la crise des fondements des mathématiques, Hilbert avait conçu un programme dont il établit les prémisses en 1900 dans l'introduction à sa célèbre liste de problèmes, le second problème étant justement celui de la cohérence de l'arithmétique. Il développe ce programme avec ses collaborateurs, parmi lesquels Bernays et Ackermann, essentiellement dans les années 1920. L'idée est grossièrement la suivante. Tant que l'on manipule le fini, les mathématiques sont sûres. L'arithmétique élémentaire (en un sens qui doit se préciser) est sûre. Pour justifier l'utilisation d'objets abstraits ou idéaux, en particulier infinis, il suffit de montrer que la théorie qui les utilise est cohérente, mais bien sûr cette cohérence doit elle-même être démontrée par des moyens finitaires. On peut alors affirmer l'existence de ces objets. C'est la position formaliste (à ne pas confondre avec le finitisme qui considère que seules les constructions directement finitaires ont un sens). Le système dans lequel on pourrait formaliser les mathématiques finitaires n'est pas clair. À l'époque, il semble que Hilbert pensait, sans l'avoir explicitement formalisé, à un système plus faible que l'arithmétique de Peano, l'arithmétique primitive récursive : toutes les définitions de fonctions récursives primitives sont dans le langage, la récurrence est restreinte aux formules sans quantificateurs (disons aux égalités pour faire simple), donc très immédiate. Peu importe en fait : le second théorème d'incomplétude de Gödel, montre que l'on ne pourra même pas prouver dans la théorie arithmétique en question sa propre cohérence, et donc certainement pas celle de théories plus fortes qui assureraient la fondation des mathématiques. Le programme de Hilbert n'est donc pas réalisable, en tout cas pas sans une révision drastique. Des logiciens comme Gentzen, et Gödel lui-même, ont pensé à rétablir ce programme en étendant la notion de méthodes finitaires, celles-ci ne pouvant cependant pas être définies une fois pour toutes par une théorie toujours à cause du second théorème d'incomplétude. Ainsi Gentzen a donnée en 1936 une preuve de cohérence de l'arithmétique de Peano dans un système forcément plus fort, où l'on raisonne par induction sur un ordre bien fondé (dénombrable mais plus grand que l'ordre des entiers), mais où l'induction est cependant restreinte à des formules sans quantificateurs, donc plus "immédiate". Si l'intérêt mathématique des méthodes mise en œuvre par Gentzen ne fait aucun doute, l'interprétation de ses preuves de cohérence, en tant que preuves "absolues" (ce sont bien sûr indubitablement des preuves de cohérence relative) reste très discutable. Il reste que, malgré son échec, le programme de Hilbert a joué un rôle décisif dans le développement de la logique mathématique moderne. Il ne faudrait pas confondre formalisme, et méthode formelle. La méthode formelle est essentielle pour comprendre les mathématiques contemporaines. Définir une théorie formelle, c'est : Définir une théorie de façon formelle est essentiel pour en donner des propriétés : cohérence ou incohérence, complétude ou incomplétude etc. Tant qu’on a pas formalisé une théorie, on ne sait pas exactement si une formule appartient ou non à la théorie. Les règles de déduction de la logique traditionnelle sont désormais complètement connues et formalisées au sein de la logique mathématique. Toutes les connaissances mathématiques peuvent être prouvées avec ces règles et des axiomes convenablement choisis. C'est probablement dans cette catégorie que l'on doit classer les mathématiques à rebours d'Harvey Friedman. Les mathématiques actuelles sont basées sur la notion d' ensemble. En fait, tout objet mathématique ou presque peut être défini comme un ensemble. Par exemple, « 23 » peut être défini comme un certain ensemble qui contient 23 éléments. (voir à ce sujet l'article sur la construction des entiers naturels). Avec de telles définitions, ou d’autres semblables, toutes les connaissances mathématiques peuvent être prouvées à l’intérieur d’une théorie des ensembles. Leurs axiomes peuvent être considérés comme les principaux fondements des mathématiques (avec les règles de déduction du calcul des prédicats au premier ordre). Plusieurs systèmes d’axiomes ont été proposés : Parmi les mathématiciens, certains se contentent des axiomes ZF, et refusent l'axiome du choix (C), car ils considèrent que certaines de ses implications sont contre-intuitives. Certains mathématiciens refusent même ZF et la logique classique qui en est la base, car ils considèrent que tout doit être construit explicitement; c'est la raison pour laquelle on les appelleconstructivistes ou intuitionnistes.Fondements des mathématiques
Les points de vue sur la nature des mathématiques[modifier]
Le logicisme[modifier]
Le formalisme[modifier]
L'intuitionnisme[modifier]
Les fondements de la géométrie[modifier]
Les fondements de l’analyse et la théorie des ensembles[modifier]
Le programme de Hilbert[modifier]
La méthode formelle[modifier]
Les théories des ensembles[modifier]
De même, peut être construit à partir d'ensembles comme suit :
D'autres formalismes[modifier]
Bibliographie[modifier]
Voir aussi[modifier]
Références[modifier]
Sommaire[masquer] |
08:50 | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook
Les commentaires sont fermés.