« La philosophie des sciences formelles face à l’IA », avec Baptiste Mélès, Alberto Naibo et Carina Prunkl
« La philosophie des sciences formelles face à l’IA », avec Baptiste Mélès (Université de Lorraine, Alberto Naibo (Université Paris 1 Panthéon-Sorbonne), et Carina Prunkl (University of Oxford)
Samedi 17 janvier 2026, 15 h – 18 h
au Centre Panthéon, 12 place du Panthéon, Paris 5e, salle 6
Inscription obligatoire (voir ci-dessous)
Depuis quelques années, on assiste à un développement et à une utilisation croissante des techniques dites d’intelligence artificielle (IA). Celles-ci reposent sur des méthodes statistiques appliquées à de vastes bases de données, dans le but de produire des programmes informatiques capables d’exécuter des tâches complexes, traditionnellement considérées comme relevant de l’activité proprement humaine (écriture, conversation, catégorisation). Lors de cette table ronde, nous chercherons à comprendre dans quelle mesure ces techniques d’IA invitent également à repenser certaines questions fondamentales de la logique et de la philosophie des sciences formelles.
Nous suivrons principalement deux axes de réflexion.
D’une part, les techniques statistiques en question – souvent désignées sous le nom d’« apprentissage automatique » – sont fréquemment opposées aux approches de la « vieille IA », fondées sur la logique symbolique (d’où l’expression « IA symbolique » pour désigner ces approches). On pourrait alors supposer que l’apprentissage automatique s’applique surtout à des tâches où les approches logico-déductives trouvent leurs limites. Pourtant, de fait, l’apprentissage automatique est également employé dans des domaines traditionnellement associés à la logique, comme le raisonnement ou la démonstration. Quelle place la logique conserve-t-elle alors face à l’IA ? L’IA conduit-elle à transformer notre compréhension de certaines notions traditionnellement liées à la logique, comme celles de preuve ou de vérification ?
D’autre part, si les tâches accomplies par les systèmes d’IA peuvent être rapprochées de certaines activités humaines – soit parce qu’elles leur sont comparées, soit parce qu’elles viennent les compléter –, il devient légitime d’évaluer ces tâches. Plus précisément, il convient de s’interroger sur les valeurs à l’aune desquelles ces tâches peuvent être jugées : valeurs épistémiques (comme la correction ou la fiabilité), mais aussi valeurs éthiques (comme la fairness ou la privacy). Or, puisque le fonctionnement de l’IA repose sur des techniques mathématiques et sur la numérisation des données, on s’attend à ce que ces valeurs puissent elles aussi faire l’objet d’un traitement mathématique. Se pose alors la question de leur formalisation : une telle démarche implique-t-elle de les rendre mesurables et exprimables en termes de score ? Et plus généralement, dans quelle mesure une entreprise de formalisation de ce type est-elle philosophiquement légitime ?
Inscription obligatoire (aussi bien pour l’accès à la salle que pour la visioconférence) au plus tard le 14 janvier via ce formulaire.