Tutoriels
Plate-Forme Intelligence Artificielle 2026 du 29 juin au 03 juillet à Arras, France
Conférences disponibles
06
Intervenants
18
Tutoriels
Présentation
PFIA 2026 invite des propositions de sessions tutorielles. Les tutoriels seront organisés du 29 juin au 5 juillet 2026, pour une durée d'environ 2h30.
La participation aux tutoriels est gratuite pour tous les participants à la conférence PFIA 2026.
Objectifs
Les tutoriels doivent servir un ou plusieurs des objectifs suivants:
- Initier les novices aux principaux thèmes de l’intelligence artificielle.
- Introduire des experts non spécialistes dans un sous-domaine de l’IA.
- Motiver et expliquer un sujet d’importance émergente pour l’IA.
- Enquêter sur un domaine mature de recherche et/ou applicatif de l’IA.
- Fournir des instructions sur les méthodologies d’IA établies mais spécialisées.
- Présenter une nouvelle synthèse sur un sous-domaine de l’IA.
Les tutoriels sont destinés à couvrir de manière équilibrée des connaissances raisonnablement bien établies. Les tutoriels ne doivent pas être utilisés pour préconiser une seule voie de recherche, ni promouvoir un produit. Nous promouvons des tutoriels avec une composante pratique ou un autre élément interactif.
Liste des tutoriels acceptés
GALACTIC : une nouvelle plateforme pour du clustering sémantique
Date : 29/06/2026 (après-midi)
Description :
Ce tutoriel présente la nouvelle version de la plateforme GALACTIC qui propose des solutions novatrices de clustering sémantique de données complexes et hétérogènes. Issue de l’Analyse Formelle des Concepts, cette plateforme s’appuie sur les propriétés algébriques des connexions de Galois ainsi que sur des espaces de descriptions convexes. GALACTIC constitue une alternative aux méthodes numériques classiques fondées sur des plongements vectoriels. En effet, préserver la sémantique intrinsèque des données permet de garantir l’explicabilité des résultats, et de placer l’analyste au cœur de l’interprétation de ses données dans un processus interactif rendu possible par cette explicabilité.
Intervenants :
- Karell Bertet, La Rochelle Université
- Christophe Demko, La Rochelle Université
- Axel Jean-Caurant, La Rochelle Université
An introduction to the formal verification of neural networks
Date : 30/06/2026 (matin)
Description :
As machine learning systems become increasingly integrated into our everyday lives, ensuring their safety becomes even more crucial. Formal verification can provide guarantees in a provable way, making it a good candidate to assess whether a neural network behaves as expected. This tutorial will introduce the application of formal verification techniques to neural networks. It will first explore the reasons why formal methods are a crucial step towards AI systems’ safety. Then, formal properties, such as robustness and functional properties, will be introduced on an industrial example (ACAS-XU). An emphasis on the different steps of the formal verification will be made: definition of the property on a system, translation to a specification language, and its effective verification. Verification techniques will be introduced, with a focus on abstract interpretation. Then, state-of-the-art verification tools will be introduced, and the remaining part of the tutorial will be a practical session with one of them: PyRAT. This tutorial will be concluded by open research questions regarding the efficient verification of properties and their formalisation.
Intervenants :
- Julien Girard-Satabin, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France
- Sasha Cuau, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France
- Guilhem Ardouin, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France
Système multi-agents et IA agentique: de quoi parle-t-on vraiment?
Date : 30/06/2026 (après-midi)
Description :
Un système multi-agents est composé de multiples entités de calcul autonomes, appelées agents, en interaction, situés dans un environnement qui prennent part à une organisation. L'IA agentique est une architecture logicielle dans laquelle l'utilisateur délègue des tâches complexes à des agents autonomes propulsés par de grands modèles de langage (Large Language Models, LLM). Ces agents ne se contentent pas de répondre à une simple invite, mais perçoivent et agissent sur leur environnement grâce à des outils externes, planifient des actions et interagissent avec d'autres agents. Ce tutoriel rappelle en premier les concepts et notions de base des systèmes multi-agents. Ensuite, les principes fondamentaux de l'IA agentique, dans laquelle des agents autonomes basés sur des grands modèles de langue perçoivent, planifient et agissent dans leur environnement seront abordés. Dans ce tutoriel, les participants auront l’occasion de construire à partir de zéro un système multi-agents génératifs capable de répondre à des requêtes formulées par l'utilisateur, à partir de modèles à poids ouverts et en utilisant des API ouvertes.
Intervenants :
- Maxime MORGE, Université Lyon 1, Polytech Lyon, LIRIS, 063314113
- Wassila OUERDANE, CentraleSupelec, Laboratoire MICS
- Nicolas SABOURET, Université Paris-Saclay, CNRS, LISN
Enseigner et apprendre à l’aune de l’IA générative
Date : 01/07/2026 (matin)
Description :
L’irruption des IA génératives dans les usages des apprenants modifie radicalement le processus d’apprentissage en produisant de nombreuses externalités négatives pour les apprenants, mais aussi des impacts pour les enseignants, leur rôle et leur méthodologie. Nous envisageons principalement quatre thèmes possibles pour adresser ces questions : accompagner les usages raisonnés de l’IA en situation d’apprentissage, développer de nouvelles méthodes pédagogiques, repenser le cadre des évaluations, et/ou créer de nouvelles IA spécialisées pour accompagner positivement les apprenants et les enseignants.
Intervenants :
- Nadia Abchiche-mimouni : MCF -HDR, université Côte d’Azur
- Samuel Tronçon : Chercheur, Netlab / Ananké
IA Frugale : Approche Durable, Scalable et Interprétable ?
Date : 01/07/2026 (après-midi)
Description :
La Frugal AI se positionne comme une approche innovante visant à concevoir des systèmes d'intelligence artificielle en utilisant un minimum de ressources, tout en restant performants, accessibles et durables. Elle contraste avec l'efficacité classique en mettant l'accent sur la simplicité, la réduction des coûts, la sobriété énergétique et la minimisation de l'empreinte écologique. Cette démarche s'appuie sur des stratégies telles que la réutilisation de modèles pré-entraînés, la compression de modèles, l'optimisation hardware, et la conception orientée ressources, afin de favoriser une IA plus responsable, inclusive et adaptée aux environnements à faibles ressources. Elle concerne divers domaines comme la santé, l'industrie, l'agriculture, ou encore l'environnement, en proposant des solutions légères et modulaires pour répondre aux enjeux de durabilité et d'accessibilité. Le tutoriel souligne également que la Frugal AI soulève des questions importantes sur la mesure de sa frugalité, la gestion du paradoxe de Jevons (effet rebond), et la nécessité d'une régulation et d'une normalisation pour encourager une adoption responsable. Elle invite à repenser la conception des systèmes d'IA pour qu'ils soient non seulement performants, mais aussi respectueux de l’environnement, économiquement viables et socialement inclusifs. Enfin, cette approche propose une réflexion sur l’avenir de l’IA dans un contexte de ressources limitées, en soulignant l’importance de l’éco-conception, de la gouvernance, et de l’innovation frugale pour un développement durable et éthique.
Intervenant :
- Vincent Lemaire, Chercheur à Orange Recherche, Paris
Des modèles de langage aux modèles visuels : mécanismes d’attention et applications en vision par ordinateur
Date : 02/07/2026 (matin)
Description :
Les mécanismes d’attention ont profondément transformé l’intelligence artificielle moderne, en particulier avec les modèles de langage de grande taille (LLM) basés sur les Transformers. Ce tutoriel présente une introduction progressive aux concepts fondamentaux de l’attention, non pas comme une simple opération calculatoire, mais comme un produit scalaire dynamique entre représentations, avec un lien direct avec des méthodes classiques telles que l’analyse canonique des corrélations (CCA). Cette approche permet de comprendre pourquoi l’attention capture efficacement les dépendances complexes et les relations contextuelles. Dans une seconde partie, le tutoriel se concentre sur l’adaptation de ces mécanismes au domaine de la vision par ordinateur. Seront abordés les Vision Transformers -ViT- (Dosovitskiy et al. 2020), l’attention spatiale et canal -SE, CBAM, Mamba- (Wang et al. 2024, Gu et al. 2023), ainsi que les architectures hybrides CNN + attention. Une session pratique permettra aux participants de manipuler des modèles d’attention appliqués à des données visuelles, de visualiser les cartes d’attention et de comprendre leurs avantages et limites dans des tâches de classification et de détection.
Intervenant :
- Faten CHAIEB-CHAKCHOUK, EFREI Research Lab – IMAGIn2
- Djallel DILMI, EFREI Research Lab – IMAGIn2
Présentation et application de la théorie des fonctions de croyance dans le cadre de l'apprentissage automatique
Date : 02/07/2026 (après-midi)
Description :
L’objectif de ce tutoriel est de présenter les concepts de base de la théorie des fonctions de croyance (également nommée théorie de Dempster-Shafer ou théorie de l'évidence) et de les mettre en oeuvre dans le cadre de l'apprentissage automatique. Cette théorie, qui est une alternative à la théorie de probabilité et à la théorie des possibilités, permet de modéliser des informations élémentaires à l'aide de fonctions de croyance et de les combiner à l'aide de différents opérateurs selon des hypothèses sur les sources produisant ces informations. Elle est donc non seulement bien adaptée pour la fusion d'informations mais elle permet également, dans le cadre de l'apprentissage, de modéliser les incertitudes sur les données (par exemple pour l'apprentissage partiellement supervisé) et sur les prédictions (sortie de classifieurs évidentiels). Ainsi dans le cadre de cet atelier, outre une présentation et la mise en oeuvre des principes de base de cette théorie, nous présenterons et utiliserons des algorithmes évidentiels classiques d'apprentissage automatique (E-KNN, ECM, etc.).
Intervenant :
- David Mercier, LGI2A, Université d'Artois
- Eric Lefevre, LGI2A, Université d'Artois
La responsabilité des informaticiens
Date : 03/07/2026 (matin)
Description :
Comment la responsabilité d’un informaticien peut-elle être engagée en cas de problème lié à un logiciel ou un système d’IA qu’il a développé ? Dans quelles conditions les lignes de code ou les algorithmes qu’il a conçus sont-ils susceptibles d’engager sa responsabilité devant un tribunal ? Ce tutoriel, conçu par des juristes dans le cadre de la PFIA, s'adresse spécifiquement aux informaticiens et a pour objectif de répondre à ces questions. Le droit engage la responsabilité de différents acteurs parfois par des mécanismes inconnus des informaticiens pouvant paraître contre-intuitifs. La responsabilité des informations peut être engagée du fait de la commission d’une faute. Toutefois, il existe des mécanismes juridiques permettant d’engager la responsabilité d’un acteur même sans faute. Le cadre juridique et les appréciations des magistrats s’intéressent aux notions de risque, de diligence, de défectuosité, etc.
Intervenant :
- Celine Castets-Renard, Professeur de droit privé, Université d’Ottawa
- Ummihab Ozturk, Doctorant en droit public, Université Clermont Auvergne
- Pierre Baldy, Doctorant en droit social, Université de Montpellier
Organisation
Zaineb Garcia (Chelly Dagdia) (zaineb.garcia@univ-lille.fr)