Tutoriels

Plate-Forme Intelligence Artificielle 2026 du 29 juin au 03 juillet à Arras, France

Conférences disponibles

06

Intervenants

18

Tutoriels

Présentation

PFIA 2026 invite des propositions de sessions tutorielles. Les tutoriels seront organisés du 29 juin au 5 juillet 2026, pour une durée d'environ 2h30.
La participation aux tutoriels est gratuite pour tous les participants à la conférence PFIA 2026.

Objectifs

Les tutoriels doivent servir un ou plusieurs des objectifs suivants:

  • Initier les novices aux principaux thèmes de l’intelligence artificielle.
  • Introduire des experts non spécialistes dans un sous-domaine de l’IA.
  • Motiver et expliquer un sujet d’importance émergente pour l’IA.
  • Enquêter sur un domaine mature de recherche et/ou applicatif de l’IA.
  • Fournir des instructions sur les méthodologies d’IA établies mais spécialisées.
  • Présenter une nouvelle synthèse sur un sous-domaine de l’IA.

Les tutoriels sont destinés à couvrir de manière équilibrée des connaissances raisonnablement bien établies. Les tutoriels ne doivent pas être utilisés pour préconiser une seule voie de recherche, ni promouvoir un produit. Nous promouvons des tutoriels avec une composante pratique ou un autre élément interactif.

Thématiques

Toutes les thématiques relevant de l’Intelligence Artificielle sont les bienvenues, comme par exemple :

  • Agents autonomes, systèmes multi-agents, systèmes autonomiques
  • Applications de l’Intelligence Artificielle, méthodologie, évaluation
  • Apprentissage numérique et symbolique, découverte, classification
  • Environnements Informatiques d’apprentissage humain
  • Evolution artificielle, systèmes situés, systèmes adaptatifs
  • Fouille de données, bases de données avancées, web sémantique
  • Ingénierie et partage des connaissances, argumentation
  • Intelligence collective, intelligence sociale, réseaux sociaux
  • Interfaces Intelligentes, interaction homme-machine, intelligence ambiante
  • Langages de programmation pour l’IA, programmation logique
  • Logique formelle et outils pour l’Intelligence Artificielle, sémantique
  • Passage à l’échelle, organisation de systèmes, émergence
  • Plates-formes et environnements de développement en IA
  • Raisonnement à base de modèles, raisonnement à base de cas
  • Raisonnement probabiliste et incertain, logique floue
  • Raisonnement spatial et temporel, environnements physiques
  • Recherche opérationnelle, programmation par contraintes, ordonnancement
  • Représentation des connaissances, extraction et gestion des connaissances
  • Réseaux de neurones artificiels, approches neuro-mimétiques
  • Robotique, vision par ordinateur, capteurs intelligents, systèmes physiques
  • Sciences cognitives et Intelligence Artificielle, cognition
  • Systèmes à base de règles, planification, aide à la décision
  • Traitement automatique du langage, terminologie, langage naturel contrôlé, explication
  • Traitement du signal et de l’image, traitement de la parole
  • Web intelligence, internet du futur, protection de la vie privée

Soumettre une proposition

Liste des tutoriels acceptés


GALACTIC : une nouvelle plateforme pour du clustering sémantique

Date : 29/06/2026 (après-midi)

Description :
Ce tutoriel présente la nouvelle version de la plateforme GALACTIC qui propose des solutions novatrices de clustering sémantique de données complexes et hétérogènes. Issue de l’Analyse Formelle des Concepts, cette plateforme s’appuie sur les propriétés algébriques des connexions de Galois ainsi que sur des espaces de descriptions convexes. GALACTIC constitue une alternative aux méthodes numériques classiques fondées sur des plongements vectoriels. En effet, préserver la sémantique intrinsèque des données permet de garantir l’explicabilité des résultats, et de placer l’analyste au cœur de l’interprétation de ses données dans un processus interactif rendu possible par cette explicabilité.

Intervenants :

  • Karell Bertet, La Rochelle Université
  • Christophe Demko, La Rochelle Université
  • Axel Jean-Caurant, La Rochelle Université

An introduction to the formal verification of neural networks

Date : 30/06/2026 (matin)

Description :

As machine learning systems become increasingly integrated into our everyday lives, ensuring their safety becomes even more crucial. Formal verification can provide guarantees in a provable way, making it a good candidate to assess whether a neural network behaves as expected. This tutorial will introduce the application of formal verification techniques to neural networks. It will first explore the reasons why formal methods are a crucial step towards AI systems’ safety. Then, formal properties, such as robustness and functional properties, will be introduced on an industrial example (ACAS-XU). An emphasis on the different steps of the formal verification will be made: definition of the property on a system, translation to a specification language, and its effective verification. Verification techniques will be introduced, with a focus on abstract interpretation. Then, state-of-the-art verification tools will be introduced, and the remaining part of the tutorial will be a practical session with one of them: PyRAT. This tutorial will be concluded by open research questions regarding the efficient verification of properties and their formalisation.

Intervenants :

  • Julien Girard-Satabin, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France
  • Sasha Cuau, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France
  • Guilhem Ardouin, Université Paris-Saclay, CEA, List, F-91120, Palaiseau, France

Système multi-agents et IA agentique: de quoi parle-t-on vraiment?

Date : 30/06/2026 (après-midi)

Description :

Un système multi-agents est composé de multiples entités de calcul autonomes, appelées agents, en interaction, situés dans un environnement qui prennent part à une organisation. L'IA agentique est une architecture logicielle dans laquelle l'utilisateur délègue des tâches complexes à des agents autonomes propulsés par de grands modèles de langage (Large Language Models, LLM). Ces agents ne se contentent pas de répondre à une simple invite, mais perçoivent et agissent sur leur environnement grâce à des outils externes, planifient des actions et interagissent avec d'autres agents. Ce tutoriel rappelle en premier les concepts et notions de base des systèmes multi-agents. Ensuite, les principes fondamentaux de l'IA agentique, dans laquelle des agents autonomes basés sur des grands modèles de langue perçoivent, planifient et agissent dans leur environnement seront abordés. Dans ce tutoriel, les participants auront l’occasion de construire à partir de zéro un système multi-agents génératifs capable de répondre à des requêtes formulées par l'utilisateur, à partir de modèles à poids ouverts et en utilisant des API ouvertes.

Intervenants :

  • Maxime MORGE, Université Lyon 1, Polytech Lyon, LIRIS, 063314113
  • Wassila OUERDANE, CentraleSupelec, Laboratoire MICS
  • Nicolas SABOURET, Université Paris-Saclay, CNRS, LISN

Enseigner et apprendre à l’aune de l’IA générative

Date : 01/07/2026 (matin)

Description :

L’irruption des IA génératives dans les usages des apprenants modifie radicalement le processus d’apprentissage en produisant de nombreuses externalités négatives pour les apprenants, mais aussi des impacts pour les enseignants, leur rôle et leur méthodologie. Nous envisageons principalement quatre thèmes possibles pour adresser ces questions : accompagner les usages raisonnés de l’IA en situation d’apprentissage, développer de nouvelles méthodes pédagogiques, repenser le cadre des évaluations, et/ou créer de nouvelles IA spécialisées pour accompagner positivement les apprenants et les enseignants.

Intervenants :

  • Nadia Abchiche-mimouni : MCF -HDR, université Côte d’Azur
  • Samuel Tronçon : Chercheur, Netlab / Ananké

IA Frugale : Approche Durable, Scalable et Interprétable ?

Date : 01/07/2026 (après-midi)

Description :

La Frugal AI se positionne comme une approche innovante visant à concevoir des systèmes d'intelligence artificielle en utilisant un minimum de ressources, tout en restant performants, accessibles et durables. Elle contraste avec l'efficacité classique en mettant l'accent sur la simplicité, la réduction des coûts, la sobriété énergétique et la minimisation de l'empreinte écologique. Cette démarche s'appuie sur des stratégies telles que la réutilisation de modèles pré-entraînés, la compression de modèles, l'optimisation hardware, et la conception orientée ressources, afin de favoriser une IA plus responsable, inclusive et adaptée aux environnements à faibles ressources. Elle concerne divers domaines comme la santé, l'industrie, l'agriculture, ou encore l'environnement, en proposant des solutions légères et modulaires pour répondre aux enjeux de durabilité et d'accessibilité. Le tutoriel souligne également que la Frugal AI soulève des questions importantes sur la mesure de sa frugalité, la gestion du paradoxe de Jevons (effet rebond), et la nécessité d'une régulation et d'une normalisation pour encourager une adoption responsable. Elle invite à repenser la conception des systèmes d'IA pour qu'ils soient non seulement performants, mais aussi respectueux de l’environnement, économiquement viables et socialement inclusifs. Enfin, cette approche propose une réflexion sur l’avenir de l’IA dans un contexte de ressources limitées, en soulignant l’importance de l’éco-conception, de la gouvernance, et de l’innovation frugale pour un développement durable et éthique.

Intervenant :

  • Vincent Lemaire, Chercheur à Orange Recherche, Paris

Des modèles de langage aux modèles visuels : mécanismes d’attention et applications en vision par ordinateur

Date : 02/07/2026 (matin)

Description :

Les mécanismes d’attention ont profondément transformé l’intelligence artificielle moderne, en particulier avec les modèles de langage de grande taille (LLM) basés sur les Transformers. Ce tutoriel présente une introduction progressive aux concepts fondamentaux de l’attention, non pas comme une simple opération calculatoire, mais comme un produit scalaire dynamique entre représentations, avec un lien direct avec des méthodes classiques telles que l’analyse canonique des corrélations (CCA). Cette approche permet de comprendre pourquoi l’attention capture efficacement les dépendances complexes et les relations contextuelles. Dans une seconde partie, le tutoriel se concentre sur l’adaptation de ces mécanismes au domaine de la vision par ordinateur. Seront abordés les Vision Transformers -ViT- (Dosovitskiy et al. 2020), l’attention spatiale et canal -SE, CBAM, Mamba- (Wang et al. 2024, Gu et al. 2023), ainsi que les architectures hybrides CNN + attention. Une session pratique permettra aux participants de manipuler des modèles d’attention appliqués à des données visuelles, de visualiser les cartes d’attention et de comprendre leurs avantages et limites dans des tâches de classification et de détection.

Intervenant :

  • Faten CHAIEB-CHAKCHOUK, EFREI Research Lab – IMAGIn2
  • Djallel DILMI, EFREI Research Lab – IMAGIn2

Présentation et application de la théorie des fonctions de croyance dans le cadre de l'apprentissage automatique

Date : 02/07/2026 (après-midi)

Description :

L’objectif de ce tutoriel est de présenter les concepts de base de la théorie des fonctions de croyance (également nommée théorie de Dempster-Shafer ou théorie de l'évidence) et de les mettre en oeuvre dans le cadre de l'apprentissage automatique. Cette théorie, qui est une alternative à la théorie de probabilité et à la théorie des possibilités, permet de modéliser des informations élémentaires à l'aide de fonctions de croyance et de les combiner à l'aide de différents opérateurs selon des hypothèses sur les sources produisant ces informations. Elle est donc non seulement bien adaptée pour la fusion d'informations mais elle permet également, dans le cadre de l'apprentissage, de modéliser les incertitudes sur les données (par exemple pour l'apprentissage partiellement supervisé) et sur les prédictions (sortie de classifieurs évidentiels). Ainsi dans le cadre de cet atelier, outre une présentation et la mise en oeuvre des principes de base de cette théorie, nous présenterons et utiliserons des algorithmes évidentiels classiques d'apprentissage automatique (E-KNN, ECM, etc.).

Intervenant :

  • David Mercier, LGI2A, Université d'Artois
  • Eric Lefevre, LGI2A, Université d'Artois

La responsabilité des informaticiens

Date : 03/07/2026 (matin)

Description :

Comment la responsabilité d’un informaticien peut-elle être engagée en cas de problème lié à un logiciel ou un système d’IA qu’il a développé ? Dans quelles conditions les lignes de code ou les algorithmes qu’il a conçus sont-ils susceptibles d’engager sa responsabilité devant un tribunal ? Ce tutoriel, conçu par des juristes dans le cadre de la PFIA, s'adresse spécifiquement aux informaticiens et a pour objectif de répondre à ces questions. Le droit engage la responsabilité de différents acteurs parfois par des mécanismes inconnus des informaticiens pouvant paraître contre-intuitifs. La responsabilité des informations peut être engagée du fait de la commission d’une faute. Toutefois, il existe des mécanismes juridiques permettant d’engager la responsabilité d’un acteur même sans faute. Le cadre juridique et les appréciations des magistrats s’intéressent aux notions de risque, de diligence, de défectuosité, etc.

Intervenant :

  • Celine Castets-Renard, Professeur de droit privé, Université d’Ottawa
  • Ummihab Ozturk, Doctorant en droit public, Université Clermont Auvergne
  • Pierre Baldy, Doctorant en droit social, Université de Montpellier

Organisation

Zaineb Garcia (Chelly Dagdia) (zaineb.garcia@univ-lille.fr)