Skip to main content

Équité et transparence en matière d’Intelligence Artificielle

Les systèmes algorithmiques d’aide à la décision: entre performance et justice sociale.

Classes Start : disponible toute l'année 2022-23
Enrollment is Closed
Course Staff Image #1

Cette formation a fait l’objet d’une demande d’inscription au répertoire spécifique des certifications et des habilitations (RSCH) de France Compétences.
Elle sera à ce titre éligible à un financement CPF et est liée dans ce cadre au cours Culture juridique de l’IA & de la robotique (cliquer sur l'image).


MODALITÉS & PRIX

Apprendre à son rythme

Ce programme comporte six modules, tous déjà disponibles lorsque l'inscription est réalisée. Il n'y a pas de délai à respecter et l'apprentissage se fait en autonomie, mais l'équipe pédagogique aivancityX conseille de passer une semaine par module. Le temps consacré aux apprentissages et aux exercices d’évaluation est d’environ 8 à 10 heures pour chaque module. Un volume plus important d’heures pourra être librement dévolu à l'exploration des contenus complémentaires mis à disposition des apprenants. Le prix de ce cours est de 900€, comme les autres formations de l'offre en autonomie d'aivancityX.

Soutien aux apprenants

Les apprenants sont accompagnés avec une réunion d'introduction et une réunion de conclusion du SPOC.


ACCÈS AU PROGRAMME

Prérequis

Connaissances de base du raisonnement en statistique.

Langue

Les cours seront délivrés en français.


THÈME

Les systèmes algorithmes sont intégrés dans de nombreux domaines pour soutenir des processus de décision ou pour assister des tâches spécifiques. Dans un contexte où ces systèmes reposent sur l’apprentissage statistique, l'attention s'est progressivement portée sur la manière dont les mécanismes sociaux de génération des données biaisent les prédictions contre certains groupes discriminés. De nombreuses enquêtes menées par des activistes et des chercheurs ont montré comment les algorithmes peuvent reproduire des discriminations de race ou de genre.
En réaction à ces débats, une science émergente de l'équité dans l'apprentissage automatique (fairness in machine learning) propose de rectifier ces biais. Désormais, les machines prédictives ne sont plus seulement évaluées selon les métriques de performance classiques (precision, accuracy, recall etc.), mais aussi à partir de critères de justice sociale impliquant une optimisation des modèles sous contrainte d’équité entre les groupes favorisés et défavorisés. Dit-autrement, le modélisateur se doit de mettre en tension des objectifs de performance et de justice sociale.
Ce SPOC se concentre non seulement sur les solutions techniques qui ont été récemment proposées par cette nouvelle science, mais aussi sur les débats philosophiques, économiques et juridiques qui lui sont associés. Enfin, si un des enjeux de la mise en œuvre de l’équité dans le machine learning est la transparence des décisions algorithmiques, nous verrons les difficiles chemins qu’il reste à parcourir pour y parvenir.


OBJECTIFS DE LA FORMATION

En réalisant ce SPOC, vous allez :

  • Comprendre les critères d'équité dans les problèmes de classification
  • Pratiquer une diversité de méthodes pour détecter, mesurer et atténuer les biais.
  • Fournir des connaissances de base sur le contexte juridique et la normalisation technique de l'équité dans le machine learning.
  • Relier la philosophie politique au formalisme mathématique de l'équité.
  • Développer une approche réflexive et critique de l'équité dans le machine learning.

PROGRAMME

1. Des machines injustes en débat

A travers l’exposer de trois cas célèbres de dénonciation des biais dans des systèmes décisionnels dans les secteurs de la justice, de la police et de la santé, nous introduirons les grands problèmes structurants de la recherche sur l’équité dans les systèmes décisionnels.

2. Les notions de biais et d’équité dans le machine learning

Ce module explore les bases techniques de la prise en compte de l’équité dans le machine learning. Il liste les différentes sources de biais qui peuvent affecter les processus d’apprentissage, confronte les principales familles de métriques et montre l’incompatibilité mathématique des critères d’équité.

3. Contraindre l’apprentissage

Au cours de ce module, nous aborderons des différentes approches d’atténuation des bais : en amont, en intervenant sur la structure des données (pre-processing) ; durant la phase d’apprentissage (in-processing) et en aval, en intervenant sur les résultats du classifieur (post-processing).

4. Les justifications morales et politiques des métriques et des approches

Comment se repérer dans le foisonnement des métriques et des approches pour atténuer les biais ? Comment faire sens des méthodes disponibles ? Dans ce module, nous proposons de répondre à ces questions en mettant en perspective le débat mathématique avec les différentes conceptions philosophiques de la justice sociale et de l'équité.

5. Réponses institutionnelles

Comment le droit encadre-t-il les enjeux de lutte contre les discriminations dans les systèmes algorithmiques ? Orientons-nous vers une logique de standardisation et de certification ? Quelles procédures de mise en œuvre et d’évaluation sont formalisées ? Pour répondre à ces questions, nous reviendrons sur les débats juridiques et les instruments proposés par la communauté des experts en matière d’éthique de l’intelligence artificielle.

6. Qu’est-ce que la transparence, l’interprétabilté et l’accountability ?

Enfin, nous terminerons par un module sur la transparence souvent envisagée comme une valeur indispensable pour construire la confiance dans les systèmes décisionnels. Si nous aborderons la transparence comme un enjeu technique (interopérabilité) et juridique (le droit à l’explication), nous verrons surtout qu’elle est un problème d’asymétrie de pouvoir entre ceux qui font les systèmes, ceux qui les utilisent et ceux qui les subissent.


PROFESSEURS

Course Staff Image #1

Dr. Bilel Benbouzid

Professeur Affilié en Éthique de l'IA

Après une formation d'ingénieur des travaux publics de l'Etat, Bilel Benbouzid soutient une thèse de doctorat en sociologie des sciences sur les technologies de lutte contre le crime.
Après sa thèse, il conduit une recherche sur la police prédictive tout en orientant progressivement ses travaux vers les sciences sociales computationnelles.
Il s'intéresse aujourd'hui plus généralement aux questions relatives à la régulation de l'intelligence artificielle.


Course Staff Image #1

Jean-Marie John-Mathews

Data scientist | Recherche en éthique de l'IA à Université Paris Saclay

Jean-Marie John-Mathews est data scientist et chercheur en éthique algorithmique sur les impacts des algorithmes dits « éthiques by design » en intelligence artificielle. Il est également enseignant à Sciences Po en méthodes quantitatives pour les sciences sociales et à l’université PSL en mathématiques et probabilités.




CERTIFICATION

Le suivi et la réussite des épreuves d’évaluation du programme donnent lieu à l'obtention d’un certificat délivré par aivancity. Ce certificat issu du catalogue de cours "SPOC" fait partie de la sélection premium des cours en ligne d'aivancity. Tout certificat SPOC vise à faire maîtriser l'IA appliquée au monde d'aujourd'hui et à l'industrie 4.0.
Cette certification permet la validation du bloc de compétences RNCP38584BC01 - Identifier et définir les enjeux et les impacts des différents domaines d’usage de l’intelligence artificielle -, de la certification professionnelle « Chef de projet en développement de solutions d'intelligence artificielle », de niveau 7 délivrée par aivancity et enregistrée au RNCP sous le numéro 38584 (le 09-02-2024).

ACCUEIL DES PERSONNES EN SITUATION DE HANDICAP

Nos formations sont ouvertes à tous.
Si vous avez des besoins spécifiques, notamment liés à une situation de handicap, n’hésitez pas à nous contacter. Notre équipe vous accueillera et se tient prête à répondre à vos besoins. Retrouvez le guide d’accueil et toutes les informations sur les dispositifs d'accueil et d'accompagnement de nos étudiants et participants en situation de handicap.
En savoir plus

MODALITÉS D'ÉVALUATION

Pour découvrir les modalités d'évaluation et pédagogiques du programme : Cliquez ici

CONTACT

Martial HENNIQUE

Martial HENNIQUE : Responsable admissions
: (+33) 7 44 09 60 92
: hennique@aivancity.ai

F.A.Q.