Skip to main content
Course Staff Image #1

Cette formation a fait l’objet d’une demande d’inscription au répertoire spécifique des certifications et des habilitations (RSCH) de France Compétences.
Elle sera à ce titre éligible à un financement CPF et est liée dans ce cadre au cours Culture juridique de l’IA & de la robotique (cliquer sur l'image).


MODALITÉS

Contenu

En réalisant cette formation, vous allez suivre deux SPOCs sur les enjeux éthiques et juridiques de l'IA. Chacun de ces SPOCs comporte six modules qui sortiront de façon hebdomadaire. Le temps consacré aux apprentissages et aux exercices d’évaluation est d’environ 8 à 10 heures pour chaque module. Un volume plus important d’heures pourra être librement dévolu à l'exploration des contenus complémentaires mis à disposition des apprenants.

L'offre Premium - Accompagnement personnalisé

L'offre premium des cours aivancityX comporte, en plus de l'accès aux contenus de cours, un suivi en visioconférence régulier et personnalisé.

  • Une session d'introduction avant le début du SPOC
  • Une session après les modules 1 et 2
  • Une session après les modules 3 et 4
  • Une session de conclusion qui comporte une activité
  • Une session finale de débrief

ACCÈS AU PROGRAMME

Prérequis

Connaissances de base du raisonnement en statistique.

Langue

Les cours seront délivrés en français.


THÈME

Sur l'éthique :

Comprendre les critères d'équité dans les problèmes de classification Pratiquer une diversité de méthodes pour détecter, mesurer et atténuer les biais. Fournir des connaissances de base sur le contexte juridique et la normalisation technique de l'équité dans le machine learning. Relier la philosophie politique au formalisme mathématique de l'équité. Développer une approche réflexive et critique de l'équité dans le machine learning.

Sur le droit :

Revisiter les enjeux et les impacts de l'IA grâce à l'instrument juridique. Identifier les acteurs réglementaires et les politiques liés à l'usage de ces technologies. Comprendre l'IA et ses applications, en particulier dans la robotique, via l'analyse de ses définitions et de ses classifications. Connaître l'environnement normatif des technologies émergentes. Garantir aux opérateurs et décideurs la compréhension de l'écosystème d'IA et les perspectives de son évolution.

OBJECTIFS DE LA FORMATION

En réalisant ce SPOC, vous allez :

  • Comprendre les critères d'équité dans les problèmes de classification
  • Pratiquer une diversité de méthodes pour détecter, mesurer et atténuer les biais.
  • Fournir des connaissances de base sur le contexte juridique et la normalisation technique de l'équité dans le machine learning.
  • Relier la philosophie politique au formalisme mathématique de l'équité.
  • Développer une approche réflexive et critique de l'équité dans le machine learning.
  • Revisiter les enjeux et les impacts de l’IA grâce à l’instrument juridique.
  • Identifier les acteurs réglementaires et les politiques liés à l’usage de ces technologies.
  • Appréhender l’instrument juridique, comme levier de performance pour l’Entreprise.
  • Comprendre l’IA et ses applications, en particulier dans la robotique, via l’analyse de ses définitions et de ses classifications.
  • Connaître l’environnement normatif des technologies émergentes.
  • Garantir aux opérateurs et décideurs la compréhension de l’écosystème d’IA et les perspectives de son évolution.

PROGRAMME

Équité et transparence en matière d’Intelligence Artificielle

1. Des machines injustes en débat

A travers l’exposer de trois cas célèbres de dénonciation des biais dans des systèmes décisionnels dans les secteurs de la justice, de la police et de la santé, nous introduirons les grands problèmes structurants de la recherche sur l’équité dans les systèmes décisionnels.

2. Les notions de biais et d’équité dans le machine learning

Ce module explore les bases techniques de la prise en compte de l’équité dans le machine learning. Il liste les différentes sources de biais qui peuvent affecter les processus d’apprentissage, confronte les principales familles de métriques et montre l’incompatibilité mathématique des critères d’équité.

3. Contraindre l’apprentissage

Au cours de ce module, nous aborderons des différentes approches d’atténuation des bais : en amont, en intervenant sur la structure des données (pre-processing) ; durant la phase d’apprentissage (in-processing) et en aval, en intervenant sur les résultats du classifieur (post-processing).

4. Les justifications morales et politiques des métriques et des approches

Comment se repérer dans le foisonnement des métriques et des approches pour atténuer les biais ? Comment faire sens des méthodes disponibles ? Dans ce module, nous proposons de répondre à ces questions en mettant en perspective le débat mathématique avec les différentes conceptions philosophiques de la justice sociale et de l'équité.

5. Réponses institutionnelles

Comment le droit encadre-t-il les enjeux de lutte contre les discriminations dans les systèmes algorithmiques ? Orientons-nous vers une logique de standardisation et de certification ? Quelles procédures de mise en œuvre et d’évaluation sont formalisées ? Pour répondre à ces questions, nous reviendrons sur les débats juridiques et les instruments proposés par la communauté des experts en matière d’éthique de l’intelligence artificielle.

6. Qu’est-ce que la transparence, l’interprétabilté et l’accountability ?

Enfin, nous terminerons par un module sur la transparence souvent envisagée comme une valeur indispensable pour construire la confiance dans les systèmes décisionnels. Si nous aborderons la transparence comme un enjeu technique (interopérabilité) et juridique (le droit à l’explication), nous verrons surtout qu’elle est un problème d’asymétrie de pouvoir entre ceux qui font les systèmes, ceux qui les utilisent et ceux qui les subissent.

Culture juridique de l'IA et de la robotique

1. Comprendre le discours juridique face au développement de l’IA: le droit, un outil de décryptage de l’écosystème IA.

L’objectif de ce premier module est de donner une méthode de lecture des avancées, des enjeux et des défis en IA. Il répondra à un premier impératif: raisonner de manière systémique.

2. Saisir le raisonnement juridique face au développement de l’IA: le droit, un outil d’explicabilité.

Entre fantasme et réalité technico-juridique, le droit est un outil de clarification . L’objectif de ce deuxième module est d’éclairer et d’apprendre à connaître les technologies IA. Il répondra à un deuxième impératif : le besoin de cohérence juridique face à la demande d’intéropérabilité des technologies.

3. S’approprier les règles de droit face au développement de l’IA: le droit, instrument de notre liberté.

L’objectif de ce troisième module est d’interroger notre identité numérique à travers notre utilisation quotidienne des données. Il répondra à un troisième impératif : assurer la sécurité numérique.

4. Analyser les modèles juridiques face au développement de l’IA: le droit, instrument de puissance et de conquête.

L’objectif de ce quatrième module est de répondre à cette question: au sein de la course technologique, qui dicte les règles du jeu? Il répondra à quatrième impératif: développer une stratégie juridique de l’IA face aux “menaces de la colonisation numérique”.

5. Respecter les règles de droit face au développement de l’IA: le droit, instrument de nos engagements.

À travers l’exemple des killer robot, l’objectif de ce cinquième module est d’appréhender le risque technologique à la lumière du risque juridique. Il répondra à un cinquième impératif: construire un cadre juridique de responsabilité performant face aux capacités d’action et de décision de la technologie.

6. Imaginer le droit du futur ou le futur du droit: le droit, instrument des Oracles.

En nous plongeant dans les années à venir, l’objectif de sixième module est de s’interroger ensemble sur ce que NOUS voulons. Il répondra à l’impératif de définir ensemble une vision pour susciter l’engagement nécessaire pour faire face à l’incertitude du futur.


PROFESSEURS

Course Staff Image #1

Dr. Bilel Benbouzid

Professeur Affilié en Éthique de l'IA

Après une formation d'ingénieur des travaux publics de l'Etat, Bilel Benbouzid soutient une thèse de doctorat en sociologie des sciences sur les technologies de lutte contre le crime.
Après sa thèse, il conduit une recherche sur la police prédictive tout en orientant progressivement ses travaux vers les sciences sociales computationnelles.
Il s'intéresse aujourd'hui plus généralement aux questions relatives à la régulation de l'intelligence artificielle.


Course Staff Image #1

Jean-Marie John-Mathews

Data scientist | Recherche en éthique de l'IA à Université Paris Saclay

Jean-Marie John-Mathews est data scientist et chercheur en éthique algorithmique sur les impacts des algorithmes dits « éthiques by design » en intelligence artificielle.
Il est également enseignant à Sciences Po et à l’université PSL.
Ses sujets de recherche portent sur le thème des méthodes quantitatives pour les sciences sociales, les mathématiques et les probabilités.


Course Staff Image #1

Dr. Ysens de FRANCE

Professeur Associée en Droit de l’IA
Directrice de la prospective de l'Institut Sapiens

Ysens de France est docteure en droit public, spécialisée en robotique terrestre.
Dans le cadre de son doctorat, elle s’est particulièrement intéressée à l’émergence de systèmes militaires robotisés autonomes dans les conflits armés.
Une approche spécifique qui a construit une réflexion prospective et transverse des enjeux liés à l’innovation technologique. Le champ d’application de ses recherches est européen et international, à l’instar de sa collaboration avec euRobotics.




CERTIFICATION

Le suivi et la réussite des épreuves d’évaluation du programme donnent lieu à l'obtention d’un certificat délivré par aivancity. Ce certificat issu du catalogue de cours "SPOC" fait partie de la sélection premium des cours en ligne d'aivancity. Tout certificat SPOC vise à faire maîtriser l'IA appliquée au monde d'aujourd'hui et à l'industrie 4.0.

F.A.Q.

Enroll