Droit, éthique et responsabilité — À lire avant le cours (Lecture 8-10 min)
⏰ Vous êtes attendus à 9h au plus tard. La séance débute à 9h précises. 30 minutes d'introduction par l'enseignant, puis Alexandra Iteanu prend la parole à 9h30 pour une heure d'intervention.
En séance 1, nous avons établi que l'IA est une infrastructure de puissance qui crée des dépendances et des décisions irréversibles. En séance 2, nous avons vu que les choix techniques sont des choix stratégiques. En séance 3, nous avons travaillé la donnée comme différenciateur durable et vous avez commencé à construire votre Business Case.
En séance 4, l'objectif est d'intégrer la dimension juridique et éthique. Tout ce que vous avez construit — Business Case, données identifiées, cas d'usage — existe dans un cadre légal qui le conditionne. Le droit ne vient pas après le projet. Il le conditionne dès le départ.
| 9h00 – 9h30 | Introduction | L'enseignant fait le lien avec les séances précédentes et pose le cadre juridique en trois temps. D'abord un rappel du fil du cours : S1 dépendances, S2 contraintes techniques, S3 données — et aujourd'hui le droit qui conditionne tout ce qu'on a construit. Ensuite trois réalités concrètes : il existe des usages IA interdits en Europe, certaines données ont un statut juridique spécial, et quand un modèle se trompe quelqu'un paie — fournisseur, organisation, manager. Enfin la grille Valeur × Risque × Dépendance enrichie de la couche juridique : le risque n'est plus seulement technique, il est personnel et réglementaire. |
| 9h30 – 10h30 | Intervention | Alexandra Iteanu — Droit, éthique et responsabilité en 3 niveaux : global, corporate, individuel. Cas réels tirés de sa pratique. |
| À partir de 10h30 | Questions | Échanges avec les étudiants. Ouverture sur la propriété intellectuelle et vos cas d'usage. L'enseignant reste disponible après la séance. |
Alexandra exerce depuis 2017 chez Iteanu Avocats sur des sujets de protection des données, conformité, cloud et cybersécurité, y compris sur des enjeux IA, NIS2 et DORA. Elle enseigne depuis 2022 à l'Université Paris 1 Panthéon-Sorbonne dans le Master « Droit des données, administrations numériques, gouvernements ouverts ». Membre de l'AFCDP et du comité de programme GS Days, elle intervient avec une double légitimité, terrain et académique, sur les cas concrets que vous êtes en train de construire.
Mes données sont-elles personnelles ou sensibles — ai-je le droit légal de les utiliser pour ce cas d'usage précis ?
Mon projet serait-il classé à haut risque sous l'AI Act — et si oui, quelles obligations s'imposent ?
Si le modèle se trompe et cause un préjudice — qui est responsable dans mon organisation ?
La séance est structurée en 3 niveaux progressifs — du cadre global qui s'impose à tous, aux règles que les organisations se donnent, jusqu'aux questions que vous poserez dans votre premier poste.
Règlement européen encadrant les données personnelles. Trois questions clés : pourquoi ces données ? Est-ce qu'on en prend trop ? Jusqu'à quand ? Sanctions jusqu'à 4% du CA mondial.
Interdit, haut risque (RH, santé, crédit, éducation), risque limité (chatbots), risque minimal. Les secteurs dans lesquels vous allez travailler sont exactement les secteurs à haut risque.
Santé, origine ethnique, opinions politiques, données biométriques. Statut juridique spécial sous le RGPD. Précautions renforcées obligatoires avant tout usage dans un projet IA.
Des données hébergées chez AWS, Azure ou Google peuvent être requises par le gouvernement américain même si les serveurs sont en Europe. Ce n'est pas qu'un sujet politique — c'est une responsabilité juridique.
Interlocuteur obligatoire avant tout projet IA impliquant des données personnelles. L'ignorer expose l'organisation et le manager personnellement.
Document interne définissant ce qu'on autorise, ce qu'on interdit, qui décide, comment on contrôle. Premier outil managérial concret issu du cadre légal.
Fournisseur du modèle, organisation qui déploie, manager qui signe. Quand ça se trompe — quelqu'un paie. Ce quelqu'un peut être vous.
Santé : certification HDS obligatoire pour héberger des données de santé. Finance : DORA (en vigueur depuis janvier 2025) impose des exigences de résilience numérique aux institutions financières.
La grille Valeur × Risque × Dépendance s'enrichit en séance 4. Le risque prend désormais une dimension juridique concrète : RGPD, AI Act, responsabilité managériale. Un projet IA qui maximise la valeur sans analyser le risque juridique est un projet incomplet — et potentiellement un projet illégal.