Université Paris 1 Panthéon-Sorbonne

Outils IA & Management

École de Management
Fiche Amont — Séance 4

Fiche amont – Séance 4

Droit, éthique et responsabilité — À lire avant le cours (Lecture 8-10 min)

Vous êtes attendus à 9h au plus tard. La séance débute à 9h précises. 30 minutes d'introduction par l'enseignant, puis Alexandra Iteanu prend la parole à 9h30 pour une heure d'intervention.

1) Contexte et objectif

En séance 1, nous avons établi que l'IA est une infrastructure de puissance qui crée des dépendances et des décisions irréversibles. En séance 2, nous avons vu que les choix techniques sont des choix stratégiques. En séance 3, nous avons travaillé la donnée comme différenciateur durable et vous avez commencé à construire votre Business Case.

En séance 4, l'objectif est d'intégrer la dimension juridique et éthique. Tout ce que vous avez construit — Business Case, données identifiées, cas d'usage — existe dans un cadre légal qui le conditionne. Le droit ne vient pas après le projet. Il le conditionne dès le départ.

2) Déroulé de la séance

9h00 – 9h30 Introduction L'enseignant fait le lien avec les séances précédentes et pose le cadre juridique en trois temps. D'abord un rappel du fil du cours : S1 dépendances, S2 contraintes techniques, S3 données — et aujourd'hui le droit qui conditionne tout ce qu'on a construit. Ensuite trois réalités concrètes : il existe des usages IA interdits en Europe, certaines données ont un statut juridique spécial, et quand un modèle se trompe quelqu'un paie — fournisseur, organisation, manager. Enfin la grille Valeur × Risque × Dépendance enrichie de la couche juridique : le risque n'est plus seulement technique, il est personnel et réglementaire.
9h30 – 10h30 Intervention Alexandra Iteanu — Droit, éthique et responsabilité en 3 niveaux : global, corporate, individuel. Cas réels tirés de sa pratique.
À partir de 10h30 Questions Échanges avec les étudiants. Ouverture sur la propriété intellectuelle et vos cas d'usage. L'enseignant reste disponible après la séance.

3) L'intervenante

⚖️

Alexandra Iteanu

Avocate IP/IT chez Iteanu Avocats, spécialisée en cybersécurité, données et IA. Enseignante à Paris 1 Panthéon-Sorbonne.

Alexandra exerce depuis 2017 chez Iteanu Avocats sur des sujets de protection des données, conformité, cloud et cybersécurité, y compris sur des enjeux IA, NIS2 et DORA. Elle enseigne depuis 2022 à l'Université Paris 1 Panthéon-Sorbonne dans le Master « Droit des données, administrations numériques, gouvernements ouverts ». Membre de l'AFCDP et du comité de programme GS Days, elle intervient avec une double légitimité, terrain et académique, sur les cas concrets que vous êtes en train de construire.

4) Les 3 questions à garder en tête pendant la séance

01

Mes données sont-elles personnelles ou sensibles — ai-je le droit légal de les utiliser pour ce cas d'usage précis ?

02

Mon projet serait-il classé à haut risque sous l'AI Act — et si oui, quelles obligations s'imposent ?

03

Si le modèle se trompe et cause un préjudice — qui est responsable dans mon organisation ?

Université Paris 1 Panthéon-Sorbonne

Outils IA & Management

École de Management
Fiche Amont — Séance 4

5) Les concepts que vous allez aborder

La séance est structurée en 3 niveaux progressifs — du cadre global qui s'impose à tous, aux règles que les organisations se donnent, jusqu'aux questions que vous poserez dans votre premier poste.

Niveau 1 — Le cadre global

Conformité

RGPD

Règlement européen encadrant les données personnelles. Trois questions clés : pourquoi ces données ? Est-ce qu'on en prend trop ? Jusqu'à quand ? Sanctions jusqu'à 4% du CA mondial.

Conformité

AI Act — 4 niveaux de risque

Interdit, haut risque (RH, santé, crédit, éducation), risque limité (chatbots), risque minimal. Les secteurs dans lesquels vous allez travailler sont exactement les secteurs à haut risque.

Données sensibles

Catégories particulières

Santé, origine ethnique, opinions politiques, données biométriques. Statut juridique spécial sous le RGPD. Précautions renforcées obligatoires avant tout usage dans un projet IA.

Souveraineté

Cloud Act vs RGPD

Des données hébergées chez AWS, Azure ou Google peuvent être requises par le gouvernement américain même si les serveurs sont en Europe. Ce n'est pas qu'un sujet politique — c'est une responsabilité juridique.

Niveau 2 — Le cadre corporate

Gouvernance

DPO — Délégué à la Protection des Données

Interlocuteur obligatoire avant tout projet IA impliquant des données personnelles. L'ignorer expose l'organisation et le manager personnellement.

Gouvernance

Charte IA

Document interne définissant ce qu'on autorise, ce qu'on interdit, qui décide, comment on contrôle. Premier outil managérial concret issu du cadre légal.

Responsabilité

Les 3 acteurs responsables

Fournisseur du modèle, organisation qui déploie, manager qui signe. Quand ça se trompe — quelqu'un paie. Ce quelqu'un peut être vous.

Secteurs régulés

HDS et DORA

Santé : certification HDS obligatoire pour héberger des données de santé. Finance : DORA (en vigueur depuis janvier 2025) impose des exigences de résilience numérique aux institutions financières.

Niveau 3 — Votre échelle

Ce que vous apportez à la séance : votre Business Case. Pendant l'intervention d'Alexandra, posez-vous mentalement les trois questions de la page 1 sur votre propre cas d'usage. C'est comme ça que cette séance devient utile pour votre dossier.

6) Fil rouge du cours

La grille Valeur × Risque × Dépendance s'enrichit en séance 4. Le risque prend désormais une dimension juridique concrète : RGPD, AI Act, responsabilité managériale. Un projet IA qui maximise la valeur sans analyser le risque juridique est un projet incomplet — et potentiellement un projet illégal.