Dans une logique de régulation de l’intelligence artificielle (IA), l’Union européenne adopte, le 1er août 2024, l’AI Act (règlement européen sur l’Intelligence Artificielle), perçu comme le premier et le seul modèle international de codification en matière de droit de l’IA. Ce règlement novateur tente d’encadrer l’ascension fulgurante de l’utilisation de l’IA et son évolution inexorable, dont l’impact se manifeste désormais à l’échelle internationale et dans la vie quotidienne des populations à travers le monde.
La Présidente de la Commission européenne, Ursula von der Leyen, a qualifié l’adoption du règlement européen comme un « moment historique » transposant « les valeurs européennes à une nouvelle ère »[1]. L’objectif de ce texte est, par ailleurs, bien résumé par le New York Times, qui décrit le règlement comme « une nouvelle étape pour les pays qui cherchent à bénéficier des potentiels avantages de la technologie, tout en luttant pour une protection contre ses risques »[2].
Aparté – Notion des droits fondamentaux en droit de l’Union Européenne
Dans le Vocabulaire juridique de Gérard Cornu (en collaboration avec l’Association Henri Capitant), les droits fondamentaux sont définis comme les droits proclamés comme tels par diverses sources juridiques, dont la notion varie ; ils s’entendent ainsi parfois comme étant synonymes à la notion des droits de l’homme.
Par « droits fondamentaux », il faut entendre, dans le contexte de l’Union, comme l’ensemble des droits individuels, civiques, politiques, économiques et sociaux, contenus au sein de la Charte des droits fondamentaux de l’Union européenne. Ainsi, ces droits, à raison de la particularité de l’organisation et de son histoire, sont considérés par les juristes du droit de l’Union comme de véritables droits fondamentaux, d’origine interne, consacrés à l’échelle supra-nationale. Parmi eux, nous retrouvons les droits classiques garantis au sein de nos droits constitutionnels et en droit international des droits de l’homme (droit à la vie, droit à la vie privée, droit à un procès équitable, interdiction à la torture et aux traitements cruels, inhumains ou dégradants …), ainsi que de nouveaux droits que la Charte a spécialement reconnu (notamment le célèbre droit à la protection des données personnelles).
Dans ce développement, il conviendra évidemment de nous concentrer sur l’intérêt du texte au regard des droits humains, bien qu’il nous sera fortement utile de le concevoir plus généralement, et ce afin de pouvoir saisir toute sa substance.
Ainsi, l’AI Act constitue une véritable prise en charge juridique de l’IA et de ses impacts (I.), visant à permettre son développement dans le respect des droits fondamentaux visés par l’Union. Cependant, cette volonté de sauvegarde de ces droits se retrouve entravée par la lettre même du règlement (II.).
I. Une codification du soft law préexistant et l’introduction d’une classification selon le degré de risque posé par l’IA
Le règlement sur l’IA de 2024 s’inscrit dans la continuité de textes de soft law antérieurs (A.). Par sa codification, il devient le premier instrument contraignant en matière d’intelligence artificielle (B.).
A. Les fondations préexistantes de la régulation européenne de l’IA
L’AI Act est en réalité une mosaïque de textes de soft law préexistants, adoptés à l’échelle nationale ou internationale, qui ont ainsi servi de modèles aux règles intégrées dans son dispositif.
Au niveau national, le Royaume-Uni, acteur majeur de la gouvernance de l’IA, a par exemple adopté en 2023 des lignes directrices abordant les questions de responsabilité civile et d’équité dans l’utilisation de l’IA.[3] Le texte exprime une volonté d’instaurer un corpus de principes destinés à renforcer la confiance du public tout en soutenant le développement des grandes entreprises britanniques du secteur, telles que DeepMind.
Le gouvernement en exercice insistait sur le fait de ne pas légiférer immédiatement, car « de nouvelles exigences législatives rigides et contraignantes pourraient freiner l’innovation en matière d’IA », préférant émettre les principes « sur une base non statutaire et les faire appliquer par les régulateurs existants »[4]. Ainsi, ces régulateurs sectoriels peuvent adapter l’application des principes aux réalités propres à chaque domaine.
Par exemple, dans le domaine de la santé, la Medicines and Healthcare products Regulatory Agency (MHRA) a publié en 2022 un plan d’action[5] («roadmap») sur les exigences applicables aux logiciels intégrant l’IA, telle que l’imagerie permettant le dépistage du cancer du sang. Parmi les principes mis en avant par celui-ci, nous retrouvons; la transparence – que le patient soit notifié lorsque l’IA intervient dans le parcours des soins , une applicabilité – que les cliniciens ait accès à l’explication sur le cheminement des résultats données et une gestion des biais – afin d’éviter les résultats discriminatoires liées à des données d’entraînement biaisées ou incomplètes-.
En droit de l’Union européenne, des lignes directrices ont été préparées et publiées de façon expéditive face à l’utilisation croissante de l’IA, notamment en ce qui concerne les logiciels développés « hors UE », comme ChatGPT, basé aux États-Unis. Ainsi, des lignes directrices pour une IA « digne de confiance » ont été émises par la Commission européenne, rédigée High-Level Expert Group on AI en 2019. L’objectif était d’assurer que les systèmes respectent des principes éthiques, afin qu’ils soient « légaux, éthiques et robustes »[6]. Pour atteindre ces objectifs, la Commission a énuméré sept exigences auxquelles les systèmes d’IA doivent satisfaire pour être considérés comme fiables. Celles-ci incluent notamment la sécurité, le respect de la vie privée et la protection des données, ainsi que la mise en place de mécanismes garantissant la responsabilité des systèmes d’IA, afin de permettre la vérification de leur fonctionnement et d’offrir des voies de recours effectives en cas d’erreur ou de dommage.
Une avancée supplémentaire vers l’AI Act a été réalisée avec la signature du Conseil, du Parlement et de la Commission Européenne, en janvier 2022[7], de la « Déclaration européenne sur les droits et principes numériques pour la décennie numérique ». Cette déclaration relève avant tout du soft law : elle vise à rappeler les droits pertinents face aux enjeux de la transformation numérique (droits fondamentaux, droit à l’inclusion, droit à l’accessibilité, etc.), applicables aux acteurs impliqués dans l’élaboration et la diffusion des nouvelles technologies numériques, dont l’IA.
B. L’IA Act 2024
C’est dans ce contexte de stratégie européenne pour le numérique, marqué par la volonté d’assurer une innovation respectueuse des droits fondamentaux et de renforcer la confiance des citoyens dans les nouvelles technologies, que l’Union européenne a adopté l’AI Act, premier cadre juridique contraignant au monde consacré à l’intelligence artificielle.
Reposant sur une logique de prévention des risques, l’AI Act innove en classant les systèmes d’IA en quatre catégories :
- les systèmes dits « interdits » ou « inacceptables » ;
- les systèmes à « haut risque » (par exemple, un outil de tri de CV classant les candidats à l’emploi) ;
- les systèmes à risque limité ou minimal (chatbots, applications de filtrage anti-spam, etc.) ;
- enfin, les systèmes d’IA à usage général.
La notion de « risque » est définie à l’article 3 §2 comme « la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci ». Autrement dit, tout repose sur l’éventualité, plus ou moins forte, qu’un système d’IA cause un dommage.
Afin de mieux comprendre cette classification, il convient de relever que l’AI Act prohibe huit pratiques considérées comme des formes d’IA interdites, telles que les systèmes utilisés pour le social scoring ou encore la collecte massive et indifférenciée de données issues d’Internet ou de la vidéosurveillance pour constituer des bases de données de reconnaissance faciale (Art 5 §1 et s.).
Point sur les systèmes d’IA à haut risque
Ce sont les systèmes qui concentrent le développement le plus détaillé du texte.
À NOTER – L’annexe III du règlement vient dresser une liste des systèmes d’intelligence artificielle à haut risque visés à l’article 6§2, tandis que l’annexe précédent, le second, établit la liste des infractions pénales visées à l’article 5§1, premier alinéa, point h)iii).
S’agissant de ces systèmes, il conviendra de répondre aux questions suivants afin de saisir l’esprit du texte :
Quels sont les critères des systèmes d’IA présentant à haut risque ?
Aux termes de l’article 6§1 du AI Act 2024, deux conditions cumulatives doivent être réunies afin qu’un système soit considéré comme constituant un haut risque :
- Le système AI est destiné à être utilisé comme composant de sécurité d’un produit ou est lui-même un produit couvert par la législation d’harmonisation de l’Union listé dans l’annexe II ;
- Le produit dont le système AI est le composant de sécurité, ou ledit système lui-même en tant que produit, doit avoir été soumis à une évaluation de conformité en vue de la mise sur le marché ou de la mise en service de ce produit conformément à la législation d’harmonisation de l’Union énumérée à l’annexe II.
Le texte prévoit-il d’autres systèmes que ceux visés dans l’annexe II ?
L’article 6§2 dudit texte précise qu’en plus des systèmes visés le paragraphe précédent, les systèmes référés à l’annexe III doivent également être considérés comme présentant un haut risque.
Quid des systèmes qui influencent le résultat d’une décision ?
Par dérogation au paragraphe précédent, l’article 6§3 du règlement AI 2024 écarte expressément les systèmes « ne présente pas un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision ». Dès lors, des systèmes qui viendraient influencer la consécration d’une prise de décision ne constituent pas nécessairement un haut risque.
Cette classification constitue un repère essentiel, permettant à la fois de déterminer le champ d’application des législations introduites par l’Act et de préciser les obligations qui en découlent pour les fournisseurs et les déployeurs de l’IA. En effet, les fournisseurs d’IA à haut risque ont des obligations strictes auxquelles ils doivent se conformer, notamment l’obligation de fournir des informations claires et adéquates à destination du déployeur, de mettre en place des mesures appropriées de supervision humaine ou encore d’assurer un niveau élevé de robustesse, de cybersécurité et de précision.
Sanctions- La réglementation prévoit des sanctions strictes en cas de non-respect des dispositions applicables aux acteurs concernés. Ainsi, le non-respect des interdictions relatives aux systèmes d’IA dits « inacceptables » peut entraîner une amende administrative pouvant aller jusqu’à 35 millions d’euros ou, s’il s’agit d’une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial de l’exercice précédent, le montant le plus élevé étant retenu. (Art 49 §3).
Champ d’application temporel- L’application des dispositions varie selon la classification des systèmes. Si certaines s’appliquent immédiatement, d’autres sont échelonnées : six mois après l’adoption (2 février 2025) pour les systèmes d’IA interdits, un an (2 août 2025) pour les modèles d’IA à usage général, et deux à trois ans (2 août 2026 ou 2 août 2027) pour les systèmes d’IA à haut risque.
En somme, l’AI Act cherche avant tout à s’assurer que « les Européens puissent avoir confiance dans ce que l’intelligence artificielle a à offrir ».[8] .
Afin de s’assurer que cet objectif soit réellement accompli et garanti, le texte confie à l’Office européen de l’IA ainsi qu’aux autorités nationales des États membres la mission de mettre en œuvre, de superviser et de faire respecter ses dispositions.
Sur le plan international, l’accueil du texte s’est révélé contrasté. Lors du Sommet de l’IA de Paris en 2024, le vice-président américain J. D. Vance a accusé l’Union européenne de promouvoir une régulation jugée « excessive » de l’IA et a explicitement refusé de signer l’engagement.
Malgré le fait que l’Union se soit penché sur la thématique des droits fondamentaux, le mécanisme mis en place quant à leur protection peut nonobstant poser question.
II. Les limitations majeures du texte européen dans la défense des droits fondamentaux
Afin d’appréhender les limites de ce texte supranational, ce développement se concentrera sur deux éléments essentiels ; l’articulation d’un système de risque d’une part (A.), et la mise en place d’un double degré de protection d’autre part (B.).
A. La difficile articulation du concept du risque dans la sauvegarde des droits fondamentaux
Comme il a été établi précédemment, un concept non négligeable se trouve au cœur de la proposition du texte de la Commission européenne et vient par conséquent tempérer la sauvegarde des droits fondamentaux : celui du risque.
S’agissant de l’exercice des garanties qu’offre le texte – Selon la catégorie dans laquelle un système se trouve, les restrictions et les obligations établies par l’organisation viennent ou non à s’appliquer, laissant alors place à un véritable flou juridique[9]. Ce phénomène se caractérise par deux éléments ;
- La faculté du fournisseur d’exercer ou non l’évaluation de l’impact sur les droits fondamentaux pour les systèmes qui ne sont pas visés par l’acte comme présentant à haut risque (nous viendrons établir en quoi cela pose une problématique à raison de ce système de classification par délégation) ;
- Une action du justiciable entravée à raison de ladite classification.
En effet, dès lors qu’un système n’est pas classifié comme étant à haut risque, le fournisseur a la faculté et non l’obligation[10] de performer une évaluation de l’impact sur les droits fondamentaux.
À SAVOIR– L’évaluation de l’impact sur les droits fondamentaux, dont la visée est d’assurer que les systèmes d’intelligence artificielle ne compromettent pas des droits tels que le respect à la vie privé, l’égalité, la liberté d’expression ou encore la non-discrimination, est limitée aux systèmes dits à haut risque, c’est-à-dire à ceux qui sont expressément visés à l’annexe III du règlement.
S’agissant de la liste des systèmes d’IA à haut risque – Lorsque la Commission avait usé de sa plume, celle-ci avait voulu assurer une certaine prévisibilité et certitude juridique, et ce en listant les secteurs et systèmes qui seraient automatiquement classifiés comme présentant un haut risque afin qu’il n’y ait place à aucune interprétation.
Cependant, soucieuse de l’obstacle que le caractère automatique de cette approche peut produire[11]en cas de création de systèmes qui présentent une véritable menace à l’égard des droits fondamentaux mais qui ne sont pas expressément visés par le texte, l’article 7 du règlement précise que la liste de ces systèmes présentant un haut risque peut être amendé par l’intermédiaire d’actes délégués. Cet amendement doit se faire au regard d’un critère bien précis : le système doit poser un risque de préjudice à la santé et à la santé ou un risque d’impact négatif sur les droits fondamentaux.
Néanmoins, en dépit de la volonté de la Commission que soit produit un acte clair et prévisible, l’Union européenne a décidé d’ajouter, dans son texte final, notamment à raison de l’incertitude des exceptions liées au rôle des systèmes d’intelligence dans leur prise de décision, des conditions supplémentaires à la dérogation prévue à l’article 6§3. Il instaure également un devoir de surveillance en cas d’erreur de classification. Par conséquent, la formulation de l’article 6 est à présent profondément incertaine, en ce qu’il permet aux fournisseurs de décider lorsqu’un système rentre dans le champ du règlement ou non. La protection des droits fondamentaux est alors déléguée à ceux qui sont susceptibles de les atteindre. Ainsi, comme le formule parfaitement Francesca Palmiotto, le règlement européen « accepte le risque que des droits fondamentaux soient violés jusqu’à ce que les autorités compétentes décident d’agir ».[12]
De plus, les personnes, pourtant concernés par les décisions prises par une intelligence artificielle, ne peuvent exercer leur droit à un explication des décisions individuelles prises par un système d’intelligence artificielle, prévu à l’article 86 du règlement, si le système n’est pas mentionné à l’annexe III. Par conséquent, des atteintes distinctes, c’est-à-dire réalisées par deux systèmes différents, à l’encontre d’un même droit fondamental, n’ouvrent pas nécessairement droit à une action, et cela précisément à raison de la classification faite du système d’intelligence. Quid alors des systèmes qui n’ont pas été visés dans cet annexe et qui pourraient pourtant présenter à un haut risque de préjudice ?
B. L’introduction d’un double standard de protection
Contre toute attente, ce règlement établit un « double standard » de protection à l’égard des individus impactés par les systèmes d’intelligence artificielle, laissant alors transparaître un caractère qui se révèlera discriminant à l’encontre de certaines catégories de personnes [13].
D’entrée de jeu, l’article 2(3) de l’Artificial Intelligence Act, relatif au champ d’application, interroge ;
« Le présent règlement ne s’applique pas aux systèmes d’IA qui ne sont pas mis sur le marché ou mis en service dans l’Union, lorsque les sorties sont utilisées dans l’Union exclusivement à des fins militaires, de défense ou de sécurité nationale, quel que soit le type d’entité exerçant ces activités. »
Contrairement à la proposition de la Commission qui avait « seulement » prévu d’exclure l’application de la régulation pour les systèmes d’intelligences usés par l’armée, la version définitive du texte est ainsi venue élargir l’exception aux systèmes répondant à des buts de défense et de sécurité nationale. Les conséquences sont alors multiples.
Premièrement, lorsque la proposition a été transmise au Conseil, plusieurs États membres ont défendu le raisonnement selon lequel les exigences de transparence étaient en réalité « nocives » en matière de police et de migration, et ont soutenu qu’il fallait ainsi prévoir des exceptions pour des motifs de sécurité. Il en est ressorti que ces États considéraient que de telles exigences affecteraient négativement l’aptitude des autorités, et pourrait exposer les méthodes d’investigation de police aux auteurs d’infraction et aux États dits « hostiles ».
C’est pourquoi, alors que de l’exigence de transparence constituait pour certains une véritable garantie dans la sauvegarde des droits fondamentaux, les individus suspectés ou accusés d’avoir commis un crime, les migrants, les demandeurs d’asile et les réfugiés bénéficient d’un degré plus faible de protection, et ce précisément du fait que le devoir de transparence qui devrait en principe s’exercer ne s’applique pas, conformément à l’article 52 du AIA, en matière de police, de migration, d’asile et du contrôle des frontières.
Aux termes de l’article 52 de la réglementation, dès lors que les systèmes d’IA sont autorisés par la loi afin de détecter, prévenir, enquêter ou poursuivre des infractions pénales, les obligations d’information prévues à l’article 50 de ladite réglementation ne trouvent pas à s’appliquer. Or, certains systèmes peuvent se révéler particulièrement invasifs et préjudiciables, et il est possible de mentionner à titre d’illustration ceux employant la reconnaissance des émotions et des catégorisations biométriques : il n’est ainsi pas interdit d’employer ces méthodes à l’égard de suspects ou d’accusés sans qu’ils en aient même connaissance, portant ainsi atteinte à leur droit à l’image, rattaché au droit au respect à la vie privée et familiale ainsi que le droit à la protection de leurs données à caractère personnel.
Des systèmes d’intelligence, tels que les détecteurs de « deepfakes », d’analyse criminelles et de vérifications, ont même été supprimés de la liste initiale des systèmes à haut risque visés à l’annexe III, et ce à la suite d’un fort lobbying allemand au sein du Conseil [14] qui est venu défendre l’idée de l’adoption d’une réglementation distincte qui porterait sur l’usage de l’intelligence artificielle par les administrations publiques. Dès lors, l’obligation de marquage qu’un contenu est issu de l’intelligence artificielle dans le cadre des deepfakes n’a pas vocation à s’appliquer, et ce malgré les risques de condamnations de justice injustifiées qui pourraient être fondées sur ces matériaux.
C. La faiblesse d’un système de sanctions financières
En vertu de l’article 99 du règlement européen de 2024, les États membres doivent établir des règles et des mesures d’application, ainsi que des avertissements et des sanctions proportionnées en cas de violation ; ils sont tenus de notifier ces règles et toute modification de celles-ci à la Commission. Le non-respect des règles relatives aux risques inacceptables est passible d’une amende pouvant s’élever à 35 Millions d’euros ou, s’il s’agit d’une entreprise, à 7% de son chiffre annuel mondial. S’agissant d’autres violations du règlement, le contrevenant encourt une amende pouvant s’élever à 20 millions d’euros ou, si celui-ci est une entreprise, à 5% de son chiffre d’affaires.
Le règlement consacre ainsi un véritable régime de sanctions financières en cas de non-respect des obligations imposées, dont l’entrée en vigueur se fera le 2 août 2026 : la volonté semble être de dissuader, et ce par une punition financière lourde, les organismes de passer à l’acte. Nonobstant, à bien des égards, ce système doit faire face à des obstacles réels [15] .
En effet, si ces amendes peuvent faire pression sur les entreprises et autres organisations et à juste titre [16], celles-ci se révèlent néanmoins insuffisantes pour freiner des particuliers ou les auteurs venant d’un État au sein duquel la loi en la matière se révèle particulièrement laxiste. S’agissant de la nature des sanctions en eux-mêmes, elles ne visent qu’à réprimer les violations, et cela a posteriori ; par conséquent, notamment dans le cadre des deepfakes, ces derniers peuvent sans difficultés être créés et se propagés sur l’Internet, et cela de manière irréversible.
Mots de la fin
Malgré une volonté croissante de replacer les droits subjectifs au centre de la législation européenne, et ce en prenant en considération l’époque dans laquelle nous vivons, c’est-à-dire à l’essor fulgurant de l’intelligence artificielle, ce règlement suggère un véritable besoin d’amendements afin d’assurer, précisément, la protection des droits fondamentaux à l’échelle de l’Union.
En toute évidence, le défaut d’un mécanisme solide de contrôle de ces systèmes, et ce notamment par cette délégation faite dangereusement aux fournisseurs ainsi que par l’absence de possibilité d’exercer un recours pour les particuliers, et l’exclusion catégorique de l’application du texte pour certains systèmes, fragilisent fortement l’esprit premier de la réglementation.
Également, l’introduction d’un système de sanctions ne vient malheureusement pas combler le risque de violations graves des droits fondamentaux garantis par la Charte européenne.
Il convient cependant de noter que cette volonté de légiférer autour de nos droits laisse transparaître une tendance qui vise à « actualiser », en quelque sorte, notre ordre juridique afin de chercher à prévoir et à répondre aux défis auxquels nous devons et aurons à faire face dans le présent et dans le futur.
Il ne s’agira dès lors pas de concevoir ce texte comme une finalité, mais comme une tentative qui permettra, nous l’espérons dans un futur proche, la rédaction d’un texte plus respectueux des droits fondamentaux de chacun.
Notes
[1] U. von der Leyen, Présidente de la Commission européenne, « So, this is a historic moment. The AI Act transposes European values to a new era », Déclaration à l’occasion de l’accord politique sur l’AI Act, 11 déc. 2023 [en ligne] : https://digital-strategy.ec.europa.eu/en/news/commission-welcomes-political-agreement-artificial-intelligence-act(consulté le 1er sept. 2025).
[2] The New York Times, « Europe Reaches Deal on Landmark Artificial Intelligence Rules », 8 décembre 2023 : « The agreement represents a new step for countries seeking to harness the potential benefits of the technology while fighting for protections against its risks » [en ligne] : https://www.nytimes.com/2023/12/08/technology/eu-ai-act.html (consulté le 1er septembre 2025).
[3] Vanessa Barbé, « La place des droits fondamentaux dans l’AI Act », Dalloz IP/IT, 2025, p. 93.
[4] UK Government, A Pro-Innovation Approach to AI Regulation (White Paper, March 2023, CP 815), p. 6 : « We will not put these principles on a statutory footing initially. New rigid and onerous legislative requirements on businesses could hold back AI innovation and reduce our ability to respond quickly and in a proportionate way to future technological advances. Instead, the principles will be issued on a non-statutory basis and implemented by existing regulators. » (consulté le 5 septembre 2025)
[5] ² Medicines and Healthcare products Regulatory Agency (MHRA), Software and AI as a Medical Device Change Programme – Roadmap (2022), disponible en ligne : https://www.gov.uk/government/publications/software-and-ai-as-a-medical-device-change-programme/software-and-ai-as-a-medical-device-change-programme-roadmap. (consulté le 5 septembre 2025)
[6] Commission européenne (Groupe d’experts de haut niveau sur l’IA), « Ethics Guidelines for Trustworthy AI» , 8 avril 2019 [en ligne] : https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (consulté le 1er septembre 2025).
[7] Conseil de l’Union européenne, « Déclaration européenne sur les droits et principes numériques pour la décennie numérique» , 15 décembre 2022 [en ligne] : https://www.consilium.europa.eu/fr/press/press-releases/2022/12/15/declaration-on-digital-rights-and-principles-eu-values-and-citizens-at-the-centre-of-digital-transformation/ (consulté le 1er septembre 2025).
[8] (Commission européenne, Regulatory framework proposal on artificial intelligence, consulté le 1er sept. 2025)
[9] « The AI Act Roller Coaster : The Evolution of Fundamental Rights Protection in the Legislative Process and the Future of the Regulation », Francesca Palmiotto, Cambridge University Press (disponible en ligne): https://www.cambridge.org/core/services/aop-cambridge-core/content/view/5B512DDF859B55D549A7F5D21792AD73/S1867299X24000977a.pdf/the-ai-act-roller-coaster-the-evolution-of-fundamental-rights-protection-in-the-legislative-process-and-the-future-of-the-regulation.pdf / « Limitations and Loopholes in the EU AI Act and AI Liability directives : What it means for the European Union, the United States and Beyond », Sandra Wachter, Yale Journal of Law & Technology, Volume 26, Issues 3 (disponible en ligne) : https://yjolt.org/sites/default/files/wachter_26yalejltech671.pdf#page13
[10] « La place des droits fondamentaux dans l’AI Act », Vanessa Barbé, Dalloz IP/IT 2025 p.93
[11] « The AI Act Roller Coaster : The Evolution of Fundamental Rights Protection in the Legislative Process and the Future of the Regulation », Francesca Palmiotto, Cambridge University Press (disponible en ligne): https://www.cambridge.org/core/services/aop-cambridge-core/content/view/5B512DDF859B55D549A7F5D21792AD73/S1867299X24000977a.pdf/the-ai-act-roller-coaster-the-evolution-of-fundamental-rights-protection-in-the-legislative-process-and-the-future-of-the-regulation.pdf
[12] Idem
[13]« Failing where it matters most ? », December 22, 2022, THE DIGITAL CONSTITUTIONALIST (disponible en ligne) : https://digi-con.org/failing-where-it-matters-most/
[14] « The AI Act Roller Coaster : The Evolution of Fundamental Rights Protection in the Legislative Process and the Future of the Regulation », Francesca Palmiotto, Cambridge University Press (disponible en ligne): https://www.cambridge.org/core/services/aop-cambridge-core/content/view/5B512DDF859B55D549A7F5D21792AD73/S1867299X24000977a.pdf/the-ai-act-roller-coaster-the-evolution-of-fundamental-rights-protection-in-the-legislative-process-and-the-future-of-the-regulation.pdf
[15] « Deepfakes, Deep Trouble : The European AI Act and the Fight Against AI-Generated Mininformation », November 11, 2024, Columbia Journal of European Law : https://cjel.law.columbia.edu/preliminary-reference/2024/deepfake-deep-trouble-the-european-ai-act-and-the-fight-against-ai-generated-misinformation/
[16]« L’IA à l’épreuve du droit : sanction infligée par la CNIL italienne à OpenAI », Livio Daniel Orsi, La Revue Européenne des médiats et du numérique, n°72 Hiver 2024-2025 (disponible en ligne) : https://la-rem.eu/2025/04/lia-a-lepreuve-du-droit-sanction-infligee-par-la-cnil-italienne-a-openai/
sources
– AI Act 2024, Union Européenne
– « The AI Act Roller Coaster : The Evolution of Fundamental Rights Protection in the Legislative Process and the Future of the Regulation », Francesca Palmiotto, Cambridge University Press
– « La place des droits fondamentaux dans l’AI Act », Vanessa Barbé, Dalloz IP/IT 2025 p.93
– « Limitations and Loopholes in the EU AI Act and AI Liability directives : What it means for the European Union, the United States and Beyond », Sandra Wachter, Yale Journal of Law & Technology, Volume 26, Issues 3
– « Failing where it matters most ? », December 22, 2022, THE DIGITAL CONSTITUTIONALIST
– « The EU AI Act : A Medley of Product Safety and Fundamental Rights », RSC 2023/59, Marco Almada & Nicolas Petit, European University Institute, Robert Schuman Centre for Advanced Studies
– « Deepfakes, Deep Trouble : The European AI Act and the Fight Against AI-Generated Mininformation », November 11, 2024, Columbia Journal of European Law
– « L’IA à l’épreuve du droit : sanction infligée par la CNIL italienne à OpenAI », Livio Daniel Orsi, La Revue Européenne des médiats et du numérique, n°72 Hiver 2024-2025
Zahra Haddad, Responsable du pôle DIH
Inès Perreau–Appleton, Trésorière
