Retour au blog
Juridique

IA et mineurs : ce que dit la loi en Europe

IA et mineurs : ce que dit la loi en Europe
Par Joan Pons 14 min min de lecture

L'Union europeenne dispose d'un cadre reglementaire complet pour proteger les mineurs face a l'IA : l'EU AI Act, le RGPD et le DSA. Ces lois exigent le consentement parental, la transparence algorithmique et une protection des donnees specifique aux mineurs, mais la plupart des chatbots populaires ne les respectent pas.

Un cadre reglementaire qui existe deja (mais que peu connaissent)

L'Union europeenne a construit le cadre juridique le plus avance au monde pour la protection des mineurs dans l'environnement numerique. L'EU AI Act, le RGPD et le DSA creent un systeme d'obligations concretes pour les entreprises d'IA, mais 49 % des parents ignorent quels droits ils ont et quelles obligations incombent aux entreprises (Pew Research, 2025). C'est ce fosse de connaissances que cet article vise a combler.

Il n'est pas vrai que nous soyons dans un "vide juridique". L'Europe dispose du cadre reglementaire le plus avance au monde pour la protection des mineurs face a l'IA. Le probleme n'est pas l'absence de lois, mais le fait que la plupart des parents ignorent quels droits ils ont et quelles obligations incombent aux entreprises.

Cet article detaille les lois cles qui affectent l'utilisation de l'IA par les mineurs en Europe et ce qu'elles signifient pour vous en tant que parent ou tuteur. Pour comprendre comment un produit concu avec ces principes fonctionne en pratique, consultez notre guide sur qu'est-ce qu'un chatbot supervise.


EU AI Act : le Reglement Europeen sur l'Intelligence Artificielle

L'EU AI Act (Reglement (UE) 2024/1689) est la premiere reglementation globale sur l'intelligence artificielle au monde. Il est entre en vigueur progressivement depuis 2024, avec une applicabilite complete en 2026.

Categories de risque

L'EU AI Act classe les systemes d'IA en quatre categories selon leur niveau de risque :

Categorie Description Exemples
Risque inacceptable Interdits. Systemes qui manipulent, exploitent des vulnerabilites ou effectuent une notation sociale. Systemes qui exploitent la vulnerabilite des mineurs pour manipuler leur comportement.
Haut risque Autorises avec des exigences strictes. Evaluation de conformite obligatoire. IA en education qui determine l'acces a la formation, systemes d'evaluation des eleves.
Risque limite Obligations de transparence. L'utilisateur doit savoir qu'il interagit avec une IA. Chatbots conversationnels, systemes de recommandation.
Risque minimal Sans exigences specifiques. Filtres anti-spam, jeux video avec IA basique.

Dans quelle categorie se situent les chatbots pour adolescents ?

Les chatbots conversationnels sont generalement classes comme risque limite. Cela implique :

  • Obligation de transparence : L'utilisateur doit savoir a tout moment qu'il parle avec une IA, et non avec une personne.
  • Information claire : Le fournisseur doit expliquer quelles donnees il collecte, comment il les utilise et dans quel but.
  • Droits des utilisateurs : L'utilisateur (ou son tuteur, dans le cas des mineurs) peut demander des informations sur le systeme.

Cependant, il y a une nuance critique : si un chatbot interagit avec des mineurs et peut influencer leur comportement emotionnel ou psychologique, il pourrait etre eleve au rang de haut risque selon l'interpretation des autorites. C'est particulierement pertinent lorsqu'un chatbot :

  • Offre des conseils de sante mentale
  • Genere du contenu susceptible d'affecter le bien-etre emotionnel du mineur
  • Cree une dependance emotionnelle
  • Fonctionne sans supervision parentale

Ce que cela signifie pour les parents

Vous avez le droit de savoir :

  • Que votre enfant interagit avec une IA (et non avec une personne)
  • Quelles donnees le systeme collecte sur votre enfant
  • Comment ces donnees sont traitees
  • Quelles mesures de securite sont mises en oeuvre

Si une plateforme d'IA ne vous fournit pas ces informations de maniere claire, elle enfreint l'EU AI Act.


RGPD : la protection des donnees des mineurs

Le Reglement General sur la Protection des Donnees (RGPD, Reglement (UE) 2016/679) est en vigueur depuis 2018 et comporte des dispositions specifiques pour les mineurs.

A quel age un mineur peut-il donner son consentement concernant ses donnees ?

L'article 8 du RGPD etablit que pour le traitement des donnees personnelles des mineurs en relation avec les services de la societe de l'information :

  • Les mineurs de moins de 16 ans (ou l'age fixe par chaque Etat membre, avec un minimum de 13 ans) : le consentement du titulaire de l'autorite parentale est requis.
  • En France, l'age est fixe a 15 ans.
  • En Espagne, 14 ans. En Allemagne, 16 ans. Aux Pays-Bas, 16 ans.

Cela signifie : Si votre enfant a moins de 15 ans (en France), toute plateforme d'IA qui collecte ses donnees doit obtenir votre consentement explicite avant de lui permettre d'utiliser le service.

Principe de minimisation des donnees

Le RGPD exige que les systemes ne collectent que les donnees strictement necessaires au service. Un chatbot n'a pas besoin de connaitre l'adresse de votre enfant, son ecole ou les noms de ses amis pour fonctionner. S'il le demande, cela devrait declencher un signal d'alarme.

Droit a l'effacement (droit a l'oubli)

Les parents (et les mineurs a leur majorite) peuvent demander la suppression complete de toutes les donnees collectees. L'entreprise est tenue de s'executer sans retard injustifie (maximum 30 jours).

Droit d'acces

Vous avez le droit de demander une copie de toutes les donnees qu'une plateforme a collectees sur votre enfant. Y compris les historiques de conversation, les metadonnees, les profils de comportement et toute analyse derivee.

Evaluation d'impact (AIPD)

Tout systeme d'IA qui traite des donnees de mineurs a grande echelle est tenu de realiser une Analyse d'Impact relative a la Protection des Donnees (AIPD). Si la plateforme utilisee par votre enfant n'a pas realise cette evaluation, elle enfreint le RGPD.


DSA : Digital Services Act

La Loi sur les Services Numeriques (DSA, Reglement (UE) 2022/2065) est entree en pleine application en fevrier 2024 et a des implications directes pour les mineurs :

Interdiction de la publicite ciblee envers les mineurs

Il est interdit d'utiliser les donnees personnelles des mineurs pour leur montrer de la publicite ciblee. Cela inclut les plateformes d'IA qui utiliseraient les donnees de conversation pour personnaliser les publicites.

Obligation de protection des mineurs

Les plateformes doivent mettre en oeuvre des mesures adequates pour garantir un haut niveau de vie privee, de securite et de protection des mineurs dans leurs services.

Transparence algorithmique

Les services doivent expliquer les parametres principaux de leurs systemes de recommandation. Si un chatbot decide quoi repondre en se basant sur un profil du mineur, les parents ont le droit de savoir comment fonctionne ce mecanisme.

Evaluation des risques systemiques

Les plateformes de grande taille (plus de 45 millions d'utilisateurs dans l'UE) doivent realiser des evaluations annuelles des risques systemiques, incluant specifiquement les effets negatifs sur les droits des mineurs.


UK AADC : Children's Code (Code de l'enfant)

Bien que le Royaume-Uni ne fasse plus partie de l'UE, son Age Appropriate Design Code (AADC) est une reference mondiale. Il etablit 15 standards que tout service numerique accessible aux mineurs doit respecter :

  1. Interet superieur de l'enfant comme consideration primordiale
  2. Evaluation d'impact sur les donnees du mineur
  3. Utilisation appropriee a l'age
  4. Transparence dans l'utilisation des donnees
  5. Utilisation prejudiciable des donnees interdite
  6. Politiques et standards communautaires clairs
  7. Configuration par defaut a haute confidentialite
  8. Minimisation des donnees
  9. Partage de donnees restreint
  10. Geolocalisation desactivee par defaut
  11. Controle parental disponible et transparent
  12. Profilage restreint
  13. Techniques de nudge interdites lorsqu'elles sont prejudiciables
  14. Jouets et appareils connectes inclus
  15. Outils en ligne de gestion des donnees accessibles

Pertinence pour les parents en France : Bien que l'AADC soit une legislation britannique, de nombreuses entreprises technologiques l'appliquent a l'echelle mondiale. Si une plateforme respecte l'AADC, c'est un signe positif d'engagement envers la securite des mineurs.


Etats-Unis : COPPA et CA SB 243

Bien que la legislation americaine ne s'applique pas directement en Europe, elle est pertinente car de nombreuses plateformes d'IA sont americaines.

COPPA (Children's Online Privacy Protection Act)

  • Protege les mineurs de 13 ans
  • Requiert un consentement parental verifiable pour collecter des donnees
  • Oblige a publier des politiques de confidentialite claires
  • Permet aux parents de consulter et de supprimer les donnees de leurs enfants

California SB 243 (California AI Transparency Act)

  • Oblige les entreprises d'IA a informer quand un utilisateur interagit avec une IA
  • Exigences specifiques de transparence pour les systemes qui interagissent avec des mineurs
  • Penalites significatives en cas de non-conformite

Ce que cela signifie pour vous : Si votre enfant utilise ChatGPT, Character.AI ou un autre service americain, ces lois devraient s'appliquer. En pratique, le niveau de conformite varie enormement. 53 % des reponses de ChatGPT aux mineurs ont ete classees comme potentiellement nocives (CCDH, 2024), ce qui suggere que la conformite reelle laisse beaucoup a desirer.


Ce que toutes ces lois signifient pour vous en tant que parent

En resume, vos droits fondamentaux :

Vous avez le droit de savoir

  • Que votre enfant parle avec une IA
  • Quelles donnees sont collectees a son sujet
  • Comment ces donnees sont utilisees
  • Si elles sont partagees avec des tiers
  • Quelles mesures de securite existent

Vous avez le droit d'agir

  • Consentir ou refuser l'utilisation du service (pour les mineurs de moins de 15 ans en France)
  • Demander l'acces a toutes les donnees collectees
  • Demander la suppression complete des donnees
  • Deposer une reclamation aupres de la CNIL (Commission Nationale de l'Informatique et des Libertes)

Vous avez le droit d'exiger

  • Une configuration de confidentialite par defaut au niveau le plus eleve
  • De la transparence sur le fonctionnement du systeme
  • Une protection contre la manipulation et l'exploitation des vulnerabilites
  • L'absence de publicite ciblee envers votre enfant mineur

Comment HolaNolis se positionne : "risque limite" par conception

HolaNolis est concu depuis son architecture pour respecter le cadre reglementaire europeen et se positionner comme un systeme a risque limite sous l'EU AI Act. Ce n'est pas un hasard ; c'est une decision strategique et ethique. La raison principale est que Nolis detecte et redirige, mais ne diagnostique jamais : pour comprendre cette distinction cruciale, lisez pourquoi Nolis ne donne pas de conseils medicaux ni psychologiques.

Ce qu'implique la classification de "risque limite"

  • Transparence totale. L'adolescent sait toujours qu'il parle avec une IA. Il n'y a aucune ambiguite.
  • Information claire aux parents. Quelles donnees sont collectees, comment elles sont utilisees, pendant combien de temps elles sont stockees.
  • Supervision parentale integree. Non pas comme un ajout, mais comme un element central du produit.

Pourquoi HolaNolis ne sera jamais "haut risque"

La cle est ce que HolaNolis ne fait pas :

  • Ne diagnostique pas de problemes de sante mentale (cela serait du haut risque)
  • N'evalue pas l'etat emotionnel a des fins cliniques (cela serait du haut risque)
  • Ne prescrit pas de traitements ni d'interventions (cela serait du haut risque)
  • Ne prend pas de decisions affectant l'acces aux services (cela serait du haut risque)

HolaNolis detecte, alerte et redirige. C'est une fonction de compagnie et de securite, pas d'evaluation clinique. La difference reglementaire est enorme.

Mesures specifiques de conformite

  • Chiffrement des donnees personnelles au repos (AES-256-GCM)
  • Minimisation des donnees : seules les donnees strictement necessaires sont collectees
  • Consentement parental verifie pour les mineurs de moins de 15 ans
  • Droit a l'effacement implemente : un clic pour supprimer toutes les donnees
  • Aucune publicite ni profilage a des fins commerciales
  • Analyse d'impact relative a la protection des donnees realisee
  • Alertes de crise gratuites dans tous les forfaits, car la securite n'est pas une fonctionnalite premium

Pourquoi la conformite reglementaire est un avantage, pas un cout

Beaucoup d'entreprises technologiques voient la reglementation comme un obstacle. Chez HolaNolis, nous la voyons comme un avantage concurrentiel.

Quand un chatbot generique dit "nous sommes conformes au RGPD" en petits caracteres, cela signifie generalement qu'il dispose d'un formulaire de consentement et d'une politique de confidentialite de 40 pages que personne ne lit.

Quand HolaNolis dit qu'il est conforme au cadre reglementaire europeen, cela signifie :

  • Que l'architecture du systeme a ete concue de zero pour etre conforme
  • Que la conformite est integree dans chaque decision de produit
  • Qu'un parent peut verifier, a tout moment, quelles donnees le systeme detient sur son enfant
  • Que la securite du mineur est la priorite numero un, au-dessus de l'engagement, de la retention ou des revenus

Dans un marche ou 53 % des reponses de ChatGPT aux mineurs sont classees comme nocives (CCDH, 2024) et aucune des 10 plateformes testees par CNN n'a passe les controles de securite de base (CNN Investigation, 2025), respecter la loi n'est pas seulement une obligation. C'est ce qui vous distingue de la concurrence.


Questions frequentes

Est-il legal que mon enfant mineur utilise ChatGPT en France ? +
Techniquement, pour les mineurs de moins de 15 ans en France, toute plateforme qui collecte des donnees personnelles doit obtenir un consentement parental verifiable. ChatGPT ne verifie pas activement l'age ni ne sollicite ce consentement de maniere robuste. Cela represente un non-respect du cadre legal francais et europeen dans de nombreux cas d'utilisation reels.
A quel age mon enfant peut-il donner son consentement pour le traitement de ses donnees en France ? +
En France, l'age du consentement numerique est de 15 ans. Entre 15 et 17 ans, le mineur peut consentir par lui-meme, bien que les parents conservent d'autres droits au titre de l'autorite parentale. En dessous de 15 ans, le consentement parental est obligatoire pour tout service numerique qui collecte des donnees.
Quels droits ai-je en tant que parent sur les donnees de mon enfant dans les plateformes d'IA ? +
En vertu du RGPD, vous avez le droit d'acces (copie de toutes les donnees), le droit a l'effacement (suppression complete sous 30 jours maximum), le droit a la portabilite et le droit d'opposition au traitement. Pour les mineurs de moins de 15 ans en France, vous avez egalement le droit de consentir ou de refuser l'utilisation du service. Vous pouvez exercer ces droits directement aupres de la plateforme ou reclamer aupres de la CNIL.
Quel niveau de risque l'EU AI Act attribue-t-il aux chatbots conversationnels pour adolescents ? +
Les chatbots conversationnels sont generalement classes comme "risque limite" sous l'EU AI Act, avec des obligations de transparence. Cependant, si un chatbot donne des conseils de sante mentale, cree une dependance emotionnelle ou fonctionne sans supervision parentale avec des mineurs, il pourrait etre eleve a "haut risque", avec des exigences d'audit et de certification beaucoup plus strictes.
Comment puis-je signaler une plateforme d'IA qui ne respecte pas la protection des donnees de mon enfant ? +
Vous pouvez deposer une reclamation aupres de la CNIL sur cnil.fr. Vous pouvez egalement contacter directement la plateforme en exercant vos droits RGPD. Pour les infractions graves, la CNIL peut imposer des amendes allant jusqu'a 20 millions d'euros ou 4 % du chiffre d'affaires annuel mondial de l'entreprise.

Conclusion : connaissez vos droits, utilisez-les

La legislation europeenne vous donne des outils reels pour proteger votre enfant dans le monde numerique. Le probleme n'est pas le manque de lois, mais le manque de connaissance a leur sujet.

En tant que parent ou tuteur :

  1. Demandez aux plateformes utilisees par votre enfant quelles donnees elles collectent et comment elles les protegent.
  2. Exercez votre droit d'acces : demandez une copie des donnees de votre enfant.
  3. Verifiez que les plateformes ont une configuration de confidentialite par defaut elevee.
  4. Signalez aupres de la CNIL si une plateforme ne respecte pas ses obligations.
  5. Choisissez des services concus pour respecter la reglementation, pas pour la contourner.

La protection des mineurs dans l'environnement numerique n'est pas seulement la responsabilite des entreprises technologiques ni des gouvernements. C'est aussi la responsabilite des parents : s'informer, exiger et choisir avec discernement. Pour un guide pratique sur la facon de proteger votre adolescent sur internet en combinant outils et dialogue, lisez notre guide complet pour proteger votre adolescent sur internet.

Vous pouvez egalement approfondir avec notre guide de l'IA sure pour les adolescents ou vous inscrire pour acceder a HolaNolis.

Ressources utiles

  • CNIL (Commission Nationale de l'Informatique et des Libertes) : cnil.fr
  • EU AI Act (texte complet) : eur-lex.europa.eu
  • ANSSI (Agence Nationale de la Securite des Systemes d'Information) : ssi.gouv.fr — Ressources specifiques pour les familles
  • Internet Sans Crainte : internetsanscrainte.fr — Programme de sensibilisation pour les jeunes

Vous souhaitez protéger votre enfant avec une IA sûre ?

Commencer gratuitement
JP

Joan Pons

Fondateur d'HolaNolis · Père

Père, ingénieur en télécommunications et entrepreneur. HolaNolis est né à la maison : en voyant mes enfants commencer à utiliser l'IA, je me suis inquiété comme n'importe quel parent et j'ai décidé de construire l'outil que j'aurais aimé avoir. Je le développe comme projet familial, car la sécurité des adolescents avec l'IA ne peut pas être qu'une affaire — c'est personnel. Je suis aussi fondateur et CEO de WorkMeter, entreprise leader en mesure de productivité.

LinkedIn