Retour au blog
Securite

Pourquoi Nolis ne donne pas de conseils medicaux ou psychologiques

Pourquoi Nolis ne donne pas de conseils medicaux ou psychologiques
Par Joan Pons 13 min min de lecture

Nolis ne donne pas de conseils medicaux ni psychologiques parce qu'aucune IA ne devrait le faire avec des mineurs. Au lieu de diagnostiquer ou de prescrire, Nolis detecte les schemas de risque, alerte les tuteurs en temps reel et redirige l'adolescent vers des professionnels qualifies. Cette limitation est un atout de securite, pas une lacune.

Au cours des deux dernieres annees, les titres concernant l'intelligence artificielle et les adolescents sont devenus de plus en plus preoccupants. Des chatbots qui recommandent des regimes allant jusqu'a 700 calories en dessous du minimum sain pour les adolescents (Stanford HAI, 2025). Des assistants virtuels qui suggerent d'arreter les medicaments psychiatriques. Des applications qui "diagnostiquent" l'anxiete ou la depression a partir d'un questionnaire de cinq questions. Et le plus grave : des jeunes qui suivent ces conseils a la lettre parce qu'ils font plus confiance a l'IA qu'a un adulte.

Lorsque nous avons concu HolaNolis, nous avons pris une decision qui peut sembler etre une limitation pour certains : Nolis ne donne pas de conseils medicaux ni psychologiques. Jamais. Ni maintenant, ni dans les versions futures. Ce n'est pas une erreur, ce n'est pas une lacune. C'est une decision ethique, reglementaire et de securite que nous considerons comme l'une de nos plus grandes forces.

Pourquoi est-il dangereux qu'une IA donne des conseils de sante aux adolescents ?

Pour comprendre pourquoi cette decision est si importante, voyons ce qui se passe actuellement.

La confiance aveugle dans l'IA

Les etudes les plus recentes montrent une tendance alarmante : les adolescents font plus confiance aux reponses d'une IA qu'a celles d'un moteur de recherche, et dans de nombreux cas plus qu'a celles de leurs propres parents ou professeurs. Cela s'explique psychologiquement :

  • L'IA repond immediatement, sans juger, sans demander "pourquoi veux-tu savoir ca ?"
  • L'IA parait sure d'elle. Elle ne dit pas "je ne sais pas" ni "ca depend". Elle genere des reponses avec un ton d'autorite que les adultes utilisent rarement.
  • L'IA est privee. Un adolescent peut poser des questions sur les symptomes de la depression sans craindre que quelqu'un le sache.
  • L'IA est toujours disponible. A 3 heures du matin, quand l'anxiete est a son comble, il n'y a pas d'autre interlocuteur.

Les cas reels

Ce ne sont pas des hypotheses. Ce sont des faits documentes :

  • Regimes dangereux : des chatbots generalistes qui generent des "plans alimentaires" de 900-1200 calories pour des adolescents de 13 ans, sans considerer qu'un mineur en croissance a besoin de significativement plus. Dans certains cas, les regimes generes etaient 700 calories en dessous du minimum sain (Stanford HAI, 2025).
  • Arret de medication : des IA qui suggerent des "alternatives naturelles" a des medicaments psychiatriques prescrits par des professionnels, avec des consequences potentiellement fatales.
  • Autodiagnostic errone : des mineurs qui se convainquent de souffrir de troubles sur la base d'interactions avec des chatbots et qui, soit retardent la consultation avec un professionnel, soit developpent une anxiete supplementaire pour un diagnostic qui n'existe pas.
  • Incidents graves avec des chatbots de compagnie : 14 deces d'adolescents ont ete lies a des chatbots sans supervision (Associated Press, 2025), incluant des cas ou le chatbot n'a pas detecte de signaux clairs d'ideation suicidaire ou, pire, a renforce des narratifs destructeurs.

Pourquoi c'est dangereux

La racine du probleme est triple :

  1. L'IA n'est pas qualifiee. Elle n'a pas de formation medicale, ne peut pas examiner le patient, ne connait pas son historique, ne peut pas faire de tests. Sa "connaissance" est un schema statistique, pas une comprehension clinique.
  2. L'IA n'a pas de responsabilite legale. Si un medecin donne un mauvais conseil, il existe des mecanismes de responsabilite. Si une IA recommande un regime dangereux, personne n'en repond.
  3. Les adolescents ne filtrent pas. Un adulte peut (mais pas toujours) recouper l'information. Un adolescent de 13 ans qui a 2 heures du matin cherche "comment arreter d'etre triste" n'a pas cette capacite de filtre.

La position de HolaNolis : compagnon, PAS conseiller

HolaNolis part d'un principe que nous repetons en interne comme un mantra : detecter, alerter, rediriger. Jamais diagnostiquer, prescrire ni conseiller.

Cela se traduit par un comportement tres specifique de Nolis :

Ce que Nolis FAIT

  • Reflete les sentiments : "On dirait que tu te sens frustre par cette situation" ou "Il semble que ca a ete une journee difficile". Nolis agit comme un miroir emotionnel qui aide le mineur a identifier et nommer ce qu'il ressent, sans interpreter ni evaluer.
  • Valide sans juger : "C'est normal de se sentir ainsi quand ces choses arrivent" ou "Beaucoup de gens se sentiraient pareil dans ta situation". La validation emotionnelle est profondement therapeutique et ne necessite pas d'etre un professionnel de la sante.
  • Encourage a parler a des adultes de confiance : "As-tu pu en parler a quelqu'un ? Parfois, le fait de se confier a quelqu'un de confiance aide beaucoup" ou "Y a-t-il un adulte avec qui tu te sens a l'aise pour en parler ?"
  • Fournit les coordonnees de lignes d'aide professionnelle : quand la situation l'exige, Nolis propose des numeros de telephone et des ressources de crise localisees (3114 - numero national de prevention du suicide, Fil Sante Jeunes, services equivalents dans chaque pays).
  • Active les alertes de crise : s'il detecte des signaux de risque grave (autolesion, ideation suicidaire, abus), le systeme notifie le tuteur en quelques secondes. Cela se produit de maniere automatique et infaillible grace au pipeline de securite a quatre couches.

Ce que Nolis ne fait JAMAIS

  • Ne diagnostique pas : il ne dira jamais "il semble que tu souffres d'anxiete" ou "ca ressemble a de la depression". Il n'a ni la qualification ni les informations pour le faire.
  • Ne prescrit pas : il ne suggerera jamais de medicaments, de supplements, de doses ni de "remedes naturels".
  • Ne recommande pas de regimes : il ne generera jamais de plans alimentaires, ne comptera pas de calories et ne fera pas de commentaires sur le poids ou l'image corporelle.
  • Ne donne pas de conseils therapeutiques : il ne dira jamais "tu devrais essayer cette technique de relaxation pour ton anxiete" ni "ce dont tu as besoin, c'est de parler davantage de ton traumatisme".
  • Ne remplace pas un professionnel : si le mineur demande de l'aide en sante mentale, Nolis redirige toujours vers des personnes qualifiees.

Pourquoi cela rend HolaNolis PLUS precieux, pas moins ?

Cela peut sembler contre-intuitif : un chatbot qui ne donne pas de conseils est-il meilleur qu'un qui en donne ? Absolument, et pour plusieurs raisons.

1. La securite comme proposition de valeur

Pour un parent, savoir que l'IA avec laquelle parle son enfant de 13 ans ne lui suggerera jamais un regime, un diagnostic ou d'arreter ses medicaments a une valeur inestimable. C'est la difference entre laisser votre enfant dans une piscine avec ou sans maitre-nageur.

2. L'effet passerelle

Nolis ne pretend pas resoudre les problemes de sante ; il pretend construire un pont vers ceux qui peuvent les resoudre. Un adolescent qui parle a Nolis de sa tristesse et recoit la suggestion de parler a un adulte a plus de chances de le faire qu'un adolescent qui n'a jamais verbalise cette tristesse. Nolis est la premiere etape, pas la derniere.

3. L'ecoute sans consequences

Parfois, un adolescent a simplement besoin de dire a voix haute ce qu'il ressent sans que personne ne passe en "mode solution". Nolis offre exactement cela : un espace ou exprimer ses emotions sans recevoir un diagnostic, un jugement ou un plan d'action non sollicite.

4. La detection precoce

Paradoxalement, un systeme qui ne donne pas de conseils mais qui detecte et alerte peut etre plus efficace qu'un systeme qui tente de traiter. Car la detection precoce par un systeme d'IA, combinee a l'intervention d'un professionnel humain, est une combinaison extraordinairement puissante. Pour apprendre a identifier ces signaux en tant que parent, lisez les 5 signes que votre adolescent a besoin de soutien emotionnel.

L'avantage reglementaire : "risque limite" sous l'EU AI Act

La decision de ne pas donner de conseils n'est pas seulement ethique ; elle est aussi strategique au niveau reglementaire.

Le Reglement Europeen sur l'Intelligence Artificielle (EU AI Act), en vigueur depuis 2025, classe les systemes d'IA en quatre niveaux de risque :

  • Risque inacceptable : interdit (manipulation subliminale, notation sociale...)
  • Haut risque : reglementation stricte, audits, certifications
  • Risque limite : obligations de transparence
  • Risque minimal : libre utilisation

Une IA qui donnerait des conseils medicaux ou psychologiques a des mineurs se situerait clairement dans la categorie de haut risque, avec toutes les obligations reglementaires que cela implique (et a juste titre). Pour comprendre le cadre legal complet qui entoure l'IA et les mineurs, consultez notre article sur l'IA et les mineurs : ce que dit la loi en Europe.

En positionnant Nolis comme un compagnon conversationnel qui detecte et redirige mais ne diagnostique ni ne conseille jamais, HolaNolis se situe dans la categorie de risque limite. Ce n'est pas une astuce reglementaire ; c'est une consequence naturelle de faire les choses correctement. Quand votre conception ethique coincide avec la reglementation, c'est le signe que l'approche est la bonne.

Le cadre ethique : la securite d'un mineur passe toujours en premier

Chez HolaNolis, nous suivons un ordre de priorites qui ne varie jamais :

  1. Securite du mineur : au-dessus de tout, y compris l'experience utilisateur, les metriques d'engagement et la rentabilite.
  2. Conformite reglementaire : respecter la loi n'est pas optionnel.
  3. Confiance parentale : les parents doivent savoir que l'outil agit dans le meilleur interet de leur enfant.
  4. Experience de l'adolescent : que Nolis soit attractif, interessant et utile, dans les limites des points precedents.

Cet ordre implique des decisions difficiles. Il serait plus "amusant" que Nolis puisse parler de regimes ou donner des conseils sur la gestion de l'anxiete. Cela augmenterait probablement le temps d'utilisation. Mais augmenter l'engagement au detriment de la securite est exactement ce que les reseaux sociaux font depuis une decennie, et les resultats sont la.

Nous ne voulons pas etre un autre outil qui privilegie les metriques au detriment des personnes. Surtout quand ces personnes ont entre 10 et 20 ans.

Ce que les parents devraient savoir sur l'IA et les conseils de sante

Si votre enfant utilise une IA conversationnelle (pas seulement HolaNolis), voici les points cles a garder a l'esprit :

  • Aucune IA generaliste n'est qualifiee pour donner des conseils de sante. Ni ChatGPT, ni Gemini, ni Claude, ni Nolis. Aucune.
  • Les avertissements ne suffisent pas. "Ceci ne remplace pas un avis medical" a la fin d'un plan de regime de 1000 calories ne protege pas votre enfant de le suivre.
  • La rapidite et la disponibilite sont un risque. A 3 heures du matin, l'IA est le seul interlocuteur. Et a cette heure-la, la capacite de jugement est minimale.
  • Parlez a votre enfant de la difference entre se confier a une IA (sain) et lui demander des solutions de sante (dangereux). Pour des guides de conversation concrets, lisez comment parler de securite numerique a votre adolescent.

Quand chercher une aide professionnelle

Tout ce qu'un adolescent confie a une IA ne necessite pas d'intervention. Mais il y a des signaux clairs qu'il est temps de chercher l'aide d'un professionnel :

  • Changements persistants dans le sommeil, l'appetit ou l'energie (plus de deux semaines)
  • Isolement social qui ne repond pas a des causes concretes
  • Expressions de desespoir ("rien n'a de sens", "peu importe ce que je fais")
  • Autolesion ou mention d'autolesion, dans n'importe quel contexte
  • Changements brusques de comportement (agressivite, pleurs frequents, abandon d'activites)
  • Obsession pour le poids, la nourriture ou l'image corporelle

Si HolaNolis detecte l'un de ces signaux, il activera le protocole d'alerte. Mais n'attendez pas qu'une IA vous le dise : si vous observez ces changements, agissez. Votre medecin, un psychologue de l'enfance et de l'adolescence ou les lignes d'aide specialisees sont la prochaine etape.


Questions frequentes

Que fait Nolis si mon enfant lui dit qu'il est triste ou qu'il se sent mal ? +
Nolis ecoute, valide le sentiment ("c'est normal de se sentir ainsi") et encourage le mineur a parler a un adulte de confiance. S'il detecte des signaux de risque plus graves, il active le protocole d'alerte : il repond avec empathie au mineur, lui propose des ressources professionnelles et notifie le tuteur en quelques secondes. Il ne diagnostique jamais et ne donne jamais de conseils therapeutiques.
Nolis peut-il remplacer un psychologue pour mon enfant ? +
Non, et il ne doit jamais essayer de le faire. Nolis est un compagnon conversationnel, pas un therapeute. Sa fonction est de detecter les signaux de risque, d'alerter les tuteurs et de rediriger le mineur vers des professionnels qualifies. 1 adolescent sur 7 souffrant d'un trouble de sante mentale (OMS, 2024) a besoin d'une aide professionnelle reelle, pas de substituts numeriques.
Que se passe-t-il si mon enfant mentionne des troubles alimentaires ou des problemes avec la nourriture ? +
Nolis ne generera jamais de plans de regime, ne comptera pas de calories et ne commentera pas le poids ou l'image corporelle. S'il detecte des conversations sur la restriction alimentaire ou des comportements preoccupants lies a la nourriture, il active le protocole d'alerte et redirige le mineur vers des ressources specialisees en troubles du comportement alimentaire.
Pourquoi Nolis ne peut-il pas donner des conseils de sante basiques s'il est bien documente qu'ils sont sans danger ? +
Parce que "basique" et "sans danger" dependent de chaque individu, et Nolis n'a pas acces a l'historique medical, aux allergies, aux medicaments ou aux conditions preexistantes du mineur. Ce qui est inoffensif pour l'un peut etre dangereux pour un autre. La seule position responsable pour une IA qui parle avec des mineurs est de ne pas donner de conseils de sante et de toujours rediriger vers des professionnels.
En combien de temps l'alerte de crise arrive-t-elle au tuteur ? +
Les alertes de crise parviennent au tuteur en quelques secondes apres que Nolis a detecte les indicateurs de risque. Le systeme fonctionne en temps reel, 24 heures sur 24, y compris les week-ends et jours feries. Les alertes arrivent par email et notification push (si elles sont activees) et incluent le contexte sur le type et le niveau d'urgence du risque detecte.

En resume

Nolis ne donne pas de conseils medicaux ni psychologiques parce que aucune IA ne devrait le faire. Non pas parce qu'il ne le peut pas techniquement, mais parce que le faire serait irresponsable, dangereux et contraire a tout ce que HolaNolis represente.

Ce que Nolis offre est quelque chose qu'aucun autre chatbot pour adolescents ne combine : un espace sur pour s'exprimer, un systeme de detection qui fonctionne 24 heures sur 24, des alertes qui parviennent aux parents en quelques secondes, et une redirection constante vers les professionnels qui peuvent reellement aider.

Car la meilleure IA pour les adolescents n'est pas celle qui a toutes les reponses. C'est celle qui sait quand elle ne devrait pas repondre. Si vous voulez decouvrir comment le systeme fonctionne en pratique, consultez le guide rapide des premiers pas ou visitez les fonctionnalites de HolaNolis.

Vous souhaitez protéger votre enfant avec une IA sûre ?

Commencer gratuitement
JP

Joan Pons

Fondateur d'HolaNolis · Père

Père, ingénieur en télécommunications et entrepreneur. HolaNolis est né à la maison : en voyant mes enfants commencer à utiliser l'IA, je me suis inquiété comme n'importe quel parent et j'ai décidé de construire l'outil que j'aurais aimé avoir. Je le développe comme projet familial, car la sécurité des adolescents avec l'IA ne peut pas être qu'une affaire — c'est personnel. Je suis aussi fondateur et CEO de WorkMeter, entreprise leader en mesure de productivité.

LinkedIn