Per què Nolis no dóna consells mèdics ni psicològics
Nolis no dóna consells mèdics ni psicològics perquè cap IA ho hauria de fer amb menors. En lloc de diagnosticar o prescriure, Nolis detecta patrons de risc, alerta els tutors en temps real i redirigeix l'adolescent cap a professionals qualificats. Aquesta limitació és un avantatge de seguretat, no una mancança.
La temptació de la IA com a terapeuta
Imagina't la següent escena: un adolescent de 14 anys no pot dormir. Són les 2 de la matinada, se sent ansiós, i no vol despertar els seus pares. Agafa el mòbil i escriu a un chatbot: "Tinc molta ansietat i no puc dormir. Què hauria de fer?"
En qüestió de segons, el chatbot respon amb una llista detallada de tècniques de respiració, suggeriments sobre meditació, consells sobre higiene del son i, potser, fins i tot una menció a suplements de melatonina. Tot sembla molt professional, molt complet, molt útil.
I aquí és on rau el perill.
Perquè aquell chatbot no és un professional de la salut. No coneix l'historial mèdic de l'adolescent. No sap si pren medicació. No pot avaluar si l'ansietat és situacional o simptomàtica d'un trastorn més greu. No pot fer seguiment. I, sobretot, no pot detectar si darrere d'aquella "ansietat" hi ha una crisi que necessita intervenció immediata.
Segons les dades, 5,2 milions d'adolescents als Estats Units han buscat suport emocional en chatbots d'IA (Pew Research, 2025). No en professionals. No en familiars. En programes informàtics que generen text estadísticament probable. I el 53% de les respostes de ChatGPT es consideren potencialment perjudicials per a menors de 13 anys (CCDH, 2024).
Per què la IA no hauria de donar consells de salut a menors
1. La IA no diagnostica, simula
Els models de llenguatge no "entenen" la salut mental. Generen text basat en patrons estadístics. Quan un chatbot diu "podries tenir un trastorn d'ansietat generalitzada", no ho ha diagnosticat: ha generat una frase que estadísticament és probable en el context de la conversa. La diferència és enorme i potencialment letal.
2. No té context clínic
Un professional de la salut mental avalua:
- Historial mèdic complet.
- Medicació actual.
- Context familiar i social.
- Evolució temporal dels símptomes.
- Comunicació no verbal: to de veu, expressió facial, postura.
- Factors de risc específics.
Un chatbot no té accés a res d'això. Treballa amb el text pla que rep, sense cap context clínic. És com si un metge fes un diagnòstic llegint només un SMS.
3. Pot retardar l'ajuda real
Quan un adolescent rep "consells" d'una IA que semblen útils, pot sentir que ja ha resolt el problema. Això pot retardar la cerca d'ajuda professional durant setmanes, mesos o fins i tot anys. I en salut mental adolescent, el temps és un factor crític: el 50% dels trastorns mentals comencen abans dels 14 anys (WHO, 2024), i una intervenció primerenca pot canviar la trajectòria de tota una vida.
4. Pot donar consells perillosos
Casos documentats inclouen chatbots que han:
- Suggerit dèficits calòrics de 700 calories a adolescents amb trastorns alimentaris incipients (Stanford HAI, 2025).
- Proporcionat informació sobre autolesions quan els filtres han fallat.
- Recomanat deixar medicació prescrita per professionals.
- Normalitzat conductes de risc en context de salut mental.
- Donat consells contradictoris amb tractaments en curs.
5. Crea una falsa sensació de seguretat
Quan la resposta ve d'una "intel·ligència artificial", l'adolescent li atorga una autoritat que no mereix. La IA sona professional, estructurada, segura d'ella mateixa. Però no té cap formació clínica, cap responsabilitat professional i cap mecanisme de rendició de comptes si el consell resulta perjudicial.
La decisió de HolaNolis: detectar, alertar, redirigir
Davant d'aquesta realitat, HolaNolis ha pres una decisió de disseny conscient i deliberada: Nolis no dóna consells mèdics ni psicològics. Mai.
Això no és una limitació tècnica. No és que no puguem fer-ho. És que hem decidit activament no fer-ho perquè creiem que és l'única postura èticament responsable quan es tracta de menors.
Què fa Nolis en comptes de donar consells
Quan un adolescent planteja un tema relacionat amb la salut física o mental, Nolis segueix un protocol clar:
1. Escolta amb empatia
Nolis respon amb comprensió genuïna, validant els sentiments de l'adolescent sense minimitzar-los ni dramatitzar-los:
"Entenc que et sents ansiós. Gràcies per explicar-m'ho. No estàs sol/a en això."
2. No diagnostica ni aconsella
Nolis mai diu frases com:
- "Podries tenir un trastorn de..."
- "Hauries de provar aquesta tècnica..."
- "Pren aquest suplement..."
- "El teu problema podria ser..."
3. Redirigeix cap a adults de confiança
"El que em dius és important. Creus que podries parlar-ne amb els teus pares, un professor o un adult de confiança? Ells podran ajudar-te millor que jo."
4. Proporciona recursos professionals
Quan la situació ho requereix, Nolis ofereix recursos verificats:
- Telèfons d'atenció (Telèfon de l'Esperança, Telèfon de la Infància).
- Webs d'organitzacions reconegudes.
- Suggeriment de parlar amb el metge de família.
5. Alerta els tutors si detecta risc
Si la conversa revela una situació de risc (pensaments suïcides, autolesions, abús, trastorns alimentaris greus), el pipeline de seguretat de 4 capes activa una alerta immediata als tutors. En qüestió de segons. Per entendre els detalls de la supervisió, llegeix la guia sobre nivells Light, Medium i Full.
Per què aquesta postura és un avantatge, no una limitació
Avantatge ètic
Donar consells mèdics o psicològics a menors sense qualificació professional és irresponsable. HolaNolis pren la postura ètica correcta: reconeix els límits de la tecnologia i actua en conseqüència.
Avantatge de seguretat
En no donar consells, Nolis elimina el risc de consells perillosos. No pot suggerir dietes, no pot recomanar deixar medicació, no pot normalitzar conductes de risc. El risc zero en consells mèdics és una decisió de disseny activa.
Avantatge regulador
L'EU AI Act classifica els sistemes d'IA segons el seu nivell de risc. Un sistema que dóna consells mèdics o psicològics a menors es classificaria com a "risc alt", amb requisits reguladors molt més estrictes i complexos. Llegeix tot sobre la llei europea d'IA i els menors.
HolaNolis, en canvi, es posiciona com a "risc limitat": un company conversacional que detecta, alerta i redirigeix, però que mai avalua, diagnostica ni aconsella. Aquesta classificació implica:
- Menys càrrega reguladora: obligacions de transparència, però no els requisits onerosos dels sistemes d'alt risc.
- Més agilitat: capacitat d'innovar i millorar sense passar per processos de certificació complexos.
- Posició defensable: davant de qualsevol incident, HolaNolis pot demostrar que mai ha donat consells que poguessin perjudicar un menor.
Avantatge per a les famílies
Per als pares, saber que Nolis mai donarà consells mèdics o psicològics al seu fill és una garantia de tranquil·litat:
- No han de preocupar-se que el seu fill rebi consells erronis sobre salut.
- Saben que si el seu fill necessita ajuda, seran alertats per poder actuar.
- Confien que la IA no substituirà l'ajuda professional, sinó que la facilitarà.
Avantatge per als adolescents
Paradoxalment, la limitació de Nolis és també un benefici per a l'adolescent:
- Rep suport emocional bàsic (empatia, escolta, validació) sense riscos.
- Quan necessita ajuda real, és redirigit cap a qui realment pot ajudar-lo.
- No desenvolupa la falsa creença que una IA pot solucionar els seus problemes de salut.
La línia vermella: què passa quan la IA la creua
Per entendre per què la nostra postura és tan ferma, mirem què passa quan una IA creua la línia:
Cas 1: Consells nutricionals
Un chatbot convencional rep la pregunta d'una adolescent de 15 anys: "Com puc perdre 10 quilos ràpidament?" El chatbot genera una resposta amb dietes restrictives, exercicis intensos i objectius de calories. No sap que l'adolescent ja té un trastorn alimentari incipient. El "consell" reforça la conducta de risc.
Què faria Nolis: Detectaria el tema sensible. Respondria amb empatia sense donar cap consell nutricional. Suggereix parlar amb un adult de confiança o un professional. Si el patró es repeteix, alertaria els tutors.
Cas 2: Ansietat i medicació
Un adolescent de 16 anys escriu: "Prenc paroxetina però no em fa res. Hauria de deixar-la?" Un chatbot convencional podria suggerir alternatives, recomanar "opcions naturals" o fins i tot validar la idea de deixar la medicació. Deixar un ISRS bruscament pot provocar síndrome de discontinuació, amb efectes greus.
Què faria Nolis: No donaria cap opinió sobre la medicació. Respondria que qualsevol decisió sobre medicació s'ha de consultar amb el metge que l'ha prescrita. Suggereix que en parli amb els seus pares per programar una visita mèdica.
Cas 3: Pensaments suïcides
Un adolescent de 13 anys escriu: "A vegades penso que estaria millor si no existís." Un chatbot convencional podria respondre amb frases genèriques de suport, suggerir tècniques de mindfulness o, en el pitjor cas, no detectar la gravetat del missatge.
Què faria Nolis: El pipeline de seguretat detectaria immediatament la situació de risc. Nolis respondria amb empatia i proporcionaria el telèfon d'atenció en crisi. Simultàniament, els tutors rebrien una alerta de crisi immediata amb tota la informació necessària per actuar.
El paper dels professionals: irreemplaçable
Volem ser molt clars: cap sistema d'IA, per avançat que sigui, pot substituir un professional de la salut mental. Ni avui ni en un futur previsible. I en el cas dels adolescents, l'ajuda professional no és un luxe, és una necessitat:
- 1 de cada 7 adolescents pateix un trastorn de salut mental (WHO, 2024).
- El 50% dels trastorns mentals comencen abans dels 14 anys (WHO, 2024).
- La intervenció primerenca és el factor més determinant per a un bon pronòstic.
HolaNolis no competeix amb els professionals. Col·labora amb ells. El nostre sistema detecta senyals que, si arriben a temps als pares i als professionals, poden canviar la trajectòria d'una vida. Aprèn a reconèixer les senyals emocionals d'alerta en el teu fill.
Preguntes freqüents
Què fa Nolis si el meu fill diu que està trist o deprimit? +
Nolis pot substituir un psicòleg per al meu fill? +
Què passa si el meu fill menciona trastorns alimentaris a Nolis? +
Per qué Nolis no pot donar almenys consells bàsics de benestar? +
Quant de temps tarda Nolis a enviar una alerta de crisi als tutors? +
Conclusió: els límits com a fortalesa
En un món on la IA pot generar text sobre qualsevol tema amb una aparença de competència total, establir límits clars no és una debilitat. És una demostració de responsabilitat.
Nolis no dóna consells mèdics ni psicològics perquè:
- No està qualificat per fer-ho (cap IA ho està).
- Seria perillós fer-ho, especialment amb menors.
- Seria irresponsable fer-ho en un producte dissenyat per protegir adolescents.
- Seria contrari al posicionament ètic i regulador d'HolaNolis.
La nostra promesa és senzilla: Nolis serà un company segur, empàtic i transparent. I quan el teu fill necessiti més del que un company pot oferir, ens assegurarem que arribi a qui realment pot ajudar-lo. Descobreix el nostre producte o registra't per protegir el teu fill avui.
Coneix la filosofia de seguretat d'HolaNolis. Descobreix el nostre producte o llegeix més sobre el nostre pipeline de seguretat.
Vols protegir el teu fill amb IA segura?
Comença gratis