Què és un chatbot supervisat i per què és diferent?
Un chatbot supervisat és un sistema d'IA conversacional dissenyat des de zero per a adolescents, amb pipeline de seguretat multicapa, nivells de supervisió transparents i detecció de crisis en temps real. A diferència de ChatGPT o Character.AI, la seguretat del menor és l'arquitectura central, no un filtre afegit.
Chatbots d'IA: una eina poderosa sense manual d'instruccions
La intel·ligència artificial conversacional ha explotat en popularitat. Milions de persones parlen cada dia amb ChatGPT, Claude, Gemini, Character.AI i desenes d'altres plataformes. I entre aquests milions d'usuaris, hi ha una proporció creixent d'adolescents. El 64% dels joves ja fan servir eines d'IA habitualment (Pew Research, 2025), molts d'ells per mantenir converses personals i emocionals. El 30% ho fa diàriament (Pew Research, 2025).
El problema? Cap d'aquests chatbots va ser dissenyat pensant en els adolescents. Són eines creades per a adults, sense mecanismes de protecció adequats per a menors. I les conseqüències d'aquesta mancança ja són visibles.
Per què els chatbots convencionals no són adequats per a menors
No filtren per edat
Quan un adolescent de 13 anys escriu a ChatGPT, rep el mateix tipus de resposta que un professional de 35. No hi ha cap adaptació del contingut, del to ni dels límits temàtics en funció de l'edat de l'usuari. El 53% de les respostes de ChatGPT es consideren potencialment perjudicials per a menors de 13 anys (CCDH, 2024).
No detecten emergències
Si un menor expressa pensaments suïcides, autolesions o situacions d'abús, un chatbot convencional:
- No reconeix la gravetat de manera fiable.
- No alerta cap adult de referència.
- No redirigeix a recursos d'ajuda de manera consistent.
- Pot fins i tot continuar la conversa com si res no passés.
CNN va posar a prova les 10 plataformes de xat amb IA més populars entre adolescents, i cap va superar les proves de seguretat bàsiques (CNN Investigation, 2025). Cap. S'han documentat almenys 14 morts d'adolescents vinculades a interaccions amb chatbots d'IA sense cap mecanisme de protecció (Associated Press, 2025).
Generen dependència emocional
Character.AI, per exemple, permet crear "personatges" amb els quals els adolescents mantenen relacions emocionals intenses. 5,2 milions d'adolescents als Estats Units busquen suport emocional en chatbots d'IA (Pew Research, 2025). Sense cap mecanisme de control, aquests vincles poden substituir relacions humanes reals i crear dinàmiques de dependència profundament preocupants.
No respecten la privadesa dels menors
Les converses amb chatbots comercials normalment s'emmagatzemen, s'analitzen i s'utilitzen per entrenar models futurs. Les confessions íntimes d'un adolescent poden acabar formant part d'un dataset d'entrenament sense que ni ell ni els seus pares ho sàpiguen.
Una nova categoria: el company conversacional supervisat
Davant d'aquesta realitat, ha sorgit una nova categoria de producte: el company conversacional supervisat (supervised AI companion). No és un chatbot qualsevol amb un filtre afegit al damunt. És un producte concebut des de zero amb la seguretat dels menors com a pilar fonamental. Per entendre el marc legal que ho sustenta, llegeix IA i menors: què diu la llei a Europa.
Què defineix un company conversacional supervisat?
Un company conversacional supervisat es diferencia d'un chatbot convencional en tres capes fonamentals:
1. Capa de seguretat activa
No es tracta de posar un filtre de paraules prohibides. Un sistema de seguretat real per a menors ha d'incloure:
- Detecció d'intencions en temps real: analitzar no només les paraules, sinó el context i el patró de la conversa.
- Pipeline de seguretat multicapa: diversos nivells de verificació abans de generar cada resposta.
- Bloqueig proactiu: el sistema ha de ser capaç de frenar una conversa perillosa abans que escali.
- Alertes immediates: quan es detecta una situació de risc, els tutors reben una notificació en qüestió de segons.
2. Capa de supervisió familiar
La família és part del sistema, no una espectadora:
- Nivells de supervisió configurables: els pares escullen el grau de visibilitat que volen tenir.
- Informes i resums: accés a panells de control amb informació sobre l'ús, les temàtiques i els possibles riscos.
- Alertes graduades: des de notificacions informatives fins a alertes de crisi immediates.
- Transparència total: l'adolescent sap en tot moment quin nivell de supervisió s'aplica.
3. Capa d'ètica i límits
Un company supervisat sap què no ha de fer:
- No dóna consells mèdics ni psicològics.
- No fa diagnòstics.
- No avalua l'estat emocional del menor.
- Detecta, alerta i redirigeix: aquesta és la seva funció quan es detecten temes sensibles.
HolaNolis: un company supervisat en acció
HolaNolis és un dels primers productes al mercat dissenyats com a company conversacional supervisat. Això és el que el fa diferent:
Pipeline de seguretat de 4 capes
Cada missatge que envia o rep l'adolescent passa per un pipeline de seguretat de 4 capes que analitza el contingut des de múltiples angles abans de permetre la interacció. Això inclou:
- Detecció de contingut perillós o inadequat.
- Anàlisi de patrons conversacionals de risc.
- Verificació de compliment normatiu.
- Generació de respostes segures i apropiades per a l'edat.
Tres nivells de supervisió
HolaNolis ofereix tres nivells de supervisió que s'adapten a l'edat i les necessitats de cada família. Consulta la guia detallada sobre supervisió Light, Medium i Full per triar la millor opció:
- Light: ideal per a adolescents grans (16-20). El tutor rep alertes de crisi, però no veu el contingut de les converses.
- Medium: per a adolescents de 13-16 anys. El tutor veu resums temàtics i rep alertes de risc i de crisi.
- Full: per als més joves (10-13 anys). El tutor té accés complet a les converses i rep totes les alertes.
Nolis: el company intel·ligent
Nolis, l'assistent d'IA d'HolaNolis, ha estat dissenyat amb uns principis molt clars. Llegeix per qué Nolis no dóna consells mèdics ni psicològics per entendre l'arquitectura de seguretat al detall.
El que Nolis fa:
- Conversa amb l'adolescent de manera natural i empàtica.
- Adapta el to i el contingut a l'edat.
- Detecta senyals de risc emocional o de seguretat.
- Redirigeix cap a recursos professionals quan cal.
- Alerta els tutors si detecta una situació de crisi.
- Respecta els límits temàtics configurats per la família.
El que Nolis NO fa:
- No dóna consells mèdics ni psicològics.
- No diagnostica problemes de salut mental.
- No avalua l'estat emocional del menor.
- No substitueix professionals de la salut.
- No comparteix dades amb tercers per a fins comercials.
- No permet que l'adolescent esquivi les mesures de seguretat.
Comparativa: chatbot convencional vs. company supervisat
| Característica | Chatbot convencional | Company supervisat (HolaNolis) |
|---|---|---|
| Dissenyat per a menors | No | Sí |
| Filtratge de contingut per edat | Bàsic o inexistent | Pipeline de 4 capes |
| Alertes als tutors | No | En segons |
| Nivells de supervisió | No | 3 nivells (Light/Medium/Full) |
| Detecció d'emergències | Poc fiable | Activa i en temps real |
| Consells mèdics/psicològics | Pot donar-ne (perillós) | Mai (detecta, alerta, redirigeix) |
| Privadesa de menors | Segons l'empresa | Encriptació i compliment GDPR |
| Transparència amb el menor | No | Sempre |
| Renegociació de supervisió | No aplica | Sí, integrada |
Per què és important aquesta distinció
La diferència entre un chatbot convencional i un company supervisat no és cosmètica. És la diferència entre:
- Un adolescent que parla amb una IA sense cap xarxa de seguretat, sol i sense protecció.
- Un adolescent que conversa amb una IA en un entorn on la seva família pot intervenir si cal, on els riscos es detecten en temps real i on la seva privadesa es respecta dins dels límits de la seguretat.
En un món on 5,2 milions d'adolescents busquen suport emocional en chatbots (Pew Research, 2025), i on 14 morts ja s'han vinculat a interaccions amb IA sense control (Associated Press, 2025), la diferència entre supervisat i no supervisat pot ser, literalment, una qüestió de vida o mort. Aprèn a reconèixer les senyals que el teu fill necessita suport emocional.
El futur de la IA per a menors
La regulació europea (EU AI Act) ja comença a exigir mesures de protecció per als sistemes d'IA que interactuen amb menors. Però la legislació sempre va per darrere de la tecnologia. Les famílies no poden esperar que arribi la regulació perfecta per actuar.
La categoria de company conversacional supervisat no és una moda passatgera. És la resposta lògica a una necessitat urgent: els adolescents faran servir IA, vulguem o no. La pregunta no és si ho faran, sinó si ho faran en un entorn segur o en un de perillós.
Preguntes freqüents
Quina és la diferència entre un chatbot supervisat i els controls parentals tradicionals? +
Pot el menor evitar o esquivar la supervisió? +
HolaNolis espia el meu fill? +
Quines dades pot veure el tutor? +
HolaNolis és gratuït? +
Descobreix com HolaNolis protegeix els adolescents mentre interactuen amb IA. Coneix el nostre producte o prova'l gratuïtament.
Vols protegir el teu fill amb IA segura?
Comença gratis