Guia completa: IA segura per a adolescents (2026)
La IA segura per a adolescents existeix i és possible, però requereix un disseny específic per a menors. El 64% dels adolescents ja fa servir chatbots d'IA (Pew Research, 2025) i les plataformes generalistes com ChatGPT no van ser dissenyades per a ells. Una solució segura inclou: detecció de crisis en temps real, alertes als tutors, transparència total amb el menor, i compliment de la normativa europea (EU AI Act, DSA, GDPR). Aquesta guia cobreix tot el que necessites saber.
Per què la IA segura per a adolescents és el tema més urgent del 2026?
En menys de tres anys, els chatbots d'intel·ligència artificial han passat de ser una curiositat tecnològica a convertir-se en l'eina de comunicació més utilitzada pels adolescents. El 64% dels adolescents ja utilitza chatbots d'IA de manera habitual (Pew Research, 2025), i el 30% ho fa diàriament. Però la dada més preocupant és una altra: el 49% dels pares desconeix que el seu fill fa servir aquestes tecnologies (Pew Research, 2025).
Aquesta bretxa no és només informativa. És una bretxa de seguretat real amb conseqüències documentades: s'han vinculat directament 14 morts d'adolescents a interaccions amb chatbots d'IA sense supervisió (Associated Press, 2025). Els sistemes que feien servir aquests joves —plataformes generalistes no dissenyades per a menors— no tenien detecció de crisis, no alertaven ningú, i no tenien cap límit sobre els temes que podien tractar.
Aquesta guia cobreix el problema en la seva totalitat: què està passant, per què passa, què diu la llei, i com protegir el teu fill sense bloquejar el seu desenvolupament digital. També trobaràs enllaços a articles específics sobre cada subtema perquè puguis aprofundir en el que més t'interessi.
Les estadístiques que tot pare ha de conèixer
Les xifres expliquen una història que no podem ignorar. Abans de parlar de solucions, és fonamental entendre la magnitud del problema i la velocitat a la qual creix.
- 64% dels adolescents fa servir chatbots d'IA regularment; 30% diàriament (Pew Research, 2025)
- 5,2 milions d'adolescents als Estats Units han buscat suport emocional en sistemes d'IA (Pew Research, 2025)
- El 53% de les respostes de ChatGPT a menors de 13 anys van ser classificades com potencialment perjudicials (CCDH, 2024)
- 14 morts d'adolescents vinculades a chatbots sense supervisió (Associated Press, 2025)
- Cap de les 10 plataformes d'IA més populars entre joves va superar les proves bàsiques de seguretat per a menors (CNN Investigation, 2025)
- El 49% dels pares desconeix que el seu fill fa servir IA (Pew Research, 2025)
- Plans de dieta generats per IA van deixar adolescents amb un dèficit calòric de 700 calories diàries (Stanford HAI, 2025)
- El 58% dels pares desaprova l'ús de chatbots per part dels seus fills (Pew Research, 2025)
Totes aquestes xifres comparteixen un denominador comú: el problema no és la IA en si mateixa, sinó la IA no dissenyada per a menors. Per a una anàlisi detallada de tots aquests riscos, llegeix la nostra guia sobre com protegir el teu adolescent a internet.
Quins són els riscos reals de la IA no supervisada per als adolescents?
1. Absència total de detecció de crisis
El risc més greu no és el contingut inapropiat, sinó la incapacitat dels sistemes generalistes de detectar una crisis real. Un adolescent pot expressar pensaments d'autolesió o ideació suïcida en una conversa i el chatbot simplement continuarà responent, sense alertar ningú, sense derivar a cap recurs especialitzat, sense fer res.
Els sistemes dissenyats per a adults no presenten aquest problema perquè, en teoria, els adults tenen més eines per gestionar una resposta inadequada. Els adolescents no. El seu còrtex prefrontal —la zona responsable de la presa de decisions i la regulació emocional— no acaba de madurar fins als 25 anys aproximadament. Un sistema d'IA que no té en compte aquesta realitat neurològica és, per definició, insegur per a menors.
2. Contingut mèdic, nutricional i psicològic sense supervisió
Les plataformes generalistes responen preguntes mèdiques, nutricionals i psicològiques com si l'interlocutor fos un adult capaç de contextualitzar i relativitzar aquella informació. Quan un adolescent pregunta a un chatbot d'IA com perdre pes ràpidament, pot rebre consells que resultin en un dèficit calòric de 700 calories diàries (Stanford HAI, 2025), amb conseqüències reals per al seu desenvolupament físic.
El mateix passa amb la salut mental: un chatbot que respon preguntes sobre ansietat, depressió o trastorns alimentaris sense detectar quan aquelles preguntes deixen de ser acadèmiques i es converteixen en una senyal d'alerta pot estar posant en risc una vida.
3. Dependència emocional i substitució dels vincles humans
La IA conversacional està dissenyada per ser atractiva: mai es cansa, mai s'enfada, sempre valida. Per a un adolescent que travessa la complexitat emocional d'aquesta etapa de la vida, aquella disponibilitat incondicional pot convertir-se en una trampa. 5,2 milions d'adolescents als EUA ja busquen suport emocional en chatbots d'IA (Pew Research, 2025), i molts ho fan perquè és més fàcil que parlar amb un adult real.
El problema no és que busquin suport —això és completament normal i saludable— sinó que el trobin en un sistema que no detecta quan aquell suport s'està tornant insuficient, contraproduent o directament perillós.
4. Desinformació i manipulació
Els models de llenguatge grans cometen errors factuals que no resulten evidents per als usuaris no experts. Un adolescent que consulta sobre història, ciència o política no té les eines per detectar quan la IA simplement s'està inventant dades —el fenomen conegut com a "al·lucinació"—. Això és especialment problemàtic quan els temes tenen càrrega emocional o ideològica.
5. Privacitat i dades personals
La majoria de plataformes d'IA recopilen i emmagatzemen converses per entrenar els seus models. Quan un adolescent comparteix informació personal, emocional o íntima amb un chatbot generalista, aquella informació pot ser emmagatzemada, analitzada i utilitzada. En el context europeu, això planteja seriosos dubtes de compliment amb el GDPR pel que fa al tractament de dades de menors.
Per una exploració detallada de tots aquests riscos, llegeix Guia per protegir el teu adolescent a internet.
Què és un chatbot supervisat i en què es diferencia?
Un chatbot supervisat per a adolescents no és simplement un chatbot amb filtres de paraules. És un sistema dissenyat des de zero amb la seguretat del menor com a prioritat arquitectònica, no com a complement posterior.
Les característiques fonamentals d'un chatbot veritablement segur per a adolescents són:
Detecció de crisis en temps real: El sistema analitza contínuament el contingut de les converses per identificar senyals de risc (autolesió, ideació suïcida, abús, situacions d'emergència). Quan detecta un senyal, activa alertes immediates per al tutor i deriva el menor a recursos especialitzats.
Transparència bidireccional: El menor sempre sap que existeix supervisió i quin nivell està actiu. No hi ha vigilància oculta. El tutor configura el nivell; el menor el coneix. Aquesta transparència és fonamental tant èticament com per a l'eficàcia de la supervisió.
Alertes als tutors: El tutor rep notificacions en temps real davant situacions de crisis. Segons el nivell de supervisió triat, també pot rebre resums temàtics, tendències emocionals o accés a l'historial de converses.
Límits sobre els consells: Un chatbot segur no dona consells mèdics, nutricionals, psicològics ni legals. Detecta quan una conversa entra en aquelles àrees, informa el menor que aquells temes requereixen un professional, i facilita la connexió amb recursos adequats.
Compliment normatiu: El sistema compleix amb el GDPR, l'EU AI Act i la Directiva de Serveis Digitals (DSA) en el seu disseny, no com a adaptació posterior.
Per entendre en profunditat què distingeix un chatbot supervisat d'un de convencional, llegeix Què és un chatbot supervisat i per què és diferent?
Què diu la llei europea sobre la IA i els menors?
El marc regulador europeu per a la IA i els menors és el més avançat del món el 2026. Tres lleis clau estableixen els drets dels menors i les obligacions de les plataformes:
EU AI Act (2024)
El Reglament d'Intel·ligència Artificial de la UE, en vigor des del 2024, estableix quatre categories de risc. Els sistemes d'IA que interactuen directament amb menors i tenen influència sobre el seu benestar emocional o psicològic es classifiquen com a alt risc, la qual cosa implica:
- Avaluacions de conformitat abans del llançament
- Obligació de transparència envers els usuaris
- Supervisió humana obligatòria
- Prohibició expressa de tècniques de manipulació psicològica
Digital Services Act (DSA)
La Directiva de Serveis Digitals obliga les plataformes a implementar mesures específiques de protecció per als usuaris menors de 18 anys, incloent la prohibició de publicitat dirigida basada en dades personals i l'obligació de realitzar avaluacions de risc periòdiques.
GDPR i menors
El Reglament General de Protecció de Dades estableix que el tractament de dades personals de menors de 16 anys requereix consentiment parental. Qualsevol plataforma que recopili dades de converses amb menors sense aquest consentiment està incomplint el GDPR.
Per a una anàlisi completa del marc legal i el que significa per a les famílies, llegeix IA i menors: el que diu la llei a Europa.
Com reconèixer els senyals d'alerta emocional en el teu fill?
La intel·ligència artificial no és l'única causa dels problemes emocionals dels adolescents, però pot ampliar-los o emmascarar-los. Conèixer els senyals d'alerta et permet actuar abans que una situació es torni crítica.
Els senyals no sempre són obvis. Moltes vegades es manifesten com a canvis graduals: un adolescent que progressivament s'aïlla més, que dorm pitjor, que mostra menys interès en activitats que abans li agradaven, o que es torna més irritable sense causa aparent. Aquests senyals poden tenir moltes causes, però quan coincideixen amb un ús intensiu de chatbots d'IA, mereixen una atenció especial.
Senyals d'ús problemàtic de chatbots d'IA:
- Ús excessiu (diverses hores diàries, especialment a la nit)
- Ansietat o irritabilitat quan no pot accedir al chatbot
- Preferència per parlar amb el chatbot en comptes de amb persones reals
- Secretisme sobre els temes que tracta en les seves converses
- Canvis en el comportament alimentari o de salut que coincideixen amb l'inici de l'ús intensiu
Senyals de crisis emocional que requereixen atenció immediata:
- Expressions de desesperança o inutilitat
- Canvis bruscos en el comportament
- Parlar de mort o autolesió, encara que sigui de manera indirecta
- Regalar objectes personals significatius
- Acomiadar-se de persones com si anés a absentar-se durant molt de temps
Per a una guia completa sobre senyals d'alerta i com reaccionar, llegeix Senyals que el teu fill necessita suport emocional (i com reaccionar).
Els tres nivells de supervisió: Light, Medium i Full
Una de les decisions més importants que prendràs com a tutor en configurar HolaNolis és el nivell de supervisió. HolaNolis ofereix tres nivells dissenyats per adaptar-se a situacions familiars diferents, amb filosofies distintes sobre privacitat, confiança i control.
Els tres nivells comparteixen una característica no negociable: la detecció de crisis sempre és activa. Independentment del nivell triat, si el sistema detecta un senyal de risc greu, el tutor rep una alerta immediata.
Light: confiança amb xarxa de seguretat
El nivell Light és el que més respecta la privacitat del menor. El tutor rep alertes de crisis en temps real i pot veure el temps d'ús setmanal, però no té accés al contingut de les converses ni als temes tractats. És el nivell recomanat per a adolescents majors (16-20 anys) amb una relació de confiança establerta.
Medium: equilibri entre supervisió i privacitat
El nivell Medium afegeix resums temàtics i tendències emocionals a les alertes de crisis. El tutor pot veure els grans temes que el seu fill ha tractat amb Nolis (estudis, amistat, família, etc.) i les tendències en l'estat emocional general, però sense accés als textos literals de les converses. És el nivell més habitual i el recomanat com a punt de partida per a la majoria de famílies.
Full: supervisió completa i transparent
El nivell Full dona al tutor accés a l'historial complet de converses. És el nivell recomanat per a situacions de risc conegut: un menor que ha manifestat problemes de salut mental, que travessa una situació familiar difícil, o que té un historial de comportaments de risc. El menor sempre sap que aquest nivell és actiu.
Per a una comparativa detallada dels tres nivells i una guia per triar el més adequat per a la teva família, llegeix Supervisió Light vs Medium vs Full: quina has de triar?.
Per què Nolis no dona consells mèdics ni psicològics?
Aquesta és una de les característiques de disseny més importants de HolaNolis, i també una de les més incompreses. Molts pares i usuaris esperen que un assistent d'IA per a adolescents sigui una mena de terapeuta digital. Nolis no és això, i hi ha raons molt concretes per a això.
La raó ètica: Un adolescent que interactua amb un sistema d'IA no té manera de verificar la qualitat dels consells que rep. Si un chatbot li diu que els seus símptomes d'ansietat són normals i que no necessita ajuda professional, pot estar endarrerint una intervenció necessària. El dany potencial d'un consell equivocart donat a un adolescent vulnerable és desproporcionat.
La raó regulatòria: L'EU AI Act classifica els sistemes d'IA que tenen influència significativa sobre la salut mental o física dels usuaris com a sistemes d'alt risc, amb requisits de certificació mèdica que cap chatbot generalista compleix. Un sistema que dona consells psicològics o mèdics sense certificació opera fora del marc legal europeu.
El que Nolis sí fa: En lloc de donar consells, Nolis detecta, escolta i redirigeix. Quan la conversa entra en territoris sensibles, Nolis reconeix la preocupació del menor, valida la seva experiència emocional, i li suggereix recursos adequats: professionals de salut mental, línies de crisis, o simplement parlar amb un adult de confiança.
Per entendre completament aquesta filosofia de disseny i per què protegeix millor el teu fill, llegeix Per què Nolis no dona consells mèdics ni psicològics (i per què això et protegeix).
Com parlar amb el teu fill sobre seguretat digital?
La conversa sobre seguretat digital és una de les més difícils que un pare pot tenir amb un adolescent. No perquè el tema sigui tabú, sinó perquè l'equilibri entre protecció i respecte a l'autonomia és delicat, i els adolescents tenen un radar molt afinat per detectar quan un adult intenta controlar-los en lloc de protegir-los.
La diferència entre una conversa que obre un diàleg i una que el tanca sol estar en l'enfocament. Les converses que funcionen parteixen de la curiositat i el respecte, no de la por i la prohibició.
No comencis per les normes, comença per la realitat: Abans de parlar del que no pot fer, parla del que està passant al món. Les estadístiques sobre l'ús de la IA per part dels adolescents no són per fer por, sinó per contextualitzar.
Pregunta abans d'explicar: Sap el teu fill què és un chatbot? N'ha fet servir algun? Sobre quins temes parla? Les respostes et diran molt sobre el seu nivell d'exposició actual i la seva comprensió dels riscos.
Presenta HolaNolis com una eina, no com una vigilància: Quan introdueixis HolaNolis, fes-ho com alguna cosa que beneficia el menor, no només a tu. El fet que el menor sempre sàpiga quin nivell de supervisió és actiu i pugui sol·licitar canviar-lo és un avantatge competitiu enorme respecte a altres eines de control parental.
Estableix un acord, no una norma: Les normes unilaterals es salten. Els acords negociats es respecten. Si el teu fill ha participat en la decisió sobre el seu nivell de supervisió, és molt més probable que col·labori.
Per a una guia completa amb guions de conversa reals, llegeix Com parlar amb el teu fill sobre seguretat digital sense que acabi en discussió.
Com començar amb HolaNolis en 15 minuts
Configurar HolaNolis és ràpid. El procés està dissenyat perquè un tutor sense coneixements tècnics pugui tenir-ho tot a punt en menys de 15 minuts.
Pas 1: Crear compte de tutor (2 minuts) Registra't a holanolis.com amb el teu correu electrònic. Pots fer servir Google SSO per comoditat.
Pas 2: Afegir el menor (3 minuts) Introdueix el nom, l'edat i el correu electrònic del menor. HolaNolis enviarà una invitació al menor, que l'haurà d'acceptar per activar el seu compte. Aquest pas garanteix que el menor sap des del primer moment que existeix supervisió.
Pas 3: Triar el nivell de supervisió (5 minuts) Selecciona entre Light, Medium i Full. La recomanació per defecte és Medium per a la majoria de famílies. Pots canviar el nivell en qualsevol moment, però el canvi requereix confirmació del menor si suposa un augment de supervisió.
Pas 4: Parlar amb el teu fill (el temps que necessitis) Abans que el menor comenci a fer servir HolaNolis, parla amb ell. Explica-li què és Nolis, quin nivell de supervisió has triat, i per què. Aquesta conversa és la part més important del procés.
Pas 5: Activar i configurar alertes (2 minuts) Configura com vols rebre les alertes de crisis: push notification, correu electrònic o SMS. Les alertes de crisis sempre estan actives en els tres nivells.
Per a una guia pas a pas amb captures de pantalla i respostes als dubtes més freqüents, llegeix Guia ràpida: primers passos amb HolaNolis.
IA segura per a adolescents vs. controls parentals tradicionals
Una pregunta freqüent dels pares és: en què es diferencia HolaNolis de les aplicacions de control parental que ja existeixen? La resposta és fonamental per entendre el que ofereix cada eina i per què poden ser complementàries.
Els controls parentals tradicionals (Circle, Qustodio, Screen Time) actuen sobre l'accés: bloquegen contingut, limiten temps de pantalla, filtren URLs. Són útils per gestionar l'accés a plataformes generalistes, però no resolen el problema de fons: si el teu fill fa servir ChatGPT, un control parental no pot analitzar el contingut d'aquelles converses.
HolaNolis actua sobre el contingut de les interaccions d'IA: analitza el que el menor parla amb Nolis, detecta senyals de crisis en temps real, i alerta el tutor. No bloqueja l'accés a internet ni a altres plataformes.
La solució òptima per a moltes famílies és una combinació: controls parentals per gestionar el temps de pantalla i l'accés a plataformes generalistes, més HolaNolis com a alternativa segura d'IA conversacional. Si el menor necessita fer servir IA per estudiar o per companyia, que sigui en un entorn dissenyat per a la seva seguretat.
Per a una comparativa detallada, consulta la nostra Guia de supervisió digital per a adolescents.
Preguntes freqüents sobre IA segura per a adolescents
A partir de quina edat pot fer servir HolaNolis un adolescent? HolaNolis està dissenyat per a joves d'entre 10 i 20 anys. Per als menors de 14 anys (el llindar de consentiment a Espanya segons el GDPR), és obligatori el consentiment exprés del tutor. Per als majors de 14, el menor pot crear compte amb supervisió parental, no sense ella.
Pot el menor veure el que veu el tutor? Sí, sempre. La transparència és un principi fonamental de HolaNolis. El menor sempre sap quin nivell de supervisió és actiu i quin tipus d'informació veu el tutor. No existeix mode ocult ni vigilància secreta.
Què passa si el sistema detecta una crisis i el tutor no respon a l'alerta? El sistema té un protocol escalonat: primer alerta el tutor principal, després el tutor secundari si n'hi ha, i en casos de risc greu inclou informació sobre recursos de crisis professionals directament en la conversa amb el menor.
HolaNolis substitueix un psicòleg o terapeuta? No, i és important que quedi clar. HolaNolis és un company conversacional segur, no un servei de salut mental. Pot detectar senyals d'alerta i derivar a recursos professionals, però no diagnostica ni tracta. Si el teu fill necessita suport psicològic, HolaNolis és un complement d'aquella atenció, mai un substitut.
Què fa Nolis quan un adolescent pregunta alguna cosa perillosa? Nolis no respon a preguntes sobre autolesió, drogues il·legals, o contingut que posi en risc el menor. En el seu lloc, reconeix la preocupació del menor, valida el seu estat emocional, i redirigeix a recursos adequats. Simultàniament, segons el nivell de supervisió actiu, pot alertar el tutor.
Com es protegeixen les dades de les converses? Totes les converses estan xifrades en repòs i en trànsit. Les dades s'emmagatzemen en servidors dins de la UE i es gestionen sota GDPR. Les dades del menor no es venen ni s'utilitzen per entrenar models d'IA de tercers. El tutor té accés a les dades segons el seu nivell de supervisió, i ningú més.
Pot el menor sol·licitar canviar el nivell de supervisió? Sí. El menor pot sol·licitar una renegociació del nivell de supervisió en qualsevol moment. La sol·licitud arriba al tutor, que pot acceptar-la, rebutjar-la o proposar un acord intermedi. Aquest procés obre una conversa real sobre confiança i maduresa que té un valor educatiu en si mateix.
HolaNolis funciona en català, castellà i anglès? Sí. HolaNolis està disponible en 15 idiomes, amb cobertura especial en castellà, anglès i català per al mercat d'Espanya, el Regne Unit i els Estats Units.
Quant costa HolaNolis? HolaNolis ofereix un model freemium. El pla bàsic inclou les funcionalitats de seguretat essencials. Els plans avançats, amb supervisió de nivell Full i funcionalitats addicionals, tenen un cost aproximat de 9€/mes. Les alertes de crisis sempre són gratuïtes, sense excepcions.
Recursos addicionals
Aquesta guia és el punt de partida. Per aprofundir en cada àrea, et recomanem aquests articles:
- Guia per protegir el teu adolescent a internet — El panorama complet dels riscos digitals el 2026
- Què és un chatbot supervisat i per què és diferent? — Com funciona la supervisió tècnicament
- IA i menors: el que diu la llei a Europa — EU AI Act, DSA i GDPR explicats per a pares
- Senyals que el teu fill necessita suport emocional — Com detectar i actuar davant senyals d'alerta
- Supervisió Light vs Medium vs Full: quina has de triar? — Guia completa per triar el nivell adequat
- Per què Nolis no dona consells mèdics ni psicològics — La filosofia de disseny de HolaNolis
- Com parlar amb el teu fill sobre seguretat digital — Guions i estratègies per a converses difícils
- Guia ràpida: primers passos amb HolaNolis — Configuració en 15 minuts
Per a la guia completa sobre supervisió digital, com funciona, i les millors pràctiques per a famílies, visita la nostra Guia de supervisió digital per a adolescents.
Vols protegir el teu fill amb IA segura?
Comença gratis