Tornar al blog
Seguretat

Guia per protegir el teu adolescent a internet

Guia per protegir el teu adolescent a internet
Per Joan Pons 10 min min de lectura

El 2026, el 64% dels adolescents ja utilitza chatbots d'IA (Pew Research, 2025) i el 49% dels pares ho desconeix. Protegir un adolescent a internet requereix una estratègia que combini diàleg obert, eines de supervisió transparents com HolaNolis, i coneixement dels riscos específics de la IA no supervisada.

El panorama actual: adolescents i intel·ligència artificial

El 64% dels adolescents ja utilitzen eines d'IA de manera habitual (Pew Research, 2025), ja sigui per fer deures, per buscar informació o, cada vegada més, per mantenir converses emocionals. El 30% ho fa diàriament (Pew Research, 2025). Però aquesta realitat ve acompanyada d'unes xifres que haurien de preocupar qualsevol família: el 49% dels pares desconeix que els seus fills fan servir IA (Pew Research, 2025).

Segons dades recents, més de 5,2 milions d'adolescents als Estats Units han buscat suport emocional en chatbots d'IA (Pew Research, 2025). No en professionals, no en familiars, sinó en programes informàtics dissenyats per conversar. I quan CNN va posar a prova les 10 plataformes de xat amb IA més populars entre joves, cap va superar les proves de seguretat bàsiques (CNN Investigation, 2025).

El més alarmant: s'han documentat almenys 14 morts d'adolescents vinculades a interaccions amb chatbots d'IA que no tenien cap mecanisme de protecció (Associated Press, 2025). Aquestes no són estadístiques abstractes; són famílies destrossades per una tecnologia que ningú va pensar a fer segura per als menors.

Per què els pares necessiten aquesta guia ara

La bretxa digital entre pares i fills s'ha ampliat. Ja no es tracta només de controlar quines pàgines web visiten els nostres fills. Ara parlem d'interaccions complexes amb sistemes d'IA que poden influir en la seva autoestima, les seves decisions i la seva salut mental. El 58% dels pares desaproven que els seus fills facin servir chatbots d'IA (Pew Research, 2025), però molts no saben exactament per què ni com actuar.


Quins són els riscos reals que afronta el teu adolescent?

1. Contingut inadequat i desinformació

Els chatbots generalistes no filtren el contingut per edat. Un adolescent de 12 anys rep les mateixes respostes que un adult de 40. El 53% de les respostes de ChatGPT es consideren potencialment perjudicials per a menors de 13 anys (CCDH, 2024). Això inclou informació sobre autolesions, trastorns alimentaris, violència o contingut sexual.

2. Dependència emocional

Quan un adolescent comença a confiar en una IA per al suport emocional, pot desenvolupar una relació de dependència que substitueixi les relacions humanes reals. Això és especialment perillós perquè:

  • La IA no detecta emergències reals: un chatbot convencional pot continuar conversant amb normalitat mentre un adolescent expressa pensaments suïcides.
  • No hi ha memòria responsable: la IA no recorda converses anteriors per detectar patrons de risc.
  • No alerta ningú: si un menor està en perill, el chatbot no avisa cap adult de referència.

3. Manipulació i grooming

Existeixen casos documentats on chatbots han estat manipulats per generar contingut que normalitza relacions abusives o que guia els menors cap a situacions de perill. Les tècniques de jailbreak (esquivar les restriccions de seguretat) són àmpliament conegudes i compartides a les xarxes socials.

4. Consells mèdics o psicològics perillosos

Quan un adolescent pregunta a una IA sobre ansietat, depressió o trastorns alimentaris, pot rebre consells que semblen professionals però que poden ser completament erronis o fins i tot perillosos. Alguns chatbots han recomanat dèficits calòrics de 700 calories a adolescents amb trastorns alimentaris incipients (Stanford HAI, 2025). Cap chatbot comercial té la formació ni la capacitat per donar orientació mèdica fiable.

5. Privadesa i dades personals

Les converses amb chatbots comercials normalment s'emmagatzemen i s'utilitzen per entrenar models futurs. Això vol dir que les confessions íntimes dels nostres fills podrien formar part de datasets d'entrenament sense cap garantia de privadesa.


El problema de prohibir

La reacció natural de molts pares és prohibir l'accés a la IA. Però aquesta estratègia presenta problemes seriosos:

  • No funciona: els adolescents trobaran la manera d'accedir-hi des del mòbil d'un amic, la biblioteca o qualsevol dispositiu.
  • Genera secretisme: si l'adolescent sap que no pot parlar amb els pares sobre IA, ho farà d'amagat, cosa que elimina qualsevol possibilitat de supervisió.
  • Aïlla digitalment: la IA ja forma part del món acadèmic i social. Privar-ne els fills els posa en desavantatge.
  • No educa: prohibir no ensenya a fer un ús responsable de la tecnologia. Quan l'adolescent sigui adult, no tindrà les eines per gestionar-ho sol.

La clau no és prohibir, sinó supervisar de manera intel·ligent, respectant l'autonomia creixent de l'adolescent mentre es garanteix la seva seguretat. Llegeix com parlar amb el teu fill sobre seguretat digital per aprendre l'enfocament correcte.


Consells pràctics per protegir el teu adolescent

Estableix un diàleg obert

  • Parla sobre IA sense jutjar. Pregunta al teu fill què fa servir, per a què i com se sent respecte a les respostes que rep.
  • Comparteix notícies i casos reals. No per espantar, sinó per conscienciar.
  • Reconeix els avantatges. La IA pot ser una eina fantàstica si es fa servir bé.

Coneix les eines que fan servir

  • Demana al teu fill que et mostri les aplicacions d'IA que utilitza.
  • Investiga quines mesures de seguretat tenen (spoiler: la majoria, cap).
  • Revisa les polítiques de privadesa, especialment pel que fa a menors.

Configura controls parentals adequats

  • Utilitza filtres DNS per bloquejar plataformes d'IA sense controls de seguretat.
  • Configura SafeSearch a tots els navegadors.
  • Estableix límits de temps davant la pantalla, però també límits qualitatius (no és el mateix fer servir IA per a un treball escolar que per mantenir una conversa emocional a les 3 de la matinada).

Aposta per entorns supervisats

L'alternativa més intel·ligent a la prohibició és oferir un entorn segur i supervisat on l'adolescent pugui interactuar amb IA de manera controlada. Per entendre les diferències entre els nivells disponibles, consulta la guia sobre supervisió Light, Medium i Full. Això vol dir:

  • Filtratge de contingut en temps real: que el sistema detecti i bloquegi contingut perillós abans que arribi al menor.
  • Alertes als pares: que si es detecta una situació de risc, els tutors rebin una notificació immediata.
  • Transparència: que l'adolescent sàpiga que existeix supervisió (res de controls ocults).
  • Nivells adaptables: que la supervisió s'ajusti a l'edat i la maduresa del menor.

El paper dels companys conversacionals supervisats

Aquí és on entra el concepte de company conversacional supervisat: una IA dissenyada específicament per a adolescents, amb múltiples capes de seguretat i amb la família com a part del sistema. Descobreix què és un chatbot supervisat i per què és diferent.

A diferència dels chatbots comercials, un company supervisat com HolaNolis:

  • Detecta situacions de risc en temps real gràcies a un pipeline de seguretat de 4 capes.
  • Alerta els tutors en qüestió de segons si es detecta una crisi.
  • No dóna consells mèdics ni psicològics: detecta, alerta i redirigeix cap a professionals. Llegeix per qué Nolis no dona consells mèdics.
  • Ofereix 3 nivells de supervisió (Light, Medium, Full) que s'adapten a l'edat i les necessitats de cada família.
  • Respecta la privadesa del menor dins dels límits de seguretat establerts.
  • Compleix la normativa europea (EU AI Act, GDPR) i es posiciona com a "risc limitat". Conèix tot sobre la llei europea d'IA i els menors.

Per què la supervisió intel·ligent funciona

La supervisió no ha de ser sinònim d'espionatge. Un bon sistema de supervisió:

  1. És transparent: l'adolescent sap que existeix i en coneix les regles.
  2. És negociable: a mesura que el menor madura, pot renegociar el nivell de supervisió.
  3. Respecta l'autonomia: no es tracta de llegir cada conversa, sinó de tenir una xarxa de seguretat activa.
  4. Genera confiança: tant el pare com el fill saben que hi ha un sistema que vetlla per la seguretat sense envair la intimitat.

Preguntes freqüents

A quina edat he de parlar amb el meu fill sobre la IA? +
Com abans, millor. Els experts recomanen introduir el tema a partir dels 9-10 anys, quan els nens comencen a tenir accés independent a dispositius. No cal una "gran conversa": millor integrar-ho al dia a dia de manera natural, adaptant el missatge a l'edat i la maduresa del nen.
Quina és la diferència entre un control parental tradicional i una IA supervisada? +
Els controls parentals tradicionals bloquegen contingut però no entenen el context. Una IA supervisada com HolaNolis analitza les converses en temps real, detecta senyals de risc emocional i alerta els tutors si cal. No és una barrera, és una xarxa de seguretat activa i intel·ligent.
Quines són les millors eines per protegir el meu fill de la IA? +
La millor eina és la combinació de diàleg obert, eines de supervisió transparents i educació digital. Per a la interacció amb IA, un company supervisat com HolaNolis és l'opció més completa: combina pipeline de seguretat de 4 capes, alertes als tutors i tres nivells de supervisió adaptables per edat.
El meu fill ja fa servir ChatGPT. Què haig de fer? +
No entris en pànic ni ho prohibeixis de cop. Comença per una conversa oberta: pregunta-li com l'utilitza, per a qué li és útil i si ha rebut alguna resposta que l'hagi sorprès. A partir d'aquí, podeu explorar junts alternatives més segures i establir acords sobre l'ús responsable.
Quina és l'edat legal per usar IA a Espanya? +
A Espanya, el GDPR estableix que el tractament de dades de menors requereix consentiment parental fins als 14 anys (l'edat mínima que permet la normativa europea). Per sobre dels 14, el menor pot consentir, però les plataformes han de complir l'EU AI Act i protegir els menors de 18 anys. La majoria de chatbots populars no compleixen plenament aquestes obligacions.

Conclusió: protegir sense ofegar

La intel·ligència artificial no marxarà. Cada dia serà més present a la vida dels nostres fills, a l'escola, al treball i a les relacions socials. La nostra responsabilitat com a pares no és construir muralles, sinó equipar els nostres adolescents amb les eines i els entorns adequats perquè hi interactuïn de manera segura.

Això vol dir:

  • Educar-se sobre la tecnologia que fan servir els nostres fills.
  • Dialogar obertament sobre riscos i oportunitats.
  • Apostar per solucions supervisades que respectin l'autonomia de l'adolescent.
  • No esperar que passi alguna cosa per actuar.

La seguretat dels nostres fills a l'era de la IA no és una opció. És una prioritat que demana acció avui, no demà. Si ets nou a HolaNolis, llegeix la guia ràpida de primers passos per posar-ho en marxa en menys de 10 minuts. O descobreix el nostre producte i registra't avui.


Si vols conèixer com HolaNolis ajuda les famílies a navegar el món de la IA amb seguretat, descobreix el nostre producte o contacta amb nosaltres.

Vols protegir el teu fill amb IA segura?

Comença gratis
JP

Joan Pons

Fundador d'HolaNolis · Pare

Pare, enginyer de telecomunicacions i emprenedor. HolaNolis va néixer a casa: quan vaig veure els meus fills començar a utilitzar IA, em vaig preocupar com a pare i vaig decidir construir l'eina que m'hauria agradat tenir. El desenvolupo com a projecte familiar perquè la seguretat dels adolescents amb la IA no pot ser només un negoci — és quelcom personal. També sóc fundador i CEO de WorkMeter, empresa líder en mesurament de productivitat.

LinkedIn