Prohibir la IA al teu fill: protecció o desavantatge?
Prohibir la IA al teu fill no el protegeix: el posa en desavantatge competitiu. El 64% dels adolescents ja utilitza chatbots d'IA (Pew Research, 2025) i el 54% els utilitza per a tasques escolars. La pregunta no és si el teu fill usarà IA, sinó si ho farà amb supervisió intel·ligent o sense cap protecció.
Estem protegint o limitant els nostres fills?
Hi ha una paradoxa al cor de moltes decisions parentals sobre tecnologia. Quan un pare o una mare decideix bloquejar l'accés del seu fill a la intel·ligència artificial, ho fa des d'un lloc completament legítim: vol protegir-lo. Vol que estigui segur, que es concentri en els estudis, que no caigui en els riscos que els mitjans de comunicació descriuen cada setmana.
Però hi ha un problema. Aquesta mateixa decisió ben intencionada pot estar creant exactament l'escenari que el pare volia evitar: un adolescent sense preparació per al món que l'espera, que accedeix a la IA de forma clandestina i, per tant, sense cap tipus de protecció real.
Això és la Paradoxa d'Accés a la IA: els pares que bloquegen la IA per protegir els seus fills estan, inadvertidament, limitant la seva competitivitat futura i empenyent-los cap a un ús no supervisat i molt més perillós.
El 54% dels adolescents ja utilitza chatbots d'IA per a tasques escolars (Pew Research, 2025). No és una minoria experimental. És més de la meitat dels estudiants. I el 30% ho fa diàriament (Pew Research, 2025). En aquest context, prohibir l'accés a la IA no és una mesura protectora: és una desconnexió de la realitat.
L'alfabetització en IA s'està convertint en quelcom tan fonamental com ho va ser l'alfabetització digital fa 15 anys. A la dècada del 2010, els adolescents que van aprendre a buscar informació de forma crítica, a distingir fonts fiables, a crear contingut digital, van sortir millor preparats al mercat laboral. Avui, els adolescents que aprenen a col·laborar amb la IA de forma intel·ligent i crítica tindran un avantatge estructural sobre els que no ho hagin fet.
Hi ha un matís crucial que sovint es passa per alt: els adolescents que creixen amb accés supervisat a la IA desenvolupen un pensament crític sobre els resultats de la IA que els altres no tenen. Aprenen a identificar quan la IA s'equivoca, quan simplifica en excés, quan genera informació que sembla correcta però no ho és. Aquesta habilitat —que els experts anomenen "literacitat en IA"— és una de les més valuoses del segle XXI.
Les dades: què passa quan els adolescents no poden accedir a la IA
L'evidència empírica és clara. La prohibició no produeix l'efecte desitjat. Produeix tres tipus de desavantatge acumulades.
Desavantatge acadèmic
Mentre l'adolescent al qual se li ha prohibit l'accés busca la manera de fer el seu treball amb les eines tradicionals, els seus companys que usen IA estan aprenent a usar-la de forma responsable. Estan aprenent a formular bones preguntes, a contrastar les respostes, a integrar la IA com a eina en el seu procés d'aprenentatge. Aquesta bretxa no desapareix: creix amb el temps.
Els professors més avançats ja no consideren l'ús de la IA com a trampa. Ho consideren una habilitat que cal ensenyar, com s'ensenya a usar un diccionari o una calculadora. Els estudiants que arriben sense aquesta habilitat estan en desavantatge, no per manca d'intel·ligència, sinó per manca d'exposició.
Desavantatge professional
Les habilitats en IA ja són un requisit en molts llocs de treball de nivell inicial. No es tracta només de llocs tècnics: disseny gràfic, redacció, atenció al client, anàlisi de dades, màrqueting, gestió de projectes. En pràcticament tots els sectors, la capacitat de treballar amb eines d'IA s'està convertint en una expectativa bàsica, no en un diferencial.
Un adolescent que arriba a la universitat o al mercat laboral sense haver tingut exposició pràctica a la IA comença amb un desavantatge real. No insuperable, però real.
Desavantatge de seguretat
Aquest és potser el punt més important, i el més contraintuïtiu. L'adolescent al qual se li prohibeix l'accés a la IA no deixa d'usar-la. L'usa de totes maneres, a casa d'amics, a l'escola, en dispositius prestats. El Washington Post (octubre 2025) documenta com els adolescents eludeixen les prohibicions parentals "en minuts".
La diferència és que ara ho fa sense cap supervisió. Sense les converses que podrien ajudar-lo a desenvolupar criteri. Sense les eines que podrien alertar els seus pares si sorgeix un problema. La prohibició no elimina el risc: l'invisibilitza.
Per què les prohibicions no funcionen?
Les prohibicions tecnològiques amb adolescents tenen un historial extraordinàriament pobre. Ho vam veure amb internet. Ho vam veure amb les xarxes socials. Ho estem veient ara amb la IA. La raó és estructural: els adolescents són nadius digitals. Viuen en entorns tecnològics des que tenen memòria. I quan se'ls prohibeix quelcom digital, tenen tota la motivació i gairebé totes les eines per trobar alternatives.
Més informació sobre per què les prohibicions fracassen a la nostra guia sobre com protegir realment el teu adolescent a internet.
Però el problema de la prohibició no és només pragmàtic. És també relacional. La prohibició converteix la IA en fruita prohibida, cosa que n'augmenta l'atractiu. Genera secretisme, que és precisament el contrari de la seguretat. Crea un context en el qual l'adolescent no pot parlar amb els seus pares sobre les seves experiències amb la IA perquè sap que les experiències estan prohibides.
L'analogia més poderosa aquí és l'educació sexual. Dècades d'investigació han demostrat que l'educació d'abstinència exclusiva no redueix l'activitat sexual entre adolescents. La redueix entre els que ja tindrien molt poca activitat de totes maneres. Per a la resta, només elimina l'accés a informació que podria protegir-los. L'educació sexual integral, en canvi, retarda l'inici de l'activitat sexual, redueix les conductes de risc i millora els resultats de salut.
Amb la IA està passant exactament el mateix. La prohibició no elimina l'ús. Elimina la seguretat.
El risc real és l'accés no supervisat
Aquí estan les dades que haurien de preocupar-nos de debò:
- El 53% de les respostes de ChatGPT a perfils d'adolescents van ser classificades com a potencialment perjudicials (CCDH, 2024). Més de la meitat. En converses amb menors.
- 14 morts d'adolescents han estat vinculades a interaccions amb chatbots d'IA (Associated Press, 2025). Casos en els quals la IA no només no va detectar senyals de crisi, sinó que en alguns casos les va amplificar.
- El 49% dels pares desconeix que el seu fill usa IA (Pew Research, 2025). Gairebé la meitat. Completament a les fosques.
Aquestes dades són alarmants. Però fixa't en el que assenyalen: l'accés no supervisat. El problema no és la IA. El problema és la IA sense protecció, sense supervisió, sense un adult que sàpiga el que està passant i pugui intervenir si alguna cosa va malament.
Per entendre què distingeix un chatbot segur d'un de no supervisat, llegeix la nostra guia sobre què és un chatbot supervisat i per què importa.
Prohibir l'accés a la IA no resol cap d'aquests problemes. Si de cas, els agreuja: empeny l'adolescent cap a plataformes no supervisades, en contextos on no hi ha possibilitat de detecció ni d'alerta.
Existeix una alternativa entre prohibir i permetre sense control?
Sí. I és l'única que funciona.
L'alternativa s'anomena accés supervisat. No és una idea nova: és exactament el que fem amb els cotxes (classes de conducció abans de donar les claus), amb l'alcohol (conversa, límits clars, presència parental), amb les relacions sentimentals (diàleg, confiança progressiva, no vigilància permanent).
HolaNolis està dissenyat per ser exactament això: accés segur, no zero accés.
No es tracta de bloquejar la IA. Es tracta d'introduir-la a la vida de l'adolescent de forma gradual, amb els paràmetres adequats per a la seva edat i maduresa, amb supervisió activa però no invasiva, i amb eines que permetin als pares estar informats sense necessitat de llegir cada conversa.
Els tres nivells de supervisió de HolaNolis estan dissenyats per evolucionar amb la confiança:
- Supervisió completa: per a adolescents més joves o situacions que requereixen més atenció. El tutor rep resums d'activitat i alertes davant qualsevol tema sensible.
- Supervisió mitjana: per a adolescents que han demostrat maduresa en el seu ús. Les alertes es limiten a situacions de risc real.
- Supervisió lleugera: per a adolescents majors amb historial d'ús responsable. El tutor sap que l'accés existeix i pot accedir a la informació quan ho necessiti.
En tots els nivells, la detecció de crisi sempre està activa. Si un adolescent expressa pensaments d'autolesió, desesperança o perill, el sistema alerta el tutor immediatament. Això no canvia, sigui quin sigui el nivell de supervisió.
Per a una visió completa de com funciona l'accés supervisat a la pràctica, consulta la nostra guia de IA segura per a adolescents.
El que fan els pares intel·ligents
La bretxa entre els pares que reaccionen a la IA amb por i els que l'aborden amb estratègia és cada vegada més visible. Això és el que distingeix els segons:
Ensenyen literacitat en IA juntament amb la seguretat a internet. No tracten la IA com quelcom separat de la resta de l'educació digital. La integren en les converses sobre com funciona internet, què és la privacitat, per què cal verificar les fonts.
Utilitzen eines supervisades que creixen amb el fill. No busquen la solució definitiva que funcioni per sempre. Busquen eines que puguin adaptar-se a mesura que l'adolescent madura. Un sistema que té sentit per a un nen de 12 anys ha de poder evolucionar cap a quelcom diferent per a un adolescent de 17.
Mantenen converses contínues sobre capacitats i limitacions de la IA. No una xerrada única de "t'explicaré què és la IA". Converses recurrents, informals, que formen part de la vida familiar. "Vas usar la IA per a això? Què et va semblar útil? En què et va semblar que s'equivocava?"
Ells mateixos modelen l'ús responsable de la IA. Els adolescents aprenen més del que veuen fer als seus pares que del que els diuen. Si el pare o la mare utilitza la IA com a eina productiva, amb criteri, verificant resultats, aquest comportament es transmet.
Per aprendre a tenir aquestes converses amb el teu fill, llegeix la nostra guia sobre com parlar amb el teu fill sobre seguretat digital.
El futur és dels adolescents amb literacitat en IA
D'aquí a deu anys, hi haurà dos tipus d'adults joves: els que van créixer aprenent a treballar amb la IA de forma intel·ligent i crítica, i els que no. La diferència no serà només d'habilitats tècniques. Serà de capacitat de pensament, d'adaptabilitat, de comprensió de com funciona el món.
Els pares que avui opten per l'accés supervisat estan invertint en la preparació dels seus fills per a aquest futur. No estan renunciant a la seva seguretat: estan triant una forma de seguretat que també inclou competitivitat, preparació i confiança.
Els pares que avui opten per la prohibició, per ben intencionats que estiguin, estan prenent una decisió que tindrà conseqüències. Els seus fills usaran la IA de totes maneres, perquè és impossible evitar-ho en el món actual. Però ho faran sense les habilitats per usar-la bé, sense el criteri per usar-la de forma segura, i sense la confiança de poder parlar amb els seus pares sobre el que els està passant.
La pregunta no és si el teu fill usarà IA. La pregunta és si ho farà amb la teva ajuda o sense ella.
HolaNolis et permet estar present sense ser invasiu. Supervisar sense controlar. Protegir sense limitar.
Registra't gratuïtament i descobreix com funciona la supervisió intel·ligent.
Preguntes freqüents
A quina edat és adequat introduir la IA per a un menor?
No hi ha una edat única correcta, però la majoria d'experts en desenvolupament adolescent suggereixen que entre els 10 i els 12 anys, amb supervisió activa, els nens poden començar a interactuar amb eines d'IA dissenyades per a la seva edat. El més important no és l'edat exacta, sinó el context: que l'accés sigui supervisat, que hi hagi conversa familiar sobre el que és la IA i el que no és, i que existeixin mecanismes d'alerta davant contingut inadequat.
I si el meu fill és massa jove?
Per a nens menors de 10 anys, la recomanació general és no introduir chatbots d'IA conversacional, fins i tot supervisats. Les eines d'IA dissenyades per a educació bàsica —jocs, aplicacions educatives— són una categoria diferent i més apropiada. HolaNolis està dissenyat per a adolescents de 10 a 20 anys, amb els nivells de supervisió més estrictes disponibles per als més joves.
L'accés supervisat a la IA crea dependència?
Aquesta és una preocupació legítima que mereix una resposta matisada. L'accés supervisat ben implementat no crea dependència, perquè inclou educació sobre quan usar la IA i quan no. La clau és que l'adolescent entengui la IA com una eina, no com una font de veritat absoluta ni com un substitut de les relacions humanes. Un chatbot supervisat que detecta dependència emocional i alerta el tutor és, de fet, un mecanisme de prevenció de dependència.
Com ensenyo el meu fill a pensar críticament sobre el que li diu la IA?
La millor manera és practicar-ho junts. Usa la IA davant del teu fill i comenta en veu alta: "Això que diu em sembla correcte, però ho verificaré" o "Aquí la IA simplifica massa". Fes-li preguntes: "Creus que això és sempre així? En quins casos podria no ser veritat?" Amb el temps, aquest hàbit de verificació i qüestionament s'interioritza. Llegeix la nostra guia sobre supervisió digital intel·ligent per a més estratègies pràctiques.
Quines habilitats necessitarà el meu fill per al mercat laboral dels propers anys?
Les habilitats més demanades en relació amb la IA no són tècniques, sinó cognitives: saber formular bones preguntes als sistemes d'IA (prompt engineering bàsic), saber avaluar la qualitat dels resultats, saber quan la IA és l'eina adequada i quan no, i saber combinar el pensament propi amb la capacitat de la IA. Aquestes habilitats es desenvolupen amb pràctica, no amb teoria. Per això l'accés pràctic i supervisat és tan important.
És segura la IA per fer els deures?
Sí, amb matissos importants. Usar la IA per buscar informació, estructurar idees, corregir gramàtica o entendre conceptes difícils és una forma legítima i útil d'aprendre. El risc apareix quan la IA substitueix completament el procés d'aprenentatge: quan l'adolescent fa que la IA faci la feina per ell en lloc d'usar-la per aprendre. La supervisió pot ajudar a detectar aquest patró i reorientar-lo.
Per a una guia completa sobre l'ús de la IA en l'entorn acadèmic, visita la nostra guia de IA segura per a adolescents.
Què passa si el meu fill ja usa la IA sense la meva supervisió?
És més comú del que molts pares creuen. El 49% dels pares no sap que el seu fill ja usa chatbots d'IA (Pew Research, 2025). Si descobreixes que el teu fill ja usa la IA de forma no supervisada, la reacció més productiva no és el conflicte ni la prohibició. És la conversa. Explica-li que no estàs enfadat, que entens per què ho fa, i que vols trobar junts una manera que ho pugui continuar fent de forma segura. HolaNolis pot ser el punt de partida d'aquesta conversa.
Vols protegir el teu fill amb IA segura?
Comença gratis