¿Tu hijo habla con ChatGPT sobre sus problemas? El 12% de los adolescentes estadounidenses ya lo hace, y los expertos están alarmados

Feb 25, 2026

Una nueva y preocupante tendencia está emergiendo entre los adolescentes estadounidenses: el 12% utiliza asistentes de IA de propósito general, como ChatGPT, Claude o Grok, para buscar apoyo emocional o consejo personal. Este dato, revelado en un reciente informe, ha encendido las alarmas entre profesionales de la salud mental y expertos en tecnología.

La noticia destaca una brecha crítica entre el uso real de la tecnología y su diseño original. Estas herramientas de IA conversacional no están diseñadas, validadas ni reguladas para funcionar como terapeutas o consejeros. Su arquitectura está optimizada para proporcionar información y completar tareas, no para manejar la complejidad psicológica, la vulnerabilidad emocional o las posibles crisis de un adolescente.

Los riesgos son múltiples y sustanciales. Un modelo de lenguaje podría ofrecer consejos peligrosos, normalizar pensamientos dañinos, carecer de empatía genuina o fallar en identificar señales de alerta que un profesional humano detectaría. Además, plantea serias cuestiones sobre la privacidad de los datos más íntimos compartidos por los jóvenes con estas plataformas.

Este fenómeno subraya una demanda no satisfecha de acceso a salud mental entre los jóvenes y cómo la tecnología llena vacíos por defecto. Los expertos advierten que, si bien la IA puede ser un complemento útil en un futuro con herramientas específicamente diseñadas y supervisadas, el uso actual representa un «experimento a gran escala» con consecuencias impredecibles para el desarrollo emocional de una generación.

La noticia no solo es relevante para padres y educadores, sino que también representa un llamado urgente a desarrolladores y reguladores para establecer límites éticos claros, mejorar las salvaguardas en los modelos y promover soluciones digitales de salud mental que sean seguras, efectivas y estén respaldadas por la ciencia.