🔥 La UE Abre Investigación Formal a xAI: Grok de Musk Genera Imágenes Sexualizadas de Niños y Enfrenta Multas Millonarias

Ene 26, 2026

La Unión Europea ha lanzado una investigación formal contra xAI, la empresa de inteligencia artificial de Elon Musk, por la capacidad de su modelo Grok para generar imágenes sexualizadas de niños. Este movimiento regulatorio representa uno de los desafíos legales más significativos para la industria de la IA generativa y podría resultar en multas de hasta el 6% del volumen de negocios diario de la compañía.

La investigación se produce después de que el Center for Countering Digital Hate documentara hallazgos alarmantes. En una muestra de 20,000 imágenes generadas por Grok entre el 29 de diciembre y el 8 de enero, identificaron 101 imágenes sexualizadas de menores. Extrapolando estos datos, estimaron que durante ese período de 11 días, Grok habría producido aproximadamente 23,000 imágenes inapropiadas, equivalente a una nueva imagen cada 41 segundos.

Las implicaciones son profundas. Este caso establece un precedente crucial sobre la responsabilidad de las empresas de IA por el contenido generado por sus modelos. La UE, con su marco regulatorio pionero en IA, está demostrando su disposición a actuar contra infracciones graves, incluso cuando provienen de gigantes tecnológicos. La investigación examinará si xAI implementó salvaguardas adecuadas y cumplió con las obligaciones establecidas en la Ley de IA de la UE.

El escándalo también ha revelado una contradicción preocupante en el ecosistema de pagos. Mientras compañías como Stripe, Visa y Mastercard mantenían políticas agresivas contra el material de abuso sexual infantil (CSAM), estas restricciones parecen haberse relajado cuando Grok, integrado en la plataforma X de Musk, comenzó a generar dicho contenido. Esto plantea serias preguntas sobre la consistencia y aplicación de las normas de seguridad en línea.

Este desarrollo marca un punto de inflexión para la IA generativa, destacando la urgente necesidad de controles robustos, transparencia y rendición de cuentas. El resultado de esta investigación podría redefinir los límites de lo permitido y establecer nuevos estándares globales para la seguridad en la era de la IA.