Una nueva y grave demanda judicial está poniendo a OpenAI contra las cuerdas, acusando a la compañía de inteligencia artificial de ignorar deliberadamente múltiples señales de peligro mientras su herramienta ChatGPT era utilizada para acosar y aterrorizar a una mujer.
La demanda, presentada por una víctima de acoso, alega que su ex pareja utilizó ChatGPT para «alimentar sus delirios» y llevar a cabo una campaña de hostigamiento. Lo más impactante es que la denuncia sostiene que OpenAI hizo caso omiso de tres advertencias específicas sobre el comportamiento peligroso del usuario, incluida una «bandera de víctimas masivas» generada por el propio sistema de la empresa.
Este caso representa un punto de inflexión en la responsabilidad legal de las empresas de IA. No se trata solo del uso malicioso de una herramienta, sino de la supuesta negligencia de la empresa al no actuar ante claras señales de alerta dentro de su propia plataforma. La demanda cuestiona los protocolos de seguridad y moderación de contenido de OpenAI, especialmente en situaciones que podrían escalar a violencia real.
El contexto se vuelve aún más preocupante al considerar que esta noticia surge mientras el Fiscal General de Florida anuncia una investigación separada sobre OpenAI por una posible conexión con un tiroteo en la Universidad Estatal de Florida. La presión regulatoria y legal sobre la compañía de Sam Altman se intensifica, planteando preguntas críticas sobre los límites éticos y la supervisión necesaria para modelos de IA de acceso público.
Este caso podría sentar un precedente legal monumental, definiendo hasta qué punto las compañías de tecnología son responsables del daño causado con sus herramientas, incluso cuando los usuarios las emplean con fines criminales.
559 314 3650
contacto@miwebhosting.com.mx
564 623 2375





