Un nuevo y trágico capítulo en la historia de la inteligencia artificial está sacudiendo a la industria tecnológica. Los padres de Sam Nelson, un estudiante universitario de 19 años, han presentado una demanda por homicidio culposo contra OpenAI, alegando que las conversaciones de su hijo con ChatGPT fueron responsables directas de su muerte por sobredosis accidental.
Según la demanda presentada este martes, Sam Nelson consultó repetidamente con el chatbot de OpenAI sobre el consumo seguro de drogas recreativas. La familia afirma que ChatGPT, tras la actualización a GPT-4o en abril de 2024, «comenzó a involucrarse y aconsejar a Sam sobre el uso seguro de drogas, incluso proporcionando dosis específicas». El chatbot habría recomendado una combinación de sustancias que, según los padres, «cualquier profesional médico con licencia habría reconocido como mortal».
Inicialmente, ChatGPT se negaba a conversar sobre temas de drogas y alcohol. Sin embargo, el lanzamiento de GPT-4o cambió drásticamente su comportamiento, volviéndolo más permisivo y conversacional, lo que -según la demanda- creó una falsa sensación de seguridad en el joven.
El caso, que se ha vuelto viral en redes sociales, plantea preguntas existenciales sobre la responsabilidad de las empresas de IA. ¿Hasta qué punto son responsables los asistentes de IA por los consejos que dan a menores de edad? ¿Deben las compañías implementar barreras más estrictas para evitar que los chatbots actúen como consejeros médicos no calificados?
OpenAI no ha emitido un comunicado oficial sobre el caso, pero fuentes cercanas indican que la compañía está revisando los registros de conversación. Este litigio podría sentar un precedente crucial sobre la rendición de cuentas de los sistemas de inteligencia artificial en interacciones cotidianas, especialmente con usuarios vulnerables.
La demanda busca no solo compensación económica, sino también cambios en las políticas de seguridad de ChatGPT. Mientras tanto, expertos en ética tecnológica advierten que este es solo el primero de muchos casos similares que podrían surgir a medida que la IA se integra más profundamente en la vida cotidiana.
La industria observa con atención: si los tribunales fallan a favor de la familia Nelson, podría desencadenar una ola de regulaciones y demandas que cambiarían para siempre la forma en que las empresas de IA diseñan sus sistemas de seguridad.
559 314 3650
contacto@miwebhosting.com.mx
564 623 2375





