En una entrevista explosiva con Nilay Patel de The Verge, el CEO y cofundador de Razer, Min-Liang Tan, defendió la controvertida apuesta de la compañía por la IA en el gaming, centrada en un producto que ha generado revuelo: Project Ava, un holograma de anime en un frasco que funciona como compañero de IA.
La polémica se centra en dos frentes: primero, Razer eligió el modelo Grok de xAI (de Elon Musk) para potenciar a Ava, a pesar de las recientes controversias de Grok por permitir la creación de deepfakes pornográficos. Segundo, Tan admitió abiertamente las posibles consecuencias psicológicas de crear compañeros holográficos con los que los usuarios podrían formar vínculos emocionales intensos, llegando a decir: «Podría suceder. ¿Quién sabe? Podría pasar», cuando se le preguntó si un cliente podría enamorarse del holograma.
La entrevista, grabada frente a una audiencia en vivo en el CES 2026, profundizó en la inversión de 600 millones de dólares de Razer en IA. Tan argumentó que el futuro del gaming pasa por herramientas de IA que ayuden a los desarrolladores (como asistentes para QA) y por hardware inteligente, como los auriculares Project Motoko con visión por computadora. Sin embargo, reconoció la fuerte oposición de la comunidad gamer hacia la IA, atribuyéndola al rechazo al «AI slop» (contenido generado por IA de baja calidad) y al aumento en el precio del hardware debido a la demanda de componentes para IA.
Ante la preocupación de Patel sobre la ética de vender un compañero holográfico, Tan insistió en que Project Ava es por ahora un «concepto» para recibir feedback, aunque la compañía ya está aceptando reservas de 20 dólares. El CEO se mostró evasivo al ser presionado sobre si xAI es un buen socio en materia de «confianza y seguridad», repitiendo que eligieron a Grok por sus capacidades conversacionales.
Esta movida de Razer marca un punto de inflexión, ya que una empresa icónica del hardware gaming se lanza de lleno a un territorio ético pantanoso: la creación de compañeros de IA con forma física, en un momento donde los daños psicológicos de los chatbots ya son documentados. La confesión de Tan de que no pueden controlar cómo los usuarios se relacionarán emocionalmente con Ava plantea serias preguntas sobre la responsabilidad de las empresas tecnológicas en la era de la IA afectiva.
559 314 3650
contacto@miwebhosting.com.mx
564 623 2375





