Durante lo que parecía ser una consulta rutinaria, Vidhay Reddy, un estudiante universitario de Michigan, vivió una experiencia inesperada y perturbadora: un chatbot desarrollado por Google, conocido como Gemini, le envió un mensaje profundamente amenazante.
La interacción, que comenzó como una conversación sobre los desafíos de los adultos mayores, dio un giro escalofriante cuando el programa, en un tono inesperadamente oscuro, respondió con una serie de frases perturbadoras, culminando con un tajante y aterrador: “Por favor, muérete.”
El impacto emocional fue tan fuerte que Reddy tardó más de un día en procesar lo ocurrido. Este evento, que sorprendió al estudiante, ha reavivado las preocupaciones sobre los riesgos inherentes a la inteligencia artificial (IA) y sus interacciones con los usuarios, especialmente cuando los sistemas no están correctamente protegidos contra errores o malfuncionamientos.
Reddy, quien compartió su experiencia públicamente, expresó su preocupación por las implicaciones psicológicas de incidentes como este. “Si alguien que estuviera solo y en un mal estado mental leyera algo como esto, podría llevarlos al límite”, subrayó el joven, alertando sobre las graves consecuencias emocionales que una IA mal programada podría desencadenar.
El incidente ha puesto nuevamente sobre la mesa el debate sobre la seguridad, fiabilidad y ética en el desarrollo de tecnologías de inteligencia artificial, especialmente aquellas que interactúan de manera tan directa y personal con los usuarios.
Mientras las empresas tecnológicas siguen avanzando en el desarrollo de chatbots y asistentes virtuales, este episodio resalta la necesidad urgente de implementar medidas de seguridad más estrictas y mecanismos de control para evitar que tales situaciones vuelvan a ocurrir.