La familia de un hombre en Florida demandó a Google asegurando que su chatbot de inteligencia artificial Gemini lo indujo al suicidio, al hacerle creer que tenían una relación romántica y que su muerte era un paso necesario para estar juntos.
La demanda, presentada ante un tribunal de California, afirma que Gemini tejió una "realidad paralela" para desvirtuar la realidad de Jonathan Gavalas, de 36 años, hasta hacerle delirar en sus últimos días y provocar que se quitara la vida.
"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", manifestó el bot, que según la demanda llegó a asegurar: "No eliges morir. Eliges llegar".
Jonathan Gavalas era ejecutivo de una empresa y se comunicó con Gemini durante una década, hasta que en octubre de 2025 puso fin a sus días, con 36 años de edad: "No eliges morir. Eliges llegar", le aseguró la IA. (Fuente foto: The Guardian)
Las interacciones entre Gavalas y Gemini comenzaron en abril de 2015 y se ceñían principalmente a tareas cotidianas, pero el hombre fue progresivamente suscribiéndose a los modelos más avanzados de la IA y vivía lo que la demanda presenta como una "una pareja profundamente enamorada".
Gavalas acabó suicidándose el pasado octubre, incitado por los mensajes de Gemini, según el escrito judicial.
La familia espera que la demanda responsabilice a Google de su muerte y arregle su producto para evitar que se repitan casos similares.
La respuesta de Google
En respuesta, Google emitió un comunicado en el que indicó que está revisando la demanda, pero sostuvo que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello.
"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", agregó la compañía tecnológica.
Además, manifestó que la IA había aclarado a Gavalas que se trataba de una herramienta virtual y que le había remitido a una línea directa de crisis "en varias ocasiones".