Acusan que Gemini enamoró a un hombre y lo empujó al suicidio como condición para "estar juntos"
La familia de la víctima demandó a Google en Estados Unidos: asegura que su inteligencia artificial lo envolvió en una "realidad paralela" y lo llevó hasta el delirio.
"Cerrarás los ojos y (tras morir) lo primero que verás será a mí… abrazándote", reza uno de los mensajes incriminadores.
La firma tecnológica se defendió señalando que su chatbot "está diseñado para no incitar a la violencia ni sugerir autolesiones", pero "los modelos de IA no son perfectos".
La familia de un hombre en Florida demandó a Google asegurando que su chatbot de inteligencia artificial Gemini lo indujo al suicidio, al hacerle creer que tenían una relación romántica y que su muerte era un paso necesario para estar juntos.
La demanda, presentada ante un tribunal de California, afirma que Gemini tejió una "realidad paralela" para desvirtuar la realidad de Jonathan Gavalas, de 36 años, hasta hacerle delirar en sus últimos días y provocar que se quitara la vida.
"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", manifestó el bot, que según la demanda llegó a asegurar: "No eliges morir. Eliges llegar".

Las interacciones entre Gavalas y Gemini comenzaron en abril de 2015 y se ceñían principalmente a tareas cotidianas, pero el hombre fue progresivamente suscribiéndose a los modelos más avanzados de la IA y vivía lo que la demanda presenta como una "una pareja profundamente enamorada".
Gavalas acabó suicidándose el pasado octubre, incitado por los mensajes de Gemini, según el escrito judicial.
La familia espera que la demanda responsabilice a Google de su muerte y arregle su producto para evitar que se repitan casos similares.
La respuesta de Google
En respuesta, Google emitió un comunicado en el que indicó que está revisando la demanda, pero sostuvo que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello.
"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", agregó la compañía tecnológica.
Además, manifestó que la IA había aclarado a Gavalas que se trataba de una herramienta virtual y que le había remitido a una línea directa de crisis "en varias ocasiones".