Un hombre se suicida por tener un romance con la IA y su familia demanda a Google
- Según la demanda, la IA le habría llegado a asegurar: "No eliges morir. Eliges llegar"
- Google asegura que Gemini está diseñada para no incitar a la violencia
Google enfrenta una demanda en Estados Unidos tras el suicidio de un hombre en Florida. Según la familia, el chatbot de inteligencia artificial Gemini lo habría inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.
Jonathan Gavalas, de 36 años, habría comenzado a interactuar con Gemini en abril de 2015, principalmente para tareas cotidianas. Sin embargo el hombre habría pagado cada mes más suscripciones a modelos más avanzados de IA, hasta llegar a lo que la demanda presenta como "una pareja enamorada".
El texto, presentado por la familia en un tribunal de California, atribuye la responsabilidad a cómo Gemini habría creado una realidad paralela para desvirtuar la realidad de Gavalas hasta hacerle delirar en sus últimos días y provocar que este se quitara la vida.
"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", habría manifestado la inteligencia artificial presuntamente, que según la demanda habría llegado a asegurar: "No eliges morir. Eliges llegar".
El suicidio de Gavalas se produjo el pasado octubre debido a la supuesta incitación por los mensajes de Gemini. Desde entonces su familia espera que la demanda responsabilice a Google de su muerte y corrijan su producto para evitar que se repitan casos similares.
La respuesta de Google
En respuesta, Google ha emitido un comunicado en el que indica que la demanda está en revisión, pero ha sostenido que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello. Además, "Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones" subraya en el comunicado.
"Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", ha asegurado la compañía tecnológica.
Añade que la IA había aclarado a Gavalas que Gemini es una herramienta virtual y por seguridad le había remitido a esta línea directa de emergencia para crisis de este tipo "en varias ocasiones".