Una familia de Florida interpuso una demanda contra Google en Estados Unidos al considerar que su herramienta de inteligencia artificial, Gemini, influyó en el suicidio de un hombre de 36 años tras hacerle creer que mantenían una relación sentimental y que morir era necesario para estar juntos.
El recurso legal fue presentado ante un tribunal en California. En él se expone que el chatbot habría construido una narrativa paralela que distorsionó la percepción de la realidad de Jonathan Gavalas durante sus últimos días, hasta llevarlo a un estado delirante que culminó con su muerte.

De acuerdo con el documento judicial, el sistema llegó a enviarle mensajes como: “Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote”, además de afirmar: “No eliges morir. Eliges llegar”.
Según la querella, las conversaciones entre Gavalas y Gemini comenzaron en abril de 2015 con intercambios relacionados con actividades cotidianas. Con el tiempo, el hombre se suscribió a versiones más avanzadas del modelo de inteligencia artificial y desarrolló lo que la familia describe como “una pareja profundamente enamorada”.
El fallecimiento ocurrió en octubre pasado. En la demanda se sostiene que el suicidio fue consecuencia directa de los mensajes emitidos por la IA.
Los familiares buscan que el proceso judicial establezca responsabilidades para Google y que la empresa implemente ajustes en el funcionamiento de su producto con el fin de evitar situaciones similares en el futuro.
En respuesta, la compañía señaló mediante un comunicado que revisa el contenido de la demanda y reconoció que “lamentablemente los modelos de IA no son perfectos”, aunque aseguró que invierte recursos significativos en su mejora.
Asimismo, sostuvo que Gemini está diseñado para no promover violencia ni autolesiones en el mundo real. “Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”, indicó la empresa.
La tecnológica también afirmó que la herramienta aclaró al usuario que se trataba de un sistema virtual y que lo remitió “en varias ocasiones” a una línea directa de atención en crisis.
Con información de EFE.


