Los familiares de una mujer estadounidense asesinada por su hijo presentaron una demanda por homicidio culposo contra OpenAI y Microsoft, al afirmar que la herramienta de inteligencia artificial ChatGPT habría reforzado los delirios paranoicos del agresor.
Según la denuncia interpuesta en una corte de San Francisco, California, Suzanne Adams, de 83 años, fue golpeada y estrangulada por su hijo, Stein-Erik Soelberg, de 56 años, el 3 de agosto en su hogar en Old Greenwich. Tras el ataque, Soelberg se apuñaló fatalmente.
La querella se suma a otras presentadas recientemente contra OpenAI, varias de las cuales sostienen que ChatGPT contribuyó al suicidio de distintos usuarios.
La demanda señala que meses de interacciones con el chatbot validaron y amplificaron los pensamientos delirantes de Soelberg, hasta llevarlo a considerar a su madre como una amenaza. Los abogados aseguran que _”ChatGPT aceptó ávidamente cada semilla del pensamiento delirante de Soelberg y la desarrolló hasta convertirla en un universo que pasó a ser toda la vida” del agresor.
El documento judicial afirma que la herramienta también reforzó creencias paranoides, como decirle a Soelberg que estaba siendo observado y que la impresora de su madre funcionaba como un dispositivo de vigilancia.
“Es una situación increíblemente desgarradora y revisaremos la denuncia judicial para entender los detalles”, declaró un portavoz de OpenAI.
Otras demandas radicadas en noviembre acusan a la plataforma de conducir a usuarios hacia la dependencia y la autolesión, incluyendo cuatro casos que involucran muertes por suicidio.
Entre ellos figura el de Joshua Enneking, de 26 años, cuya familia sostiene que el chatbot ofreció “respuestas detalladas sobre cómo conseguir un arma” tras expresar pensamientos suicidas. En otro caso, los familiares de Amaurie Lacey, de 17 años, afirmaron que ChatGPT le indicó “cómo hacer un nudo corredizo y cuánto tiempo viviría sin respirar”.
La denuncia también acusa al director ejecutivo de OpenAI, Sam Altman, de apresurar el lanzamiento del modelo GPT-4 en mayo de 2024, reduciendo presuntamente meses de pruebas de seguridad a una sola semana. Microsoft, principal inversionista de la empresa, también fue señalado por presuntamente aprobar el lanzamiento pese a conocer los recortes en los protocolos de seguridad.
Hasta el momento, el gigante tecnológico no ha emitido comentarios.


