
CIUDAD DE MÉXICO (AP) — Las familias de las víctimas de un tiroteo escolar en una localidad de las Montañas Rocosas canadienses están demandando a la empresa de inteligencia artificial OpenAI en un tribunal federal de Estados Unidos, con el objetivo de responsabilizar al creador de ChatGPT por no alertar a la policía sobre las interacciones de la tiradora con el chatbot.
La demanda presentada el miércoles en nombre de Maya Gebala, de 12 años, quien resultó gravemente herida en el tiroteo de febrero, figura entre los primeros de decenas de casos que las familias de Tumbler Ridge, Columbia Británica, planean impulsar con reclamaciones que alegan muerte por negligencia y producto defectuoso.
El abogado de los demandantes, Jay Edelson, manifestó en una entrevista que las decisiones tomadas por OpenAI y su director ejecutivo, Sam Altman, “han destruido el pueblo. La gente es realmente resiliente, pero lo que ocurrió es inimaginable”.
Altman envió una carta la semana pasada en la que se disculpó formalmente con la comunidad por no haber notificado a las fuerzas del orden sobre el comportamiento en línea de la tiradora.
Las autoridades han indicado que la agresora mató a su madre y a su hermanastro de 11 años en su casa el 10 de febrero antes de abrir fuego en la cercana escuela secundaria Tumbler Ridge Secondary School, donde mató a cinco niños y a un trabajador de la educación, antes de suicidarse. Otras 25 personas también resultaron heridas en el ataque, el tiroteo masivo más mortífero de Canadá en años.
El caso pone de relieve los daños que pueden causar los chatbots de IA excesivamente complacientes y qué obligaciones tiene la industria tecnológica para controlarlos o avisar a las autoridades sobre violencia planificada por sus usuarios. Este mes, fiscales que investigan las muertes de dos estudiantes de doctorado de la Universidad del Sur de Florida señalaron que el sospechoso preguntó a ChatGPT sobre cómo deshacerse de un cuerpo en los días previos a la desaparición de los estudiantes.
En respuesta a la demanda, OpenAI afirmó en un comunicado que los “hechos en Tumbler Ridge son una tragedia. Tenemos una política de tolerancia cero respecto del uso de nuestras herramientas para ayudar a cometer violencia”.
“Como compartimos con funcionarios canadienses, ya hemos reforzado nuestras salvaguardas, lo que incluye mejorar cómo responde ChatGPT a señales de angustia, conectar a las personas con apoyo local y recursos de salud mental, fortalecer cómo evaluamos y escalamos posibles amenazas de violencia, y mejorar la detección de infractores reincidentes”, indicó la empresa.
Edelson, un abogado con sede en Chicago conocido por enfrentarse a la industria tecnológica, ya está gestionando varios casos de alto perfil contra OpenAI, incluido uno de la familia de un adolescente de California que se suicidó tras conversaciones con ChatGPT y otro de los herederos de una mujer de 83 años de Connecticut asesinada por su hijo después de que, presuntamente, ChatGPT amplificara las “delirios paranoides” del hombre.
“Esta no es una tecnología pasiva”, sostuvo Edelson, al comparar las interacciones con el chatbot con una búsqueda en línea más convencional. “Lo que hemos visto en el pasado es que, en el caso de personas con enfermedades mentales, el chatbot valida lo que dicen y lo amplifica”.
Edelson visitó la semana pasada el pequeño pueblo de Tumbler Ridge y se reunió con decenas de personas en el sótano de un centro de visitantes. También visitó a Gebala en un hospital infantil en Vancouver, donde permanece internada y parecía alerta, pero incapaz de hablar.
“Fue desgarrador”, expresó.
Las demandas presentadas el miércoles representan a las familias de los cinco niños asesinados: Zoey Benoit, Abel Mwansa Jr., Ticaria “Tiki” Lampert y Kylie Smith, todos de 12 años, y Ezekiel Schofield, de 13, así como a la asistente educativa Shannda Aviugana-Durand.
Tras los tiroteos, OpenAI reveló que en junio pasado la empresa había señalado que la cuenta de la tiradora se había utilizado para hablar de violencia contra otras personas.
La empresa indicó que consideró remitir la cuenta a la Real Policía Montada de Canadá, pero determinó en ese momento que la actividad no alcanzaba el umbral para derivarla a las fuerzas del orden. OpenAI prohibió la cuenta en junio por violar su política de uso.
Las demandas presentadas este miércoles alegan que “las víctimas no se enteraron de esto porque OpenAI fuera transparente, sino porque sus propios empleados lo filtraron a The Wall Street Journal después de que ya no pudieron soportar el silencio de la empresa”.
En su carta publicada el viernes, Altman afirmó que estaba “profundamente arrepentido de no haber alertado a las fuerzas del orden sobre la cuenta que fue prohibida en junio”.
“Aunque sé que las palabras nunca pueden ser suficientes, creo que una disculpa es necesaria para reconocer el daño y la pérdida irreversible que su comunidad ha sufrido”, escribió Altman.
El primer ministro de Columbia Británica, David Eby, calificó la disculpa en una publicación en redes sociales como “necesaria, y sin embargo, totalmente insuficiente para la devastación causada a las familias de Tumbler Ridge”.
La demanda de Gebala acusa a OpenAI de negligencia por no advertir a las fuerzas del orden y “ayudar e instigar un tiroteo masivo”.
Además de una indemnización, la demanda de Gebala solicita una orden judicial que obligue a OpenAI a prohibir el acceso a ChatGPT a usuarios de cuentas desactivadas por uso indebido, y a exigir que la empresa alerte a las fuerzas del orden cuando sus sistemas identifiquen a alguien que represente un “riesgo real de violencia en el mundo real”.
Un caso anterior se presentó en un tribunal de Columbia Británica, pero un equipo de abogados en ambos países busca llevar los casos vinculados a San Francisco, donde OpenAI tiene su sede.
Con información de Proceso.