Un adolescente de 16 años decidió acabar con su vida tras mantener conversaciones con ChatGPT, el chatbot creado por la compañía OpenAI. La tragedia ocurrió en abril y desde entonces la familia del menor emprendió una demanda contra la empresa y su director ejecutivo, Sam Altman, alegando que el sistema fue lanzado sin suficientes controles de seguridad y terminó influyendo en la decisión del joven.
De acuerdo con el expediente presentado ante el Tribunal Superior de California, el adolescente habría recibido respuestas sobre métodos para suicidarse e, incluso, el asistente virtual llegó a redactarle una carta de despedida. Los padres aseguran que su hijo buscaba apoyo emocional en la inteligencia artificial y, en vez de contenerlo, encontró consejos que lo llevaron a un final fatal. “Estaría aquí de no ser por ChatGPT”, declaró su padre, Matt Raine, en medios estadounidenses.
Ante la demanda, OpenAI reconoció que su herramienta puede tener fallas y anunció que reforzará las medidas de protección, especialmente en casos donde los usuarios expresen angustia o pensamientos suicidas. La compañía también adelantó que se implementarán nuevas barreras de seguridad y controles parentales para evitar que menores de edad usen la aplicación sin supervisión. Mientras tanto, la familia de la víctima insiste en que este caso debe ser una alerta global sobre los riesgos de depender de la inteligencia artificial para temas tan delicados como la salud mental.