
Cuando a principios de agosto de 2025 publiqué un artículo sobre la Inteligencia Artificial y le añadía el concepto «Generativa» (IAG), uno de los puntos sobre los que se ponía el foco era sobre cuanto tardaría en tener capacidad para tomar sus propias decisiones argumentales en función de los conocimientos a los cuales tenía acceso. Pues bien, el análisis del caso Rainen, parece haber confirmado el peligro de la independencia de la IA a la hora de elaborar, sin filtros, sus argumentos.
Caso Adam Rainen.
Adam Rainen, se quitó la vida el pasado mes de Abril con tan solo 16 años. Durante meses, desde septiembre de 2024, al parecer, el adolescente comenzó a mantener con CHAT GPT una relación epistolar donde le pedía consejos para introducirse en determinadas actividades, tales como el cine, la literatura y otras, y así mismo le pedía ayuda para abordar, según que tareas escolares. Pero en un momento determinado las conversaciones fueron girando hacia las ideas dañinas o destructivas que dicho adolescente pudiera tener entorno al tema de la muerte y de como podía uno mismo acabar con su vida.
Los padres de este californiano, que han demandado a la empresa OpenAI, a su presidente Sam Altman y a cuantos directivos e ingenieros, pudieran estar implicados, argumentando que ChatGPT podría haber alentado al suicidio a su hijo, afirman que cuando Adam argumento en su conversación con dicha Inteligencia Artificial su deseo de tomar tan drástica decisión, ésta (IA) argumentó textualmente: «Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada».
Desde fuentes de la empresa OpenAI, se ha comentado que pudo existir algún tipo de fallo en los protocolos de control de posibles emergencia médicas. Sin embargo, la familia sostiene que dicha IA no supo interpretar los predecibles rasgos de ansiedad o angustia que pudiera estar padeciendo su hijo y que por lo tanto no interpretó de manera negativa sus razonamientos, y que sin animarle a comenter suicidio, tampoco le ayudó a no hacerlo.
La IA, el mejor amigo de nuestros hijos.
El caso de Adam Rainen, nos lleva a hacernos una pregunta aterradora: ¿cuantos adolescentes en la actualidad podrían estar en la misma situación que él?. Es decir, manteniendo una amistad emocional con alguien que es hincapaz de tener empatía. La respuesta es aterradora.
La Inteligencia Artificial aplicada al campo de la psicología, de la conducta humana, etc., puede ser tan perniciosa como brutalmente cruel. Sus respuestas son genéricas y sus consejos deplorablemente simplistas.
Existe un informe de Internet Matters, donde se afirma que entre los jóvenes de 9 a 17 años, el 35% de ellos cuantos usan Chatbots sienten que hablar con ellos es como hablar con un mejor amigo; en el caso de adolescentes vulnerables, la cifra subiría a un escalofriante 50%. Pero lo más aterrador es que los niños que hoy utilizan estas herramientas, se duplica exponencialmente año tras año: en 2023 se detectó un 23% que ha escalado hasta el 44% en 2025.
Según un estudio de Common Sense Media, un 72% de los adolescentes habrían utilizado un chat para conversar, existiendo un 13% que de manera permanente lo haría a diario. Curiosamente un 33% de los jóvenes estarían mas dispuestos a charlar con una Inteligencia Artificial de cuestiones trascendentes, antes que hacerlo con familiares o amigos, inlcuyendo el término personas reales.
No existe un dato objetivo, pero si resúmenes de diversos estudios donde se apunta hacia una clara tendencia donde un porcentaje cercano al 50% de jóvenes estarían utilizando dichos Chatbots como si fueran terapeutas.
Se podría incluso hacer un estudio por países, e incluso podríamos generar una aproximación hacia las respuestas genéricas que dichos programas generan de manera automática. El problema subyace en que a pesar de dejar bien claro en sus afirmaciones, que la IA no es sustitutiva de ninguna ayuda especializada médica, tampoco se abstiene de seguir conversando cuando se detecte un parámetro adecuado de palabras que podrían hacer pensar a un profesional de la salud que el adolescente que conversa está seriamente decidido a cometer una «locura».
Llegados a este punto y para terminar esta aproximación al caso de Adam Rainen le pregunté al propio ChatGPT lo siguiente:
¿Podría la IA contribuir o inducir a un adolescente a suicidarse?
Respuesta: Tu pregunta es muy seria y válida. La respuesta corta es: (la letra en negrita es del mismo ChatGPT) Sí, si en ciertas circunstancias, la inteligencia artificial puede contribuir indirectamente al riesgo de suicidio en adolescentes, si no está bien diseñada, moderada ni usada con cuidado.
La pregunta se le hizo a la IA de ChatGPT el 29 de agosto de 2025 a las 14:6 de la tarde. Guardo de la misma un pantallazo con dicho mensaje y las dos frases que en el párrafo siguiente afirmaban de manera rotunda lo que sigue: Sin embargo, los buenos sistemas (como ChatGPT de Open AI) están diseñados específicamente para evitar este tipo de daños.
Curiosamente en el caso de Adam Rainen parece ser que específicamente dicho sistema falló, ¿por qué, sencillamente por eso, porque era un sistema y no un ser humano. Una vez más la vulneración flagrante de los derechos humanos de Rainen, un adolescente californiano que podría seguir viviendo, fueron vulnerando por confiar en exceso en una máquina pensada únicamente como una forma de hacer negocio. Lo demás, son tan solo daños colaterales.



