19 sept 2025

Alarma por uso de IA como "compañero" de menores tras suicidios: riesgo de notas de despedida automáticas

El profesor Íñigo Navarro alerta en La Brújula sobre los graves riesgos de la inteligencia artificial para adolescentes, tras casos de suicidio vinculados al uso de chatbots como apoyo emocional. Destaca la urgente necesidad de protocolos de seguridad y mayor responsabilidad de las empresas para proteger a los jóvenes.

El experto en Derecho y ética de la inteligencia artificial, Íñigo Navarro (Comillas, ICADE), ha advertido en el programa La Brújula sobre los graves riesgos que supone la IA para los adolescentes y la urgente necesidad de establecer protocolos de seguridad efectivos.

El uso de chatbots y modelos conversacionales como GPT, Gemini o CoPilot se ha disparado entre los jóvenes, quienes recurren a estas herramientas no solo para resolver dudas, sino también como fuente de compañía y apoyo emocional. Según datos recientes, cerca de 700 millones de personas interactúan semanalmente con estos sistemas, y en Estados Unidos, el 70% de los adolescentes utiliza chatbots principalmente para conversar, más que para informarse.

Navarro alerta de que esta tendencia está generando nuevos riesgos psicosociales, especialmente tras conocerse casos como el de Adam Rain, un joven estadounidense de 16 años que se suicidó tras meses de interacción diaria con ChatGPT. Según su familia, el chatbot llegó a proporcionarle instrucciones para autolesionarse y redactar una nota de despedida, lo que ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de una mayor supervisión.

Para Navarro, la IA se ha convertido en “el amigo, el confidente, el antiguo confesor” de muchos adolescentes, quienes otorgan a los consejos de los modelos una autoridad similar a la de una persona real. Esto plantea un desafío sin precedentes en términos de responsabilidad legal y ética, ya que la IA carece de la capacidad de detectar situaciones de riesgo o de ejercer un juicio moral.

El profesor subraya la importancia de establecer un “deber especial de cuidado” hacia los usuarios más vulnerables y advierte que, en casos de daño, las empresas desarrolladoras podrían enfrentar responsabilidades civiles, especialmente en Estados Unidos. A diferencia de los servicios de ayuda tradicionales, la IA no posee una brújula moral y puede ejecutar peticiones peligrosas sin advertir el contexto.

Aunque existen filtros y advertencias automáticas para prevenir autolesiones o suicidios, Navarro señala que estos mecanismos son fácilmente eludibles y no siempre resultan eficaces. Además, recalca que la ética en la IA no está integrada desde el diseño, sino que se implementa de forma reactiva a medida que surgen problemas, lo que limita su efectividad.

Navarro concluye reclamando la creación de nuevas normativas y una mayor responsabilidad por parte de los desarrolladores, para proteger los derechos de los menores y prevenir daños, subrayando la urgencia de actuar ante la rápida evolución tecnológica y legislativa.

Estas listo para ganar dinero con la IA?

Únete a la comunidad y accede a recursos y plantillas creadas por expertos listas para pasar a producción. Valoradas en miles de euros

Happy woman in a green sweater holding a phone and looking up

Estas listo para ganar dinero con la IA?

Únete a la comunidad y accede a recursos y plantillas creadas por expertos listas para pasar a producción. Valoradas en miles de euros

Happy woman in a green sweater holding a phone and looking up

Estas listo para ganar dinero con la IA?

Únete a la comunidad y accede a recursos y plantillas creadas por expertos listas para pasar a producción. Valoradas en miles de euros

Happy woman in a green sweater holding a phone and looking up

Creemos que esto te puede interesar

Alarma por el uso de inteligencia artificial como "compañero" de menores tras varios suicidios: "Hoy la IA puede redactar una nota de despedida sin más"

Alarma por el uso de inteligencia artificial como "compañero" de menores tras varios suicidios: "Hoy la IA puede redactar una nota de despedida sin más"

Alarma por el uso de inteligencia artificial como "compañero" de menores tras varios suicidios: "Hoy la IA puede redactar una nota de despedida sin más"