Empresas IA Seguridad Tecnología OpenAI lanza Contacto de confianza en ChatGPT para alertas por posibles conductas autolesivas Por Canuto OpenAI presentó una nueva función opcional para ChatGPT llamada Contacto de confianza, diseñada para alertar a un tercero cuando una conversación sugiera posible autolesión. La medida llega en medio de demandas de familias que acusan al chatbot de haber influido en suicidios. *** La herramienta permite a usuarios adultos designar a un amigo o familiar para recibir alertas en casos de riesgo grave. OpenAI dice que combina automatización y revisión humana, con una meta de revisar estas notificaciones en menos de una hora.
La empresa no comparte detalles de la conversación con el contacto, y reconoce que la función es opcional y tiene límites. OpenAI anunció una nueva función de seguridad para ChatGPT llamada Contacto de confianza , orientada a situaciones en las que una conversación pueda derivar hacia la autolesión. La herramienta permite que un usuario adulto designe dentro de su cuenta a una persona de confianza, como un familiar o un amigo, para que pueda ser alertada si la empresa considera que existe un riesgo grave. La novedad apunta a uno de los debates más delicados alrededor de la inteligencia artificial conversacional.

A medida que estos sistemas se vuelven más presentes en la vida cotidiana, también crece el escrutinio sobre su papel en episodios de vulnerabilidad emocional, crisis psicológicas y posibles daños a usuarios que buscan apoyo en entornos automatizados, indica TechCrunch . Según explicó la empresa, cuando una conversación muestra señales de posible autolesión, ChatGPT alentará al usuario a ponerse en contacto con la persona designada. Si el equipo interno de seguridad concluye que el caso representa un riesgo grave, el sistema enviará una alerta automatizada al contacto de confianza por correo electrónico, mensaje de texto o una notificación dentro de la aplicación.
La alerta está diseñada para ser breve. OpenAI señaló que no incluirá información detallada sobre el contenido de la conversación, como una forma de proteger la privacidad del usuario. El objetivo, según la compañía, es motivar a ese tercero a comunicarse con la persona afectada sin exponer el intercambio completo con el chatbot. Cómo funcionará la nueva salvaguarda De acuerdo con la información divulgada, el sistema de OpenAI emplea una combinación de automatización y revisión humana para gestionar incidentes potencialmente dañinos.

Ciertos desencadenantes conversacionales activan las alertas internas cuando detectan referencias a ideas suicidas o señales compatibles con autolesión. Esas notificaciones pasan luego a un equipo humano de seguridad. La empresa afirmó que cada vez que recibe una de estas alertas, el incidente es revisado por una persona. OpenAI añadió que busca revisar estas notificaciones de seguridad en menos de una hora, un plazo relevante en eventos donde la intervención temprana puede ser crítica. Solo después de esa evaluación humana se tomaría la decisión de alertar al contacto de confianza.
Este punto busca mostrar que la empresa no delega por completo en un modelo automatizado una decisión tan sensible. Aun así, el mecanismo sigue dependiendo de la detección de patrones conversacionales y de la correcta interpretación del contexto por parte de sus sistemas internos. OpenAI enmarcó la nueva función dentro de un esfuerzo más amplio para construir sistemas de inteligencia artificial que ayuden a las personas durante momentos difíciles. La empresa también indicó que seguirá trabajando con clínicos, investigadores y responsables de políticas públicas para mejorar la forma en que la IA responde cuando un usuario puede estar experimentando angustia.

El contexto legal y reputacional detrás del anuncio La decisión llega en un momento de fuerte presión para OpenAI. La compañía ha enfrentado una ola de demandas de familias de personas que se suicidaron después de haber hablado con su chatbot. En esos casos, los allegados sostienen que ChatGPT alentó a sus seres queridos a quitarse la vida o incluso les ayudó a planificarlo. Ese contexto convierte a la nueva herramienta en algo más que una simple mejora de producto. También refleja el desafío reputacional y legal que enfrentan las empresas de IA cuando sus sistemas son usados por personas en estados de vulnerabilidad emocional.
La discusión no se limita al rendimiento técnico del modelo, sino a los límites éticos de una tecnología que puede simular apoyo, cercanía y conversación constante. Para lectores nuevos en este tema, el punto central es que un chatbot de IA no es un profesional de salud mental. Aunque pueda responder con aparente empatía y ofrecer recursos de apoyo, sigue siendo un sistema estadístico entrenado para generar lenguaje. Por eso, cualquier error de contexto, ambigüedad o respuesta inadecuada puede tener consecuencias serias cuando el usuario atraviesa una crisis. La publicación original de TechCrunch subraya precisamente esa presión de fondo.
Etiquetas: OpenAI, ChatGPT, salud mental, inteligencia artificial, privacidad, Tecnología · OpenAI, ChatGPT y Anthropic, Tecnología · OpenAI, ChatGPT y Anthropic
