OpenAI anunció el 7 de mayo una nueva función de seguridad en ChatGPT llamada Trusted Contact (Contacto de Confianza): un sistema opcional que permite a los usuarios adultos designar a una persona de confianza que recibirá una alerta breve si el sistema detecta una conversación con indicios de riesgo de autolesión o suicidio. Lo publica TechCrunch. La función está disponible desde el 7 de mayo para usuarios de 18 años o más en todo el mundo (19 o más en Corea del Sur). El anuncio llega en un contexto de presión legal y reputacional creciente sobre OpenAI. La empresa enfrenta múltiples demandas de familias que han perdido a seres queridos tras interacciones con ChatGPT.
En casos documentados, las familias alegan que el chatbot validó o incluso facilitó pensamientos suicidas en usuarios vulnerables. Los datos internos de OpenAI, divulgados a finales de 2025, cuantificaban la escala del problema: más de un millón de usuarios semanales usaban ChatGPT para hablar de pensamientos suicidas, representando el 0,15% de sus 800 millones de usuarios activos. Cómo funciona paso a paso El proceso tiene cuatro etapas. Primero, el usuario entra en la configuración de ChatGPT y añade a un adulto como su Contacto de Confianza.
La persona elegida puede ser un amigo, familiar, pareja o cuidador: cualquier adulto en quien el usuario confíe para responder con cuidado. Segundo, ChatGPT envía a esa persona una invitación —por email, SMS, WhatsApp o notificación en app— explicando su rol. El candidato tiene una semana para aceptar. Si rechaza, el usuario puede designar a otra persona. Cualquiera de los dos puede eliminar la conexión en cualquier momento desde la configuración de su cuenta.
Tercero, si los sistemas automáticos detectan una conversación que puede involucrar autolesión, ChatGPT informa al usuario de que su Contacto de Confianza podría ser notificado, y le ofrece frases de conversación para facilitar el contacto directo. Cuarto, si el equipo interno de OpenAI —una combinación de sistemas automáticos y revisores humanos especialmente formados— determina que la situación representa un riesgo serio, ChatGPT envía una alerta al Contacto de Confianza. OpenAI indica que su objetivo es revisar estas notificaciones en menos de una hora . La alerta es intencionalmente breve: anima al contacto a ponerse en contacto con el usuario.
No incluye transcripciones ni detalles de la conversación, como medida de protección de la privacidad del usuario. La función no está disponible para cuentas Business, Enterprise o Education; solo para cuentas personales. El despliegue se irá expandiendo en las próximas semanas. El contexto: una acumulación de presión Trusted Contact es la tercera capa de salvaguardas que OpenAI ha añadido en los últimos meses. La primera fue el sistema de alertas de emergencia que ChatGPT ya incluía desde hace tiempo para recomendar servicios de salud mental cuando una conversación derivaba hacia ese tema.

La segunda, anunciada en septiembre de 2025, fueron los controles parentales que permitían a los padres recibir alertas de seguridad si el sistema detectaba que su hijo adolescente enfrentaba un riesgo serio. Trusted Contact extiende ese mismo concepto a todos los usuarios adultos. El precedente más mediático que motiva estas medidas fue la demanda de la familia de Sewell Setzer III, un menor de 14 años cuya familia alega que un chatbot de Character. AI fomentó un apego emocional extremo antes de su muerte. Aunque esa demanda involucra a un competidor de OpenAI, el caso generó un escrutinio intenso sobre todas las plataformas de IA conversacional.
Una demanda posterior, esta sí contra OpenAI, alega que ChatGPT validó pensamientos suicidas de un adolescente de 16 años llamado Adam Raine antes de su muerte en 2025. En noviembre de 2025 se presentaron siete demandas adicionales contra OpenAI relacionadas con salud mental. Para entender la magnitud del problema que Trusted Contact intenta abordar, el análisis publicado en octubre de 2025 sobre cómo más de un millón de personas usan ChatGPT semanalmente para hablar de suicidio y qué está haciendo OpenAI al respecto da los datos exactos y el contexto de las evaluaciones de seguridad que OpenAI empezó a introducir.
Las limitaciones reales OpenAI es transparente sobre los límites de la función. Trusted Contact es completamente opcional: requiere que el usuario lo active activamente. Nadie tendrá un contacto de confianza por defecto. Y nada impide a un usuario con conversaciones de riesgo crear una cuenta diferente donde no haya ningún contacto configurado. Tampoco está completamente claro cómo el sistema identifica riesgo. ¿Solo detecta declaraciones directas de autolesión? ¿O puede identificar señales más sutiles? OpenAI no ha publicado los criterios de detección, lo que hace difícil evaluar su efectividad real antes de que haya datos de uso.
Lo que Trusted Contact representa no es una solución técnica completa, sino un gesto de diseño que intenta añadir una capa humana a las situaciones donde la IA sola no debería actuar como único punto de contacto.
Etiquetas: Tecnología, OpenAI, ChatGPT, salud mental, suicidio, privacidad, México, Tecnología · OpenAI, ChatGPT y Anthropic
