Anthropic anunció que reforzó a su asistente Claude con salvaguardas electorales pensadas en los comicios de medio término de Estados Unidos. La medida busca bloquear respuestas erróneas sobre registro de votantes, fechas de elección y requisitos de identificación, información que, si es falsa, puede impedir que una persona emita su voto.
La compañía explicó que el modelo ahora desvía automáticamente al usuario hacia portales oficiales cuando detecta consultas sobre procedimientos cívicos, y reduce al mínimo las recomendaciones explícitas de candidatos o partidos.

El cambio se suma a la presión que organismos electorales y grupos civiles han ejercido sobre los desarrolladores de IA para que restrinjan el uso político automatizado. En la práctica, si un ciudadano pregunta “¿dónde voto?
”, Claude ya no ofrece una dirección directa; en su lugar se limita a indicar el sitio web del Secretario de Estado correspondiente y su línea telefónica.

La empresa aclaró que los ajustes no eliminan la posibilidad de conversar sobre política, pero sí aumentan el nivel de precisión exigido y activan advertencias cuando el sistema identifica intentos de generar mensajes masivos de persuasión.
El anuncio coloca a Anthropic en la misma línea que OpenAI y Meta, que también han restringido anuncios y contenido generado sobre elecciones.

El reto, según analistas, es mantener los filtros después de la jornada electoral y extenderlos a procesos en otros países, incluido México, donde la desinformación por WhatsApp y redes sociales ya ha alterado resultados locales.
Por ahora, la medida solo cubre territorio estadounidense y estará vigente al menos hasta la certificación oficial de resultados en enero.
Etiquetas: Tecnología, Anthropic, Claude, Elecciones EU, Desinformación, IA, Tecnología · OpenAI, ChatGPT y Anthropic, Tecnología · OpenAI
