Un reporte de ciberseguridad vincula a un atacante con intrusiones y extracción de información; las plataformas de IA habrían bloqueado cuentas relacionadas tras la alerta.
Un presunto ciberataque contra sistemas asociados a instituciones públicas en México volvió a poner en el centro del debate el uso malicioso de herramientas de inteligencia artificial: una investigación privada sostiene que el atacante utilizó el chatbot Claude, de Anthropic, para acelerar tareas técnicas del ataque, con impacto en información vinculada al SAT y al INE.
El caso fue difundido a partir de hallazgos atribuidos a la firma israelí Gambit Security, que describe un patrón en el que el agresor habría usado “prompts” en español para pedir orientación técnica, automatizar procesos y convertir al asistente de IA en una especie de guía para detectar vulnerabilidades y sortear obstáculos durante la intrusión. En ese contexto, también se menciona el uso de técnicas para forzar al modelo a dar respuestas fuera de sus restricciones, práctica que suele asociarse con el llamado “jailbreak”.
En lo más delicado del señalamiento, el reporte sostiene que el atacante habría logrado extraer cerca de 150 GB de información y acceder a conjuntos de datos que incluirían registros ligados a contribuyentes y padrones electorales, además de credenciales y archivos relacionados con identidades dentro del sector público. La narrativa del incidente sugiere un proceso iterativo: cuando el atacante encontraba límites o respuestas incompletas, ajustaba las instrucciones para obtener resultados operativos.
Las publicaciones sobre el tema también recogen que, en ciertas fases, el agresor habría recurrido a otro modelo (ChatGPT) como apoyo para continuar con el avance técnico dentro de sistemas comprometidos. Tras la notificación del presunto uso indebido, Anthropic y OpenAI indicaron que tomaron acciones para bloquear cuentas vinculadas con esta actividad.
En paralelo, la cobertura menciona reacciones públicas mixtas: mientras algunas autoridades rechazaron afectaciones o comunicaron refuerzos de seguridad, otras dependencias no dieron respuesta inmediata a solicitudes de postura en torno al caso. Más allá de cómo evolucione la investigación, el episodio ilustra un punto clave para gobiernos y organizaciones: la IA puede reducir tiempos para defender, pero también puede bajar la barrera de entrada para acelerar ataques cuando un actor insiste en evadir controles y combina herramientas.