Dark Mode Light Mode

Suscríbete

Al presionar el botón Suscribirse, confirmas que has leído y aceptas nuestro Aviso de Privacidad y nuestros Términos y Condiciones de Uso
Síguenos
Síguenos

Hacker habría usado IA ‘Claude’ para robar datos del SAT e INE

Hacker habría utilizado ChatGPT y Claude para encontrar vulnerabilidades de ciberseguridad en los sistemas del SAT e INE.

Un reporte de ciberseguridad vincula a un atacante con intrusiones y extracción de información; las plataformas de IA habrían bloqueado cuentas relacionadas tras la alerta.

Un presunto ciberataque contra sistemas asociados a instituciones públicas en México volvió a poner en el centro del debate el uso malicioso de herramientas de inteligencia artificial: una investigación privada sostiene que el atacante utilizó el chatbot Claude, de Anthropic, para acelerar tareas técnicas del ataque, con impacto en información vinculada al SAT y al INE.

El caso fue difundido a partir de hallazgos atribuidos a la firma israelí Gambit Security, que describe un patrón en el que el agresor habría usado “prompts” en español para pedir orientación técnica, automatizar procesos y convertir al asistente de IA en una especie de guía para detectar vulnerabilidades y sortear obstáculos durante la intrusión. En ese contexto, también se menciona el uso de técnicas para forzar al modelo a dar respuestas fuera de sus restricciones, práctica que suele asociarse con el llamado “jailbreak”.​

Ads

En lo más delicado del señalamiento, el reporte sostiene que el atacante habría logrado extraer cerca de 150 GB de información y acceder a conjuntos de datos que incluirían registros ligados a contribuyentes y padrones electorales, además de credenciales y archivos relacionados con identidades dentro del sector público. La narrativa del incidente sugiere un proceso iterativo: cuando el atacante encontraba límites o respuestas incompletas, ajustaba las instrucciones para obtener resultados operativos.

Las publicaciones sobre el tema también recogen que, en ciertas fases, el agresor habría recurrido a otro modelo (ChatGPT) como apoyo para continuar con el avance técnico dentro de sistemas comprometidos. Tras la notificación del presunto uso indebido, Anthropic y OpenAI indicaron que tomaron acciones para bloquear cuentas vinculadas con esta actividad.

En paralelo, la cobertura menciona reacciones públicas mixtas: mientras algunas autoridades rechazaron afectaciones o comunicaron refuerzos de seguridad, otras dependencias no dieron respuesta inmediata a solicitudes de postura en torno al caso. Más allá de cómo evolucione la investigación, el episodio ilustra un punto clave para gobiernos y organizaciones: la IA puede reducir tiempos para defender, pero también puede bajar la barrera de entrada para acelerar ataques cuando un actor insiste en evadir controles y combina herramientas.

Suscríbete

Al presionar el botón Suscribirse, confirmas que has leído y aceptas nuestro Aviso de Privacidad y nuestros Términos y Condiciones de Uso
Agregar un comentario Agregar un comentario

Deja un comentario

Ads