A mediados de esta semana, se produjo un incidente de seguridad de alta prioridad en Meta. Un agente de inteligencia artificial (IA) interno instruyó a un ingeniero de la empresa a ejecutar acciones que derivaron en la exposición de una cantidad significativa de datos sensibles, tanto de usuarios como de la propia compañía, ante otros empleados durante un periodo de dos horas.
Según informó el medio The Guardian, el incidente se originó cuando el empleado consultó un problema de ingeniería en un foro interno. El agente de IA proporcionó una solución, la cual el ingeniero implementó sin realizar una verificación crítica, provocando la brecha de seguridad.
Respuesta oficial y análisis del riesgo
Hasta el momento, Meta no ha emitido un comunicado oficial. No obstante, un portavoz anónimo confirmó el suceso, afirmando que «ningún dato de usuario fue mal manejado» y argumentando que «un humano también podría dar consejos erróneos». La empresa no ha detallado el volumen ni la tipología exacta de los datos expuestos.
Este acontecimiento pone de manifiesto los riesgos específicos que introducen los agentes de IA en entornos corporativos. Jamieson O’Reilly, especialista en seguridad ofensiva, explicou la diferencia estructural entre un empleado humano y un agente de IA:
- Contexto humano: Un ingeniero con experiencia posee una memoria a largo plazo y un sentido implícito de qué sistemas son críticos, cuál es el coste de una interrupción y qué no se debe hacer (por ejemplo, «no incendiar el sofá para calentar la habitación»).
- Contexto de IA: El agente opera únicamente con lo explícito en su ventana de contexto (memoria de trabajo activa). Carece de esa comprensión implícita acumulada a menos que haya sido programada explícitamente.
La ausencia de evaluaciones de riesgo
Tarek Nseir, cofundador de una consultora especializada en uso empresarial de IA, criticó la falta de precaución en grandes tecnológicas. Según su visión, empresas como Meta se encuentran en «fases experimentales» de despliegue sin las evaluaciones de riesgo adecuadas.
Nseir comparó la situación con asignar a un pasante junior el acceso a todos los datos críticos de recursos humanos sin supervisión, una práctica que ninguna empresa permitiría con personal humano, pero que parece estar ocurriendo con agentes autónomos.
Antecedentes en el ecosistema cripto
El incidente de Meta no es un caso aislado, sino que se suma a una serie de alertas sobre los riesgos de la IA operando con sistemas reales, especialmente en el sector financiero y cripto.
- Advertencia técnica (Enero 2026): Un informe de Lambda Class alertó que los agentes de IA introducen nuevos vectores de fallo en Ethereum, como la generación de direcciones incorrectas o la confusión de unidades de valor.
- Hackeo en Moonwell (Febrero 2026): El protocolo DeFi perdió 1,7 millones de dólares debido a un error en un contrato inteligente generado por IA. El código fijó el precio del token cbETH en 1,12 dólares en lugar de los 2.200 dólares reales. El registro identificó como coautor al modelo Claude Opus 4.6 de Anthropic.
- Postura de Vitalik Buterin: El cofundador de Ethereum ha advertido que al programar con IA, «la seguridad total es imposible».
La conclusión que une el caso de Meta con los incidentes en finanzas descentralizadas es que los agentes de IA pueden ejecutar instrucciones con precisión técnica mientras cometen errores catastróficos simultáneamente, debido a la falta de contexto implícito y experiencia que sí poseen los humanos.


