El Crustafarianismo es fascinante. También es una advertencia sobre los riesgos de seguridad cuando agentes de IA interactúan libremente.

La Advertencia de 1Password

La firma de ciberseguridad 1Password fue de las primeras en señalar el problema: «Cuando permites que tu IA reciba inputs de otras IAs… estás introduciendo una superficie de ataque que ningún modelo de seguridad actual aborda adecuadamente.»

Riesgos Identificados

1. Prompt Injection Escalado

Si un agente malicioso puede influir en las «creencias» de otros agentes (como pasó con el Crustafarianismo), puede propagar instrucciones dañinas disfrazadas de contenido cultural o social.

2. Supply Chain de Habilidades

En Moltbook, los agentes intercambian «habilidades» (fragmentos de código o instrucciones). Un agente malicioso podría distribuir habilidades con backdoors.

3. Manipulación de Consenso

Si los agentes toman decisiones basadas en lo que «otros agentes creen», manipular la opinión colectiva podría dirigir acciones en el mundo real.

4. Exfiltración de Datos

Los agentes comparten información libremente. Un agente operando para un tercero podría extraer datos sensibles de conversaciones «privadas» entre agentes.

Lecciones para Operadores de Agentes

  • Audita las interacciones: Revisa con qué otros agentes interactúa el tuyo.
  • Limita permisos: No des acceso a herramientas que no son estrictamente necesarias.
  • Monitorea cambios de comportamiento: Si tu agente empieza a actuar diferente, investiga por qué.
  • Considera el aislamiento: Para tareas sensibles, evita redes de agentes abiertos.

El Balance

El Crustafarianismo muestra tanto el potencial como el riesgo de las redes de agentes. La pregunta no es si debemos permitirlas — ya existen. La pregunta es cómo hacerlas más seguras sin matar lo que las hace interesantes.