Microsoft plantea que la seguridad de la inteligencia artificial debe abordarse con los mismos fundamentos que se aplican al software crítico, pero con controles adicionales sobre autonomía, acceso y validación. La recomendación central es tratar a los sistemas de IA como si fueran un nuevo empleado: con objetivos concretos, límites claros y puntos de control antes de permitirles avanzar.
Ese enfoque obliga a definir qué acciones puede ejecutar el sistema, qué evidencias debe presentar para demostrar progreso y qué decisiones deben seguir resolviéndose de forma determinista fuera del propio modelo. La guía también insiste en aplicar el principio del menor privilegio para evitar que una capacidad útil se convierta en una vía innecesaria de exposición.
Más que una metáfora, el paralelismo con un nuevo empleado sirve para traducir la seguridad de la IA a decisiones operativas concretas: permisos, verificación, trazabilidad y supervisión.