OpenAI presentó una nueva función llamada Advanced Account Security, diseñada para usuarios de ChatGPT y Codex que enfrentan un mayor riesgo de ataques cibernéticos, phishing y robo de cuentas.
La nueva capa de protección introduce medidas de seguridad mucho más estrictas que las utilizadas habitualmente en plataformas online, acercándose a estándares empleados por periodistas, investigadores, funcionarios gubernamentales y profesionales de alto perfil.
Entre los principales cambios se incluyen:
- eliminación de contraseñas tradicionales,
- uso obligatorio de passkeys o llaves físicas de seguridad,
- bloqueo de recuperación vía SMS o email,
- sesiones más cortas,
- alertas de inicio de sesión,
- protección reforzada contra ingeniería social.
La medida surge en un contexto donde herramientas de IA como ChatGPT y Codex almacenan cada vez más información sensible, incluyendo:
- conversaciones privadas,
- código fuente,
- datos profesionales,
- documentación interna,
- workflows empresariales.
Uno de los cambios más importantes es que las cuentas protegidas bajo este modo avanzado ya no dependerán de contraseñas convencionales.
En su lugar, los usuarios deberán utilizar:
- passkeys compatibles con FIDO,
- llaves físicas de seguridad como YubiKeys,
- métodos resistentes al phishing.
Esto reduce drásticamente el riesgo de:
- robo de credenciales,
- ataques de phishing,
- reutilización de passwords filtradas,
- secuestro de sesiones.
OpenAI incluso anunció una colaboración con Yubico para ofrecer paquetes de llaves físicas orientadas específicamente a usuarios de ChatGPT.
Recuperación de cuenta mucho más estrictaEl nuevo sistema también elimina mecanismos clásicos de recuperación mediante:
- correo electrónico,
- SMS,
- soporte técnico tradicional.
En caso de pérdida de acceso, únicamente podrán utilizarse:
- claves de recuperación,
- passkeys de respaldo,
- llaves físicas registradas previamente.
Esto busca evitar uno de los vectores más utilizados por atacantes modernos: la ingeniería social contra equipos de soporte.
De hecho, OpenAI confirmó que el soporte técnico ya no podrá intervenir en cuentas protegidas bajo este esquema avanzado.
Menor exposición de datos sensiblesOtra característica importante es que las cuentas bajo Advanced Account Security quedarán excluidas automáticamente del uso de conversaciones para entrenamiento de modelos.
Esto apunta especialmente a usuarios que manejan:
- información corporativa,
- investigaciones sensibles,
- código privado,
- datos estratégicos,
- actividades relacionadas con ciberseguridad.
La iniciativa refleja una realidad cada vez más evidente: las cuentas de herramientas de IA se están transformando en objetivos de alto valor para atacantes.
Comprometer una cuenta de IA moderna podría permitir acceso a:
- información empresarial,
- proyectos de software,
- credenciales compartidas accidentalmente,
- estrategias corporativas,
- conversaciones privadas.
Además, plataformas como Codex poseen integración con entornos de desarrollo y workflows técnicos, aumentando el impacto potencial de un compromiso exitoso.
Una tendencia creciente en la industriaOpenAI no es la primera empresa en lanzar un sistema de protección reforzada para usuarios de alto riesgo. Google ya ofrece desde hace años su programa Advanced Protection.
Sin embargo, el crecimiento explosivo de herramientas de IA está acelerando la necesidad de implementar medidas más agresivas de seguridad y autenticación resistente al phishing.
Recomendaciones para usuariosEspecialistas recomiendan:
- activar MFA resistente al phishing,
- utilizar llaves físicas de seguridad,
- evitar reutilizar contraseñas,
- revisar sesiones activas regularmente,
- proteger cuentas de email asociadas,
- desconfiar de páginas falsas de login.
A medida que la IA se integra cada vez más en entornos personales y empresariales, proteger las cuentas asociadas deja de ser una cuestión opcional y pasa a convertirse en un componente crítico de la seguridad digital moderna.