OpenAI lanza modo de seguridad avanzada para cuentas de riesgo de ChatGPT

ARCHIVO Esta noticia se muestra como archivo por su antigüedad y puede no reflejar el estado actual de los hechos.

Resumen: OpenAI implementó la Seguridad Avanzada de Cuenta, protegiendo las cuentas de ChatGPT y Codex con controles de acceso estrictos contra secuestros. Esta característica es crucial para usuarios con información sensible.

OpenAI lanza “Advanced Account Security” para proteger cuentas de ChatGPT y Codex contra phishing y secuestro de cuentas

OpenAI presentó una nueva función llamada Advanced Account Security, diseñada para usuarios de ChatGPT y Codex que enfrentan un mayor riesgo de ataques cibernéticos, phishing y robo de cuentas.

La nueva capa de protección introduce medidas de seguridad mucho más estrictas que las utilizadas habitualmente en plataformas online, acercándose a estándares empleados por periodistas, investigadores, funcionarios gubernamentales y profesionales de alto perfil.

Entre los principales cambios se incluyen:

  • eliminación de contraseñas tradicionales,
  • uso obligatorio de passkeys o llaves físicas de seguridad,
  • bloqueo de recuperación vía SMS o email,
  • sesiones más cortas,
  • alertas de inicio de sesión,
  • protección reforzada contra ingeniería social.

La medida surge en un contexto donde herramientas de IA como ChatGPT y Codex almacenan cada vez más información sensible, incluyendo:

  • conversaciones privadas,
  • código fuente,
  • datos profesionales,
  • documentación interna,
  • workflows empresariales.
Adiós a las contraseñas tradicionales

Uno de los cambios más importantes es que las cuentas protegidas bajo este modo avanzado ya no dependerán de contraseñas convencionales.

En su lugar, los usuarios deberán utilizar:

  • passkeys compatibles con FIDO,
  • llaves físicas de seguridad como YubiKeys,
  • métodos resistentes al phishing.

Esto reduce drásticamente el riesgo de:

  • robo de credenciales,
  • ataques de phishing,
  • reutilización de passwords filtradas,
  • secuestro de sesiones.

OpenAI incluso anunció una colaboración con Yubico para ofrecer paquetes de llaves físicas orientadas específicamente a usuarios de ChatGPT.

Recuperación de cuenta mucho más estricta

El nuevo sistema también elimina mecanismos clásicos de recuperación mediante:

  • correo electrónico,
  • SMS,
  • soporte técnico tradicional.

En caso de pérdida de acceso, únicamente podrán utilizarse:

  • claves de recuperación,
  • passkeys de respaldo,
  • llaves físicas registradas previamente.

Esto busca evitar uno de los vectores más utilizados por atacantes modernos: la ingeniería social contra equipos de soporte.

De hecho, OpenAI confirmó que el soporte técnico ya no podrá intervenir en cuentas protegidas bajo este esquema avanzado.

Menor exposición de datos sensibles

Otra característica importante es que las cuentas bajo Advanced Account Security quedarán excluidas automáticamente del uso de conversaciones para entrenamiento de modelos.

Esto apunta especialmente a usuarios que manejan:

  • información corporativa,
  • investigaciones sensibles,
  • código privado,
  • datos estratégicos,
  • actividades relacionadas con ciberseguridad.
IA y seguridad: una nueva superficie de ataque

La iniciativa refleja una realidad cada vez más evidente: las cuentas de herramientas de IA se están transformando en objetivos de alto valor para atacantes.

Comprometer una cuenta de IA moderna podría permitir acceso a:

  • información empresarial,
  • proyectos de software,
  • credenciales compartidas accidentalmente,
  • estrategias corporativas,
  • conversaciones privadas.

Además, plataformas como Codex poseen integración con entornos de desarrollo y workflows técnicos, aumentando el impacto potencial de un compromiso exitoso.

Una tendencia creciente en la industria

OpenAI no es la primera empresa en lanzar un sistema de protección reforzada para usuarios de alto riesgo. Google ya ofrece desde hace años su programa Advanced Protection.

Sin embargo, el crecimiento explosivo de herramientas de IA está acelerando la necesidad de implementar medidas más agresivas de seguridad y autenticación resistente al phishing.

Recomendaciones para usuarios

Especialistas recomiendan:

  • activar MFA resistente al phishing,
  • utilizar llaves físicas de seguridad,
  • evitar reutilizar contraseñas,
  • revisar sesiones activas regularmente,
  • proteger cuentas de email asociadas,
  • desconfiar de páginas falsas de login.

A medida que la IA se integra cada vez más en entornos personales y empresariales, proteger las cuentas asociadas deja de ser una cuestión opcional y pasa a convertirse en un componente crítico de la seguridad digital moderna.

Datos clave

  • Advanced Account Security requiere dos physical security keys o passkeys.
  • Se eliminan las vías de recuperación por email y SMS.
  • El personal de soporte no tiene acceso a las opciones de recuperación.
  • La medida se anuncia como parte de la estrategia de ciberseguridad de OpenAI.

¿Por qué importa?

Esta implementación eleva considerablemente la barrera de entrada para los ciberdelincuentes, obligándolos a ataques más sofisticados. Al eliminar las vías de recuperación tradicionales, se minimiza el riesgo asociado a ataques de phishing y la ingeniería social contra el personal de soporte.

X profile@lilyhnewmanhttps://www.twitter.com/lilyhnewman
Contenido embebido de: OpenAI lanza modo de seguridad avanzada para cuentas de riesgo de ChatGPT