Los hallazgos de un reciente informe de investigación indican que los modelos de lenguaje grande (LLMs) pueden desmascarar usuarios pseudónimos en plataformas de redes sociales con extraordinaria precisión. El estudio demostró tasas de éxito del 68 por ciento en recall y hasta el 90 por ciento en precisión, superando ampliamente los métodos de desanonymización clásicos.
Los investigadores utilizaron un marco de desanonymización pseudónima que implicaba la recopilación de conjuntos de datos de sitios de redes sociales públicas como Hacker News y perfiles de LinkedIn. Al correlacionar individuos específicos con cuentas o publicaciones en múltiples plataformas, pudieron vincular a los usuarios incluso cuando se habían eliminado referencias identificadoras del contenido. Un segundo conjunto de datos se derivó de microidentidades de Netflix, anteriormente ligadas a afiliaciones políticas mediante ataques de ataque estructurado de datos.
En un experimento, los LLMs pudieron identificar al 7 por ciento de los participantes en una encuesta sobre el uso de IA, cruzando referencias y búsquedas web. Esta capacidad es particularmente alarmante ya que significa que información personal sensible puede ser extraída de entrevistas o discusiones anónimas.