LLM podría romper el anonimato y la privacidad en la red: ¿La IA puede descubrir quién es Satoshi Nakamoto?

Una investigación académica reciente señala que los modelos de lenguaje grande (LLM) ya tienen la capacidad de “desanonimizar” a los usuarios en grandes escalas. Con solo el contenido publicado públicamente, el modelo puede inferir la verdadera identidad detrás de cuentas anónimas. Este hallazgo ha generado preocupación en la comunidad y ha provocado debates sobre si es posible descubrir la verdadera identidad de Satoshi Nakamoto.

La investigación revela: los LLM facilitan la desanonimización de datos personales

Este estudio titulado «Uso de LLMs para la desanonimización masiva en línea» indica que los LLM pueden extraer pistas de identidad de textos no estructurados y realizar búsquedas semánticas y comparaciones en grandes bases de datos, logrando ataques de desanonimización altamente automatizados.

El equipo de investigación diseñó un proceso en cuatro etapas: extracción (Extract), búsqueda (Search), razonamiento (Reason) y calibración (Calibrate), simulando cómo un atacante puede reconstruir características personales a partir de publicaciones públicas y compararlas con identidades reales.

Resumen del marco de investigación de desanonimización masiva

En los experimentos, los investigadores cruzaron cuentas de Hacker News con perfiles de LinkedIn, logrando recuperar aproximadamente el 45% de las identidades reales con un 99% de precisión; en pruebas con cuentas de Reddit, incluso tras filtrado por tiempo y contenido, el modelo pudo identificar a ciertos usuarios bajo condiciones de alta precisión.

El autor del estudio, Simon Lermen, opina que los LLM no crean nuevas capacidades de identificación, sino que reducen significativamente los costos que antes requerían seguimiento manual, permitiendo escalar ataques de desanonimización.

¿La protección de pseudónimos ha fallado? La IA desafía el anonimato en línea

Antes, los pseudónimos en internet se usaban como medida de protección no porque fuera imposible identificarlos, sino porque el costo era muy alto. Lermen señala que los LLM cambian esto: «El modelo puede procesar decenas de miles de datos en poco tiempo, automatizando el proceso de investigación humana.»

Él enfatiza que esto no significa que todas las cuentas anónimas serán reveladas de inmediato, sino que «mientras se deje suficiente rastro en los textos», el modelo puede reconstruir perfiles de identidad. En otras palabras, en el futuro, los textos podrían convertirse en microdatos explotables, donde señales como intereses, antecedentes o hábitos lingüísticos puedan servir para identificar a alguien, incluso sin nombres o enlaces a cuentas.

Preocupaciones en el mundo de las criptomonedas: ¿la transparencia en la cadena será una herramienta de vigilancia?

Este estudio ha generado rápidamente debates en la comunidad cripto. Mert Mumtaz, cofundador de Helius Labs, opina que la blockchain depende de identidades pseudónimas, y que todos los registros son permanentes. Si la IA logra vincular direcciones en la cadena con identidades reales, podrá construir perfiles de actividades financieras a largo plazo.

Teme que, en lugar de ser una infraestructura descentralizada, la blockchain pueda convertirse en una herramienta de vigilancia con alta transparencia.

(Bitcoin ya no recibe pagos sin protección: ¿cómo logran la conveniencia y la privacidad en los pagos silenciosos?)

¿Podría AI descubrir a Satoshi Nakamoto? El análisis estilométrico como nueva variable

Por otro lado, Nic Carter, socio de Castle Island Ventures, plantea otra pregunta: si los LLM pueden realizar análisis estilométricos avanzados, ¿sería posible comparar correos electrónicos, publicaciones en foros y whitepapers de Satoshi Nakamoto para inferir su verdadera identidad?

Carter opina que, en teoría, si existen muestras públicas comparables, el modelo podría hacer coincidencias probabilísticas; sin embargo, esto sigue siendo inferencia estadística y no una prueba concluyente. Si el creador cambia su estilo o nunca publica con su nombre real, será difícil identificarlo.

(¿El archivo Epstein revela redes de poder en Bitcoin tempranas? ¿Podría este criminal sexual ser Satoshi Nakamoto?)

Cuando la IA impacta la privacidad: las tecnologías de criptografía y anonimato aún necesitan mejoras

Lermen concluye enfatizando que no busca generar pánico, sino señalar que los mecanismos tradicionales de cifrado y anonimato deben actualizarse. Antes, solo se preocupaban por datos estructurados; ahora, incluso textos no estructurados pueden ser identificados. La privacidad ya no es solo un tema técnico, sino que involucra políticas de plataformas, prácticas de divulgación de datos y normas sociales.

En un contexto de avances rápidos en capacidades de IA, cómo rediseñar y proteger la privacidad de los usuarios se convierte en un desafío clave para las empresas.

Este artículo titulado «¿La LLM puede destruir el anonimato y la privacidad en línea? ¿Puede la IA descubrir quién es Satoshi Nakamoto?» fue publicado originalmente en Chain News ABMedia.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El equipo de seguridad de Ledger descubre vulnerabilidades en los procesadores MediaTek, lo que podría provocar el robo de las frases de recuperación de la billetera

El equipo de Ledger, cartera de criptomonedas, ha descubierto que la cadena de arranque seguro del procesador MediaTek presenta una vulnerabilidad, lo que permite a los atacantes extraer claves criptográficas mediante contacto físico, afectando aproximadamente al 25% de los teléfonos Android. La vulnerabilidad puede ser corregida mediante un parche, pero resalta el riesgo de almacenar claves en dispositivos no seguros, y se recomienda a los usuarios actualizarlo oportunamente.

GateNewshace5h

AI programó mal y falló: deja de idealizar a la IA, la codificación de Claude provocó una pérdida de 1,78 millones de dólares en plataformas DeFi

El protocolo de préstamo Moonwell sufrió un accidente de seguridad en la cadena debido a una configuración incorrecta del oráculo, lo que provocó una subestimación severa del precio del activo cbETH. Este incidente se originó por un error en la lógica del código generado por IA, y el robot de liquidación aprovechó esa vulnerabilidad para obtener ganancias. Aunque no hubo intervención de hackers tradicionales, se causaron pérdidas por 1,78 millones de dólares a los usuarios. El evento revela una negligencia en la revisión durante el proceso de programación de IA, y enfatiza la importancia de la revisión humana en un contexto de automatización tecnológica.

PANewshace5h

El Ministerio de Industria y Tecnología de la Información publica recomendaciones para prevenir riesgos de seguridad en agentes inteligentes OpenClaw, proponiendo cuatro estrategias de respuesta para escenarios de transacciones financieras

El 11 de marzo, el Ministerio de Industria e Información publicó recomendaciones para prevenir los riesgos de seguridad del agente inteligente de código abierto OpenClaw, destacando los riesgos potenciales en las transacciones financieras y proponiendo una estrategia de "seis debe y seis no debe", como implementar aislamiento de red, confirmación secundaria y fortalecer la revisión de la cadena de suministro, para prevenir transacciones incorrectas y el secuestro de cuentas.

GateNewshace6h

Aave revela una liquidación anormal de 27 millones de dólares, 34 cuentas fueron liquidada forzosamente, la oficina oficial promete compensación total

Aave sufrió una liquidación anómala el 11 de marzo, con aproximadamente 27 millones de dólares en posiciones de préstamo debido a un error en la configuración de los parámetros del módulo de seguridad interno CAPO, lo que provocó una subestimación del valor de wstETH en un 2.85%. La liquidación afectó a 34 cuentas, con aproximadamente 10,938 wstETH forzados a ser liquidados. Chaos Labs se comprometió a compensar en su totalidad a los usuarios afectados y destacó la necesidad de mejorar los mecanismos de gestión de riesgos. Este incidente resalta los riesgos asociados a errores de configuración interna en los sistemas de finanzas descentralizadas.

動區BlockTempohace7h

Lido responde a eventos de liquidación: un error en el oráculo de un protocolo de préstamos DeFi causó la liquidación, no tiene relación con el protocolo Lido

Lido respondió al evento de liquidación ocurrido el 10 de marzo debido a un error en la cotización del oráculo CAPO, afirmando que no generará deuda incobrable y que compensará en su totalidad a los usuarios afectados. El producto Lido Earn no fue afectado, la seguridad de los fondos de los usuarios está garantizada.

GateNewshace8h

El presidente de BWA, Dilip Chenoy, aboga por la educación de los inversores y un ecosistema cripto responsable

El presidente de BWA Dilip Chenoy participó en la sesión de preguntas y respuestas. Hizo un llamado a una verificación independiente exhaustiva antes de invertir en criptomonedas. El paso inmediato para las víctimas es presentar una denuncia ante las autoridades. Dilip Chenoy, presidente de Bharat Web3 Association (BWA), interactuó con los medios y pa

TheNewsCryptohace10h
Comentar
0/400
Sin comentarios