Seleccione idioma

Spanish

Down Icon

Seleccione país

America

Down Icon

OpenAI desmantela 10 operaciones de IA maliciosas vinculadas a China, Rusia, Irán y Corea del Norte.

OpenAI desmantela 10 operaciones de IA maliciosas vinculadas a China, Rusia, Irán y Corea del Norte.

OpenAI , una empresa líder en inteligencia artificial, ha revelado que está luchando activamente contra el uso indebido generalizado de sus herramientas de IA por parte de grupos maliciosos de países como China, Rusia, Corea del Norte e Irán.

En un nuevo informe publicado a principios de esta semana, OpenAI anunció que ha cerrado con éxito diez redes importantes en solo tres meses, lo que demuestra su compromiso de combatir las amenazas en línea.

El informe destaca cómo los actores maliciosos utilizan la IA para crear engaños convincentes en línea. Por ejemplo, grupos vinculados con China utilizaron la IA para publicar comentarios y artículos falsos masivos en plataformas como TikTok y X, haciéndose pasar por usuarios reales en una campaña llamada Sneer Review.

Esto incluyó un video falso que acusaba a la activista pakistaní Mahrang Baloch de aparecer en una película pornográfica. También utilizaron inteligencia artificial para generar contenido que polarizara el debate en Estados Unidos, incluyendo la creación de perfiles falsos de veteranos estadounidenses para influir en debates sobre temas como los aranceles, en una operación denominada "Tío Spam".

Por otro lado, los actores norcoreanos crearon currículums y solicitudes de empleo falsos mediante IA. Buscaban empleos remotos de TI a nivel mundial, probablemente para robar datos. Mientras tanto, grupos rusos emplearon IA para desarrollar software peligroso y planificar ciberataques. Una de sus operaciones, ScopeCreep, se centró en la creación de malware diseñado para robar información y evitar ser detectado.

Un grupo iraní, STORM-2035 (también conocido como APT42, Imperial Kitten y TA456 ), utilizó repetidamente IA para generar tuits en español e inglés sobre inmigración a Estados Unidos, la independencia de Escocia y otros temas políticos delicados. Crearon cuentas falsas en redes sociales, a menudo con fotos de perfil ocultas, para hacerse pasar por residentes locales.

La IA también se utiliza en estafas generalizadas. En un caso notable, una operación probablemente con sede en Camboya, denominada Wrong Number, utilizó IA para traducir mensajes para una estafa de tareas. Este esquema prometía altos pagos por actividades simples en línea, como dar "me gusta" a publicaciones en redes sociales.

La estafa seguía un patrón claro: un "ping" (contacto en frío) que ofrecía salarios altos, un "zing" (generando confianza y entusiasmo con ganancias falsas) y, finalmente, un "sting" (exigiendo dinero a las víctimas a cambio de supuestas recompensas mayores). Estas estafas operaban en varios idiomas, incluyendo inglés, español y alemán, y dirigían a las víctimas a aplicaciones como WhatsApp y Telegram .

OpenAI detecta y bloquea activamente las cuentas involucradas en estas actividades, utilizando la IA como un "multiplicador de fuerza" para sus equipos de investigación, afirma la empresa. Este enfoque proactivo a menudo implica que muchas de estas campañas maliciosas lograron poca interacción auténtica o un impacto limitado en el mundo real antes de ser desmanteladas.

Además de su lucha contra el uso indebido de la IA , OpenAI también se enfrenta a un importante desafío legal relacionado con la privacidad del usuario. El 13 de mayo, un tribunal estadounidense, presidido por la jueza Ona T. Wang, ordenó a OpenAI preservar las conversaciones de ChatGPT.

Esta orden se deriva de una demanda por infracción de derechos de autor presentada por The New York Times y otras editoriales, quienes alegan que OpenAI utilizó ilegalmente millones de sus artículos protegidos por derechos de autor para entrenar sus modelos de IA. Argumentan que la capacidad de ChatGPT para reproducir, resumir o imitar su contenido sin permiso ni compensación amenaza su modelo de negocio.

OpenAI ha protestado contra esta orden, alegando que la obliga a incumplir su compromiso con la privacidad y el control de los usuarios. La empresa destacó que los usuarios suelen compartir información personal sensible en los chats, esperando que se elimine o se mantenga privada. Esta exigencia legal plantea un desafío complejo para OpenAI.

HackRead

HackRead

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow