La tecnología de conversión de texto en vídeo generada por IA podría automatizar la creación de volúmenes de vídeos de scams, lo que permitiría
19.02.2024 • 08:14hs • Buena semana para la IA
Buena semana para la IA
Inteligencia Artificial: ¿cómo funciona "Sora", el nuevo lanzamiento de OpenAI?
La empresa de inteligencia artificial OpenAI presnetó su último producto, un modelo de conversión de texto a vídeo, llamado Sora. Sin embargo, los avances en IA han sido más combustible para los estafadores, y a medida que florecen los mercados de criptomonedas, esto podría ponerse al servicio de scams.
Según el anuncio del 15 de febrero, Sora puede crear vídeos de hasta 60 segundos con escenas muy detalladas, movimientos de cámara complejos y múltiples personajes con emociones vibrantes.
OpenAI: de qué se trata "Sora"
La empresa declaró que "tomará varias medidas de seguridad importantes" antes de que Sora esté disponible en sus productos, señaló BeInCrypto.
"Estamos trabajando con equipos rojos -expertos en áreas como la desinformación, el contenido odioso y la parcialidad- que están testando el modelo de forma adversa".
La empresa presentó varios vídeos creados a partir de mensajes de texto con una breve descripción de la escena deseada. El modelo entiende lo que el usuario pide en la instrucción y también cómo existen esas cosas en el mundo físico, afirmó.
OpenAI también afirma que el modelo tiene un profundo conocimiento del lenguaje. Esto le permite interpretar con precisión las instrucciones: "Generar personajes convincentes que expresen emociones vibrantes".
La empresa presentó varios videos creados a partir de mensajes de texto con una breve descripción de la escena
Sin embargo, la empresa advirtió: "A pesar de las exhaustivas investigaciones y tests, no podemos predecir todas las formas beneficiosas en que la gente utilizará nuestra tecnología, ni todas las formas en que abusará de ella."
No obstante, es probable que los estafadores de criptomonedas abusen de la nueva tecnología. Podría permitir a actores maliciosos crear deepfakes haciéndose pasar por personas y empresas reales para promover proyectos de criptomonedas fraudulentos.
Los estafadores también podrían utilizar Sora para generar falsos apoyos de celebridades a proyectos Web 3.0 y de criptomonedas. Los vídeos y audios sintéticos ya mostrados eran muy convincentes. "¡Vaya, esto es realmente increíble!", dijo el podcaster Lex Fridman a sus 3,3 millones de seguidores en X.
Además, la conversión de texto a vídeo generada por inteligencia artificial podría automatizar la creación de grandes volúmenes de vídeos de estafas a bajo coste. Podrían utilizarse para promocionar scams de criptomonedas en las redes sociales, que ya hacen muy poco por evitarlas.
Los malos actores podrían aprovechar el poder de la IA de texto a vídeo, como Sora, para crear contenidos manipuladores a bajo coste. Este contenido podría optimizarse para hacerse viral en las plataformas sociales y permitir que las estafas con criptomonedas aumenten rápidamente si no se controlan.
Otras novedades sobre Inteligencia Artificial
Además del anuncio de Sora. OpenAI lanzo una nueva función, dotó a ChatGPT de "memoria", lo que le permite recordar las peticiones para que los usuarios no tengan que repetirlas.
Por otra parte, Google presentó una actualización de su modelo de IA, Gemini. La versión 1,5 incorpora una innovadora ventana contextual de un millón de tokens. De este modo, el modelo de lenguaje amplio puede procesar muchos más datos que sus competidores.
Además, Meta ha lanzado V-JEPA. Este nuevo modelo de aprendizaje permite a la IA comprender y predecir lo que ocurre en un vídeo, incluso con información limitada.
Slack también ha integrado nuevas funciones de IA generativa en la plataforma de trabajo. Entre ellas se incluyen la búsqueda mejorada, las recapitulaciones de canales, los resúmenes de hilos y mucho más.