Las actividades delictivas en el mundo digital son cada vez más frecuentes. Por ello, la entidad emitió nuevas recomendaciones y sugerencias
20.12.2024 • 15:45hs • Inteligencia artificial
Inteligencia artificial
FBI emite nueva advertencia sobre los usos delictivos de la inteligencia artificial
La Oficina General de Investigaciones (FBI) emitió una nueva advertencia sobre el creciente uso de la IA generativa en actividades delictivas, puntualmente en el fraude.
Las nuevas herramientas con inteligencia artificial facilitan que los delincuentes realicen estafas a mayor escala y con detalles más convincentes.
Los estafadores crean perfiles falsos en las redes sociales, redactar correos electrónicos de phishing convincentes y crear sitios falsos de inversión en criptomonedas.
Además, falsifican documentos de identidad y crean perfiles de famosos para productos falsificados.
La IA se comenzó a utilizar para clonar voces y realizar estafas de emergencia, donde se hacen pasar por familiares cercanos o amigos necesitados.
También se crean vídeos realistas en el que se replican las caras y voces de ejecutivos, líderes empresariales o figuras de autoridad.
La técnica se la conoce "deepfake" y permite a los delincuentes fabricar videos en lo que las personas realizan declaraciones o emite instrucciones.
La IA generativa pone en riesgo la seguridad de los usuarios
Según el FBI, la inteligencia artificial también se utiliza para llevar a cabo estafas vinculadas a la manipulación del mercado.
A través de algoritmos avanzados, los delincuentes pueden analizar grandes volúmenes de datos para predecir y manipular los movimientos de los precios de activos financieros.
La alerta del FBI indicó que cada vez es más difícil distinguir los contenidos creados con IA de los reales.
Según ellos, hay que estar atento a los detalles minuciosos como
- manos
- caras distorsionadas
- sombras extrañas
- movimientos poco naturales en imágenes o videos
La entidad recomienda guardar la información sensible, establecer frases secretas con los miembros de la familia y verificar cualquier solicitud financiera a través de canales de confianza.
La advertencia llegó en un momento en que las herramientas de IA se desarrollan y son más accesibles, algo que dificulta a las fuerzas de seguridad mantenerse al día.