La Red de Control de Delitos Financieros (FinCEN) emitió este lunes un aviso sobre sextorsión con motivos económicos, delito en el que cada vez se utiliza la inteligencia artificial (IA) y se exige el pago con monedas virtuales, afectando sobre todo a los jóvenes.
Dicho aviso emitido por la unidad antilavado del Departamento del Tesoro de Estados Unidos, tiene el propósito de ayudar a las instituciones financieras a detectar e interrumpir la sextorsión con motivos financieros.
Se trata de una tipología alarmante y cada vez más común que puede devastar la vida y las familias de sus víctimas, advirtió.
Explicó qué ocurre cuando los agresores usan identidades falsas, para obligar a las víctimas a crear y enviar imágenes o vídeos sexualmente explícitos de sí mismos, solo para amenazarlas con compartir el material con sus familiares y amigos si no pagan.
Al respecto, la directora de FinCEN, Andrea Gacki, dijo que “pueden afectar a cualquier persona y, a menudo, buscan explotar la sensación de impotencia y vergüenza de las víctimas para obtener beneficios económicos”.
Por ello, a través de este aviso, afirmó la funcionaria de EU, se “subraya la importancia de reportar actividades sospechosas para apoyar las investigaciones policiales sobre estos esquemas abusivos y proteger a los estadounidenses de este grave abuso del sistema financiero estadounidense”.
Cualquier persona puede ser víctima, advirtió FinCEN, pero señaló que son los menores los más vulnerables, especialmente los de 14 a 17 años.
En 2024, el FBI recibió cerca de 55 mil denuncias de delitos relacionados con sextorsión y extorsión, con pérdidas económicas que ascendieron a 33. 5 millones de dólares, lo que representa un aumento del 59 % con respecto a 2023.
Lo anterior ha provocado un número alarmante de suicidios, pues los autores utilizan IA para llevar a cabo sextorsión y explotación sexual infantil en línea.
El reciente aumento en la disponibilidad de herramientas de IA generativa ha permitido a los autores insertar la imagen de una víctima en imágenes y vídeos realistas y sexualmente explícitos (es decir, «deepfakes»).
Según las fuerzas del orden, cuando las víctimas potenciales se niegan a enviar material sexualmente explícito, los agresores han utilizado contenido manipulado para extorsionarlas.
Desde abril de 2023, el FBI observó un aumento en el número de víctimas de sextorsión que denunciaron el uso de imágenes o vídeos falsos creados a partir de contenido publicado en las redes sociales de la víctima, publicaciones web o fotos o vídeos no explícitos proporcionados por la víctima al agresor, o grabados durante videollamadas.
Según informes, las transacciones relacionadas con la presunta creación y compra de contenido ilícito generado por IA suelen completarse mediante moneda virtual convertible u otros mecanismos de pago, como tarjetas prepago, que los agresores pueden creer que les permiten mantener su anonimato.