
Crece uso de deepfakes y clonación de voz en ciberataques: Kaspersky
agosto 29, 2024La generación de contenido falso o deepfakes experimentó un avance significativo en el último año. Ya no se trata únicamente de fotos y videos alterados con inteligencia artificial (IA), sino de una tecnología más desarrollada que ahora apunta a la falsificación de voz, conocida como deepvoice. Los expertos de Kaspersky advirtieron que estas innovaciones se utilizan para evadir controles de seguridad, como la manipulación de datos biométricos vulnerados, y para cometer ataques cibernéticos.
Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, explicó que los avances en inteligencia artificial generativa y aprendizaje automático permitieron la creación de contenido multimedia falso cada vez más realista. Estas tecnologías tienen la capacidad de aprender a partir de datos no estructurados, como el rostro o los movimientos humanos, lo que facilita la generación de deepfakes convincentes.
Estas mismas técnicas se utilizan para desarrollar contenidos de voz artificial. Mientras la tecnología se expande, los estafadores pueden explotarla para crear contenidos engañosos de audio más accesibles. Las personas cuyas muestras de voz o video están disponibles en internet, como celebridades y figuras públicas, son especialmente vulnerables a la suplantación de identidad a través de deepfakes, que se han catalogado como uno de los usos más preocupantes de la inteligencia artificial.
Aunque se han encontrado beneficios en ciertos sectores, como el marketing, con herramientas de IA que permiten generar avatares de personas reales para anuncios, el uso de deepfakes con fines maliciosos ha afectado gravemente a otros sectores, incluido el bancario. La suplantación de identidad mediante deepfakes ha facilitado fraudes financieros, eludiendo mecanismos de verificación biométrica y permitiendo a los atacantes acceder a cuentas bancarias e información confidencial.
A pesar de la disponibilidad de herramientas para crear deepfakes, los delincuentes buscan creadores capaces de producir contenido realista, de alta calidad e incluso en tiempo real. Simular movimientos, expresiones faciales o voces de manera fluida es un reto para los algoritmos, lo que ha dado lugar a un mercado específico de deepfakes en la Darknet. Aquí, los criminales ofrecen servicios para crear contenido falso y tutoriales sobre cómo generar falsificaciones convincentes.
Isabel Manjarrez señaló que la demanda de deepfakes en el mercado negro supera la oferta, y se espera un aumento significativo en los incidentes relacionados con contenido falso de alta calidad. Este crecimiento representa un riesgo considerable para la ciberseguridad, especialmente en un contexto donde más de la mitad de los usuarios en México (72%) desconoce qué es un deepfake, según cifras de Kaspersky.
Manjarrez destacó que la exposición de datos personales sensibles en línea, como imágenes del rostro o audios, plantea un desafío significativo para proteger esta información de accesos no autorizados y de su uso malintencionado. La creación de contenido falso puede causar daños materiales, monetarios y afectar psicológicamente a las víctimas, además de perjudicar su reputación.
Finalmente, Manjarrez enfatizó la importancia de establecer pautas claras para la creación y uso de deepfakes, garantizando transparencia y responsabilidad en su implementación. Subrayó que, aunque la inteligencia artificial tiene un gran potencial, es esencial que se utilice de manera ética.
Kaspersky comparte algunas características que pueden ayudar a identificar un deepfake:
- La fuente del contenido y la información que comparte son sospechosas. Actúa con cautela ante correos electrónicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que veas o recibas, especialmente si comunican información extraña o ilógica. Confírmala en fuentes de información oficiales.
- Las condiciones e iluminación en un video son inconsistentes. Desconfía si detectas anomalías en el fondo del video. Evalúa si la iluminación del rostro corresponde con el entorno, las incoherencias en la iluminación pueden indicar manipulación.
- Los movimientos faciales y corporales son inusuales. Sospecha si las expresiones del rostro o cuerpo son poco naturales, como un parpadeo extraño o la ausencia total de este. Comprueba que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas para el contexto del video.
- Los audios falsos pueden tener distorsiones de voz. Presta atención a la calidad del sonido. Sospecha si identificas un tono monótono antinatural en la voz, si ésta es ininteligible o si hay ruidos extraños de fondo.
- Para mantenerse protegido, es importante informarnos. Sé consciente de la existencia de los deepfakes y edúcate sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles fraudes.
- Utiliza soluciones como Kaspersky Premium, que protegen contra todo tipo de amenazas, conocidas y desconocidas en la navegación en Internet, tanto en computadoras como en dispositivos móviles.
