Deepfake en México, por qué la biometría es la mejor defensa

%nombre de archivo%

En la era digital en la que vivimos, la tecnología avanza a un ritmo vertiginoso, brindándonos nuevas oportunidades y desafíos. Uno de los últimos fenómenos que ha llamado la atención es el Deepfake de voz, una técnica basada en la inteligencia artificial que permite manipular y falsificar audios con una precisión asombrosa. Estas herramientas pueden recrear la voz de una persona de manera realista, imitando su entonación, timbre y hasta su acento con una precisión asombrosa. Esta tecnología ha generado preocupación debido a su potencial para ser utilizada con fines maliciosos, como la suplantación de identidad, la manipulación de discursos o la difusión de información falsa.

En el panorama internacional, Veridas, una empresa española líder en tecnologías de identidad digital y biometría, con tecnologías propias y patentadas, se ha destacado por su trabajo en la detección y prevención de Deepfakes de voz. De acuerdo a Eduardo Azanza, CEO  de Veridas, su enfoque se basa en el desarrollo de algoritmos avanzados capaces de identificar patrones y características distintivas que ayudan a determinar la autenticidad de un audio. Veridas ya colabora con instituciones gubernamentales, como el INE, y empresas en México, como los bancos BBVA, Santander y Banco Azteca compartiendo su experiencia y tecnología para combatir temas de protección de identidad.

El auge de la biometría de voz

En los últimos dos años, Veridas, cuya tecnología está entre las mejores del mundo, según la evaluación realizada por el National Institute of Standards and Technology (NIST), considerado el organismo más prestigioso en la valoración de motores biométricos del mundo, ha visto un aumento significativo del 325% en el uso de la biometría de voz por parte de sus principales clientes al analizar datos de producción reales. Esta tendencia demuestra que la biometría de voz está ganando popularidad entre los usuarios, ya que proporciona un método de autenticación seguro y conveniente.

El aumento de la biometría de voz no es sorprendente, dadas sus ventajas sobre los métodos de autenticación tradicionales. La biometría de voz es conveniente, se puede realizar en remoto y es altamente precisa. A medida que más empresas adoptan la biometría de voz para mejorar sus medidas de seguridad, se espera que se convierta en una práctica estándar en un futuro próximo.

El Deepfake en México

En México, se han registrado casos preocupantes de Deepfakes de voz que han impactado en diferentes ámbitos. Desde políticos que son víctimas de discursos manipulados hasta empresas que enfrentan amenazas de chantaje o extorsión, los peligros asociados con esta tecnología son evidentes. Según cifras oficiales del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), se estima que en los últimos dos años ha habido un aumento del 300% en la detección de Deepfakes de voz en el país. Esta tendencia refleja la urgencia de tomar medidas para combatir este problema y proteger la integridad y seguridad de las personas y las organizaciones.

Por lo anterior, es que desde Veridas, nos comparten 5 maneras en las que tanto las personas como las empresas pueden cuidarse y evitar ser víctimas del Deepfake de Voz:

  1. Verificación biométrica de voz: La autenticación biométrica de voz es una medida eficaz para garantizar la seguridad de las transacciones y la comunicación. Veridas ofrece soluciones de reconocimiento de voz basadas en algoritmos avanzados que pueden detectar intentos de suplantación de identidad. Al implementar estas soluciones, las empresas pueden garantizar la autenticidad de las transacciones y minimizar los riesgos asociados con los Deepfakes de voz.
  1. Controlar el proceso de captura: La tecnología de anti-fraude de voz analiza el audio para detectar lo que se conocen como “ataques de presentación”. Este tipo de ataques son aquellos en los que el atacante reproduce un audio pregrabado a través de un altavoz. Este altavoz puede ser el de un dispositivo móvil, un estéreo, un PC o similar.

Cuando se reproduce un audio a través de un altavoz, la voz presente en el audio contiene matices que la diferencian de una voz auténtica que se reproduce a través de las cuerdas vocales. El motor de anti-fraude de Veridas está entrenado para detectar estos matices y, por lo tanto, distinguir los casos en los que la voz es emitida por las cuerdas vocales de los casos en los que la voz es reproducida a través de un altavoz.

  1. Educación y concienciación: Veridas promueve la educación y la concienciación sobre los Deepfakes de voz y otros temas de seguridad a través de sus blogs o su sección de Academy. Las personas y las empresas pueden beneficiarse de su experiencia participando en programas de capacitación y talleres que abordan las técnicas de detección y prevención de Deepfakes de voz. Al estar bien informados, se puede identificar y responder de manera más efectiva a las amenazas del Deepfake de Voz.
  1. Validación de fuentes de audio: Antes de confiar en la autenticidad de un audio, es importante verificar su origen. Al verificar las fuentes de audio, se puede reducir el riesgo de caer en la trampa de los Deepfakes de voz. Usar una solución de biometría de voz confiable y segura es crucial para las empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad. 
  1. Fortalece la seguridad de tus dispositivos: Actualiza regularmente tus dispositivos y aplicaciones con los últimos parches de seguridad. Utiliza contraseñas fuertes y activa la autenticación de dos factores para agregar una capa adicional de protección. Al fortalecer la seguridad de tus dispositivos, reducirás las vulnerabilidades y minimizarás el riesgo de ser víctima de manipulaciones de audio.

Recuerda que estas medidas son solo algunas de las muchas estrategias que se pueden implementar para protegerse contra el Deepfake de Voz. Consultar con expertos en seguridad y seguir las mejores prácticas es fundamental para garantizar una protección adecuada contra esta amenaza en constante evolución.

Salir de la versión móvil