“Vishing”: Cómo prevenir el fraude que puede clonar la voz mediante Inteligencia Artificial
“La recomendación más importante que se puede dar es ser muy cuidadoso con el uso de información biométrica en redes sociales”, dicen expertos.
Durante la última semana se dio a conocer la historia de una familia en Estados Unidos, quienes recibieron una llamada de su hija dando aviso de que había sido secuestrada. Eso sí, todo se trataba de un engaño.
Los “secuestradores” usaron Inteligencia Artificial (IA) para usar la voz de la “joven secuestrada”, razón por la cual la familia nunca dudó de la veracidad de la situación.
Si bien ya son conocidas las prácticas que involucran el ransomware, el malware y el phishing, basadas en el engaño a la víctimas para obtener información confidencial, ahora hay que tener en cuenta el vishing, donde se suplanta la identidad de una persona para obtener información, como lo ocurrido a la familia estadounidense.
¿Cómo prevenirlo?
- Mantén tu información personal segura: Evita compartir información personal sensible en línea, como grabaciones de voz, contraseñas u otra información que pueda ser utilizada para clonar tu voz.
- Ten precaución con las grabaciones de voz: No grabes tu voz en llamadas o mensajes de voz no confiables, y evita proporcionar información confidencial a través de grabaciones de voz en plataformas o aplicaciones no verificadas, como las encuestas telemáticas de instituciones o empresas que no conozcas.
- Mantén tus dispositivos seguros: Actualizar los dispositivos y aplicaciones a sus últimas versiones de software es el método más efectivo para ello. Además, utiliza programas antivirus confiables para proteger tus dispositivos de posibles amenazas.
- Utiliza contraseñas fuertes, evitando que accedan a tus dispositivos: Evita contraseñas obvias, como también repetirlas en diversas aplicaciones. El uso de combinaciones de letras —mayúsculas y minúsculas—, números y signos da mayor grado de seguridad.
- Leer a conciencia términos y condiciones de las diversas aplicaciones que se utilizan
“La recomendación más importante que se puede dar es ser muy cuidadoso con el uso de información biométrica (rostro, voz) en redes sociales, y sospechar y leer los términos y condiciones de aplicaciones de filtros de rostro y voz tan populares en la actualidad”, explicó en La Tercera Juan Alejandro Aguirre, Senior Manager Sales Engineering para Latinoamérica de Sophos, empresa global de ciberseguridad.
¿Es posible diferenciar la voz humana de una clonación de IA?
“Es algo bastante subjetivo, pero los seres humanos tienen en muchas ocasiones la capacidad de detectar cuándo la IA está suplantando rostros o voces”, agregó Aguirre, pero también compartió algunas claves para evitarlo:
- Las emociones: Cuando se conoce a una persona, es posible identificar tonos e inflexiones que no corresponden a sus emociones.
- Palabras: Cuando las muestras no son tan grandes, es posible que el discurso del ciberdelincuente no corresponda con la forma de hablar de la persona suplantada.
- Grabaciones: Muchas veces las estafas de vishing que utilizan IA recurren a grabaciones solicitando ayuda de la persona suplantada y, luego, habla otra que puede actuar como secuestrador. En este caso, el secuestrador se niega a que el “secuestrado” pueda entablar una conversación.
- Números desconocidos, ocultos o de otros países: Siempre es sospechoso el contacto de personas conocidas a través de números desconocidos.
- Doble verificación: Muchas veces, la forma más simple de identificar estas estafas o fraudes es intentar comunicarse directamente con la persona suplantada y confirmar que no es ella quien está solicitando ayuda, dinero o información.