Las últimas noticias sobre Jalisco: virales, espectáculos, deportes, partidos en vivo y mucha información en tiempo real

¡Cuidado! Así utilizan la Inteligencia Artificial para clonar la voz y hacer estafas; ¿se pude prevenir caer en la trampa?

Las estafas y los fraudes van en aumento en México, así como la tecnología utilizada para ellos como es el caso del uso de la Inteligencia Artificial

En México, las estafas van al alza, así como las herramientas que se utilizan para realizarlas. La clonación de voz es uno de los fraudes que se han puesto de moda en los últimos meses, pero cómo es que la utilizan.

¿Cómo es el modus operandi que utilizan los criminales para realizar estafas al clonar voces? Especialistas explican que los criminales utilizan audios falsos, videos, páginas falsas, correos y mensajes falsos para cometer dichas fechorías.

Te puede interesar: ¡CUIDADO! Esta es la nueva estafa telefónica hecha con números desconocidos de Estados Unidos y Canadá

Clonan rostros y voces para cometer fraudes en México

Los criminales suelen clonar la voz y el rostro de alguna celebridad, doctores o maestros para engañar a las personas y solicitarles que depositen dinero a cambio de productos o un servicio.

Para realizar este tipo de estafas, los criminales suelen tomar fotografías o videos de las redes sociales y con sólo unos segundos se puede clonar la voz de profesionistas, influencers, celebridades o cualquier otra persona.

Te puede interesar: Alertan de nuevo fraude a negocios en Guadalajara; así lo puedes detectar a tiempo

¿Cómo prevenir las estafas con Inteligencia Artificial?

Especialistas indican que no se debe confiar en todo lo que se ve en redes sociales y tener cuidado con lo que reciben.

En los videos creados con Inteligencia Artificial, los personajes no suelen moverse ni gesticular con normalidad; hay problemas con el audio y voz del personaje, en ocasiones se ve desfasado; hay movimientos inusuales; y la modalidad es recta.

Contenido relacionado