Alertan de estafas con IA: clonarían voz y enviarían mensajes de audio a través de WhatsApp

visitas

VER RESUMEN

Resumen automático generado con Inteligencia Artificial

En Ciencia y Tecnología, Cristián Chaparro analizó un video viral que alerta sobre una estafa con inteligencia artificial. Un influencer mexicano compartió un mensaje de voz en el que una supuesta mamá pide ayuda y dinero, generando sospechas de fraude. Chaparro advierte sobre el creciente uso de clonación de voces para engañar, aunque señala dudas sobre la autenticidad del audio.

Desarrollado por BioBioChile

La expansión de la inteligencia artificial (IA) ha significado múltiples beneficios en diferentes esferas. Sin embargo, también ha generado nuevas herramientas para los delincuentes, quienes continúan elaborando métodos para realizar estafas.
En una nueva edición de Ciencia y Tecnología, Cristián Chaparro abordó un video, que se viralizó en redes sociales, donde se alerta sobre una estafa que se estaría llevando a cabo gracias al uso de la IA.

Se trata de una pieza audiovisual compartida por un influencer mexicano, quien da a conocer un supuesto mensaje de audio que le llegó a su WhatsApp. En el mensaje, su presunta mamá le dice: “Me acabo de meter en un gran problema y necesito de tu ayuda (…) Te estoy mandando mensajes porque te necesito. Por favor, contéstame”.

Lo anterior, con la intención de que la supuesta víctima le transfiera un monto similar a $100 mil chilenos.

Ante el registro, Chaparro señaló que “cada día las estafas van incrementándose más a través de la clonación de voces (…) (Basta que) tengan solamente tres, cuatro o cinco segundos nuestra voz para poder clonarla”.

De igual manera, cabe destacar que nuestro amigo digital puso en duda la veracidad del registro, ya que señaló que “el audio le llega directamente desde el chat registrado como ‘mamá"”.

“Segundo, el audio que utiliza la persona es muy natural para lo que realmente la inteligencia artificial es hoy en día”, agregó.

Sin embargo, comentó que “puedo estar equivocado”.

Revisa todos los detalles en video.

    visitas

VER RESUMEN

Resumen automático generado con Inteligencia Artificial

En Ciencia y Tecnología, Cristián Chaparro analizó un video viral que alerta sobre una estafa con inteligencia artificial. Un influencer mexicano compartió un mensaje de voz en el que una supuesta mamá pide ayuda y dinero, generando sospechas de fraude. Chaparro advierte sobre el creciente uso de clonación de voces para engañar, aunque señala dudas sobre la autenticidad del audio.

Desarrollado por BioBioChile

La expansión de la inteligencia artificial (IA) ha significado múltiples beneficios en diferentes esferas. Sin embargo, también ha generado nuevas herramientas para los delincuentes, quienes continúan elaborando métodos para realizar estafas.
En una nueva edición de Ciencia y Tecnología, Cristián Chaparro abordó un video, que se viralizó en redes sociales, donde se alerta sobre una estafa que se estaría llevando a cabo gracias al uso de la IA.

Se trata de una pieza audiovisual compartida por un influencer mexicano, quien da a conocer un supuesto mensaje de audio que le llegó a su WhatsApp. En el mensaje, su presunta mamá le dice: “Me acabo de meter en un gran problema y necesito de tu ayuda (…) Te estoy mandando mensajes porque te necesito. Por favor, contéstame”.

Lo anterior, con la intención de que la supuesta víctima le transfiera un monto similar a $100 mil chilenos.

Ante el registro, Chaparro señaló que “cada día las estafas van incrementándose más a través de la clonación de voces (…) (Basta que) tengan solamente tres, cuatro o cinco segundos nuestra voz para poder clonarla”.

De igual manera, cabe destacar que nuestro amigo digital puso en duda la veracidad del registro, ya que señaló que “el audio le llega directamente desde el chat registrado como ‘mamá"”.

“Segundo, el audio que utiliza la persona es muy natural para lo que realmente la inteligencia artificial es hoy en día”, agregó.

Sin embargo, comentó que “puedo estar equivocado”.

Revisa todos los detalles en video.