Presentadores de noticias creados con Inteligencia Artificial están comenzando a distribuir noticias falsas que son difíciles de detectar

Presentadores de noticias creados con Inteligencia Artificial están comenzando a distribuir noticias falsas que son difíciles de detectar

Los deepfake generados por Inteligencia Artificial es una tecnología que permite generar rostros humanos falsos que a simple vista parecen tan reales, que podrían engañar a cualquiera y que ha sido utilizada constantemente para crear clips de personas reales, la mayoría de las veces de rostros de celebridades. Pero además esta IA se utiliza para […]

Por Víctor Méndez el 10/02/2023

Los deepfake generados por Inteligencia Artificial es una tecnología que permite generar rostros humanos falsos que a simple vista parecen tan reales, que podrían engañar a cualquiera y que ha sido utilizada constantemente para crear clips de personas reales, la mayoría de las veces de rostros de celebridades. Pero además esta IA se utiliza para poder realizar videos sin la utilización de personas, siendo un ejemplo de esto algunos noticieros, como se ha revelado recientemente.



Se trata del noticiero Wolf News donde los presentadores no son humanos reales, sino que son avatares creados por Inteligencia y que como apuntan en The New York Times, sus videos fueron usados en Facebook y Twitter por cuentas bot prochinas a fines del 2022. Algo que marcó además la primera vez que se usan estos videomontajes ultrarrealistas como parte de una campaña de información que protege los intereses de un Estado.

Los presentadores deepfake de Wolf News - fuente: The New York Times




Puedes leer: Inteligencia Artificial de Google entrega una respuesta inexacta y le hace perder $100 mil MDD en la bolsa

Estos deepfakes se pueden crear con tecnologías como la Synthesia, una empresa de IA que permite producir este tipo de videos fácilmente. Según ellos, solo se prepara un guión y se crean unos “gemelos digitales” de personas reales, y luego su software crea los clips de forma tan fácil, que lo comparan con “escribir un correo electrónico” en su sitio web. El cofundador y director ejecutivo de Synthesia, Victor Riparbelli, aseguró que si este software fue usado para crear los videos, violaron sus condiciones de servicio ya que estas no permiten producir “contenido político, sexual, personal, delictivo o discriminatorio”.

https://www.youtube.com/watch?v=HiYbg3Z_gF8


Pero para terminar, alertó que esto es muy peligroso ya que actualmente no existen leyes o directrices para detener o regular este tipo de videos, donde además se puede incluir abiertamente discursos de odio, calumnias, palabras explícitas e imágenes podrían ser difíciles de detectar, agregando además que sería “muy difícil determinar que esto constituye desinformación”.









Editorial: Gaming / Facebook / Twitter / Cobertura / Instagram / Discord

Imperdibles de la semana

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

22/02/2026
Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

22/02/2026

Contenido recomendado