¿Qué podría enseñarnos el ex presidente de los Estados Unidos, Richard Nixon, sobre la inteligencia artificial de hoy y el futuro de la desinformación en línea? Nada. El verdadero Nixon murió hace 26 años.

Pero uno Similitud de su generado por AI arroja nueva luz sobre una tecnología en rápida evolución con implicaciones significativas, tanto creativas como destructivas, para nuestro ecosistema de información digital actual. Desde 2019 artistas de medios Francesca Panetta y Halsey Burgund al Instituto de Tecnología de Massachusetts junto con dos compañías de inteligencia artificial, Canny AI y Respeecher, para crear una falsificación profunda póstuma. El video sintético muestra a Nixon dando un discurso que nunca tuvo la intención de dar, medio siglo después del tema que trata.

Aquí está la historia de fondo (real): en julio de 1969, como el Apolo 11 los astronautas se deslizaron por el espacio en su camino hacia la luna, William Safire, cuando uno de los escritores de discursos de Nixon, escribió:En caso de desastre lunar«Como un hecho imprevisto. El discurso es un maravilloso homenaje a Neil Armstrong y Edwin ‘Buzz’ Aldrin, los dos astronautas que descendieron a la superficie lunar, para nunca volver a esta versión de la historia. Termina diciendo: «Cualquiera que mire a la luna durante las próximas noches sabrá que hay un rincón de otro mundo que es la humanidad para siempre».

El discurso completo de deepfake se puede ver en https://moondisaster.org.

DeepfakesSon una clase de medios sintéticos generados por IA. Si ya ha visto uno en Internet, este probablemente sea un ejemplo de «intercambio cara«Variedad. El término en sí, una combinación de»aprendizaje profundoY «falso» tiene uno historia de origen horrible involucrando una cuenta de Reddit con ese nombre intercambiando pornografía de celebridades. Y el problema persiste: un Informe 2019 encontrado que «la pornografía falsa profunda no consensuada … representaba 96 [percent] del total de videos de deepfake en línea. «

Además de este uso ilegal y dañino del intercambio facial, existen varios otros tipos de medios sintetizados basados ​​en IA. El aprendizaje profundo también se adapta para crear falsificaciones de audio, sincronización de labiosy toda la cabeza y espectáculo de marionetas para todo el cuerpo. Muchas de estas técnicas existen únicamente como investigación básica, aunque los medios sintetizados por IA se están desarrollando rápidamente para uso comercial, incluyendo Producciones de Hollywood incluso pacientes con cáncer quien ya no puede hablar.


Documental científico estadounidense: cómo se hizo el Nixon Deepfake


El equipo del MIT no tenía intención de hacer un simple intercambio de caras. (Algunos profesionales de aprendizaje automático ahora están presionando para la idea de que casi cualquier persona con poca experiencia en codificación puede hacer una de estas falsificaciones en tan poco como cinco minutos.) Querían crear la mejor falsificación técnica posible mientras documentaban la mano de obra involucrada. El proceso llevó más de medio año..

Para llegar a la parte visual de lo falso, Canny AI usó una técnica llamada «reemplazo del video diálogo. En lugar de cambiar caras, un sistema de IA fue entrenado para transferir movimientos faciales para el discurso ‘En caso de desastre lunar’ en una reconstrucción realista de la cara de Nixon y sus alrededores.

Para la parte de audio, Respeecher procesó el audio de entrenamiento de un actor que leía el discurso, así como también grabó las numerosas apariciones en televisión de la Casa Blanca de Nixon. Luego, la compañía utilizó un ‘sistema de conversión de voz’ para sintetizar a Nixon y entregar el discurso a partir de la actuación del actor. (Tanto las técnicas de Canny AI como las de Respeecher son patentadas, y las compañías dicen que nunca se usaron para hacer falsificaciones ilegales)

El equipo del MIT también quería demostrar el potencial de tales falsificaciones profundas para hacer preguntas sobre cómo podrían afectar nuestra historia compartida y nuestras experiencias futuras. Cooperaron para esto Científico americano para mostrar su video a un grupo de expertos en IA, privacidad digital, derecho y derechos humanos. En el cortometraje Para hacer una falsificación profunda, Estos expertos proporcionan el contexto necesario para la tecnología: los peligros, el potencial y el potencial de este nuevo mundo digital valiente, donde cada píxel que pasa por encima de nuestros ojos colectivos está potencialmente en juego.

Más acerca de Deepfakes

Crédito: En el caso del sitio web Moon Disaster, Dominic Smith

De MIT: En caso de desastre lunar


Crédito: En el caso del sitio web Moon Disaster, Dominic Smith

Op-Ed: Detectar falsificaciones profundas


Crédito: Taylor Callery

Historia relacionada: Clics, mentiras y cintas de video


Crédito: Wesley Allsbrook

Historia relacionada: La información incorrecta ha creado un nuevo desorden mundial





Source link