La intel·ligència artificial reconeixerà els vídeos falsos perfectes
La intel·ligència artificial reconeixerà els vídeos falsos perfectes

Vídeo: La intel·ligència artificial reconeixerà els vídeos falsos perfectes

Vídeo: La intel·ligència artificial reconeixerà els vídeos falsos perfectes
Vídeo: Музыкальный Hi-Fi центр Technics SC-EH60 (стереосистема). Японское качество! Лучшая акустика 90-х. - YouTube 2024, Març
Anonim
L’estrena de l’òpera sobre l’intoxicació de Litvinenko comença a Anglaterra
L’estrena de l’òpera sobre l’intoxicació de Litvinenko comença a Anglaterra

Fa un any, Manish Agrawala de Stanford va ajudar a desenvolupar una tecnologia de sincronització dels llavis que va permetre als editors de vídeo alterar les paraules dels altaveus de manera gairebé imperceptible. L'eina podria inserir fàcilment paraules que una persona mai no va parlar, fins i tot enmig d'una frase, o esborrar les paraules que va dir. Tot semblarà realista a simple vista i fins i tot per a molts sistemes informàtics.

Aquesta eina ha facilitat la correcció d’errors sense tornar a rodar escenes senceres i també ha adaptat programes de televisió o pel·lícules per a diferents públics de diferents llocs. Però aquesta tecnologia també ha creat noves oportunitats inquietants per a vídeos falsos difícils de trobar, amb la clara intenció de distorsionar la veritat. Per exemple, un vídeo republicà recent utilitzava una tècnica més dura per a una entrevista amb Joe Biden.

Aquest estiu, Agrawala i els seus col·legues de Stanford i UC Berkeley han presentat un enfocament basat en la intel·ligència artificial de la tecnologia de sincronització dels llavis. El nou programa detecta amb més precisió més del 80 per cent de falsificacions, reconeixent les discrepàncies més petites entre els sons de les persones i la forma de la seva boca.

Però Agrawala, director de l’Institut d’Innovació en Mitjans de Comunicació de Stanford i professor d’informàtica a Forest Baskett, que també està afiliat a l’Institut d’Intel·ligència Artificial Centrada en l’Home de Stanford, adverteix que no hi ha una solució tècnica a llarg termini per a falsificacions profundes.

Com funcionen les falsificacions

Hi ha motius legítims per manipular el vídeo. Per exemple, qualsevol persona que filme un programa de televisió, una pel·lícula o un anunci de ficció pot estalviar temps i diners mitjançant eines digitals per corregir errors o personalitzar els guions.

El problema sorgeix quan aquestes eines s’utilitzen deliberadament per difondre informació falsa. I moltes de les tècniques són invisibles per a l’espectador mitjà.

Molts vídeos falsos i profunds es basen en intercanvis de rostres, superposant literalment la cara d'una persona al vídeo d'una altra persona. Però, tot i que les eines per canviar la cara poden ser convincents, són relativament grolleres i solen deixar artefactes digitals o visuals que un ordinador pot detectar.

D’altra banda, les tecnologies de sincronització dels llavis són menys visibles i, per tant, són més difícils de detectar. Manipulen una porció molt més petita de la imatge i després sintetitzen moviments de llavis que coincideixen exactament amb com es mouria la boca d’una persona si digués certes paraules. Segons Agrawal, tenint prou mostres de la imatge i la veu d'una persona, un fals productor pot fer que una persona "digui" qualsevol cosa.

Detecció de falsificacions

Preocupat per l’ús poc ètic d’aquesta tecnologia, Agrawala va treballar amb Ohad Freed, estudiant de doctorat a Stanford, per desenvolupar una eina de detecció; Hani Farid, professor de la University of California, Berkeley School of Information; i Shruti Agarwal, estudiant de doctorat a Berkeley.

Al principi, els investigadors van experimentar amb una tècnica purament manual en què els observadors van estudiar imatges de vídeo. Va funcionar bé, però a la pràctica feia molta feina i requeria temps.

Els investigadors van provar una xarxa neuronal basada en la intel·ligència artificial que seria molt més ràpida de fer el mateix anàlisi després d’entrenar-se en vídeo amb l’expresident Barack Obama. La xarxa neuronal va detectar més del 90% de la sincronització labial pròpia d'Obama, tot i que la precisió d'altres parlants va caure fins al 81%.

Una prova real de la veritat

Els investigadors diuen que el seu enfocament és només una part del joc del gat i el ratolí. A mesura que milloren les tècniques de falsificació profunda, deixaran encara menys claus.

En definitiva, diu Agrawala, el veritable problema no és tant lluitar contra vídeos profundament falsos com combatre la desinformació. De fet, assenyala, gran part de la desinformació sorgeix de distorsionar el significat del que realment deien les persones.

"Per reduir la desinformació, hem de millorar l'alfabetització mediàtica i desenvolupar sistemes de rendició de comptes", diu. "Això pot significar lleis que prohibeixen la producció deliberada de desinformació i les conseqüències de violar-les, així com mecanismes per eliminar el dany resultant".

Recomanat: