Metodă pentru desconspirarea imaginilor „deepfake”

Getting your Trinity Audio player ready...

Nature relatează o descoperire recentă prin care cercetătorii apelează la tehnici din astronomie pentru a ajuta la detectarea imaginilor „deepfake” generate de computer — care la prima vedere pot părea identice cu fotografiile reale. Prin analizarea imaginilor fețelor folosind metode utilizate în mod obișnuit pentru a studia galaxiile îndepărtate, astronomii pot măsura cum reflectă lumina ochii unei persoane, dezvăluind astfel semne caracteristice ale manipulării imaginii.

„Nu este o soluție perfectă, pentru că avem false pozitive și false negative,” spune Kevin Pimbblet, director al Centrului de Excelență pentru Știința Datelor, Inteligență Artificială și Modelare la Universitatea din Hull, Marea Britanie, care a prezentat cercetarea la Reuniunea Națională de Astronomie a Societății Astronomice Regale din Marea Britanie pe 15 iulie. „Dar această cercetare oferă o metodă potențială, un mod important de a avansa, poate pentru a adăuga la bateria de teste care se pot aplica pentru a încerca să se determine dacă o imagine este reală sau falsă.”

Fotografii false

Progresele în inteligența artificială (AI) fac din ce în ce mai dificilă diferențierea între imagini, videoclipuri și audio autentice și cele create de algoritmi. Deepfake-urile substituie caracteristicile unei persoane sau ale unui mediu cu altele și pot face să pară că indivizii au spus sau făcut lucruri pe care nu le-au spus sau făcut. Autoritățile avertizează că această tehnologie poate fi folosită pentru a răspândi dezinformări, de exemplu, în timpul alegerilor. Fotografiile autentice ar trebui să aibă „fizică consistentă”, explică Pimbblet, „astfel încât reflecțiile pe care le vedeți în ochiul stâng să fie foarte similare, deși nu neapărat identice, cu reflecțiile din ochiul drept”. Diferențele sunt subtile, așa că, pentru a le detecta, cercetătorii au folosit tehnici concepute pentru a analiza lumina în imaginile astronomice.

Tehnici astronomice aplicate

Această cercetare, care nu este încă publicată, a stat la baza tezei de masterat a lui Adejumoke Owolabi. Owolabi, un om de știință în domeniul datelor la Universitatea din Hull, Marea Britanie, a obținut imagini reale din datasetul Flickr-Faces-HQ și a creat fețe false folosind un generator de imagini. Owolabi a analizat apoi reflecțiile surselor de lumină în ochii din imagini folosind două măsurători astronomice: sistemul CAS și indexul Gini. Sistemul CAS cuantifică concentrarea, asimetria și uniformitatea distribuției luminii unui obiect. Timp de decenii, tehnica a permis astronomilor, inclusiv lui Pimbblet, să caracterizeze lumina stelelor extragalactice. Indexul Gini măsoară inegalitatea distribuției luminii în imaginile galaxiilor.

Detectarea imaginilor false

Comparând reflecțiile din ochii unei persoane, Owolabi a putut prezice corect dacă imaginea era falsă în aproximativ 70% din cazuri. În cele din urmă, cercetătorii au descoperit că indexul Gini era mai bun decât sistemul CAS în a prezice dacă o imagine a fost manipulată.

Brant Robertson, un astrofizician la Universitatea din California, Santa Cruz, salută cercetarea. „Cu toate acestea, dacă puteți calcula o metrică care cuantifică cât de realistă poate părea o imagine deepfake, puteți antrena modelul AI să producă deepfake-uri și mai bune optimizând acea metrică,” avertizează el.

Zhiwu Huang, cercetător în AI la Universitatea din Southampton, Marea Britanie, spune că propria sa cercetare nu a identificat modele inconsistente de lumină în ochii din imaginile deepfake. Dar „deși tehnica specifică de utilizare a reflecțiilor inconsistente în ochi poate să nu fie aplicabilă pe scară largă, astfel de tehnici ar putea fi utile pentru analizarea anomaliilor subtile în iluminare, umbre și reflecții în diferite părți ale unei imagini”, spune el. „Detectarea inconsistențelor în proprietățile fizice ale luminii ar putea completa metodele existente și îmbunătăți acuratețea generală a detectării deepfake-urilor.”