Sunt „Falsurile adânci” Noua frontieră a criminalității digitale?

Tehnologia efectelor speciale a cunoscut un adevărat boom în ultimele decenii, CGI trecând de la rudimentar brut și primitiv la aproape indistinct de realitate. Acum, pe măsură ce crearea de imagini verisimilitudinoase devine din ce în ce mai obișnuită, experții politici și experții în justiție penală anticipează o panică în jurul așa-numitei tehnologii „false false”, care are potențialul de a complica și mai mult o discuție internațională continuă despre „știri false”. Dar ce este, mai exact, un „fals profund” și cât de multă amenințare va reprezenta această tehnologie în viitor?





Tehnologia falsă profundă (uneori stilizată ca „deepfake”) se referă la imagini sintetizate și / sau suprapuse și / sau videoclipuri create de inteligență artificială folosind imagini și videoclipuri existente. Folosind învățarea automată, această tehnologie ar putea crea teoretic imagini convingătoare ale unei persoane care efectuează un act care nu a avut loc niciodată în viața reală.

Owen Williams, un inginer software profesionist și artist în efecte vizuale, a oferit o explicație simplă.



„Este un mod de a utiliza un sistem software automat pentru a înlocui fața unei persoane într-un videoclip cu o altă față, care este mult mai automată și mai convingătoare decât s-a putut cu tehnologia trecută”, a spus Williams Oxygen.com .



Williams a menționat că filme populare precum „Jurassic Park” și „Blade Runner: The Final Cut” au folosit software pentru anumite scene în moduri care ar fi putut fi un precursor al falsurilor profunde: „În industria cinematografică, acest lucru este cu adevărat obișnuit. Să presupunem că aveți un personaj care trebuie să efectueze o cascadorie și ați prefera ca fața lor să fie vizibilă. Soluția clasică ar fi că le-ați vedea doar din spate sau părul lor ar fi în fața lor, astfel încât să nu puteți spune că este o dublă. Dar există o istorie destul de implicată a realizatorilor de filme care folosesc computerele pentru a pune fața unui actor peste cea a unui dublu de cascadorie.



„A fost un proces foarte manual”, a continuat Williams. „Acum, cu o tehnologie falsă profundă, hrănești un computer cu două lucruri: Mai întâi videoclipul pe care îl vei înlocui și apoi o grămadă de intrări ale feței cu care vei înlocui. Trebuie să obțineți suficiente imagini ale unei persoane care face expresii faciale diferite și din unghiuri diferite. Creați o bibliotecă cu cum poate arăta chipul acestei persoane în diferite situații, apoi computerul trece și se uită la videoclip. Nici nu are nevoie de o potrivire exactă. Poate strica și transforma ceea ce are în bibliotecă pentru a se potrivi cu ceea ce are nevoie. Ceea ce obișnuia să necesite zeci de artiști sute de ore pentru a încerca să execute un efect foarte complicat acum este doar o apăsare pe buton. '

O fațetă a acestei tehnologii care îi îngrijorează pe oameni este că o persoană nu trebuie neapărat să-și prezinte fața de bunăvoie pentru ca acest proces să fie executat, având în vedere câte imagini există online ale majorității oamenilor - în special vedete și figuri politice.



„Există suficiente imagini ale oricărei vedete în unghiuri suficiente încât să poți crea acea bibliotecă [fără consimțământ]”, a spus Williams. „Este nevoie de o anumită cantitate de muncă pentru a face acest lucru, dar pentru orice personaj marginal popular aceste lucruri vor exista. Sensul meu este că este mai puțin probabil ca acest lucru să fie cât mai posibil pentru o persoană obișnuită.

Primele videoclipuri false profunde au apărut pe forumurile Reddit la sfârșitul anului 2017, conform Variety . Un utilizator a susținut că și-a folosit computerul pentru a crea videoclipuri pornografice extrem de realiste ale diferitelor vedete angajate în activități sexuale care nu s-au întâmplat niciodată în viața reală. Utilizatorul a susținut că și-a hrănit computerul mii de fotografii ale stelelor, din care AI ar putea sursa expresiile feței și mișcările descrise. O aplicație folosită de creatori de falsuri profunde și distribuită pe Reddit a fost descărcată în cele din urmă de peste 100.000 de ori. (Reddit va interzice în cele din urmă acest tip de conținut, spunând că le-a încălcat politica privind „pornografia involuntară” conform The Verge .)

Realismul pe care acest mediu îl poate realiza în acest moment este pus la îndoială de Williams.

„Dacă ai urmărit vreodată unul dintre aceste falsuri profunde ... există o anumită ciudățenie acolo”, a spus Williams. - Nu sunt lustruite. Probabil că va deveni din ce în ce mai bun, totuși, mai ales că Hollywood-ul are interesul să facă acest lucru automatizat, mai degrabă decât să plătească artiști scumpi. ”

În mod similar, Williams a ghicit asta în ciuda panica din jurul porno profund fals , schimbarea atitudinilor culturale în jurul naturii unor lucruri precum pornografia de răzbunare sau imagini nud dezvăluite înseamnă că este probabil ca oamenii care creează acest tip de media să fie condamnați și să nu fie sărbătoriți, chiar și în industria divertismentului pentru adulți.

„Nu va fi niciodată mainstream”, a teorizat Williams. 'După ' The Fappening „s-a întâmplat ceva pe Reddit, oamenii au reușit să schimbe conversația și să spună:„ Acesta nu este un scandal, este o crimă sexuală ”. Așadar, nu văd că acest lucru devine la fel de scandal pe cât cred oamenii. De asemenea, oamenii pot găsi cu ușurință pornografia originală din care a fost creat falsul profund, ceea ce înseamnă că este destul de ușor de dezmembrat.

Dar nu doar cauzează îngrijorare, deoarece ar putea fi folosit pentru a crea porno celebru fals. Oamenii sunt, de asemenea, îngrijorați de ramificațiile politice.

Experții politici au început să scrie despre proliferarea falsurilor profunde în 2018. Un articol Guardian din luna noiembrie a aceluiași an s-a remarcat răspândirea virală a unui videoclip care îl presupune pe președintele Donald Trump încurajând națiunea Belgiei să se retragă din Acordul climatic de la Paris. Acest lucru a catalizat o discuție mai amplă cu privire la potențialul pentru diferite guverne de a utiliza această tehnologie în campaniile de dezinformare în masă, o conversație care fusese deja inițiată datorită anchetei în curs de desfășurare a implicării Rusiei în alegerile prezidențiale din 2016 în Statele Unite.

Panica din jurul falsurilor adânci a inspirat chiar comisia de redacție a Bloomberg Media Group să formuleze o opinie puternic formulată în această privință.

„Dovezile video au devenit un pilon al sistemului de justiție penală ... tocmai pentru că filmul pare o înregistrare atât de fiabilă a discursului sau a acțiunilor cuiva. Falsurile adânci ar putea face în mod fiabil aceste dovezi suspecte, ei au scris în iunie 2018. „O provocare majoră va fi atunci identificarea și strigarea acestor falsuri - dacă este posibil”.

Williams a fost de acord că natura falsurilor profunde ne amenință noțiunile de „realitate” în ceea ce privește dovezile video, dar a remarcat că această mormânt legal nu este unic peisajului nostru digital contemporan.

„Se rezumă într-un fel la această idee că oamenii au acel videoclip egal cu adevărul, ceea ce nu a fost niciodată cazul. Știam asta de la Rodney King încoace. Sau, gândește-te la Eric Garner : Oamenii credeau că [ofițerul care l-a ucis] este nevinovat, indiferent de ceea ce prezicea videoclipul incidentului. Pentru mine [multe dintre temerile din jurul falsurilor profunde] mi se par oarecum nefondate. '

Williams a enumerat alte câteva incidente care nu implică o tehnologie falsă profundă care a arătat modul în care videoclipul a fost manipulat cu îndrăzneală pentru a distorsiona opinia publică asupra unei chestiuni, cum ar fi Controversata eliminare a lui ACORN de către James O'Keefe și un scandal recent implicat un videoclip documentat care îl prezintă pe reporterul CNN Jim Acosta atacând un angajat de la Casa Albă .

Concluzia finală a lui Williams a fost că isteria din jurul falsurilor profunde este oarecum suprasolicitată.

„Ceea ce văd se întâmplă este că va funcționa în ambele sensuri. Dacă apare un videoclip și este real, oamenii vor pretinde că este fals. Dacă apare un videoclip și este fals, oamenii vor pretinde că este real. Fiecare caz presupune o anumită cantitate de adevăr atribuit videoclipului [în sine]. Este greu de știut în ce direcție va merge totul. Dacă Banda Pee de fapt a ieșit, de exemplu, știi exact ce s-ar întâmpla: jumătate din oameni ar spune: „Acesta este tauri - t, este un actor!” și jumătate din oameni ar spune: „Iată-l! E real!' Deci nimic nu s-ar schimba cu adevărat. Asta tinde să fie ceea ce se întâmplă cu noile tehnologii: lucrurile nu se schimbă atât de mult pe cât cred oamenii.

[Foto: SAUL LOEB / AFP / Getty Images]

Posturi Populare