[RO] Deepfake

Ola

Întâmplător sau nu, am dat peste o idee online de la Daniel Miessler (https://danielmiessler.com) care zicea cam așa: – în curând cea mai bună idee de a valida conținutul personal va fi acela de a-l avea pe un site propriu, în comparație cu rețelele de socializare sau alte surse online -.

Mă întrebam de ce, așa că i-am dat cu Nea’ Google să vedem ce trenduri sunt la momentul actual în zona de AI, pe lângă prea iubitul ChatGPT care mai nou a făcut promisa integrare cu Bing. Well… sunt câteva motive de îngrijorare, atât în viața personală cât și în cea de business. O să-mi sumarizez într-un free-flow ideile mai jos apoi pentru cei interesați de subiect, am două referințe suficient de atrăgătoare.

General

Fenomenul de Deepfake = orice vezi online s-ar putea să nu mai fie real. Ai prins incertitudinea, right? Cam asta e ideea, în primă fază să creeze incertitudine, și în a doua parte să conducă spre dezinformare.

Deepfake, în termeni practici, se traduce cam așa: o persoană oarecare de pe stradă poate crea video-uri cu fața ta, poate pretinde că ești tu, dacă are înregistrări cu vocea ta poate refolosi vocea ta în video-uri și apeluri, și lista poate continua. Treaba asta nu există de curând, însă cu ajutorul AI-ului se poate realiza mult mai rapid, fără costuri, și fără prea multe cunoștințe tehnice. Problema este ca posibilitățile și scenariile sunt nelimitate, nu se rezumă doar la video-uri amuzante între prieteni.

Exemple clare

  • Un video fals cu fața și vocea lui Volodimir Zelenski circula prin presa din Ucraina în primele săptămâni de război, prin care acesta le spunea soldaților să predea armele și să se predea Rusiei.
  • Fața și vocea lui Elon Musk au fost folosite într-un video înregistrat de atacatori pentru a promova o înșelătorie referitoare la platforme de tip crypto.
  • În UK o mamă a depus dovezi false într-un proces, o înregistrare cu vocea tatălui copiilor făcută cu ajutorul unor programe software, pentru a demonstra că acesta nu merită custodia copiilor din cauza comportamentului abuziv.
  • Deepfake este folosit pentru a prelua poze cu tinere din mediu online și a crea producție porno folosind fețele acestora.
  • În mai 2023, un atacator a targetat o companie folosind tehnici de deepfake pentru a-l imita pe CEO-ul companiei. Un manager din cadrul companiei a fost contactat prin WhatsApp și invitat la o convorbire audio cu atacatorul care pretindea că este CEO-ul. Vocea semăna cu cea a CEO-ului, iar imaginea și fundalul folosite corespundeau probabil cu o imagine existentă de acum câțiva ani, respectiv cu fundalul locuinței CEO-ului.
  • “În mai 2023, un actor malefic necunoscut a vizat o companie în scopul obținerii de câștiguri financiare, utilizând o combinație de audio, video și mesaje text sintetice. Actorul, imitând vocea unui executiv al companiei, a contactat un membru al companiei printr-un apel audio de slabă calitate prin WhatsApp. Ulterior, actorul a sugerat o întâlnire pe Teams, iar ecranul părea să arate executivul în biroul său. Conexiunea era foarte slabă, așa că actorul a recomandat trecerea la mesaje text și a continuat să îndemne ținta să transfere bani. Ținta a devenit foarte suspicioasă și a întrerupt comunicarea la acest punct. Același executiv a fost și el imitat prin mesaje text în alte ocazii de către atacatori.” (tradus cu ChatGPT dintr-un document NSA/FBI/CIA pentru că de ce nu)

Posibile atacuri în viitor

  • Pe partea de business, mai multe încercări video și audio în care CEO-ul companiei să încerce să convingă o persoană din interiorul companiei să ofere anumite informații sau acces la resursele interne. Dar hei, nu numai CEO-ul, practic oricine din companie poate deveni un target – dar de obicei primele persoane sunt cele din conducere pentru că ar putea avea mai multă autoritate. Nu te aștepți să te sune zilnic CEO-ul să-ți ceară o favoare.
  • Părinții noștri, care sunt cei mai susceptibili ca victime pentru că au mai puțin contact cu tehnologia, pot primi mesaje video și audio de la posibili atacatori care să predindă că suntem în pericol și avem nevoie ori de date personale, ori de sume de bani.
  • Cam tot ce înseamnă phishing acum (care duduie la nivel de email) o să poată fi transferat mult mai realist în video-uri și call-uri care să ne imită identitatea.
  • Video-uri și înregistrări audio în spațiul public cu noi sau alte persoane doar pentru a modifica opinia celor din jur, sau a-i induce în eroare. Nici nu vreau să mă gândesc cum o să arate treaba asta în campaniile electorale.

Consecințe

  • O să fie dificil să acordăm încredere în ceea ce până acum credeam că oferă un fel de certitudine – înregistrările live, unele poze, mesaje audio șamd.
  • Dovezile video/audio în anumite circumstanțe vor fi dificil de demonstrat că sunt adevărate.
  • O să învățăm să ne protejăm, dar efort suplimentar va fi depus pentru a-i proteja pe cei din jur.
  • Se va putea profita de treaba asta și în sens invers, ceva real fiind acuzat ca fiind parte din deepfake.

Ce facem?

  • Cunoaștem situația și suntem atenți la detalii.
  • Îi facem și pe cei din jurul nostru atenți că aceste lucruri există și o să prindă amploare din ce în ce mai mult.
  • Nu reacționăm la impuls, și validăm informațiile/apelurile/video-urile dacă situația este delicată (mai aleeees în mediu corporaaaaate)
  • Așteptăm ca guvernele să investească în măsuri prin care conținutul prefabricat să fie recunoscut de alte programe software.

Congress of the Unites States, 2018: “By blurring the line between fact and fiction, deepfake technology could undermine public trust in recorded images and video as objective depictions of reality”

Europol: “90% of online content may be synthetically generated by 2026” / “societal confusion about which information sources are reliable”

Ok, gata cu fotosinteza, voiam doar să aduc în prim plan faptul că există și va exista un challenge odată cu evoluția rapidă a tool-urilor AI, de-acu vă las resurse dacă vreți să vedeți/știți mai multe, pentru că-s super bine făcute.

Stay safe,

Alex

https://media.defense.gov/2023/Sep/12/2003298925/-1/-1/0/CSI-DEEPFAKE-THREATS.PDF


Posted

in

by

Tags: