kiss2025a.jpg Euroguard InCaseEnergy 	oneminamed_nav.gif

REFLECȚII FRANCEZE – Adrian CHIFU – Când ochii și urechile ne mint: despre ce suntem capabili să detectăm… sau mai degrabă nu

   Salutări tomnatice! Vântul de pe litoral aduce cu el nu doar mirosul sărat al mării, ci și întrebări neașteptate. Săptămâna aceasta, mi-am băgat nasul în ediția de octombrie a revistei Communications of the ACM și am dat peste un articol care m-a pus pe gânduri: oare mai putem avea încredere în ceea ce vedem și auzim? Studiul se numește, într-o traducere directă și fără menajamente, „La fel de bun ca o aruncare cu banul: Detectarea umană a conținutului generat de AI”. – https://dl.acm.org/doi/10.1145/3729417

   Concluzia? Suntem la fel de buni la a deosebi un fals de un original pe cât suntem la a ghici cap sau pajură. Vorbim despre imagini, sunete și videoclipuri atât de bine realizate, încât te fac să te întrebi dacă nu cumva Matrix a devenit, în sfârșit, realitate.

   Cercetătorii, sub îndrumarea lui Di Cooke, au adunat peste o mie de participanți și i-au pus să facă pe detectivii: ce e real și ce e creat de inteligența artificială? Rezultatul este aproape comic în simplitatea sa: o rată de succes de 51%, adică pur noroc. Ai putea la fel de bine să dai cu banul.

   Dar, cum bine știm, diavolul stă în detalii. De ce ne lăsăm păcăliți atât de ușor? Se pare că problema devine și mai spinoasă când în ecuație apar chipuri umane. Acuratețea noastră scade simțitor atunci când privim o față, comparativ cu imaginile cu animale sau peisaje. De ce este acest lucru atât de important? Pentru că aproape toate utilizările rău intenționate ale acestei tehnologii, de la fraude financiare la campanii de dezinformare, implică, inevitabil, fețe umane. Așadar, tocmai acolo unde riscul este maxim, vulnerabilitatea noastră este cea mai mare. Unde anume eșuează intuiția noastră în fața acestor chipuri sintetice? Răspunsul pare să se ascundă în perfecționismul tehnologiilor din spate. Spre exemplu, modele precum StyleGAN de la NVIDIA au fost antrenate pe zeci sau chiar sute de mii de imagini cu chipuri, învățând fiecare rid, fiecare umbră, fiecare reflexie din ochi, până au devenit maeștri ai iluziei.

Și mai e ceva. Se pare că ne descurcăm un pic mai bine atunci când primim informații pe mai multe canale simultan, un fenomen pe care cercetătorii îl numesc multimodalitate. Când avem la dispoziție și sunet, și imagine, rata de succes crește, dar nu suficient de mult încât să ne putem culca pe o ureche. Problema este că noi, oamenii, nu suntem rețele neuronale antrenate; suntem ființe cu prejudecăți, oboseală și o tendință dezarmantă de a crede ceea ce ne dorim să fie adevărat.

   Poate și mai îngrijorător este faptul că vârsta joacă un rol crucial, și nu într-un mod încurajator. Participanții mai în vârstă au avut performanțe semnificativ mai slabe, ceea ce este alarmant, având în vedere că tocmai ei sunt țintele preferate ale escrocheriilor care folosesc clonarea vocii și deepfake-uri (fals produs cu o rețea profundă de neuroni artificiali) audio. Se pare că tinerii, în special generația milenialilor, probabil datorită familiarității cu aceste tehnologii, se descurcă ceva mai bine.

   Așadar, ce ne spun toate acestea? Că performanța noastră este, în cel mai bun caz, mediocră. Că fețele umane sunt călcâiul lui Ahile pentru percepția noastră. Că vârsta ne face mai vulnerabili și că o minimă cunoaștere a subiectului nu ne ajută prea mult. Autorii studiului sunt clari: nu ne mai putem baza pe propriile simțuri pentru a ne proteja.

   Dar atunci, ce ne rămâne de făcut? Să dezvoltăm algoritmi de detecție, într-o cursă continuă cu cei care creează falsuri? Să implementăm „filigrane” digitale, sperând că nu vor fi ocolite? Să înăsprim legile, care, oricum, par mereu cu un pas în urma tehnologiei? Dacă nu mai putem avea încredere în ochii și urechile noastre, în ce să ne mai încredem? Gândiți-vă la ironia situației: un deepfake care ne păcălește nu este doar o reușită tehnică, ci și o dovadă că tehnologia a învățat să exploateze exact acele mecanisme care ne fac umani – empatia, încrederea, dorința de a crede. E ca și cum inteligența artificială ar fi găsit o cale să vorbească direct cu sufletul nostru, ocolind complet rațiunea.

   Într-o lume a adevărurilor incerte, poate că singura certitudine care ne rămâne este îndoiala. Ne confruntăm cu o criză a cunoașterii, în care nu mai putem fi siguri de ceea ce percepem. Dar poate că acesta nu este un final, ci un nou început, o eră în care trebuie să ne adaptăm, să dezvoltăm noi unelte de verificare, un fel de „autentiscop” care să ne ajute să distingem realul de sintetic.

   Cu gânduri tomnatice și îndoieli carteziene, vă urez o săptămână excelentă!

P.S.: Să încheiem cu un gând semi-filosofic, de la Mistral Medium 3: „De unde știi că ești tu și nu un deepfake? Simplu: un deepfake habar n-are să râdă la gluma asta!

Adrian CHIFU este conferențiar universitar în informatică la Universitatea Aix-Marseille și, desigur, absolvent de Carabella târgovișteană…

Distribuie:
Contact / Trimite știrea ta > 0737 449 352 > [email protected]
MedcareTomescu romserv.jpg hymarco

CITEȘTE ȘI

Metex oneminamed Gopo
kiss2025a.jpg dsgmotor.gif
novarealex1.jpg ConsultOptic memco1.jpg
Newsletter Gazeta Dambovitei
Introdu adresa ta de e-mail si vei fi la curent cu cele mai importante stiri din Targoviste si din judetul Dambovita.
E-mailul tau nu va fi facut public

Parteneri media