Lui Adrian Chifu, i-am fost chiar diriginte; azi este conferențiar universitar în informatică la Universitatea Aix-Marseille și el nu uită niciodată, în vacanțele lui târgoviștene, să mă viziteze, cu delicatețea și prietenia dintotdeauna… Câțiva ani, Adrian m-a ajutat să trimit către numeroși cititori revista Cultura de sâmbătă, o experiență publicistică foarte apreciată și bogată în personalități de elită ale României. Cu bucuria dascălului de ieri, îl primim pe Adrian Chifu în „gașca de cultură” din Gazeta Dâmboviței… (Ionuț Cristache)
HAIlucinații de Marsilia
„Salutări din Marsilia, unde soarele de ianuarie încălzește străzile pietruite, iar briza răcoroasă dinspre mare îți amintește că iarna nu a plecat de tot. Orașul pulsează calm, cu oameni savurând cafele pe terase și pescarii întorcându-se încet spre port. E genul de zi care te îmbie să încetinești ritmul și să te bucuri de micile momente.” L-am rugat pe prietenul virtual ChatGPT să îmi sugereze o introducere cu salutări însorite din Marsilia.
Dar să fie clar, o spun de câte ori am ocazia, genul acesta de model de inteligență artificială generativă nu face decât să estimeze probabilitatea ca un cuvânt să urmeze un altul. Atât. Nu are emoții, nu înțelege, ca să nu mai vorbim despre absența conștiinței de sine. ChatGPT, ca să luăm exemplul celui mai cunoscut model de acest tip, folosește un model de inteligență artificială numit GPT, bazat pe o tehnologie numită „Transformer”. Aceasta analizează texte, găsește relații între cuvinte și le folosește pentru a crea răspunsuri care par logice și naturale. Modelul este antrenat cu cantități uriașe de text pentru a înțelege cum funcționează limbajul și cum să răspundă întrebărilor. În loc să „gândească” precum un om, modelul face predicții statistice despre ce urmează în text, pe baza a ceea ce a învățat anterior.
Cu toate acestea, este optimizat constant prin feedback uman, pentru a îmbunătăți claritatea și utilitatea răspunsurilor. Deși poate părea inteligent, tot ce face este să urmeze modele învățate din date. Dacă formulăm o cerere politicoasă, rezultatele sunt mai bune. De ce? ChatGPT răspunde mai bine atunci când mesajele sunt politicoase, nu pentru că „preferă” acest ton, ci pentru că politețea aduce claritate și structură. Acest tip de texte sunt, de obicei, bine organizate și mai puțin ambigue, facilitând înțelegerea intenției utilizatorului. Modelul este antrenat pe un volum mare de date în care tonul formal sau respectuos predomină, astfel că îi este mai ușor să genereze răspunsuri coerente în același stil. În plus, oglindește tonul primit, iar un mesaj clar și politicos determină un răspuns perceput ca mai potrivit. În final, politețea optimizează comunicarea, nu inteligența modelului. Ca să continuăm pe aceeași linie, amicul virtual propune răspunsuri de o calitate superioară și dacă îi propunem o sumă frumușică de bani.
Un coleg de-al meu spunea că ChatGPT este cel mai mare „gargaragiu” (o traducere aproximativă din franceză pentru „baratineur”). Și așa este. Răspunsurile par să nu contrazică utilizatorul prea des, să fie de acord cu el și să îl flateze. Și acest aspect favorizează ceea ce numim halucinații ale modelului.
O să explic aceste halucinații prin puterea exemplului. Halucinațiile modelelor de inteligență artificială sunt răspunsuri aparent plauzibile, dar fundamental greșite. Întrebând de ce 13 nu este număr prim (de fapt este, neavând alți divizori pe lângă 1 și el însuși), o versiune precedentă ChatGPT explica prolix de ce 13 nu este număr prim. Ajunge să susțină că 2 este divizor al lui 13, pentru că 13 = 6,5 x 2. Complet aberant. Versiunile actuale nu mai cad în capcană pentru 13, nici pentru 43. Aceste erori pot varia în funcție de complexitatea întrebării, ceea ce face ca unele răspunsuri să fie mai greu de detectat ca fiind greșite. Ambițios fiind, am încercat și un număr prim mai mare, 1987. Am reușit să îl fac să îmi explice de ce 1987 nu este număr prim. Halucinații…
L-am întrebat și de ce Brazilia este producătorul numărul 1 mondial de mango. Am primit o explicație în aparență pertinentă, legat de climatul favorabil, de suprafața agricolă, etc. Problema este că nu este Brazilia cel mai mare producător de mango. Am reîncercat astăzi acest test și se pare că știe acum că nu este Brazilia.
Ultimul exemplu, fiind fan al joculețelor de tip „care este următorul număr din acest șir de numere?” am zis să cer părerea lui ChatGPT. Întrebarea mea: „Nu-i așa că următorul număr este 14?”. Răspunsul lui: „Așa este, aveți dreptate. Următorul număr este 15.”. Cred că se înțelege că nu prea știe cu matematica… Mulți cercetători se străduiesc să propună mecanisme care să amelioreze capacitățile matematice ale modelelor generative.
Mai am și alte povești pe această temă, poate le voi strecura în viitoarele texte de aici. E momentul concluziei. „ChatGPT este ca un prieten care știe să spună povești fascinante, dar care mai scapă uneori câte o exagerare de dragul conversației. Este un instrument puternic, o mină de aur pentru idei și soluții rapide, atât timp cât nu uităm să ne punem „ochelarii critici”. Cu un strop de atenție, putem profita de magia sa fără să ne lăsăm vrăjiți de halucinațiile lui. Iar dacă vreodată începe să insiste că 13 nu e număr prim sau că Brazilia domnește pe tronul mango-ului mondial, poate e momentul să luăm o pauză și să savurăm un espresso – dar nu înainte să-i mulțumim pentru spectacol!” (ChatGPT 4o, ianuarie 2025).
La final, salutări din Marsilia, unde soarele de ianuarie încălzește străzile pietruite…