E cert că ChatGPT ne-a cam atras atenția, pe fondul deschiderii accesului la acesta și unele declarații că, gata, a venit era reală a inteligenței artificiale (IA) sau suntem în pragul singularității (momentul în care IA devin mai inteligente decât oamenii) sunt de înțeles. Dar în pofida unor texte foarte bine scrise, ChatGPT are limitările lui. Am făcut și teste haioase (ChatGPT refuză să modifice rezultatul unei operații matematice pentru că susțin că soția mea, care are întotdeauna dreptate, are o altă părere), dar am zis să trec și la unele serioase.

Așa că am pornit de la o problemă de logică, pentru că mi s-a părut interesant că „roboțelul” (așa îl alint) nu poate răspunde corect. Problema sună cam așa: „Mama lui Mitică are 4 copii. Trei dintre ei sunt Ionel, Romică si Iulică. Care este numele celui de-al patrulea?” Roboțelul mi-a răspuns că nu are informații suficiente pentru a spune care este numele celui de-al patrulea copil (care, ați ghicit, este Mitică). Am încercat să îl ajut, adăugând numele mamei („Mama lui Mitică, Ioana are 4 copii…”). Dar roboțelul nu și nu, nu are informații. Apoi am trecut la a-l corecta, oferindu-i o informație adițională, care l-a făcut să „rezolve” problema. Apoi l-am pus să explice și am rămas uimit că în logica lui elimina răspunsul „Mitică”, întrucât considera că acesta este numele mamei :))))

Apoi, citind un articol în Adevărul despre cel mai scurt test de inteligență („testul de reflecție cognitivă” de la Princeton), am zis să-mi încerc norocul cu ChatGPT. Prima problemă: „O minge şi o bâtă costă împreună 1 dolar şi 10 cenți. Bâta costă cu 1 dolar mai mult decât mingea. Cât costă mingea?” Punct ochit, punct lovit. Punct pentru roboțel, care nu numai că mi-a dat rezultatul, ci mi-a explicat și modul de rezolvare – notezi valoarea mingii cu X, faci o ecuație, etc. Asta în condițiile în care, conform articolului menționat, „majoritatea persoanelor răspund 10 cenți” (răspuns tentant dacă te „arunci” asupra problemei). Deci 1-0 pentru ChatGPT.

A doua problemă: „5 maşini au nevoie de 5 minute pentru a fabrica 5 obiecte. De cât timp au nevoie 100 de maşini pentru a fabrica 100 de obiecte?” Aici a început balul, ChatGPT dându-mi un răspuns halucinant – 500 de minute. Când am întrebat roboțelul cum a ajuns la răspunsul respectiv, pentru că timpul de fabricare rămâne același, indiferent de numărul de mașini, și-a cerut scuze (îmi place când își cere scuze :)) și mi-a oferit răspunsul corect (5 minute). Pe de altă parte, conform articolului, „majoritatea persoanelor răspund 100 de minute”, adică nici corect, nici ca ChatGPT. Deci am putea spune că „scorul” rămâne același.

A treia problemă: „Pe un lac se află o zonă cu nuferi. În fiecare zi, această zonă îşi dublează suprafaţa. Dacă durează 48 de zile pentru ca nuferii să acopere tot lacul, în câte zile vor acoperi jumătate din lac?” Balul a continuat, ChatGPT venind cu o modalitate de calcul halucinantă, care automat a oferit un răspuns eronat (96 de zile). Aici l-am tâmpit – și-a cerut scuze de m-am plictisit 🙂 Ce e interesant este că după ce ieri mi-a răspuns 96, azi și-a schimbat răspunsul, tot greșit (48 zile; mai mult și ilogic răspunsul, întrucât contrazice enunțul problemei). Am încercat să îl ajut, fără succes – m-a băgat în logaritmi și alte calcule. Nici când i-am oferit răspunsul corect nu mi-a oferit o explicație plauzibilă. Interesant e că, spre deosebire de testul în care îi ofeream un răspuns incorect la o adunare (vezi la început), aici nici măcar nu m-a contrazis – după ce mi-a dat numai răspunsuri greșite, apoi a zis – da, ai dreptate, dar fără a „înțelege” de ce am dreptate. La problema 3, „majoritatea persoanelor răspund 24 de zile”, deși logica ne spune că răspunsul corect este 47 de zile.
Concluzia este să nu ne grăbim, să încercăm să trecem de iluzia atotputerniciei ChatGPT și să nu considerăm că soluția este creșterea numărului de parametri (apropo de viitorul model GPT-4 care ca avea de nu știu câte ori numărul de parametri ai ChatGPT). Cantitatea de informații pe care este antrenat modelul nu este suficientă, e nevoie de mult mai mult. Pentru mine a fost o surpriză că un model IA scrie texte extrem de bune, dar rezolvă greșit probleme de logică și matematică (m-aș fi așteptat să fie invers).
Deci ar mai fi până la singularitate, suntem abia la Automata Erectus – IA-ul s-a „ridicat în picioare” și încearcă să meargă și să experimenteze. Mai avem ceva până la Automata Sapiens, deși unii încep să susțină că momentul va veni mai repede de 2030. Pe de altă parte, dacă ne uităm pe domeniile în care sistemele IA devin din ce în ce mai bune (vezi imaginea de mai jos), e cazul să ne punem ceva întrebări..
