De câțiva ani încoace, suntem bombardați cu promisiuni legate de inteligența artificială: că va înlocui programatori, medici, avocați, că „gândește”, că raționează, că poate rezolva probleme mai bine ca noi. Modelele mari de limbaj – acele LLM-uri ca ChatGPT, Claude, Gemini sau cele de la Apple – par să rezolve tot ce le arunci: ecuații, eseuri, cod, traduceri, diagnoze. Dar dacă toate aceste performanțe sunt doar o iluzie?
Echipa de cercetare a Apple, formată din șase specialiști în AI (Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio și Mehrdad Farajtabar), a publicat un studiu dur, dar necesar, cu un titlu care spune tot: „Iluzia gândirii”.
Scopul lor a fost simplu și brutal: să verifice dacă aceste modele „gândesc” cu adevărat sau doar simulează gândirea. Pentru asta, nu au folosit întrebări din bazele de date publice – acolo, modelele pot deja cunoaște răspunsurile din antrenament. În schimb, Apple a construit de la zero un set de puzzle-uri și probleme de logică, cum ar fi Turnurile din Hanoi, traversări de râuri și jocuri de tip „Blocks World” (probleme unde trebuie mutate obiecte respectând reguli stricte). Avantajul acestor puzzle-uri e că le poți crește treptat dificultatea și poți observa cât de mult se chinuie modelul să ajungă la soluție, nu doar dacă o nimeresc.
Ce au descoperit?
Că pe măsură ce o problemă devine mai complexă, modelele încep să cedeze. În mod concret, când puzzle-ul este ușor, modelele de tip GPT (fără lanțuri de raționament) au rezultate bune. Când puzzle-ul este de dificultate medie, modelele mai avansate – care folosesc așa-numitul „chain-of-thought” (raționament pas cu pas) – se descurcă mai bine. Dar când problemele devin cu adevărat grele, toate modelele eșuează lamentabil. Nu pentru că nu mai au „spațiu” să răspundă sau timp de procesare, ci pentru că efectiv nu știu cum să gândească în mod structurat. Unele se opresc la jumătatea gândirii, altele încep bine și se pierd pe parcurs, iar altele pur și simplu oferă răspunsuri absurde sau incomplete.
Una dintre cele mai interesante descoperiri ale Apple a fost că modelele nu își adaptează efortul cognitiv în funcție de dificultatea sarcinii. În loc să încerce mai mult când problema e mai grea, ele „renunță” din mers: folosesc mai puține cuvinte, scurtează explicațiile și greșesc fără măcar să încerce o soluție completă. Iar dacă li se oferă un algoritm complet – de exemplu, pașii exacți pentru rezolvarea Turnului din Hanoi – nu sunt capabile să-l aplice efectiv. Îl copiază ca pe un text, dar nu îl înțeleg. Nu îl transformă în acțiune.
Aceasta este, de fapt, marea revelație a studiului: modelele actuale de inteligență artificială nu au un mecanism intern de logică. Ele nu raționează. Nu planifică. Nu înțeleg reguli sau strategii. Ele doar generează text, secvență cu secvență, pe baza unor tipare statistice învățate din zeci de miliarde de cuvinte. Dacă problema seamănă cu ceva văzut în trecut, există o șansă să nimerească soluția. Dacă nu, încep să bâjbâie sau să cadă în incoerență.
Apple mai arată și un fenomen contraintuitiv: chiar și atunci când un model rezolvă corect o problemă grea, poate greși lamentabil o problemă mai simplă imediat după. Nu există consecvență internă. Nu există o reprezentare abstractă a problemei care să fie stocată și folosită logic. Rezultatul bun este întâmplător, nu sistematic.
Ce înseamnă asta pentru viitorul AI? Că modelele de tip LLM – indiferent cât de mari și performante devin – nu sunt încă inteligență artificială reală. Sunt impresionante, utile, rapide și versatile. Dar nu „gândesc”, așa cum înțelegem noi gândirea. Nu au intenții, nu își dau seama de greșeli, nu planifică în sens rațional. Și, poate cel mai important, nu învață din propriile greșeli așa cum o face un om.
În concluzie, Apple vine cu un avertisment puternic: performanțele aparent spectaculoase ale modelelor de limbaj pot crea o iluzie de inteligență. Oamenii pot fi păcăliți să creadă că AI „raționează”, când de fapt nu face decât să mimeze raționamentul pe baza unor tipare textuale. E o diferență majoră între a părea inteligent și a fi cu adevărat capabil să gândești.
Inteligența artificială e un drum lung, iar modelele actuale sunt doar un început. Ele nu sunt capătul drumului și cu siguranță nu înlocuitorul gândirii umane. Iar înainte să luăm decizii serioase pe baza AI, ar trebui să învățăm să-i vedem limitele, nu doar spectacolele.
ca it-ist am auzit tot felul de zvonuri ca aceste mecanisme vor inlocui oamenii, ca vor face una sau alta. voci mai putin sonore erau mai rezervate.
daca ma intrebi pe mine, aceste tooluri sunt doar niste tooluri, ceva ce va justifica sa cumparam in continuare excel, visual studio etc. este acel element de nou care justifica o nou versiune de aplicatie.
acum un pic mai pe larg.
mi se pare fain sa pot face screenshot la o eroare si sa imi detecteze textul si sa imi dea o (propunere de) solutie.
mi se pare fain sa pot face poza la un tabel si sa ii cer sa face niste calcule.
mi se pare fain sa pot aruca un log inspre chatpgpt si sa cer sa imi spuna daca vede ceva anomalii.
mi se pare fain sa pot cere o refactorizare de zona de cod, doar ca e nevoie de ceva incercari pana face ce am gandit.
e fain sa ii cer sa imi dea numele unei plante pornind de la o descriere sumara.
am observat ca este nevoie sa rafinez cererile, sa ghidez. solutiile nu sunt mereu functionale, iar unele sunt chiar halucinatii.
si lista poate continua.
merita 20 euro/luna pentru mine? discutabil.
este util? da. este ca un excel pe steroizi si ceva in plus.
Deci e foarte bine asa.
Noi nu vrem sa mai gandim, vrem sa ne dea ChatGPT totul mura-n gura. Atat timp cat o face, nu e treaba noastra sa ne intrebam daca EL gandeste cand face.
.
Acum, serios vorbind, chiar mi-a placut "miscarea" celor de la Apple. Lumea are nevoie sa mai fie tinuta si cu picioarele pe pamant, nu doar cu capu-n nori sau cu spaima-n sân.