AI-ul îți dă, dar nu-ți bagă în traistă!
De vreo săptămână stau la greu cu nasul în OpenClaw, noul bot despre care vorbește toată lumea. A schimbat deja vreo trei denumiri până acum, dar asta e mai puțin important. Important este că OpenClaw vine cu o promisiune mare: un asistent AI mult mai proactiv decât ce am văzut până acum, căruia îi poți atașa skill-uri, reguli, comportamente și diverse „roluri”.
Nu pot spune încă dacă este „revoluționar”, pentru că sunt încă în faza de șurubărit. Am testat mai multe variante, mai multe arhitecturi și mai multe modele de AI legate între ele, pentru că OpenClaw îți permite să conectezi aproape orice model vrei. Cert este un lucru: într-o singură săptămână am învățat mai mult despre lucrul real cu AI-ul decât în ultimii doi-trei ani de joacă cu ChatGPT și alte unelte similare.
Și spun „lucru real” pentru că nu vorbim de pus întrebări sau de generat texte amuzante. Vorbim de sisteme care trebuie să funcționeze constant, să consume bani controlat, să țină minte lucruri relevante și să nu o ia razna.
Am stat efectiv la greu. Tot timpul liber, cu excepția muncii de zi cu zi și a lucrurilor pe care le mai fac pe la ONG. A fost o săptămână intensă, dar extrem de clarificatoare.
Ideea centrală, pe care vreau s-o transmit din start, este asta: AI-ul îți dă, dar nu-ți bagă în traistă.
Pentru a configura OpenClaw cum trebuie, am lucrat cu o combinație de modele de top: ultimul Gemini de la Google, ultimul ChatGPT și ultimul Claude - Opus de la Anthropic. Nu vorbim de programare clasică, ci de configurare, arhitectură, reguli de funcționare și fluxuri logice. Cu alte cuvinte: cum gândește botul, ce ține minte, când acționează și cât te costă.
Claude, în special, este extrem de scump. Și tocmai de aceea l-am urmărit atent. Ce am observat, indiferent de model, este că toate aceste AI-uri trebuie ținute de mână.
Și spun asta ca cineva care nu este programator, dar are peste 20 de ani în IT. Înțeleg cum funcționează sistemele, ce e în spate, ce înseamnă o arhitectură. Cu toate astea, AI-urile pot face greșeli serioase dacă nu sunt ghidate corect.
Chiar dacă modelele moderne au început să aibă o „fereastră de atenție” mai mare — adică pot ține minte mai mult context — ele încă bat câmpii destul de des. Mai ales când sunt puse să funcționeze într-un sistem complex, nu doar într-un chat.
Un exemplu interesant este, cum ziceam, Claude. Are o funcție inteligentă prin care, atunci când ajunge la limita de memorie, își face singur o „compactare”: păstrează esențialul și merge mai departe. Nu așteaptă să-i spună cineva asta. Tehnic vorbind, este foarte elegant. Practic, însă, nu este infailibil.
Și aici ajungem la partea care m-a costat concret bani.
OpenClaw funcționează cu mai multe tipuri de memorie: una despre el, una despre utilizator, una despre ce se întâmplă în timp. Toate acestea + activitatea sa comunică prin API-uri — adică niște „conducte” prin care informația curge - între bot și modelul AI din spate: Claude, DeepSeek, GPT, etc, la ce il legi.
Fiecare bucată de informație care trece prin aceste conducte costă bani. Se numesc „tokeni”, adica modul in care un AI sintetizeaza informatia. Cu cat mai complexa, cu atat mai multi. Se plătește pentru ce intră și pentru ce iese, la milionul de tokeni.
După niște teste care au mers perfect, ieri m-am trezit că am lăsat sistemul nesupravegheat vreo trei ore. Rezultatul? Claude mi-a mâncat toți cei 50 de dolari din balanță. Nu pentru ceva spectaculos, ci pentru că arhitectura memoriei făcea ca aceleași informații să fie reintroduse iar și iar, la fiecare pas de „gândire”. Si ca pusesem un “skill” nou si din vina mea, nu am cerut precizari cum merge.
Pe românește: muta munți de date doar ca să facă lucruri banale. Și fiecare mutare costa bani.
Când i-am explicat problema lui Claude, răspunsul a fost aproape ironic: a spus că arhitectura era proastă și că el n-ar fi făcut-o așa. Doar că el o făcuse. Cu acordul meu, evident. Deci da, este și vina mea. Pentru că dacă nu înțelegi suficient de bine ce faci, AI-ul nu te salvează.
Nu mă plâng de cei 50 de dolari. Problema este alta: dacă nu știi ce faci cu AI-ul, o ia razna. Și o ia razna scump.
În cazul meu, a fost un scenariu fericit. Folosesc limite de cost și balanțe controlate. Dar dacă aveam o firmă, clienți și acces nelimitat la API-uri, paguba putea fi mult mai mare.
Asta este lecția principală: AI-ul nu este magic. Nu este „plug and play”, indiferent ce spune marketingul. Trebuie să ai o idee clară despre ce vrei de la el, cum funcționează și ce costuri implică.
Și mai e ceva important: este o diferență uriașă între cineva care vine din IT și cineva care nu are nicio legătură cu domeniul. Se tot spune că „oricine poate să codeze acum” sau „oricine poate să-și facă un bot”. Nu e adevărat. Deloc.
Da, poți să faci ceva rapid. Dar va merge prost, va costa mult și nu va fi ce trebuie. Eu am stat și am bibilit sistemul ăsta mult. Dacă îl făceam într-o zi, ar fi fost jalnic.
Concluzia mea este simplă: AI-ul nu va lua prea curând toate joburile mai serioase din IT. Dar suntem clar într-un punct de schimbare accelerată. Iar până atunci, mesajul final este acesta:
Verificați tot ce vă spune AI-ul. Verificați ce face. Verificați cât costă.
Dacă puteți folosi mai multe modele pentru validare, faceți-o. Deocamdată, trebuie să stăm cu ochii pe ele. Lăsate de capul lor, o iau prin leuștean. Grav.



tare mi-ar plăcea să știu lucrurile astea spre folosul meu (la clinică mă refer). Probabil că în timp o să fie ceva mai intuitiv pentru ageamii ca mine. Până atunci, tot cu ChatGPT mă chinui.
AI-ul e un fel de Nicusor Dan, dar nu atat de prost in mod constant. Iar utilizatorul este "doamna Delia", trebuie sa il tina in permanenta pe Nicusor (botul) de manuta, altfel o ia razna usor.