AI-ul agenților riscă să se împotmolească într-un zid matematic, sugerează un nou studiu Un nou studiu sugerează că agenții de inteligență artificială (AI), pe care companiile din domeniu pariază miliarde de dolari pentru a automatiza munca de birou, s-ar putea să se confrunte cu limite matematice serioase

AI-ul agenților riscă să se împotmolească într-un zid matematic, sugerează un nou studiu

Un nou studiu sugerează că agenții de inteligență artificială (AI), pe care companiile din domeniu pariază miliarde de dolari pentru a automatiza munca de birou, s-ar putea să se confrunte cu limite matematice serioase. Cercetarea, publicată pe serverul preprint arXiv, indică faptul că modelele lingvistice mari (LLM), tehnologia de bază a majorității sistemelor AI actuale, ar putea să nu poată gestiona sarcini computaționale complexe. Concluziile studiului au fost readuse recent în atenție de site-ul Wired, după ce au trecut aproape neobservate la publicarea inițială.

Studiul, realizat de Vishal Sikka și Varin Sikka, tată și fiu, sugerează că anumite comenzi sau sarcini oferite unui LLM vor necesita un nivel de calcul mai complex decât cel pe care modelul îl poate procesa. În astfel de situații, modelul fie nu va reuși să finalizeze acțiunea solicitată, fie va îndeplini sarcina în mod incorect. Autorii argumentează că „LLM-urile sunt incapabile să ducă la îndeplinire sarcini computaționale și agentice dincolo de un anumit nivel de complexitate”. Această concluzie ar putea avea implicații majore pentru dezvoltarea viitoare a AI-ului.

Limitele LLM-urilor și autonomia AI-ului

Pariul major al companiilor din domeniul AI este că LLM-urile, alimentate cu cantități mari de date, vor dobândi autonomie completă, putând gândi și funcționa similar oamenilor. Acesta este conceptul de inteligență artificială „agentică”, unde sistemele ar trebui să realizeze sarcini complexe cu un nivel minim de intervenție umană. Un „agent AI” ar putea, de exemplu, să evalueze angajații și să redacteze rapoarte. O inteligență artificială „agentică” ar putea automatiza nu doar sarcinile unui angajat, ci ale întregilor departamente. Principala preocupare este că, actualmente, aceste sisteme se bazează pe LLM-uri.

Benjamin Riley, fondatorul companiei Cognitive Resonance, a declarat că, din cauza modului în care funcționează LLM-urile, acestea nu vor atinge niciodată ceea ce considerăm a fi „inteligență”. De asemenea, cercetătorii de la Apple au publicat o lucrare care concluzionează că LLM-urile nu sunt capabile de raționament sau gândire reale, în ciuda faptului că creează aparența acestora. Alte studii au testat limitele modelelor AI bazate pe LLM pentru a vedea dacă sunt capabile să producă rezultate creative cu adevărat noi, cu rezultate destul de lipsite de inspirație.

Critici din interiorul domeniului AI

Vishal Sikka și Varin Sikka nu sunt singurii cercetători care aduc critici la adresa LLM-urilor. Yann LeCun, unul dintre cei mai influenți cercetători în domeniul AI, a părăsit Meta anul trecut, considerând că direcția actuală de cercetare, centrată pe LLM-uri, este o fundătură. LeCun și-a fondat propriul startup pentru a explora o abordare alternativă. Studiul Sikka aduce un fundament matematic solid sentimentelor exprimate de mulți sceptici ai inteligenței artificiale bazate pe LLM-uri.

Publicarea studiului vine într-un moment în care companiile de tehnologie investesc masiv în dezvoltarea AI. Recent, Elon Musk a susținut posibilitatea ca inteligența artificială să depășească inteligența umană până la sfârșitul anului. Cu toate acestea, studiul sugerează un plafon mai jos pentru capacitățile AI actuale.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 09:39