Studiu USC: AI-ul și Oamenii Vorbesc Diferit Despre Incertitudine

Într-o eră în care inteligența artificială (AI) devine un partener tot mai frecvent în procesul decizional, un studiu recent realizat de cercetători de la Școala de Inginerie USC Viterbi scoate la iveală o discrepanță fundamentală: modul în care sistemele AI și oamenii interpretează incertitudinea în limbaj. Această diferență subtilă, dar crucială, poate influența decizii cu implicații semnificative în domenii precum sănătatea, finanțele sau chiar securitatea. Descoperirile, publicate pe 22 aprilie 2026, subliniază necesitatea unei abordări mai atente și mai conștiente în integrarea AI-ului în interacțiunile umane, mai ales când este vorba de informații delicate și cu potențial de risc.

Diferențele de Percepție: De la „Probabil” la „Improbabil”

Cercetarea de la USC Viterbi a analizat modul în care oamenii și diverse modele de limbaj AI, inclusiv GPT-3.5 și GPT-4, interpretează o serie de expresii probabilistice. Rezultatele au arătat că, în majoritatea cazurilor (13 din 17 expresii analizate), a existat o diferență statistic semnificativă între înțelesul atribuit de AI și cel perceput de oameni. De exemplu, termeni precum „probabil” sau „foarte probabil” au fost adesea interpretați de AI ca semnale de o certitudine mult mai mare decât intenționau utilizatorii umani. Acolo unde un om ar asocia „probabil” cu o șansă de aproximativ două treimi, GPT-4 tindea să se apropie de patru cincimi.

Această tendință a modelelor AI de a exprima o încredere mai mare atunci când utilizează un limbaj imprecis este îngrijorătoare. De asemenea, studiul a relevat că sistemele AI tind să aplatizeze nuanțele, reducând distincțiile subtile pe care oamenii le fac în mod natural. Deși la extreme – cum ar fi „aproape sigur” sau „aproape nicio șansă” – interpretările s-au aliniat mai bine, în zona de mijloc, unde incertitudinea este mai mare, comunicarea a eșuat. Surprinzător, modelele AI mai vechi, precum GPT-3.5, au demonstrat, în unele cazuri, o aliniere mai bună cu interpretările umane decât versiunile mai avansate, cum ar fi GPT-4.

Implicații Practice și Necesitatea Adaptării

Această deconectare în înțelegerea limbajului incertitudinii are implicații directe și adesea nevăzute în viața de zi cu zi și în mediul de afaceri. Scenariul unei consultații medicale, unde un medic folosește AI pentru a redacta un mesaj despre efectele secundare „improbabile” ale unui vaccin, ilustrează perfect riscurile. Intenția medicului de a liniști pacientul, traducând „improbabil” ca o șansă de 1-2%, poate fi reinterpretată de AI într-un mod care sugerează un „risc semnificativ”, determinând pacientul să ezite.

Pentru companiile din România și la nivel global, care se bazează din ce în ce mai mult pe AI pentru comunicarea internă și externă, marketing, sau asistență clienți, înțelegerea acestor diferențe este esențială. O interpretare eronată a instrucțiunilor sau a feedback-ului bazat pe limbaj probabilist poate duce la decizii suboptimale, pierderi financiare sau chiar la deteriorarea reputației. Soluția nu constă în abandonarea AI-ului, ci într-o utilizare mai conștientă și în dezvoltarea unor mecanisme care să atenueze aceste decalaje de comunicare.

Cercetătorii sugerează că problema nu este o defecțiune tehnică simplă, ci o deficiență de comunicare inerentă modului în care AI-ul procesează limbajul. Modelele AI, antrenate pe volume masive de text, învață tipare statistice, dar nu împărtășesc intuiția umană. Ele transformă cuvintele în numere, iar aceste numere nu se traduc întotdeauna curat în nuanțele limbajului uman.

Viitorul Comunicării Om-AI: Spre o Mai Bună Înțelegere

Descoperirile studiului de la USC Viterbi reprezintă un pas important în înțelegerea limitărilor actuale ale inteligenței artificiale și în direcționarea cercetărilor viitoare. Pe măsură ce AI-ul devine omniprezent, este vital să dezvoltăm sisteme care nu doar generează limbaj fluent, ci și îl înțeleg cu aceeași profunzime și nuanță ca și oamenii. Aceasta ar putea include dezvoltarea unor modele AI mai bine calibrate pentru interpretarea incertitudinii sau implementarea unor straturi suplimentare de verificare umană în procesele decizionale critice mediate de AI. Investiția în cercetarea fundamentală a interacțiunii om-AI și în calibrarea semantică a modelelor va fi crucială pentru a asigura că „limbajul” viitorului este unul al înțelegerii reciproce, și nu al confuziei. Pentru mediul de afaceri românesc, adaptarea la aceste realități și formarea angajaților pentru a interacționa eficient cu sistemele AI vor fi cheia pentru a valorifica pe deplin potențialul inteligenței artificiale.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *