Studiu: ChatGPT și Gemini pot da diagnostice greșite în peste 40% din cazuri – riscurile utilizării AI în medicină

0

Chatboții de inteligență artificială, precum ChatGPT și Gemini, pot oferi diagnostice medicale greșite în cel puțin 40% dintre cazuri, chiar și atunci când primesc informații complete despre pacienți. Riscurile cresc semnificativ atunci când datele sunt incomplete, rata erorilor depășind 80%, potrivit unui studiu recent.

Cercetarea a fost realizată de Mass General Brigham și publicată în JAMA Network Open. În cadrul studiului, specialiștii au analizat performanța a 21 de modele lingvistice dezvoltate de companii precum OpenAI, Google, Anthropic, xAI și DeepSeek.

Modelele AI au fost testate în scenarii medicale reale, primind treptat informații despre pacienți, inclusiv simptome, observații clinice și rezultate ale analizelor de laborator. Rezultatele au arătat că, în lipsa unor date complete, toate sistemele evaluate au oferit diagnostice greșite în peste 80% dintre cazuri.

Chiar și atunci când au avut acces la toate informațiile necesare, performanța chatboților nu a fost semnificativ mai bună, rata erorilor rămânând la peste 40%.

Specialiștii atrag atenția că utilizarea inteligenței artificiale în medicină depinde puternic de volumul și calitatea datelor introduse. Cu toate acestea, chiar și în condiții ideale, aceste sisteme pot induce utilizatorii în eroare.

Explicația constă în fenomenul cunoscut drept „halucinații AI”, prin care modelele lingvistice generează informații incorecte sau inventate atunci când nu au suficiente date sau nu pot identifica o soluție clară.

Concluzia cercetătorilor este că, deși inteligența artificială poate fi un instrument util în domeniul medical, aceasta nu trebuie utilizată ca sursă principală pentru stabilirea unui diagnostic, fără validarea unui specialist.

Vezi și:

Salina Turda, finalistă la Destinația Anului 2026 – Cum poți vota la categoria „Comori naturale”


banner