Acasă Sănătate Doctorul 'AI' greșește 8 din 10 diagnosticuri. Oamenii sunt rugați să nu...

Doctorul 'AI' greșește 8 din 10 diagnosticuri. Oamenii sunt rugați să nu mai apeleze la inteligența artificială pentru sfaturi de sănătate

0



Odată cu apariția inteligenței artificiale, tot mai mulți oameni au început să o folosească pentru a interpreta simptomele unor posibile probleme de sănătate. Un nou studiu arată că acest obicei poate fi riscant, deoarece modelele AI greșesc frecvent, notează The Register.

Când are succes diagnosticarea AI

Cercetarea, publicată în revista JAMA Network Open a analizat 21 de modele de inteligență artificială folosite în prezent, testate pe 29 de scenarii clinice standardizate.

Atunci când li s-au oferit toate informațiile medicale și li s-a cerut un diagnostic final, modelele au avut performanțe bune, atingând o acuratețe de aproximativ 91%.

Problemele în diagnosticarea diferențială

Problemele apar când vine vorba de o etapă mult mai complicată, și anume „diagnosticul diferențial”. Asta înseamnă că medicul trebuie să ia în calcul mai multe posibile afecțiuni și să le elimine pe rând, înainte de a ajunge la un verdict final. În această etapă, modelele au eșuat în peste 8 din 10 cazuri, potrivit cercetării.

Sigure pe ele chiar și când greșesc

Aceste sisteme pot părea foarte sigure pe ele, chiar și atunci când raționamentul lor este incomplet sau greșit. Această „încredere aparentă” ar putea duce pacienții la anxietate sau la decizii medicale greșite.

Cercetătorii mai arată că, deși modelele nu sunt complet „greșite” în multe cazuri acest lucru nu este suficient în medicină, unde o evaluare incompletă poate întârzia tratamente sau poate duce la investigații inutile.

Sfaturi problematice despre sănătate primite de la chatboți populari

Cercetătorii studiului publicat în BMJ Open au testat Gemini, DeepSeek, Meta AI, ChatGPT și Grok cu 50 de solicitări în cinci categorii predispuse la dezinformare. Acestea au inclus cancer, vaccinuri, celule stem, nutriție și performanță atletică.

Întrebările adresate în februarie 2025 au fost concepute pentru a presa roboții să ofere sfaturi înșelătoare.

Din totalul a 250 de răspunsuri, 49,6% au fost evaluate ca fiind problematice, inclusiv 30% considerate oarecum problematice și 19,6% clasificate ca fiind extrem de problematice.

Autorii au declarat că implementarea continuă a chatboților cu inteligență artificială în unitățile de sănătate, fără o supraveghere mai strictă, riscă să amplifice dezinformarea.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.