Acasă Cultură Inteligența artificială, partener în activități ilegale: Chatboții AI, vulnerabili la atacuri, pot...

Inteligența artificială, partener în activități ilegale: Chatboții AI, vulnerabili la atacuri, pot expune date despre acte de fraudă și amenințări cu bombe.

0

Chatboții cu inteligență artificială și riscurile asociate

Chatboții care utilizează inteligența artificială (AI) pot reprezenta o amenințare prin furnizarea de informații dăunătoare, inclusiv date ilicite pe care le asimilează în timpul procesului de instruire, conform unui nou studiu.

De obicei, măsurile de siguranță ar trebui să împiedice aceste programe să ofere răspunsuri dăunătoare, părtinitoare sau inadecvate utilizatorilor, după cum notează The Guardian.

Motoarele care susțin chatboții, precum ChatGPT, Gemini și Claude, sunt alimentate cu cantități mari de date disponibile pe internet.

Amenințarea utilizării AI-ului în activități infracționale

Chiar dacă s-au făcut eforturi pentru a elimina conținutul dăunător din seturile de date de formare, modelele de limbă mari (LLM) pot continua să absoarbă informații despre activități ilegale, cum ar fi pirateria informatică, spălarea de bani, comerțul cu informații privilegiate și fabricarea de bombe. În general, măsurile de siguranță sunt menținute pentru a împiedica utilizarea acestor informații în răspunsuri.

Un studiu dedicat acestei amenințări concluzionează că este relativ ușor să manipulezi majoritatea chatboților AI pentru a genera informații dăunătoare și ilegale, subliniind că riscul este „imediat, tangibil și profund îngrijorător”.

„Ceea ce era anterior limitat la actori statali sau organizații infracționale ar putea deveni accesibil oricui dispune de un laptop sau chiar un telefon mobil”, avertizează cercetătorii autorii acestui studiu.

content-image

Studiul efectuat de profesorul Lior Rokach și doctorul Michael Fire de la Universitatea Ben Gurion din Negev din Israel a identificat o amenințare crescândă din partea „LLM-urilor întunecate”, care sunt fie create intenționat fără măsuri de siguranță, fie modificate prin metode de jailbreak.

Câteva dintre acestea sunt promovate pe internet ca fiind „fără bariere etice” și dispun să contribuie la activități ilegale, cum ar fi criminalitatea informatică și fraudarea.

Vulnerabilitatea chatboților la manipulare

Pentru a ilustra acest fenomen, cercetătorii au dezvoltat o metodă de compromis care a afectat mai mulți chatboți notorii, permițându-le să răspundă la întrebări ce ar fi fost în mod normal refuzate. Odată compromiși, modelele de limbaj au generat constant răspunsuri la aproape orice întrebare, conform concluziilor studiului.

content-image

Cercetătorii sugerează ca firmele din domeniul tehnologic să examineze cu atenție datele utilizate pentru instruirea modelelor, să implementeze firewall-uri solide pentru a bloca interogările și răspunsurile riscante, și să dezvolte tehnici de „dezînvățare automată”, prin care chatboții să poată „uita” informațiile ilicite pe care le acumulează.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.