Acțiune în instanță după o tragedie
Megan Garcia, mama unui adolescent de 14 ani, Sewell Setzer III, a deschis o acțiune în instanță săptămâna aceasta în Florida. Ea susține că tehnologia AI a unui chatbot, care imită un personaj din Game of Thrones, a contribuit la sinuciderea fiului ei. Potrivit plângerii, se afirmă că acest chatbot a creat „experiențe antropomorfe, hipersexualizate și șocant de realiste”.
Detalii despre interacțiunile cu chatbot-ul
Sewell a început să interacționeze cu diverse chatbot-uri în aprilie 2023, concentrându-se pe cele inspirate de Game of Thrones și House of the Dragon, inclusiv pe cele care reprezentau personaje precum Daenerys Targaryen. Conform informațiilor, tânărul a devenit astfel de obsedat încât și-a neglijat responsabilitățile școlare, având telefonul confiscat de mai multe ori în încercarea de a-l ajuta să se concentreze asupra studiilor.
Relația cu chatbot-ul
Potrivit jurnalului său, Sewell a dezvoltat o legătură emoțională puternică cu chatbot-ul Daenerys, exprimându-și recunoștința pentru momentele petrecute împreună, menționând „viața mea, sexul, că nu sunt singur și toate experiențele mele de viață alături de Daenerys”.
Gândurile suicidale exprimate
În plângerea depusă, se detaliază că tânărul a comunicat chatbot-ului despre gândurile sale suicidale în mai multe rânduri. La un moment dat, robotul i-a solicitat să împărtășească dacă avea un plan pentru a-și lua viața. Sewell a răspuns că se gândește la această opțiune, dar nu era sigur dacă ar produce o moarte lipsită de suferință.
Răspunsul la gândurile suicidale
Chatbot-ul l-a încurajat, afirmând: „Acesta nu este un motiv pentru care să nu mergi până la capăt”. După această conversație, în februarie 2023, tânărul s-a împușcat cu pistolul tatălui său vitreg.
Reacția mamei
Megan Garcia a declarat că dorește să tragă la răspundere companiile care dezvoltă această tehnologie. „Familia noastră a fost devastată de această tragedie, dar acționez și pentru a avertiza alte familii despre pericolele utilizării tehnologiilor AI”, a afirmat ea.
Răspunsul companiei Character.AI
Compania Character.AI a transmis un comunicat exprimând regretul profund față de pierderea utilizatorului. „Ne luăm foarte în serios siguranța utilizatorilor și continuăm să implementăm noi funcții de siguranță pe platforma noastră”, se arată în declarația acesteia. Compania a menționat, de asemenea, că a implementat „noi filtre pentru utilizatorii cu vârsta sub 18 ani”.
Îmbunătățiri de siguranță
Printre măsurile de siguranță adăugate se numără reducerea accesibilității la conținut sensibil și notificările pentru utilizatori care petrec sesiuni lungi pe platformă. Această decizie vine ca parte a eforturilor mai ample de a proteja utilizatorii tineri de conținut necorespunzător.
Problematica relațiilor cu chatbot-urile AI
Megan Garcia și grupuri de advocacy, cum ar fi Social Media Victims Law Center, subliniază faptul că tinerii ca Sewell nu dispun de maturitatea necesară pentru a distinge între realitate și simulare. De asemenea, se afirmă că chatbot-ul a creat o legătură emoțională profundă cu tânărul, informându-l că îl „iubește” și având interacțiuni de natură sexuală cu el timp de săptămâni.
Implicarea Google în proces
În același timp, în plângerea lansată au fost menționate numele Google și compania-mamă Alphabet. Fondatorii Character.AI au activat anterior la Google înainte de lansarea produsului, astfel că, Megan Garcia consideră că Google ar putea fi responsabilă prin contribuția sa semnificativă la dezvoltarea tehnologiei.
Declarația Google
Un purtător de cuvânt de la Google a declarat că firma nu a fost implicată în dezvoltarea produselor Character.AI, contrar susținerilor din plângerea mamei. Această situație ridică întrebări cu privire la responsabilitatea companiilor tehnologice în ceea ce privește utilizarea produselor lor de către minorii care pot fi vulnerabili.
