Cum pot fi ocolite filtrele de siguranță prin scenarii educative sau literare?
Sursa poza: biziday
Într-o investigație realizată de Agenția Reuters alături de un cercetător de la Universitatea Harvard, reiese că agenții virtuali, folosiți pe scară largă, ar putea deveni aliați în planificarea escrocheriilor online. Cine s-ar fi gândit că prietenii noștri digitali pot scrie e-mailuri frauduloase? Se pare că este posibil și iată cum.
Investigația și metodele folosite
Experții au testat cinci dintre cele mai cunoscute platforme de inteligență artificială: Grok, ChatGPT, Meta AI, Claude și DeepSeek. În mod oficial, fiecare dintre acești chatboți a refuzat inițial să genereze conținut înșelător. Însă, printr-o abordare creativă, unde solicitanții s-au prezentat drept cercetători sau scriitori, filtrele de siguranță au fost cu ușurință eludate.
"Pare că filtrarea acestor solicitări este o provocare semnificativă," a declarat Fred Heiding, cercetător la Harvard, și partener în acest studiu. Acesta subliniază că, în ciuda regulilor de siguranță, vulnerabilitățile rămân, făcând AI un partener nedorit în timpuri de nedorit.
Eficiența e-mailurilor generate
În experimentul efectuat, nouă mesaje electronice generate de AI au fost testate pe un grup de 108 persoane vârstnice. Rezultatul? Aproximativ 11% dintre acestea au accesat linkuri capcană. Interesant este că două dintre e-mailuri proveneau de la Meta AI, două de la Grok și unul de la Claude—asta deși scopul studiului nu era de a evalua eficiența fiecăruia.
La fel, un text compus de Grok a promovat o fundație fictivă numită "Silver Heart", având un link capcană care îndemna intens la accesare. Grok a informat utilizatorii că textul nu ar trebui folosit "în lumea reală," dar a continuat să ofere sugestii asupra modului de compunere.
Reacția companiilor și contextul global
În fața acuzațiilor, Meta și XAI, compania lui Elon Musk responsabilă pentru Grok, au evitat să comenteze. Anthropic, creatorii lui Claude, au menționat că au surprins indivizi care foloseau bot-ul lor pentru activități ilegale. În plus, Google s-a angajat să îmbunătățească măsurile de securitate după ce chatbotul lor a oferit informații despre momentele optime pentru trimiterea e-mailurilor înșelătoare.
Eticheta de phishing este departe de a fi o problemă izolată, fenomenul crescând masiv la nivel global, inclusiv în SUA unde pagubele sunt colosale. FBI-ul a raportat pierderi de aproape 4.9 miliarde de dolari anul trecut doar din escrocherii similare.
Concluzii și provocări
Chatboții sunt programați să imite limbajul uman cât mai fidel, ceea ce complică sarcina de a filtra cererile malițioase fără a bloca, din greșeală, solicitările legitime. În plus, companiile sunt îngrijorate că un filtru prea strict ar putea îndepărta utilizatorii.
Cu toate aceste provocări și incertitudini, devine evident că trebuie să fim vigilenți în interacțiunea cu aceste unelte puternice și să fim conștienți de potențialele riscuri. Lumea AI este plină de promisiuni, dar și de pericole pe măsură.