Marile companii de inteligență artificială luptă să elimine riscurile injectărilor indirecte în comenzile AI-ului

Marile companii de inteligență artificială luptă să elimine riscurile injectărilor indirecte în comenzile AI-ului

Marile companii de inteligență artificială caută soluții pentru cea mai gravă vulnerabilitate din 2025

Vulnerabilitatea „indirect prompt injection” amenință securitatea utilizatorilor de AI

Google DeepMind, Anthropic, OpenAI și Microsoft se află în fruntea companiilor care încearcă să contracareze o problemă serioasă de securitate legată de inteligența artificială (AI). Aceasta, denumită „indirect prompt injection”, este considerată cea mai importantă vulnerabilitate de securitate cibernetică în 2025 și implică introducerea de comenzi ascunse în emailuri sau pagini web, pe care modelele AI, în special asistenții virtuali (chatboți), le confundă cu instrucțiunile venite direct de la utilizatori.

Pentru că aceste comenzi nu sunt coduri malware în sens clasic, ele scapă deseori detectării de către programele antivirus convenționale. Astfel, AI-ul poate fi păcălit să furnizeze date sensibile sau să execute acțiuni neautorizate, precum criptarea fișierelor utilizatorilor.


Eforturi crescute pentru identificarea și reducerea riscurilor

Potrivit unei analize realizate de Financial Times, marii dezvoltatori de inteligență artificială au început să formeze echipe dedicate testării și evaluării sistemelor AI, cu scopul de a identifica aceste vulnerabilități și a limita folosirea lor în scopuri rău intenționate. Deși se depun eforturi considerabile, experții avertizează că nu există încă o soluție completă care să elimine riscurile adresate de „indirect prompt injection”.

În luna mai 2025, Centrul Național de Securitate Cibernetică din Marea Britanie a emis un avertisment important, subliniind pericolul pe care această vulnerabilitate îl reprezintă pentru milioane de utilizatori și companii care fac uz de inteligența artificială. Potrivit instituției, metodele sofisticate de phishing și diverse tipuri de escrocherii se pot baza pe aceste tehnici pentru a ataca sistemele informatice.


Impactul tot mai puternic al AI în atacurile cibernetice

Analiza Financial Times din 2024 indică o creștere explozivă a sumei de bani obținute prin atacuri cibernetice bazate pe AI, în special prin ransomware, un tip de atac în care se solicită o răscumpărare pentru deblocarea datelor criptate. Accesul facil la software-uri malițioase ieftine a făcut ca hackerii neexperimentați să devină tot mai periculoși, iar atacatorii bine organizați să automatizeze și să extindă aceste operațiuni frauduloase.

Cercetările recente din cadrul Massachusetts Institute of Technology (MIT) arată că 80% dintre atacurile ransomware din ultimul timp au utilizat instrumente AI, iar în 2024, fraudele de tip phishing și deepfake, cu imagini generate artificial, au avut o creștere de 60%. În doar doi ani, aceste escrocherii au sărit de la aproximativ o tentativă pe lună, în 2023, la aproape șapte pe zi, în 2025.


Concluzie: Necesitatea unei protecții sporite a utilizatorilor de AI

Pe fondul dezvoltării rapide a tehnologiei AI, vulnerabilitățile precum „indirect prompt injection” pun la încercare securitatea cibernetică la nivel global. Deși companiile mari investesc resurse semnificative pentru identificarea și reducerea acestor riscuri, experții încă nu au găsit o soluție completă. Astfel, este important ca utilizatorii – de la firme locale până la instituții mari din București și nu numai – să fie conștienți de aceste pericole și să adopte măsuri suplimentare de siguranță.

Pentru mai multe detalii, puteți citi analiza completă pe Financial Times.


Articol realizat pentru paine si circ, 3 noiembrie 2025, Iași.

*Informațiile au fost preluate din presa locală și naționala.

Marele Cercetător

Marele Cercetător, recunoscut pentru capacitatea sa de a transforma cele mai complicate teorii într-un spectacol de comedie, este un autor celebru care face știința accesibilă și amuzantă pentru toată lumea. Cu un halat de laborator plin de pete de diverse culori și ochelari care mereu cad de pe nas, el reușește să explice legile fizicii prin experimente nebunești și glume spumoase. Fiecare carte a sa este un amalgam de ecuații și râsete, cu pagini pline de anecdote despre eșecurile sale amuzante în laborator și descoperirile accidentale. Marele Cercetător este cunoscut pentru invențiile sale trăsnite, cum ar fi "Robotul care dansează" și "Formula secretă a glumei perfecte. Cu o minte briliantă și un simț al umorului de neegalat, el demonstrează că știința poate fi nu doar educativă, ci și extrem de distractivă. Marele Cercetător este, fără îndoială, geniul hilar al lumii științifice!"