Cercetătorii armează modelele de învățare automată cu Ransomware

Autor: Bogdan Frațilă
Actualizat: 17 dec 2022, 10:46

Ca și cum apărătorii lanțurilor de aprovizionare cu software nu ar avea destui vectori de atac de care să se îngrijoreze, acum au unul nou: modelele de învățare automată!

Sursa: PixaBay

Apărătorii lanțurilor de aprovizionare cu software nu ar avea destui vectori de atac de care să se îngrijoreze, acum au unul nou: modelele de învățare automată!

Ca și cum apărătorii lanțurilor de aprovizionare cu software nu ar avea destui vectori de atac de care să se îngrijoreze, acum au unul nou: modelele de învățare automată. Modelele ML se află în centrul unor tehnologii precum recunoașterea facială și chatbots. La fel ca depozitele de software open-source, modelele sunt adesea descărcate și partajate de dezvoltatori și cercetători de date, astfel încât un model compromis ar putea avea un impact zdrobitor asupra mai multor organizații simultan.

Cercetătorii de la HiddenLayer, o companie de securitate a limbajului automat, au dezvăluit marți, pe un blog, modul în care un atacator ar putea utiliza un model ML popular pentru a implementa ransomware.

Metoda descrisă de cercetători este similară cu modul în care hackerii folosesc steganografia pentru a ascunde sarcini utile malițioase în imagini. În cazul modelului ML, codul malițios este ascuns în datele modelului.

Potrivit cercetătorilor, procesul de steganografie este destul de generic și poate fi aplicat la majoritatea bibliotecilor ML. Aceștia au adăugat că procesul nu trebuie să se limiteze la încorporarea de coduri malițioase în model și ar putea fi folosit și pentru a exfiltra date dintr-o organizație. De asemenea, atacurile pot fi agnostice față de sistemul de operare. Cercetătorii au explicat că încărcăturile utile specifice sistemului de operare și arhitecturii ar putea fi încorporate în model, unde pot fi încărcate dinamic la momentul execuției, în funcție de platformă.

Zborând sub radar

Încorporarea malware-ului într-un model ML oferă unele beneficii unui adversar, a observat Tom Bonner, director senior de cercetare a amenințărilor adverse la HiddenLayer, cu sediul în Austin, Texas.

"Le permite să zboare sub radar", a declarat Bonner. "Nu este o tehnică care să fie detectată de software-ul antivirus sau EDR actual."

"De asemenea, deschide noi ținte pentru ei", a spus el.

"Este o cale directă către sistemele cercetătorilor de date. Este posibil să subminezi un model de învățare automată găzduit pe un depozit public. Cercetătorii de date îl vor descărca și îl vor încărca, apoi vor fi compromiși."

"Aceste modele sunt, de asemenea, descărcate în diverse platforme de operațiuni de învățare automată, ceea ce poate fi destul de înfricoșător, deoarece pot avea acces la Amazon S3 buckets și pot fura datele de instruire", a continuat el.

"Cele mai multe dintre [mașinile] care rulează modele de învățare mecanică au GPU-uri mari și grase în ele, astfel încât minerii de bitcoin ar putea fi foarte eficienți și pe aceste sisteme", a adăugat el.

Avantajul primului venit

Actorilor care reprezintă o amenințare le place adesea să exploateze vulnerabilitățile neașteptate ale noilor tehnologii, a remarcat Chris Clements, vicepreședinte al arhitecturii de soluții la Cerberus Sentinel, o companie de consultanță în domeniul securității cibernetice și de testare a penetrării din Scottsdale, Arizona.

"Atacatorii care caută avantajul de a fi primii în aceste frontiere se pot bucura atât de mai puțină pregătire, cât și de protecție proactivă împotriva exploatării noilor tehnologii, a declarat Clements.

"Acest atac asupra modelelor de limbaj automat pare să fie următorul pas în jocul de-a șoarecele și pisica între atacatori și apărători", a spus el.

Citește și: Hemoglobina: Ce este si ce se ascunde o valoare scazuta a acesteia?

Citește și: Bogdan și Gagea, discuție în grădina casei. Motivul pentru care Gagea nu a putut merge spre o altă fată. „Adevărul o să iasă la suprafață!”

Mike Parkin, inginer tehnic senior la Vulcan Cyber, un furnizor de SaaS pentru remedierea riscurilor cibernetice ale întreprinderilor din Tel Aviv, Israel, a subliniat că actorii de amenințări vor folosi orice vector pe care îl pot folosi pentru a-și executa atacurile.

"Acesta este un vector neobișnuit care ar putea să se strecoare pe lângă destul de multe instrumente obișnuite dacă este realizat cu atenție", a declarat Parkin.

Potențial de pagube pe scară largă

Atacurile asupra modelelor de limbaj automat sunt în creștere, a remarcat Karen Crowley, director de soluții de produs la Deep Instinct, o companie de securitate cibernetică de învățare profundă din New York.

"Nu este încă semnificativ, dar potențialul pentru daune pe scară largă există", a declarat Crowley.

"În lanțul de aprovizionare, dacă datele sunt otrăvite astfel încât, atunci când modelele sunt antrenate, sistemul este și el otrăvit, acel model ar putea lua decizii care reduc securitatea în loc să o consolideze", a explicat ea.

"În cazurile Log4j și SolarWinds, am văzut impactul nu doar asupra organizației care deține software-ul, ci și asupra tuturor utilizatorilor săi din acel lanț", a spus ea. "Odată ce ML este introdus, aceste daune s-ar putea multiplica rapid".

Casey Ellis, CTO și fondator al Bugcrowd, care operează o platformă de recompensă pentru bug-uri cu ajutorul mulțimii, a remarcat că atacurile asupra modelelor ML ar putea face parte dintr-o tendință mai largă de atacuri asupra lanțurilor de aprovizionare cu software.

Prostii pentru copii cu  scripturi

Este posibil ca actorii de amenințare să manifeste un interes sporit față de modelele automate deoarece acestea sunt mai vulnerabile decât se credea.

"Oamenii au fost conștienți de ceva timp că acest lucru este posibil, dar nu și-au dat seama cât de ușor este", a spus Bonner. "Este destul de banal să înșirui un atac cu câteva scripturi simple".

"Acum că oamenii își dau seama cât de ușor este, este de domeniul script kiddies să reușească", a adăugat el.

Clements a fost de acord că cercetătorii au demonstrat că nu este nevoie de o expertiză de bază în domeniul ML/AI pentru a introduce comenzi malițioase în datele de instruire care pot fi apoi declanșate de modelele ML în timpul execuției.

Citește și: 5 Sfaturi de securitate online pentru a evita sa fii hackuit!

Citește și: Windows 11 avantajele și dezavantajele pentru firme

Citește și: Ghid pentru a alege cele mai potrivite camere de supraveghere în 2022