Experții companiei prezintă, de asemenea, peisajul în evoluție al amenințărilor legate de inteligența artificială în viitor, care ar putea include:
Vulnerabilități mai complexe
Pe măsură ce LLM-urile controlate pe bază de instrucțiuni sunt integrate în mai multe produse destinate consumatorilor, noi vulnerabilități complexe vor apărea la intersecția dintre AI generativă probabilistică și tehnologiile deterministe tradiționale, extinzând terenul de atac pe care profesioniștii în securitate cibernetică îl au de securizat. Acest lucru va cere dezvoltatorilor să studieze noi măsuri de securitate, cum ar fi aprobări din partea utilizatorilor pentru acțiunile inițiate de agenții LLM.
Un asistent AI complex pentru specialiștii în securitate cibernetică
Cercetătorii folosesc inteligența artificială generativă pentru instrumente inovatoare de securitate cibernetică, ceea ce poate duce la crearea unui asistent virtual prin utilizarea de LLM sau machine learning (ML). Acest instrument ar putea automatiza sarcinile oferind îndrumări bazate pe comenzile executate într-un mediu de testare.
Rețelele neuronale vor fi din ce în ce mai folosite pentru a genera imagini pentru escrocherii
În anul următor, escrocii își pot amplifica tactica folosind rețele neuronale, utilizând instrumente AI pentru a crea conținut fraudulos mai convingător. Cu capacitatea de a genera fără efort imagini și videoclipuri convingătoare, actorii rău intenționați prezintă un risc crescut de escaladare a amenințărilor cibernetice legate de fraudă și escrocherii.
Inteligența artificială nu va deveni un motor pentru o schimbare revoluționară în peisajul amenințărilor în 2024
În ciuda tendințelor de mai sus, experții Kaspersky rămân sceptici cu privire la eventualele schimbări semnificative ale peisajului amenințărilor care ar putea fi generate de inteligența artificială în viitorul apropiat. În timp ce infractorii cibernetici adoptă AI generativă, același lucru este valabil și în cazul apărătorilor cibernetici, care vor folosi aceleași instrumente sau chiar unele mai avansate pentru a testa securitatea software-ului și a rețelelor, ceea ce face puțin probabil ca peisajul atacurilor să se modifice.
Mai multe inițiative de reglementare legate de AI, cu contribuția sectorului privat
Pe măsură ce tehnologia se dezvoltă, aceasta a devenit un subiect pentru cei care elaborează a politici și reglementări. Numărul de inițiative de reglementare legate de inteligență artificială va crește. Actorii non-state, cum ar fi companiile tehnologice, având în vedere expertiza lor în dezvoltarea și utilizarea inteligenței artificiale, pot oferi informații importante pentru discuțiile privind reglementarea AI atât pe platformele globale, cât și pe cele naționale.
Watermark pentru conținutul generat de AI
Vor fi necesare mai multe reglementări, precum și politici ale furnizorilor de servicii pentru a semnala sau identifica conținutul sintetic, în același timp continuând investițiile în tehnologii de detectare. Dezvoltatorii și cercetătorii, la rândul lor, vor adera la metodele de semnalare cu watermark a mediilor sintetice pentru a le identifica și a le marca proveniența mai ușor.
Concluziile de mai sus fac parte din Kaspersky Security Bulletin (KSB) – o serie anuală de previziuni și rapoarte analitice privind schimbările cheie din lumea securității cibernetice.