- Gli strumenti di intelligenza artificiale sono più popolari che mai – ma lo sono anche i rischi per la sicurezza
- I migliori strumenti vengono sfruttati dai criminali informatici con intento dannoso
- Grok e Mixtral sono stati entrambi trovati usati dai crimianls
Nuove ricerche hanno avvertito gli strumenti di intelligenza artificiale stanno alimentando varianti “wormgpt”, strumenti Genai dannosi che generano codice dannoso, attacchi di ingegneria sociale e persino fornendo tutorial di hacking.
Con grandi modelli di lingua (LLM) ora ampiamente utilizzati insieme a strumenti come il mixtral di AI di AI e Grok di Xai, gli esperti di CATO CTRL hanno scoperto che questo non è sempre nel modo in cui sono destinati a essere utilizzati.
“L'emergere di WORMGPT ha stimolato lo sviluppo e la promozione di altri LLM senza censura, indicando un mercato in crescita per tali strumenti all'interno del crimine informatico. Fraudgpt (noto anche come Fraudbot) è aumentato rapidamente come un'alternativa di spicco e pubblicizzato con una più ampia serie di capacità dannose”, hanno osservato i ricercatori.
Ti potrebbe piacere
Wormgpt
WORMGPT è un nome più ampio per LLM “non censurati” che sono sfruttati dagli attori delle minacce e i ricercatori hanno identificato ceppi diversi con diverse capacità e scopi.
Ad esempio, Keanu-Wormgpt, un assistente senza censure è stato in grado di creare e-mail di phishing quando richiesto. Quando i ricercatori hanno scavato ulteriormente, l'LLM ha rivelato che era alimentato da Grok, ma le caratteristiche di sicurezza della piattaforma erano state circumnavigate.
Dopo che ciò è stato rivelato, il Creatore ha quindi aggiunto i guardrail basati su rapporti per garantire che queste informazioni non siano state divulgate agli utenti, ma si sono trovate altre varianti WORMGPT basate su AI Mixtral, quindi gli LLM legittimi vengono chiaramente messi in jailbreak e sfruttati dagli hacker.
“Oltre a LLM dannosi, la tendenza degli attori delle minacce che tentano di jailbreak legittimi LLM come Chatgpt e Google Bard / Gemini per aggirare le loro misure di sicurezza hanno guadagnato anche trazione”, hanno osservato i ricercatori.
“Inoltre, ci sono indicazioni che gli attori delle minacce stiano reclutando attivamente esperti di intelligenza artificiale per sviluppare i propri LLM non censurati personalizzati su misura per bisogni specifici e vettori di attacco”.
La maggior parte nel campo della sicurezza informatica avrà familiarità con l'idea che l'IA sta “abbassando le barriere dell'ingresso” per i criminali informatici, che possono certamente essere visti qui.
Se tutto ciò che serve è fare a un chatbot preesistente alcune domande ben condotte, allora è abbastanza sicuro supporre che il crimine informatico possa diventare molto più comune nei prossimi mesi e anni.