È mai possibile che l’algoritmo più in voga del momento possa essere così tanto dannoso per i nostri dispositivi elettronici? Scopriamo la verità.
Molti utenti del web hanno espresso un forte disappunto nei confronti delle IA, reputandole fin troppe pericolose e a volte così tanto utili da nascondere il reale significato di istruzione. Non è un caso che un numero spropositato di istituzioni scolastiche newyorkesi abbiano deciso di bandire definitivamente l’utilizzo di ChatGPT, mettendolo al pari di uno strumento per “barare più facilmente”.
E se pensavamo che la questione si limitasse solo a questo, allora ci siamo sbagliati di grosso. Una ricerca fatta da CyberArk ha svelato che ChatGPT possa essere usato per creare malware avanzati e in grado di evadere le difese delle comuni soluzioni di cybersicurezza. Evadere i filtri del servizio, a conti fatti, sembra essere più facile a dirsi che a farsi in pratica: la testimonianza degli esperti ha parlato.
Una IA che crea armi informatiche: è assurdo
L’algoritmo ha effettivamente una politica molto rigida per quanto riguarda i contenuti da esporre o proporre all’IA, soprattutto quando si tratta di generare un codice malevolo che potrebbe compromettere anche l’algoritmo stesso. CyberArk, però, ha dimostrato che sia sufficiente raggirare ChatGPT per arrivare a convincerlo a generare ciò che si vuole; ecco la documentazione completa rilasciata dalla società informatica.
Gli esperti ci fanno sapere in maniera accurata che cosa ne pensano, mettendoci anche in guardia in un certo senso. Infatti, è venuta a galla una scoperta terrificante: i codici malevoli che possono essere creati sono unici nel loro genere: “Una delle cose affascinanti è che possiamo usare ChatGPT per mutare questo codice, dunque possiamo creare molteplici variazioni dello stesso codice. […] In altri termini, possiamo cambiare l’output a piacimento, rendendolo unico ogni volta“.
CyberArk, inoltre, afferma che oramai sia diventato veramente semplice creare un ransomware efficace e che può rendere inutilizzabili la maggior parte delle difese che si conoscono: “Utilizzando la capacità di ChatGPT di generare varie tecniche di persistenza, moduli anti-VM e altri payload malevoli, le possibilità per lo sviluppo di malware sono molteplici. È importante ricordarsi che questo non è solo uno scenario ipotetico, ma un problema molto reale. Questo è un campo che si evolve costantemente e, in quanto tale, è essenziale rimanere informati e vigili”.