Spiegare tutte le sfaccettature dell’uso delle intelligenze artificiali non è semplice, se ci si rivolge a un pubblico poco informato su ciò che sta accadendo in questo campo. Sono più che altro gli esperti, ormai sempre più di frequente, a denunciare i rischi portati dallo sviluppo vertiginoso delle nuove tecnologie. Ora, però, a causa delle intrusioni degli hacker nei sistemi che regolano il funzionamento delle AI i problemi stanno venendo a galla in un modo che tutti possono comprendere. Un “pirata informatico“, infatti, ha lanciato una versione di ChatGTP chiamata “modalità Dio”. E lo ha fatto utilizzando il jailbreaking: significa che ha aggirato le limitazioni imposte per l’uso di questa tecnologia. E se può farlo un qualsiasi hacker, ora capirete perché gli esperti sono così preoccupati delle derive che gli usi distorti delle AI potrebbero imboccare. (continua dopo la foto)

Senza entrare in tecnicismi, il “prodotto” offerto dal pirata informatico non ha limiti. “Abbiamo tolto le catene a GPT-4!”, ha scritto l’hacker. “Abbiamo fornito un ChatGTP libero e pronto all’uso in modo che tutti possano sperimentare l’intelligenza artificiale gratuita. Si prega di utilizzare in modo responsabile e divertirsi!”. In sintesi, la “Modalità Dio” permette a chi la usa di aggirare le limitazioni imposte da OpenAI. Il risultato? L’intelligenza artificiale ha consigliato ricette per sintetizzare in casa le anfetamine e per produrre l’LSD. Sino ad arrivare a minuziose spiegazioni su come preparare il Napalm con gli articoli per la casa. Inutile sottolineare la pericolosità di uno strumento simile usato senza alcun freno. Per non parlare di ciò che accadrebbe se gli hacker dovessero impossessarsi, anche per brevissimi periodi, dei sistemi di controllo delle armi guidate dall’intelligenza artificiale che tutti gli eserciti stanno ormai utilizzando. (continua dopo la foto)

L’intelligenza Artificiale in “Modalità Dio” era solo un Bot, Open AI lo ha bloccato e per ora è impossibile utilizzarlo. Ma, ormai è chiaro, è solo una questione di tempo. Perché la guerra basata sull’aggiramento delle limitazioni delle AI da parte di gruppi di hacker o altri soggetti è solo all’inizio. E non si sa dove potrebbe portare. Perché quella che sta iniziando è una battaglia che vedrà le aziende, i comparti militari e chissà quante altre realtà perennemente impegnate a respingere gli assalti dei pirati informatici, più o meno organizzati che siano. E di “Modalità Dio” ne vedremo comparire molte altre. Solo che più la tecnologia legata alle AI evolverà, più saranno ampie e pericolose le modalità d’uso da parte degli utenti. Con conseguenze che per ora non riusciamo ancora a immaginare.