Intelligenza artificiale, è allarme hacker

ROMA –  I ricercatori lanciano l’allarme. L’intelligenza artificiale (IA) potrebbe diventare un’arma per hacker e “Stati canaglia”, organizzazioni terroristiche e lupi solitari. In questi giorni è stata intrapresa una vistosa ricerca da venticinque dei più importanti scienziati presso le Università di Oxford, Yale e Cambridge. Accanto a loro anche esperti di sicurezza civili e militari, coadiuvati dal gruppo di ricerca OpenAI fondato dall’imprenditore Elon Musk.

La violazione da parte degli hacker rischia di innescare una serie di usi criminosi a discapito della sicurezza. Dagli attacchi alle infrastrutture critiche agli scontri di automobili a guida autonoma, fino alla creazione di campagne di disinformazione. Chiunque abbia mai visto film o serie TV dell’universo di “Ghost In The Shell”, conosce bene queste tematiche. Dimostrazione che spesso la cultura pop anticipa il futuro sollevando domande e dibattiti di una certa rilevanza sociale e scientifica. Se manipolata per questi scopi, l’uso malevolo dell’intelligenza artificiale costituisce una grave minaccia per la sicurezza digitale, fisica e politica, consentendo attacchi su larga scala, altamente efficienti e con obiettivi molto precisi. Potrebbe essere usata per creare video falsi, ma realistici, che vedono i politici come ignari protagonisti allo scopo di fare propaganda. La privacy è seriamente compromessa, i droni controllati per scopi mirati. Questi fenomeni anche oggi sono molto frequenti, ma l’argomento vuole soffermarsi sugli sviluppi plausibili entro i prossimi cinque anni, in quello che sarà il nostro futuro.

“Siamo tutti d’accordo sulle tante implicazioni positive dell’intelligenza artificiale, ma gli studi erano lacunosi per quanto riguarda i rischi connessi a questo ambito”, ha affermato Miles Brundage, research fellow presso il Future of Humanity Institute di Oxford. Diverse personalità del settore stanno avviando studi più approfonditi per contrastare il pericolo. Per lenire tali rischi, gli esperti stanno escogitando diversi interventi volti a ridurre le minacce connesse a un uso improprio dell’IA, suggerendo la necessità di ripensare completamente i concetti legati alla cyber-sicurezza ed esplorando diversi modelli di condivisione delle informazioni.

Flavio Sabbatini