Droni e auto a guida autonoma come armi: perché bisogna avere paura degli hacker
Droni e auto a guida autonoma come armi: perché bisogna avere paura degli hacker
Anonim

Se l'intelligenza artificiale cade nelle mani sbagliate, il mondo civilizzato può precipitare nel caos.

Droni e auto a guida autonoma come armi: perché dobbiamo avere paura degli hacker
Droni e auto a guida autonoma come armi: perché dobbiamo avere paura degli hacker

Nessuno negherà che l'intelligenza artificiale può portare le nostre vite al livello successivo. L'intelligenza artificiale è in grado di risolvere molti problemi che vanno oltre il potere degli umani.

Tuttavia, molti credono che la superintelligenza vorrà sicuramente distruggerci, come SkyNet, o inizierà a condurre esperimenti sulle persone, come GLADoS dal gioco Portal. L'ironia è che solo gli umani possono rendere l'intelligenza artificiale buona o cattiva.

Perché l'intelligenza artificiale può essere una seria minaccia
Perché l'intelligenza artificiale può essere una seria minaccia

I ricercatori della Yale University, Oxford, Cambridge e OpenAI hanno pubblicato un rapporto sull'abuso dell'intelligenza artificiale. Dice che il vero pericolo viene dagli hacker. Con l'aiuto di codice dannoso, possono interrompere il funzionamento dei sistemi automatizzati sotto il controllo dell'intelligenza artificiale.

I ricercatori temono che le tecnologie ben intenzionate vengano danneggiate. Ad esempio, le apparecchiature di sorveglianza possono essere utilizzate non solo per catturare i terroristi, ma anche per spiare i normali cittadini. I ricercatori sono anche preoccupati per i droni commerciali che consegnano cibo. È facile intercettarli e piazzare qualcosa di esplosivo.

Un altro scenario per l'uso distruttivo dell'IA sono le auto a guida autonoma. È sufficiente modificare alcune righe di codice e le macchine inizieranno a ignorare le regole di sicurezza.

Perché l'intelligenza artificiale può essere una seria minaccia
Perché l'intelligenza artificiale può essere una seria minaccia

Gli scienziati ritengono che la minaccia possa essere digitale, fisica e politica.

  • L'intelligenza artificiale è già utilizzata per studiare le vulnerabilità di vari codici software. In futuro, gli hacker potranno creare un bot che aggirerà qualsiasi protezione.
  • Con l'aiuto dell'intelligenza artificiale, una persona può automatizzare molti processi: ad esempio, controllare uno sciame di droni o un gruppo di auto.
  • Con l'aiuto di tecnologie come DeepFake, è possibile influenzare la vita politica dello stato diffondendo false informazioni sui leader mondiali utilizzando i bot su Internet.

Questi spaventosi esempi finora esistono solo come ipotesi. Gli autori dello studio non suggeriscono un rifiuto completo della tecnologia. Invece, credono che i governi nazionali e le grandi aziende dovrebbero occuparsi della sicurezza mentre l'industria dell'IA è ancora agli inizi.

I responsabili politici devono studiare la tecnologia e lavorare con esperti del settore per regolamentare efficacemente la creazione e l'uso dell'intelligenza artificiale.

Gli sviluppatori, a loro volta, devono valutare il pericolo rappresentato dall'alta tecnologia, anticipare le peggiori conseguenze e metterne in guardia i leader mondiali. Il rapporto invita gli sviluppatori di intelligenza artificiale a collaborare con esperti di sicurezza in altri campi e vedere se i principi che garantiscono la sicurezza di queste tecnologie possono essere utilizzati per proteggere l'intelligenza artificiale.

Il rapporto completo descrive il problema in modo più dettagliato, ma la linea di fondo è che l'intelligenza artificiale è uno strumento potente. Tutte le parti interessate dovrebbero studiare la nuova tecnologia e assicurarsi che non venga utilizzata per scopi criminali.

Consigliato: