Stephen Hawking, L’intelligenza artificiale potrebbe porre fine all’umanità

by gabriella
Stephen Hawking

Stephen Hawking

Una lettera aperta firmata da centinaia di ricercatori ed esperti di intelligenza artificiale chiede alle nazioni del mondo di bandire l’utilizzo bellico dell’intelligenza artificiale. Tratto da Wired.

Per Stephen Hawking,

“gli esseri umani che sono limitati da una lenta evoluzione biologica, non potrebbero più competere con le macchine intelligenti, e ne sarebbero sopraffatti”.

Un allarme inquietante che arriva da uno dei più importanti fisici teorici della Storia della Scienza tra XX e XXI secolo, Stephen Hawking, lo scopritore dei Buchi Neri. Nel corso di un programma scientifico andato in onda sulla BBC martedì (dicembre 2014) Hawking ha messo in guardia sui pericoli dell’Intelligenza Artificiale, con parole dirette e previsioni molto pessimistiche.

“Lo sviluppo della piena intelligenza artificiale”, ha sostenuto, “potrebbe portare alla fine della razza umana”.

Hawking è affetto da Sclerosi Laterale Amiotrofica da quando aveva 21 anni (ne compirà 72 il prossimo 8 gennaio). Quando venne diagnosticata la malattia, i medici gli dissero che sarebbe vissuto solo per altri due anni. Oggi, per comunicare, Hawking utilizza un nuovo sistema sviluppato dalla Intel, e messo a punto con la Swiftkey, una società inglese che produce macchine intelligenti.

“Le forme primitive di intelligenza artificiale”, ha proseguito il fisico, “si sono già da tempo dimostrate utilissime, ma temo le conseguenze di aver creato qualcosa che può uguagliare o sorpassare gli esseri umani. Essa può decollare autonomamente e riprogrammarsi ad una velocità sempre più elevata”.

Insomma, Hawking sostiene questa argomentazione con le differenze evolutive tra tecnica e umanità:

“Gli esseri umani – argomenta – che sono limitati da una lenta evoluzione biologica, non potrebbero più competere con le macchine intelligenti, e ne sarebbero sopraffatti”.

Musk, Hawking e Wozniak contro l’intelligenza artificiale militare

terminator

Da pellicole storiche come Terminator, Screamers o War Games, fino al più recente Age of Ultron, il tema delle macchine assassine è un autentico classico della fantascienza. Un pericolo che siamo abituati a proiettare lontano nel futuro, ma che invece potrebbe essere già ad un passo dal trasformarsi in realtà. A esserne convinti sono centinaia di ricercatori ed esperti di intelligenza artificiale (tra cui troviamo nomi illustri come quelli di Elon MuskStephen Hawking, Steve Wozniak e Noam Chomsky) che in una lettera aperta presentata lunedì 27 luglio 2015 durante la International Joint Conference on Artificial Intelligence di Buenos Aires hanno chiesto di bandire a livello globale per lo sviluppo dei cosiddetti armamenti autonomi. Una decisione che gli esperti giudicano essenziale per impedire un’escalation militare paragonabile a quelle avvenute con lo sviluppo delle armi da fuoco e l’avvento delle bombe atomiche.

Non parliamo quindi di missili o droni teleguidati, ma di apparecchi che possono prendere decisioni autonomamente, e che potrebbero essere utilizzati per esempio per pattugliare una determinata area, e attaccare qualunque obiettivo (parliamo di persone ovviamente) che risponda a determinati criteri prestabiliti (abbigliamento, gruppo etnico di appartenenza, ecc…) che lo identifichino come nemico. Grazie ai recenti sviluppi nel campo dell’intelligenza artificiale, assicurano gli esperti nella lettera, dispositivi di questo tipo potrebbero ormai essere prodotti nel giro di pochi anni.

Armi di questo tipo ovviamente porterebbero notevoli benefici in campo bellico, riducendo fortemente le perdite umane negli eserciti che le impieghino, e con una minore necessità di personale rispetto a missili e droni controllati in remoto. Al contempo, riflettono gli autori della lettera, un minor costo umano potrebbe spingere le potenze mondiali a muovere guerra più facilmente, e l’utilizzo di queste nuove armami da parte di una delle super potenze porterebbe inevitabilmente ad una corsa agli armamenti mondiale.

Se anche una sola delle principali potenze militari portasse avanti lo sviluppo dell’intelligenza artificiale a scopo bellico, una corsa agli armamenti è virtualmente inevitabile, e il punto di arrivo di questo percorso tecnologico è ovvio: gli armamenti autonomi diventerebbero il Kalashnikov del futuro”, scrivono i firmatari della lettera.

Gli studi nel campo dell’intelligenza artificiale potrebbero avere un impatto formidabile in campi strategici come la medicina, la lotta alla povertà e lo sviluppo di tecnologie per intervenire in caso di disastri naturali, ma la possibilità che vengano utilizzate in campo bellico, avvertono gli esperti, potrebbe rallentare fortemente gli sviluppi futuri perché molti ricercatori sono consapevoli dei rischi che rappresenterebbero per l’umanità.

Per questi motivi, gli esperti chiedono a tutte le potenze mondiali di firmare un trattato che vieti la ricerca e lo sviluppo ditecnologie belliche che impieghino l’intelligenza artificiale, come è avvenuto in campi come la chimica, con il trattato sull’utilizzo delle armi chimiche, e nella fisica, con i trattati internazionali sull’utilizzo delle testate atomiche.

Print Friendly, PDF & Email

Leave a Reply


%d blogger hanno fatto clic su Mi Piace per questo: