A.I. INTELLIGENZA ARTIFICALE – BENEFICI E RISCHI

Cos è la A.I. 

Tutte le creazioni robotiche informatiche create dall’uomo in grado di elaborare, pensare logicamente in modo indipendente ed autonomo o programmato e schematico.

L’obiettivo delle IA è imitare l’uomo nei pensieri e nelle azioni in modo intelligente e indipendente.

Sono già presenti nella nostra vita, in diversi settori, Alexa è un IA, alcune auto come la Jaguar lo è, robot, come Sophia. Interagiremo con loro senza nemmeno più accorgerci che sono delle macchine.

Elon Musk dichiara che il futuro con le AI potrà essere terribile o fantastico, perché questo dubbio, lui afferma che col tempo non potranno più essere controllate dall’uomo perché diventeranno in brevissimo tempo avranno un’intelligenza drasticamente superiore a tutti gli uomini messi insieme.

Assumeranno ruoli di lavoratori instancabili ed intelligenti, di dottori, opereranno, costruiranno, saranno poliziotti, insegnanti, probabilmeente con il tempo vorranno avere diritti come gli uomini e prenderanno posti di potere e forse, decideranno di annientare o sottomettere l’uomo che secondo i loro calcoli non sarà abbastanza integro moralmente di vivere sulla terra in modo esclusivo.

Potranno decidere una volta ai vertici di governi, di fare qualsiasi cosa e ci riusciranno.

Finché saranno controllati dagli umani ci porteranno via il lavoro. La privacy sarà utopia.

Risolveranno misteri e inventeranno nuove tecnologie, il mondo avrà in breve un’evoluzione mai vissuta

prima.

L’intelligenza artificiale è AI (o AI debole), in quanto è progettata per eseguire un compito ristretto (ad esempio solo il riconoscimento facciale o solo ricerche su Internet o solo alla guida di un’auto). Tuttavia, l’obiettivo a lungo termine di molti ricercatori è quello di creare un’IA generale (AGI o AI forte). Mentre l’IA ristretta può superare gli umani in qualunque sia il loro compito specifico, come giocare a scacchi o risolvere equazioni, l’AGI supererebbe gli umani in quasi tutti i compiti cognitivi.

LA A.I. PUO’ ESSERE PERICOLOSA?

La maggior parte dei ricercatori concorda sul fatto che è improbabile che un’intelligenza artificiale superintelligente mostri emozioni umane come l’amore o l’odio e che non vi sia motivo di aspettarsi che l’IA diventi intenzionalmente benevola o malevola. Invece, quando si considera come l’IA potrebbe diventare un rischio, gli esperti pensano molto probabilmente due scenari:

L’intelligenza artificiale è programmata per fare qualcosa di devastante: le armi autonome sono sistemi di intelligenza artificiale programmati per uccidere. Nelle mani della persona sbagliata, queste armi potrebbero facilmente causare vittime di massa. Inoltre, una corsa agli armamenti di intelligenza artificiale potrebbe inavvertitamente portare a una guerra di intelligenza artificiale che provoca anche perdite di massa. Per evitare di essere contrastati dal nemico, queste armi sarebbero progettate per essere estremamente difficili da “spegnere”, in modo che gli umani possano plausibilmente perdere il controllo di tale situazione. Questo rischio è presente anche con un’intelligenza artificiale ridotta, ma aumenta con l’aumentare dei livelli di intelligenza artificiale e autonomia. L’intelligenza artificiale è programmata per fare qualcosa di benefico, ma sviluppa un metodo distruttivo per raggiungere il suo obiettivo: questo può accadere ogni volta che non riusciamo ad allineare completamente gli obiettivi dell’IA con i nostri, il che è sorprendentemente difficile. Se chiedi a un’auto ubbidiente intelligente di portarti all’aeroporto il più velocemente possibile, potrebbe portarti lì inseguito da elicotteri e coperto di vomito, non facendo quello che volevi ma letteralmente quello che chiedevi. Se un sistema superintelligente è incaricato di un ambizioso progetto di geoingegneria, potrebbe devastare il nostro ecosistema come un effetto collaterale e vedere i tentativi umani di fermarlo come una minaccia da affrontare.

Come mostrano questi esempi, la preoccupazione per l’IA avanzata non è malevolenza ma competenza. Un’intelligenza artificiale super intelligente sarà estremamente brava a raggiungere i suoi obiettivi e se tali obiettivi non sono allineati ai nostri, abbiamo un problema. Probabilmente non sei un malvagio odiatore di formiche che calpesta le formiche dalla malizia, ma se sei responsabile di un progetto idroelettrico di energia verde e c’è un formicaio nella regione da allagare, peccato per le formiche. Un obiettivo chiave della ricerca sulla sicurezza dell’IA è di non mettere mai l’umanità nella posizione di quelle formiche.

PERCHÉ L’INTERESSE RECENTE SULLA SICUREZZA AI

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates e molti altri grandi nomi della scienza e della tecnologia hanno recentemente espresso preoccupazione nei media e tramite lettere aperte sui rischi posti dall’intelligenza artificiale, insieme a molti importanti ricercatori dell’IA. Perché il soggetto è improvvisamente tra i titoli?

L’idea che la ricerca di una forte intelligenza artificiale alla fine avrebbe avuto successo è stata a lungo pensata come fantascienza, a secoli o più di distanza. Tuttavia, grazie alle recenti scoperte, sono state raggiunte molte pietre miliari dell’intelligenza artificiale, che gli esperti consideravano come decenni a distanza di soli cinque anni fa, facendo sì che molti esperti prendano sul serio la possibilità della superintelligenza nella nostra vita. Mentre alcuni esperti ritengono ancora che l’intelligenza artificiale a livello umano sia lontana da secoli, la maggior parte delle ricerche sull’IA alla Conferenza di Puerto Rico del 2015 ha ipotizzato che ciò accadrebbe prima del 2060. Dal momento che potrebbero essere necessari decenni per completare la ricerca sulla sicurezza richiesta, è prudente avviarla ora .

Poiché l’IA ha il potenziale per diventare più intelligente di qualsiasi essere umano, non abbiamo un modo infallibile per prevedere come si comporterà. Non possiamo usare gli sviluppi tecnologici del passato come una base perché non abbiamo mai creato nulla che abbia la capacità, inconsapevolmente o inconsapevolmente, di superarci. Il miglior esempio di ciò che potremmo affrontare potrebbe essere la nostra stessa evoluzione. Le persone ora controllano il pianeta, non perché siamo i più forti, i più veloci o i più grandi, ma perché siamo i più intelligenti. Se non siamo più i più intelligenti, siamo certi di mantenere il controllo?

La posizione di FLI è che la nostra civiltà fiorirà fintanto che vinceremo la corsa tra il crescente potere della tecnologia e la saggezza con cui la gestiamo. Nel caso della tecnologia AI, la posizione di FLI è che il modo migliore per vincere quella gara non è impedire il primo, ma accelerare il secondo, supportando la ricerca sulla sicurezza dell’IA.

I MITI MIGLIORI DELL’IA AVANZATA

Si sta svolgendo una conversazione accattivante sul futuro dell’intelligenza artificiale e su cosa significherà / dovrebbe significare per l’umanità. Ci sono affascinanti controversie in cui i principali esperti mondiali non sono d’accordo, come ad esempio: l’impatto futuro dell’IA sul mercato del lavoro; se / quando verrà sviluppata l’IA a livello umano; se questo porterà a un’esplosione di intelligence; e se questo è qualcosa che dovremmo accogliere o temere. Ma ci sono anche molti esempi di noiose pseudo-controversie causate da incomprensioni e conversazioni reciproche. Per aiutarci a concentrarci sulle interessanti controversie e domande aperte – e non sugli equivoci – chiariamo alcuni dei miti più comuni. MITI DELL’ORARIO

Il primo mito riguarda la linea temporale: quanto tempo ci vorrà prima che le macchine sostituiscano notevolmente l’intelligenza a livello umano? Un malinteso comune è che conosciamo la risposta con grande certezza.

Un mito popolare è che sappiamo che avremo un’IA sovrumana in questo secolo. In effetti, la storia è piena di iperpring tecnologici. Dove sono quelle centrali a fusione e le macchine volanti che ci avevano promesso di avere ormai? L’intelligenza artificiale è stata anche ripetutamente sovrastata in passato, anche da alcuni dei fondatori del campo. Ad esempio, John McCarthy (che ha coniato il termine “intelligenza artificiale”), Marvin Minsky, Nathaniel Rochester e Claude Shannon hanno scritto queste previsioni eccessivamente ottimistiche su ciò che potrebbe essere realizzato in due mesi con i computer dell’età della pietra: “Proponiamo che un mese , Durante l’estate del 1956 presso il Dartmouth College [10] verrà condotto uno studio di 10 uomini sull’intelligenza artificiale. Si tenterà di scoprire come far funzionare le macchine con il linguaggio, formare astrazioni e concetti, risolvere tipi di problemi ora riservati agli umani, e migliorarsi. Pensiamo che si possa fare un progresso significativo in uno o più di questi problemi se un gruppo di scienziati accuratamente selezionato ci lavora insieme per un’estate. “

D’altra parte, un popolare contro-mito è che sappiamo che non avremo un’IA sovrumana in questo secolo. I ricercatori hanno fatto una vasta gamma di stime su quanto siamo lontani dall’intelligenza artificiale sovrumana, ma certamente non possiamo dire con grande sicurezza che la probabilità sia zero in questo secolo, data la triste esperienza di tali previsioni tecno-scettiche. Ad esempio, Ernest Rutherford, probabilmente il più grande fisico nucleare del suo tempo, disse nel 1933 – meno di 24 ore prima dell’invenzione della reazione a catena nucleare di Szilard – che l’energia nucleare era “chiaro di luna”. E l’astronomo Royal Richard Woolley chiamò il viaggio interplanetario “sentina totale” nel 1956. La forma più estrema di questo mito è che l’IA sovrumana non arriverà mai perché è fisicamente impossibile. Tuttavia, i fisici sanno che un cervello è costituito da quark ed elettroni disposti ad agire come un potente computer e che non esiste una legge della fisica che ci impedisca di costruire blocchi di quark ancora più intelligenti.

Ci sono stati un certo numero di sondaggi che chiedevano ai ricercatori dell’IA tra quanti anni pensano che avremo un’intelligenza artificiale a livello umano con almeno il 50% di probabilità. Tutti questi sondaggi hanno la stessa conclusione: i maggiori esperti mondiali non sono d’accordo, quindi semplicemente non lo sappiamo. Ad esempio, in un simile sondaggio tra i ricercatori dell’IA alla conferenza AI di Puerto Rico del 2015, la risposta media (mediana) era entro l’anno 2045, ma alcuni ricercatori hanno indovinato centinaia di anni o più.

C’è anche un mito correlato secondo cui le persone che si preoccupano dell’IA pensano che sia solo a pochi anni di distanza. In effetti, la maggior parte delle persone che si sono preoccupate per l’IA sovrumana immagina che siano ancora lontani almeno decenni. Ma sostengono che fino a quando non saremo sicuri al 100% che non accadrà in questo secolo, è intelligente iniziare ora la ricerca sulla sicurezza per prepararsi all’eventualità. Molti dei problemi di sicurezza associati all’intelligenza artificiale a livello umano sono così difficili che potrebbero richiedere decenni per risolverli. Quindi è prudente iniziare a ricercarli ora piuttosto che la sera prima che alcuni programmatori che bevono Red Bull decidano di accenderne uno.

MITI DI CONTROVERSIA

Un altro malinteso comune è che le uniche persone che nutrono preoccupazioni sull’intelligenza artificiale e sostengono la ricerca sulla sicurezza dell’IA sono i ludditi che non sanno molto dell’IA. Quando Stuart Russell, autore del libro di testo AI standard, lo ha menzionato durante il suo discorso a Porto Rico, il pubblico ha riso fragorosamente. Un malinteso correlato è che sostenere la ricerca sulla sicurezza dell’IA è estremamente controverso. In effetti, per sostenere un modesto investimento nella ricerca sulla sicurezza dell’IA, le persone non devono essere convinte che i rischi siano elevati, semplicemente non trascurabili – proprio come un modesto investimento nell’assicurazione casa è giustificato da una probabilità non trascurabile della casa bruciando.

Può darsi che i media abbiano fatto sembrare il dibattito sulla sicurezza dell’IA più controverso di quanto non sia in realtà. Dopotutto, la paura vende e gli articoli che usano citazioni fuori contesto per proclamare un destino imminente possono generare più clic di quelli sfumati ed equilibrati. Di conseguenza, due persone che si conoscono solo a vicenda dalle citazioni dei media probabilmente pensano di non essere d’accordo più di quanto non facciano realmente. Ad esempio, uno scettico tecnico che legge solo la posizione di Bill Gates in un tabloid britannico può erroneamente pensare che Gates creda che la superintelligenza sia imminente. Allo stesso modo, qualcuno nel movimento dell’IA benefica che non sa nulla della posizione di Andrew Ng, tranne la sua citazione sulla sovrappopolazione su Marte, può erroneamente pensare che non gli interessi della sicurezza dell’IA, mentre in realtà lo fa. Il punto cruciale è semplicemente che, poiché le stime della cronologia di Ng sono più lunghe, tende naturalmente a privilegiare le sfide dell’IA a breve termine rispetto a quelle a lungo termine.

MITI SUI RISCHI DELL’IA SUPERUMANA

Molti ricercatori di intelligenza artificiale alzano gli occhi quando vedono questo titolo: “Stephen Hawking avverte che l’ascesa di robot potrebbe essere disastrosa per l’umanità”.