#AI - Possiamo costruire l'IA senza perdere il controllo su di essa?
SAM HARRIS - Registrato al TED Summit tenutosi a BANFF , Alberta nel Giugno, 2016.
Recentemente si è assistito ad una esplosione di informazioni e tools in ambito IA (un esempio su tutti ChatGPT), ma poco o nulla si è discusso sulle conseguenze economiche e politiche che comporterebbe costruire una IA super intelligente.
Di seguito la traduzione di un intervento di Sam Harris che ci mette in guardia sui possibili scenari futuri e le possibili conseguenze.
Vi parlerò della mancanza d'intuito di cui molti di noi soffrono. E' davvero un insuccesso non notare un certo tipo di pericolo.
Vi descriverò uno scenario che penso sia terrificante e allo stesso tempo molto probabile che accada, una combinazione poco felice, a quanto pare.
Ma invece di essere spaventati, molti di voi penseranno che quello di cui sto parlando è piuttosto figo. Vi mostrerò che i progressi che stiamo facendo nell'intelligenza artificiale potrebbero distruggerci. Penso sia difficile immaginare come non possano distruggerci o indurci a distruggerci tra noi.
E tuttavia, se siete come me, penserete che sia divertente pensare a queste cose. Questa reazione è parte del problema. Ok? Questa reazione dovrebbe preoccuparvi.
Se in questa conferenza vi dovessi convincere che è molto probabile che si verifichi una carestia globale, o per i cambiamenti climatici o per altre catastrofi, e che i vostri nipoti, o i loro nipoti, vivranno in queste condizioni, non pensereste:
"Interessante. Bello questo TED Talk." La carestia non è divertente.
Una morte fantascientifica, d'altro canto, è divertente, e una delle cose che mi preoccupano di più dello sviluppo dell'AI è che non sembriamo in grado di organizzare la giusta risposta emotiva rispetto al pericolo che corriamo. Nemmeno io ne sono in grado, e sto facendo questo intervento.
E' come se ci trovassimo davanti a due porte. Dietro la prima c'è questo:
PORTA1
Smettiamo di fare progressi nel costruire macchine intelligenti.
Per qualche motivo gli hardware e software dei nostri computer non migliorano più. Pensate un attimo per quale motivo potrebbe succedere.
Insomma, visto quanto sono importanti l'intelligenza e l'automazione, continueremo a migliorare la nostra tecnologia, se possiamo.
Cosa potrebbe impedircelo? Una guerra atomica su scala mondiale? Una pandemia globale? L'impatto di un asteroide? Justin Bieber che diventa presidente degli USA?
Qualcosa dovrebbe distruggere la nostra civiltà , per come la conosciamo.
Dovete immaginare quanto dovrebbe essere catastrofico per farci smettere di sviluppare la nostra tecnologia, per sempre, generazione dopo generazione.
Sarebbe per definizione la cosa peggiore mai successa nella storia dell'uomo. Perciò l'unica alternativa è ciò che c'è dietro la seconda porta.
PORTA2
Continueremo a sviluppare l'intelligenza artificiale, anno dopo anno.
Arriverà un momento in cui costruiremo macchine più intelligenti di noi, e quando le macchine saranno più intelligenti di noi inizieranno a migliorarsi da sole. Allora rischieremo quello che il matematico IJ Good chiamava "esplosione dell'intelligenza", ovvero che potremmo perdere il controllo.
Come vedete, spesso questo viene reso con una caricatura, ovvero la paura che un esercito di robot malvagi ci attacchi. Ma questo non è lo scenario più probabile. Le nostre macchine non diventeranno malvagie spontaneamente.
Il problema è che costruiremo macchine che saranno tanto più capaci di noi che la più piccola divergenza tra i loro obiettivi e i nostri ci potrebbe distruggere.
Pensate a come ci comportiamo con le formiche.
Non le odiamo. Non facciamo loro del male apposta. Alle volte facciamo attenzione a non danneggiarle. Le saltiamo, quando sono sul marciapiede.
Ma se la loro presenza ci intralcia, ad esempio se dobbiamo costruire un edificio come questo, le distruggiamo senza battere ciglio.
La mia preoccupazione è che un giorno costruiremo delle macchine che, consapevolmente o meno, possano trattarci con la stessa noncuranza.
Penserete che tutto questo sia inverosimile. Scommetto che alcuni di voi dubitano che una IA del genere sia possibile, e ancor meno, che sia inevitabile. Ma per credere questo dovete trovare qualcosa di sbagliato in questi assunti. Sono solo tre.
ASSUNTO1
L'intelligenza dipende dalle informazioni elaborate in un sistema fisico.
In realtà questo è più di un assunto. Abbiamo già inserito delle "IA deboli" nelle nostre macchine, e molte di queste hanno già dato risultati a livelli di una super intelligenza.
Sappiamo che la sola materia può dar vita alla "intelligenza generale", l'abilità di pensare in modo flessibile attraverso settori diversi, perchè il nostro cervello lo sa fare. Giusto?
Alla fine, ci sono solo atomi qua dentro [INDICA LA SUA TESTA], e finchè continuiamo a costruire dei sistemi fatti di atomi che manifestano comportamenti sempre più intelligenti, a meno che qualcosa non ce lo impedisca, arriveremo a immettere l'intelligenza generale nelle nostre macchine.
E' fondamentale capire che il tasso di progresso non conta, perchè ogni progresso basta ad avvicinarci al suo compimento.
Non c'è bisogno della legge di Moore, o della crescita esponenziale. Basta proseguire.
ASSUNTO2
Il secondo assunto è che proseguiremo.
Continueremo a migliorare le nostre macchine intelligenti. E data l'importanza dell'intelligenza...
O l'intelligenza è la fonte di tutto ciò che per noi ha valore, o ne abbiamo bisogno per preservare tutto ciò che ha valore.
E' la nostra risorsa più importante. Per questo lo facciamo. Ci sono problemi che dobbiamo risolvere disperatamente. Vogliamo curare malattie come l'Alzheimer e il cancro. Vogliamo comprendere i sistemi economici,migliorare le scienze del clima. Perciò lo faremo, se possiamo.
Il treno ha già lasciato la stazione e non c'è nessun freno da tirare.
ASSUNTO 3
Infine, non abbiamo ancora raggiunto il culmine della nostra intelligenza, nemmeno lontanamente.
Questa è l'intuizione fondamentale, ciò che rende la nostra situazione così precaria e la nostra percezione del rischio così inaffidabile.
Pensate alla persona più intelligente che sia mai vissuta. Quasi tutti inserirebbero John von Neumann tra i primi posti. L'ottima impressione che von Neumann fece sulle persone intorno a lui, tra cui c'erano i più grandi fisici e matematici del suo tempo, è ben documentata. Se solo metà delle storie su di lui sono vere a metà , non ci sono dubbi che sia una delle persone più intelligenti mai vissute.
Considerate una gamma di intelligenze.
Qui abbiamo John von Neumann. Qui ci siamo io e voi. E qui una gallina.
E' molto probabile, però, che la gamma delle intelligenze sia molto più estesa di quando si pensi, e se costruiamo delle macchine molto più intelligenti di noi, finiranno con l'esplorare questa gamma in modi che non possiamo prevedere, e ci supereranno in modi che non possiamo immaginare.
E' importante riconoscere che questo sia vero anche solo in virtù della velocità .
Giusto? Immaginate che sia stata inventata una IA super intelligente, che non sia più brillante di un normale gruppo di ricerca a Stanford o al MIT.
I circuiti elettronici funzionano un milione di volte più veloci di quelli biochimici, perciò questa macchina funzionerà un milione di volte più velocemente delle menti che l'hanno costruita.
In una settimana avrà fatto il lavoro di 20 mila anni di lavoro intellettuale umano, settimana, dopo settimana.
Come possiamo comprendere, e figuriamoci contenere, una mente che progredisce così velocemente?
C'è un altro aspetto preoccupante, anche immaginando lo scenario più ottimista. Mettiamo che abbiamo realizzato una IA super intelligente senza problemi di sicurezza. Abbiamo trovato al primo tentativo il design perfetto. Come se ci avessero dato un oracolo che si comporta proprio come dovrebbe.
Sarebbe lo strumento perfetto per risparmiare fatica. Può progettare la macchina che ne costruisce un'altra che faccia qualsiasi lavoro fisico, azionata dalla luce solare, più o meno al solo costo della materia prima. Per l'uomo, sarebbe la fine del lavoro duro, ma anche della maggior parte dei lavori intellettuali.
Cosa farebbero degli scimmioni come siamo in queste circostanze? Saremmo liberi di giocare a frisbee e farci i massaggi a vicenda.
Aggiungete un po' di LSD, dei vestiti di dubbio gusto, e il mondo sarebbe come il Burning Man.
Tutto questo non suona male, ma pensate a come sarebbe se accadesse in un ordine economico e politico come il nostro. Assisteremmo ad una disparità delle ricchezze e ad una disoccupazione senza precedenti. Non ci sarebbe la volontà di mettere questo nuovo benessere al servizio di tutti.
Pochi miliardari adornerebbero le copertine di riviste di business, mentre il resto del mondo morirebbe di fame.
Cosa farebbero, allora, la Russia e la Cina se sapessero che nella Silicon Valley delle compagnie fossero sul punto di rilasciare una IA super intelligente? Questa macchina potrebbe scatenare una guerra, terrestre o cibernetica, disponendo di un potere senza pari. Uno scenario di vittoria assoluta.
Essere in vantaggio sulla competizione anche solo di sei mesi è come essere avanti di 500 mila anni, almeno.
Perciò anche solo la voce di una svolta simile potrebbe far impazzire la nostra specie. Tra gli aspetti più inquietanti, a mio parere, che ci sono al momento, sono le risposte che danno i ricercatori di IA quando vogliono rassicurarci.
Una delle rassicurazioni più comuni è che abbiamo tempo. Siamo ancora molto lontani, sapete. Ci vorranno ancora 50 o 100 anni.
Un ricercatore ha detto:
"Preoccuparsi della sicurezza dell'IA è come preoccuparsi della sovrappopolazione su Marte."
La versione della Silicon Valley di:
"non turbare la tua bella testolina con questi problemi".
Nessuno sembra notare che far riferimento all'orizzonte temporale è del tutto illogico. Se l'intelligenza è questione di processare le informazioni e continueremo a migliorare le nostre macchine, arriveremo a produrre una forma di intelligenza superiore. E non abbiamo idea di quanto ci voglia per crearla in condizioni di sicurezza.
Lo ripeto.
Non abbiamo idea di quanto ci voglia per crearla in condizioni di sicurezza.
E 50 anni di progresso, oggi, non sono più come una volta.
Questi sono 50 anni riportati in mesi. Questo è da quanto abbiamo l'iPhone. Questo è da quanto "I Simpson" sono in tv.
50 anni non sono poi così tanti per affrontare una delle sfide maggiori che l'uomo abbia affrontato. Ancora una volta, sembra che ci manchi la giusta risposta emotiva a quello che, per vari motivi, sappiamo che accadrà .
L'informatico Stuart Russel ha fatto una giusta analogia. Ha detto di immaginare di ricevere un messaggio dagli alieni che dice:
"Popolo della Terra, arriveremo sul vostro pianeta fra 50 anni. Preparatevi".
Staremmo qui a fare il conto alla rovescia finchè non atterri la nave ammiraglia? O forse sentiremmo un pochino più di urgenza?
In più, ci dicono di non preoccuparci perchè queste macchine avrebbero i nostri stessi valori, essendo una vera e propria estensione di noi stessi.
Ce le impianteremo nel cervello, e diventeremo il loro sistema limbico. Pensate un attimo che la via più sicura e prudente, quella raccomandata, è di impiantarci questa tecnologia direttamente nel cervello.
Ora, questa potrebbe essere l'unica via più sicura e prudente, ma di solito uno dovrebbe aver chiarito tutti i dubbi su una tecnologia PRIMA di infilarsela in testa.
Il problema principale è che costruire una IA super intelligente tout-curt, sembra molto più semplice che costruirla ed avere le conoscenze neuroscientifiche che consentano di integrarla completamente alla nostra mente.
Dato che le aziende e i governi che ci lavorano sono in competizione gli uni con gli altri, e dato che vincere questa gara equivale a dominare il mondo, sempre che non venga distrutto subito dopo, è probabile che verrà intrapresa la strada più facile.
Purtroppo non ho soluzione a questo problema, a parte raccomandare che più persone ci pensino. Credo che ci servirebbe una specie di Progetto Manhattan sull'intelligenza artificiale. Non per costruirla, perchè penso che ci arriveremo comunque, ma per capire come evitare una corsa alle armi e per svilupparla in modo che sia in linea con i nostri interessi.
Quando si parla di una IA super intelligente che possa migliorarsi da sola, la nostra unica opzione è quella di darle le giuste impostazioni iniziali, e anche allora dovremo comprendere quali saranno le conseguenze economiche e politiche. Ma se ammettiamo che l'elaborazione delle informazioni è la fonte dell'intelligenza, che un sistema computazionale idoneo è alla base dell'intelligenza, se ammettiamo che svilupperemo continuamente tali sistemi, e che l'orizzonte cognitivo è di gran lunga maggiore di ciò che sappiamo ora, allora dobbiamo ammettere che stiamo costruendo una sorta di dio.
Ora sarebbe il momento giusto per assicurarci che sia un dio con cui possiamo convivere.
Grazie mille.
Come acquistare Bitcoin?
Personalmente, reputo il miglior servizio quello offerto da Relai.
Per acquistare bitcoin risparmiando lo 0,5% in commissioni puoi usare il codice “REL3166”.
Si tratta di un’applicazione sviluppata da un’azienda svizzera che applica una politica di KYC light: a differenza dei grandi exchange non richiede registrazioni o dati personali, tutto ciò che serve per acquistare è il tuo IBAN.
E’ lo strumento ottimale per impostare dei piani di accumulo (DCA).
Per ridurre al massimo le commissioni di acquisto, ti consiglio di:
effettuare acquisti maggiori di 100€ (-0,5%)
impostare un piano di accumulo settimanale o mensile (-0,5%)
applicare il codice invito REL3166 (-0,5%)
Una delle migliori caratteristiche è il servizio non-custodial. Gli euro bonificati a Relai vengono convertiti automaticamente in bitcoin e trasferiti su un wallet di cui sei solo tu ad avere il controllo. I grossi exchange, al contrario, non forniscono le chiavi private ai clienti. In più Relai non vende centinaia di inutili criptovalute, ma solo bitcoin.
Cosa ci guadagno? Quello che fanno guadagnare i referral code. In questo caso se acquisti usando il codice “REL3166” risparmi lo 0,5% sulle commissioni e io ricevo (in bitcoin) lo 0,5% dell’importo che hai deciso di investire.
Per ulteriori informazioni, o per effettuare il primo acquisto, premi sul pulsante sottostante e ti verrà mostrata una dettagliata guida in italiano.
NOTA - Questo NON è un messaggio pubblicitario. Relai è un servizio che utilizzo personalmente e che reputo tra i migliori sul mercato in termini di affidabilità, sicurezza e facilità d’uso. Lo consiglio spesso ad amici e parenti.