La controversia sull'intelligenza artificiale
Pubblicato: 2017-09-27La controversia sull'IA non è nuova: per Musk o per la società in generale.
In quanto pioniere della tecnologia, Elon Musk non ha quasi l'idea di un luddista. Quindi, quando Musk ha twittato che la concorrenza dell'intelligenza artificiale con la Russia e la Cina sarebbe stata la "causa più probabile" della terza guerra mondiale, le persone si sono piuttosto agitate. Tuttavia, la controversia sull'IA non è nuova, per Musk o per la società in generale.
Intelligenza artificiale: terrificante fin dall'inizio
Eravamo preoccupati per i pericoli della creazione di un essere artificiale molto prima che l'IA diventasse una scienza. Il termine "robot" deriva da un'opera teatrale scritta nel 1920 da Karel Capek intitolata RUR — Rossum's Universal Robots (Rossumovi Univerzalni Roboti nell'originale ceco). Lo spettacolo inizia in una fabbrica che produce persone sintetiche per fungere da operai. I robot vengono inizialmente creati senza emozioni umane, ma man mano che vengono sviluppati più robot umani, fanno quello che... beh, quello che generalmente fa un esercito di robot senzienti. Addio, umanità.
È un'idea che abbiamo visto così tante volte che è diventata un cliché. Le storie vanno da IA pazze che minacciano e uccidono gli umani che dovrebbero proteggere (pensa HAL nel 2001) a una guerra totale per porre fine all'umanità (SKYNET nella serie Terminator), ma quando gli esseri computerizzati diventano senzienti, la storia di solito finisce male per gli umani coinvolti.
Ma non è solo un tropo di fantascienza: alcuni scienziati moderni hanno preoccupazioni simili sull'intelligenza artificiale. Stephen Hawking ha affermato che "l'ascesa di una potente IA sarà la cosa migliore o la peggiore che accadrà all'umanità. Non sappiamo ancora quale”.
I robot sognano il dominio del mondo elettrico?
All'estremo limite dello spettro, Hawking non gira intorno al cespuglio. "Lo sviluppo della piena intelligenza artificiale potrebbe segnare la fine della razza umana", afferma. Hawking è interessato all'idea di un'IA senziente. Questo tipo di intelligenza potrebbe "ridisegnarsi a un ritmo sempre crescente", con cui gli esseri umani non potrebbero competere perché siamo "limitati da una lenta evoluzione biologica".
Le preoccupazioni di Hawking sulla sostituzione della razza umana ottengono molta stampa, perché sembrano così fantastiche, ma solleva un'altra preoccupazione che è molto più immediata: il potenziale uso improprio dell'IA da parte dei suoi controllori umani.
“Il successo nella creazione dell'IA sarà il più grande evento nella storia della nostra civiltà. Ma può anche essere l'ultimo, a meno che non impariamo come evitare i rischi. Oltre ai vantaggi, l'IA porterà pericoli, come potenti armi autonome o nuovi modi per i pochi di opprimere i molti".
In queste preoccupazioni, è affiancato da alcuni dei più importanti leader di pensiero sia all'interno che all'esterno della Silicon Valley. Nel 2015, Hawking si è unito a un elenco di ricercatori di robotica e cognitivo di fama mondiale, pionieri della Silicon Valley e altri leader di pensiero per chiedere il divieto delle armi autonome, macchine da guerra artificialmente intelligenti che "selezionano e ingaggiano obiettivi senza l'intervento umano". La lettera descriveva le armi autonome come "la terza rivoluzione nella guerra, dopo la polvere da sparo e le armi nucleari" e descriveva l'enorme potenziale di devastazione, se dovesse verificarsi una nuova corsa agli armamenti:
L'intelligenza artificiale ha già rivoluzionato la guerra.
“Diventeranno onnipresenti ed economici per la produzione in serie di tutte le potenze militari significative. Sarà solo questione di tempo prima che appaiano sul mercato nero e nelle mani di terroristi, dittatori che desiderano controllare meglio la loro popolazione, signori della guerra che desiderano perpetrare la pulizia etnica, ecc. Le armi autonome sono ideali per compiti come omicidi, destabilizzazione nazioni, sottomettendo le popolazioni e uccidendo selettivamente un particolare gruppo etnico”.
Elon Musk è probabilmente il più impegnato a predicare i pericoli dell'intelligenza artificiale. Ha discusso pubblicamente con amici come il CEO di Alphabet Larry Page, suggerendo che potrebbero involontariamente seminare i semi della distruzione dell'umanità. Ha parlato delle corse agli armamenti dell'IA e ha paragonato l'intelligenza artificiale all'"evocazione di [un] demone". E a causa di questa preoccupazione, ha fondato OpenAI, un'organizzazione no-profit per bandire per sempre l'intelligenza artificiale dalla terra.
Raccomandato per te:
No scusa. Intendevamo un'organizzazione no profit dedicata alla ricerca e alla costruzione di "intelligenza artificiale generale sicura". Non suona come qualcosa che farebbe un avversario dell'intelligenza artificiale, vero? Allora cosa sta succedendo?
Lo stato attuale (e leggermente meno spaventoso) dell'intelligenza artificiale
L'intelligenza artificiale è già qui, è già da un po' di tempo. Quando Facebook suggerisce automaticamente il tuo nome in un'immagine o un'app sul tuo telefono prevede la prossima parola che scriverai per risparmiare tempo a digitare? Questa è intelligenza artificiale. Anche Stephen Hawking usa l'intelligenza artificiale. La malattia della Sclerosi Laterale Amiotrofica (SLA) lo ha lasciato quasi totalmente paralizzato, quindi deve usare piccoli movimenti della guancia per selezionare le parole. Ha un dispositivo che impara i suoi schemi vocali, aiutandolo a scegliere la parola corretta più facilmente e rapidamente.
Anche l'intelligenza artificiale sta progredendo rapidamente. Gli assistenti digitali come Siri di Apple e Google Assistant stanno migliorando nell'aiutarti con le attività di routine, dalla pianificazione, al fare il bucato con gli elettrodomestici automatici, alla condivisione della tua posizione quando esci per incontrare gli amici. L'intelligenza artificiale sta già aiutando a rilevare il cancro ai polmoni, prevenire incidenti stradali e persino diagnosticare malattie rare che hanno sconcertato i medici.
L'intelligenza artificiale sta già aiutando a rilevare il cancro e altre malattie.
Tuttavia, l'intelligenza artificiale può essere utilizzata anche in tecnologie problematiche. Il riconoscimento facciale nelle telecamere del corpo della polizia può aiutarli a riconoscere un sospetto pericoloso, ma potrebbe anche essere utilizzato per rintracciare cittadini innocenti. La guida automatica continuerà a rendere i trasporti più sicuri ed efficienti, ma potrebbe anche essere utilizzata per alimentare droni autonomi per scopi distruttivi o hackerata per dirottare un aereo. E poi c'è la temuta ribellione dei robot.
La domanda non è se l'IA debba esistere o meno: esiste già. E non stiamo discutendo se l'intelligenza artificiale sia utile o distruttiva, perché ovviamente può essere una delle due o entrambe. Le domande che contano sono che tipo di IA dovremmo avere, come verrà utilizzata e chi la controllerà.
Domande per il futuro dell'IA
1. Che tipo? Intelligenza artificiale generale vs. IA
Quegli scenari di ribellione dei robot riguardano solitamente l'Intelligenza Generale Artificiale (AGI). L'intelligenza artificiale per varietà da giardino è progettata per risolvere problemi specifici, come guidare un'auto o rilevare il cancro. L'intelligenza artificiale generale è più grande: si riferisce a un'IA in grado di ragionare e pensare come una persona. Un AGI non dovrebbe necessariamente essere cosciente, ma sarebbe in grado di fare le cose come farebbe un essere umano. Ciò potrebbe significare usare il linguaggio abbastanza bene da convincere un parlante umano che è umano (The Turing Test), entrare in una casa normale e fare il caffè (The Coffee Test — proposto dal cofondatore di Apple e "avversario" dell'IA Steve Wozniak) o persino iscriversi e superamento di una classe (The Robot College Student Test).
L'intelligenza generale artificiale è quella che persone come Stephen Hawking ed Elon Musk temono possa sostituirci con un'altra specie consapevole. Ma è anche il tipo che sta studiando l'istituto OpenAI, perché, nonostante tutta la copertura sensazionale, fermare l'IA non è proprio l'obiettivo di Musk.
2. Chi controlla l'IA?
L'intelligenza artificiale è una tecnologia potente, che può rendere gli esseri umani molto più efficaci in una vasta gamma di compiti. Una preoccupazione dei gruppi come OpenAI è che quel potere sarà concentrato in troppo poche mani o nelle mani sbagliate, consentendo a governi totalitari, corporazioni malevole, terroristi o altri cattivi attori di fare varie cose distruttive, fino a, incluso, l'inizio della terza guerra mondiale. Un approccio open source uniforma le cose, assicurandosi che nessun gruppo sia in grado di monopolizzare questa tecnologia.
Un'altra preoccupazione a cui l'open source non risponde è un'interruzione economica. Man mano che la tecnologia si sviluppa e diventa più efficiente, riduce la quantità di lavoro necessaria, il che significa meno posti di lavoro. Man mano che i robot e l'IA diventano più potenti, quel processo accelererà. Cosa succede a tutti quei disoccupati? Come possiamo assicurarci che abbiano uno standard di vita ragionevole e un posto nella società? E quale dovrebbe essere l'obiettivo finale? Poiché l'IA si occupa sempre di più del lavoro, possiamo e dobbiamo sostenere un modello economico basato sulla concorrenza, o dobbiamo evolvere verso un modello più cooperativo?
3. Come dovrebbe essere utilizzata l'IA?
Questa è la domanda più ovvia, ma è la più difficile a cui rispondere perché ci richiede di riconoscere qualcosa che odiamo ammettere: la tecnologia non è moralmente neutrale: le cose che progettiamo e costruiamo hanno delle conseguenze. Vogliamo vivere in un mondo con robot killer autonomi? In caso negativo, come possiamo impedire che vengano creati? Le tecnologie per riconoscere i volti e rintracciare le persone sono pericolose per la nostra libertà? In tal caso, quali limiti dobbiamo imporre loro e come possiamo imporre tali limiti?
Come possiamo garantire che l'intelligenza artificiale porti a un mondo migliore?
Dobbiamo parlare di intelligenza artificiale
L'intelligenza artificiale è già qui e continuerà ad avanzare. Potremmo non avere mai un'intelligenza artificiale generale completa, ma è una scommessa sicura che i computer diventeranno molto, molto più potenti nel portare a termine un'ampia gamma di compiti. Ciò significherà nuove tecnologie promettenti, come la ricerca sul cancro e una migliore gestione, ma porterà anche a nuovi pericolosi rischi. Se quel futuro è quello in cui viviamo vite più lunghe, più felici e più appaganti, o qualcosa di molto più oscuro dipende dalle decisioni che prendiamo in questo momento.
[Questo post è apparso per la prima volta su Proto.io ed è stato riprodotto con il permesso.]