Cosa può fare l'intelligenza artificiale oggi?
Cosa può fare l'intelligenza artificiale oggi?
Anonim

Avviso spoiler: manca ancora molto tempo all'insurrezione delle macchine.

Cosa può fare l'intelligenza artificiale oggi?
Cosa può fare l'intelligenza artificiale oggi?

Quando Elon Musk introduce il robot umanoide Tesla Bot, sembra che una nuova rivoluzione scientifica sia dietro l'angolo. Un po' di più e l'intelligenza artificiale (AI) supererà l'essere umano e le macchine ci sostituiranno al lavoro. Tuttavia, ai professori Gary Marcus ed Ernest Davis, entrambi rinomati esperti di intelligenza artificiale, viene chiesto di non affrettarsi a tali conclusioni.

In Artificial Intelligence Reboot, i ricercatori spiegano perché la tecnologia moderna è tutt'altro che ideale. Con il permesso della casa editrice "Alpina PRO" Lifehacker pubblica un estratto dal primo capitolo.

A questo punto, c'è un enorme divario - un vero abisso - tra la nostra ambizione e la realtà dell'intelligenza artificiale. Questo abisso è sorto a causa dell'irrisolvibilità di tre problemi specifici, ognuno dei quali deve essere affrontato onestamente.

Il primo di questi è ciò che chiamiamo creduloneria, che si basa sul fatto che noi umani non abbiamo davvero imparato a distinguere tra umani e macchine, e questo rende facile ingannarci. Attribuiamo l'intelligenza ai computer perché noi stessi ci siamo evoluti e abbiamo vissuto tra persone che basano in gran parte le loro azioni su astrazioni come idee, credenze e desideri. Il comportamento delle macchine è spesso superficialmente simile al comportamento degli umani, quindi assegniamo rapidamente alle macchine lo stesso tipo di meccanismi di base, anche se le macchine non ne hanno.

Non possiamo fare a meno di pensare alle macchine in termini cognitivi ("Il mio computer pensa che ho cancellato il mio file"), non importa quanto siano semplici le regole che le macchine seguono effettivamente. Ma le conclusioni che si giustificano quando vengono applicate agli esseri umani possono essere completamente errate se applicate ai programmi di intelligenza artificiale. In ossequio a un principio fondamentale della psicologia sociale, chiamiamo questo errore fondamentale di validità.

Uno dei primi casi di questo errore si è verificato a metà degli anni '60, quando un chatbot di nome Eliza convinse alcune persone che capiva davvero le cose che gli stavano dicendo. In effetti, Eliza ha appena raccolto le parole chiave, ripetuto l'ultima cosa che la persona le ha detto e in una situazione senza uscita ha fatto ricorso a trucchi conversazionali standard come "Raccontami della tua infanzia". Se menzionavi tua madre, ti chiedeva della tua famiglia, anche se non aveva idea di cosa fosse veramente la famiglia o perché fosse importante per le persone. Era solo un insieme di trucchi, non una dimostrazione di vera intelligenza.

Nonostante Eliza non capisse affatto le persone, molti utenti sono stati ingannati dai dialoghi con lei. Alcuni passavano ore a digitare frasi sulla tastiera, parlando in questo modo con Eliza, ma interpretando male i trucchi del chatbot, scambiando il discorso del pappagallo per consigli o simpatia utili e sinceri.

Joseph Weisenbaum Creatore di Eliza.

Le persone che sapevano molto bene che stavano parlando con una macchina presto dimenticarono questo fatto, proprio come gli amanti del teatro mettono da parte per un po' la loro incredulità e dimenticano che l'azione a cui assistono non ha il diritto di essere definita reale.

Gli interlocutori di Eliza chiedevano spesso il permesso per una conversazione privata con il sistema e dopo la conversazione insistevano, nonostante tutte le mie spiegazioni, che la macchina li capisse davvero.

In altri casi, l'errore nella valutazione dell'autenticità può essere fatale nel senso letterale della parola. Nel 2016, un proprietario di un'auto Tesla automatizzata faceva così tanto affidamento sull'apparente sicurezza della modalità pilota automatico che (secondo le storie) si è completamente immerso nella visione dei film di Harry Potter, lasciando che l'auto facesse tutto da sola.

Tutto è andato bene, finché a un certo punto è peggiorato. Dopo aver percorso centinaia o addirittura migliaia di chilometri senza incidenti, l'auto si è scontrata (in tutti i sensi) con un ostacolo inaspettato: un camion bianco ha attraversato l'autostrada e Tesla si è precipitata proprio sotto il rimorchio, uccidendo sul colpo il proprietario dell'auto.. (L'auto sembrava avvertire più volte il conducente di prendere il controllo, ma il conducente sembrava essere troppo rilassato per reagire rapidamente.)

La morale di questa storia è chiara: il fatto che un dispositivo possa sembrare "intelligente" per un momento o due (e anche sei mesi) non significa affatto che lo sia davvero o che possa far fronte a tutte le circostanze in cui una persona reagirebbe adeguatamente.

Il secondo problema lo chiamiamo l'illusione del rapido progresso: confondere il progresso nell'intelligenza artificiale, associato alla risoluzione di problemi facili, per progresso, associato alla risoluzione di problemi davvero difficili. Questo, ad esempio, è successo con il sistema IBM Watson: i suoi progressi nel gioco Jeopardy! sembrava molto promettente, ma in realtà il sistema si è rivelato molto più lontano dalla comprensione del linguaggio umano di quanto gli sviluppatori avessero previsto.

È possibile che il programma AlphaGo di DeepMind segua lo stesso percorso. Il gioco del go, come gli scacchi, è un gioco di informazioni idealizzato in cui entrambi i giocatori possono vedere l'intera scacchiera in qualsiasi momento e calcolare le conseguenze delle mosse con la forza bruta.

Nella maggior parte dei casi, nella vita reale, nessuno sa nulla con assoluta certezza; i nostri dati sono spesso incompleti o distorti.

Anche nei casi più semplici c'è molta incertezza. Quando decidiamo se andare dal dottore a piedi o prendere la metropolitana (dato che la giornata è nuvolosa), non sappiamo esattamente quanto tempo ci vorrà per aspettare il treno della metropolitana, se il treno si blocca per strada, se ci infileremo in carrozza come aringhe in un barile o ci bagneremo fuori sotto la pioggia, non osando prendere la metropolitana, e come reagirà il dottore al nostro ritardo.

Lavoriamo sempre con le informazioni che abbiamo. Giocando a Go con se stesso milioni di volte, il sistema DeepMind AlphaGo non ha mai affrontato l'incertezza, semplicemente non sa quale sia la mancanza di informazioni o la sua incompletezza e incoerenza, per non parlare della complessità dell'interazione umana.

C'è un altro parametro che rende i giochi mentali come molto diversi dal mondo reale, e anche questo ha a che fare con i dati. Anche i giochi complessi (se le regole sono abbastanza rigide) possono essere modellati quasi perfettamente, quindi i sistemi di intelligenza artificiale che li giocano possono facilmente raccogliere le enormi quantità di dati di cui hanno bisogno per allenarsi. Così, nel caso di Go, una macchina può simulare un gioco con le persone semplicemente giocando contro se stessa; anche se il sistema ha bisogno di terabyte di dati, lo creerà da solo.

I programmatori possono così ottenere dati di simulazione completamente puliti con un costo minimo o nullo. Al contrario, nel mondo reale, non esistono dati perfettamente puliti, è impossibile simularli (poiché le regole del gioco cambiano continuamente), e tanto più è difficile raccogliere molti gigabyte di dati rilevanti per tentativi. ed errore.

In realtà, abbiamo solo pochi tentativi per testare strategie diverse.

Non siamo in grado, ad esempio, di ripetere una visita dal medico 10 milioni di volte, adeguando gradualmente i parametri delle decisioni prima di ogni visita, al fine di migliorare drasticamente il nostro comportamento in termini di scelta del trasporto.

Se i programmatori vogliono addestrare un robot per aiutare gli anziani (diciamo, per aiutare a mettere a letto i malati), ogni bit di dati varrà soldi veri e tempo umano reale; non c'è modo di raccogliere tutti i dati richiesti usando i giochi di simulazione. Anche i manichini dei crash test non possono sostituire le persone reali.

È necessario raccogliere dati su anziani reali con diverse caratteristiche di movimenti senili, su diversi tipi di letti, diversi tipi di pigiami, diversi tipi di case, e qui non si possono sbagliare, perché far cadere una persona anche a distanza di parecchi centimetri dal letto sarebbe un disastro. In questo caso, in gioco c'è un certo progresso (finora il più elementare) in questo settore è stato raggiunto utilizzando i metodi dell'intelligenza artificiale ristretta. Sono stati sviluppati sistemi informatici che giocano quasi al livello dei migliori giocatori umani nei videogiochi Dota 2 e Starcraft 2, dove in un dato momento viene mostrata solo una parte del mondo di gioco ai partecipanti e, quindi, ogni giocatore affronta il problema della mancanza di informazione - che con la mano leggera di Clausewitz viene chiamata "la nebbia dell'ignoto". Tuttavia, i sistemi sviluppati rimangono ancora molto ristretti e instabili nel funzionamento. Ad esempio, il programma AlphaStar che gioca in Starcraft 2 ha appreso solo una razza specifica da un'ampia varietà di personaggi, e quasi nessuno di questi sviluppi è giocabile come qualsiasi altra razza. E, naturalmente, non c'è motivo di credere che i metodi utilizzati in questi programmi siano adatti per fare generalizzazioni di successo in situazioni della vita reale molto più complesse. vite reali. Come IBM ha scoperto non una, ma già due volte (prima negli scacchi e poi in Jeopardy!), il successo nei problemi di un mondo chiuso non garantisce affatto il successo in un mondo aperto.

Il terzo cerchio della voragine descritta è una sopravvalutazione dell'affidabilità. Più e più volte, vediamo che non appena le persone con l'aiuto dell'intelligenza artificiale trovano una soluzione a qualche problema che può funzionare senza guasti per un po', assumono automaticamente che con la revisione (e con una quantità leggermente maggiore di dati) tutto funzionerà in modo affidabile. Ma questo non è necessariamente il caso.

Riprendiamo auto senza conducente. È relativamente facile creare una demo di un veicolo autonomo che guiderà correttamente lungo una corsia chiaramente segnalata su una strada tranquilla; tuttavia, le persone sono state in grado di farlo per oltre un secolo. Tuttavia, è molto più difficile far funzionare questi sistemi in circostanze difficili o impreviste.

Come Missy Cummings, direttrice del Humans and Autonomy Laboratory della Duke University (ed ex pilota di caccia della Marina degli Stati Uniti), ci ha detto in una e-mail, la domanda non è quante miglia può percorrere un'auto senza conducente senza incidenti. a cui queste vetture sono in grado di adattarsi alle mutevoli situazioni. Secondo la sua Missy Cummings, e-mail agli autori il 22 settembre 2018., i moderni veicoli semi-autonomi "di solito funzionano solo in una gamma molto ristretta di condizioni, che non dicono nulla su come possono funzionare in condizioni non ideali".

Sembrare completamente affidabile su milioni di miglia di prova a Phoenix non significa avere buone prestazioni durante il monsone a Bombay.

Questa differenza fondamentale tra il comportamento dei veicoli autonomi in condizioni ideali (come le giornate di sole sulle strade suburbane a più corsie) e ciò che potrebbero fare in condizioni estreme può facilmente diventare una questione di successo e fallimento per un intero settore.

Con così poca enfasi sulla guida autonoma in condizioni estreme e che l'attuale metodologia non si è evoluta nella direzione di garantire che il pilota automatico funzioni correttamente in condizioni che stanno appena iniziando a essere considerate reali, potrebbe presto diventare chiaro che miliardi di dollari sono stati spesi in metodi per costruire auto a guida autonoma che semplicemente non riescono a fornire un'affidabilità di guida simile a quella umana. È possibile che per raggiungere il livello di fiducia tecnica di cui abbiamo bisogno, siano necessari approcci fondamentalmente diversi da quelli attuali.

E le auto sono solo un esempio di molte simili. Nella moderna ricerca sull'intelligenza artificiale, la sua affidabilità è stata sottovalutata a livello globale. Ciò è in parte dovuto al fatto che la maggior parte degli attuali sviluppi in quest'area riguarda problemi altamente tolleranti agli errori, come la raccomandazione di pubblicità o la promozione di nuovi prodotti.

In effetti, se ti consigliamo cinque tipi di prodotti e ti piacciono solo tre di loro, non accadrà alcun danno. Ma in una serie di applicazioni di intelligenza artificiale critiche per il futuro, tra cui auto senza conducente, assistenza agli anziani e pianificazione sanitaria, l'affidabilità simile a quella umana sarà fondamentale.

Nessuno comprerà un robot domestico in grado di portare in sicurezza il tuo anziano nonno a letto solo quattro volte su cinque.

Anche in quei compiti in cui la moderna intelligenza artificiale dovrebbe teoricamente apparire nella migliore luce possibile, si verificano regolarmente gravi fallimenti, a volte molto divertenti. Un tipico esempio: i computer, in linea di principio, hanno già imparato abbastanza bene a riconoscere ciò che è (o sta accadendo) in questa o quell'immagine.

A volte questi algoritmi funzionano alla grande, ma spesso producono errori del tutto incredibili. Se mostri un'immagine a un sistema automatizzato che genera didascalie per fotografie di scene quotidiane, spesso ottieni una risposta notevolmente simile a quella che scriverebbe un essere umano; ad esempio, per la scena qui sotto, in cui un gruppo di persone sta giocando a frisbee, il sistema di generazione dei sottotitoli molto pubblicizzato di Google gli dà esattamente il nome giusto.

Figura 1.1. Gruppo di giovani che giocano a frisbee (didascalia foto plausibile, generata automaticamente dall'IA)
Figura 1.1. Gruppo di giovani che giocano a frisbee (didascalia foto plausibile, generata automaticamente dall'IA)

Ma cinque minuti dopo, puoi facilmente ottenere una risposta assolutamente assurda dallo stesso sistema, come è successo, ad esempio, con questo cartello stradale, su cui qualcuno ha attaccato adesivi: il computer chiamato I creatori del sistema non ha spiegato perché si è verificato questo errore, ma tali casi non sono rari. Possiamo presumere che il sistema in questo caso particolare abbia classificato (forse in termini di colore e consistenza) la fotografia come simile alle altre immagini (da cui ha appreso) etichettate come "un frigorifero pieno di cibo e bevande". Naturalmente, il computer non ha capito (cosa che una persona potrebbe facilmente capire) che una tale iscrizione sarebbe appropriata solo nel caso di una grande scatola di metallo rettangolare con vari (e anche allora non tutti) oggetti all'interno. questa scena è "un frigorifero con un sacco di cibo e bevande".

Riso. 1.2. Frigorifero pieno di cibo e bevande (titolo totalmente non plausibile, creato dallo stesso sistema di cui sopra)
Riso. 1.2. Frigorifero pieno di cibo e bevande (titolo totalmente non plausibile, creato dallo stesso sistema di cui sopra)

Allo stesso modo, le auto senza conducente spesso identificano correttamente ciò che "vedono", ma a volte sembrano trascurare l'ovvio, come nel caso di Tesla, che si schiantava regolarmente contro camion dei pompieri parcheggiati o ambulanze con il pilota automatico. Punti ciechi come questi possono essere ancora più pericolosi se si trovano in sistemi che controllano le reti elettriche o sono responsabili del monitoraggio della salute pubblica.

Per colmare il divario tra l'ambizione e le realtà dell'intelligenza artificiale, abbiamo bisogno di tre cose: una chiara consapevolezza dei valori in gioco in questo gioco, una chiara comprensione del perché i moderni sistemi di intelligenza artificiale non svolgono le loro funzioni in modo abbastanza affidabile e, infine, una nuova strategia di sviluppo pensata per la macchina.

Poiché la posta in gioco sull'intelligenza artificiale è molto alta in termini di posti di lavoro, sicurezza e tessuto sociale, è urgente che tutti noi - professionisti dell'IA, professioni correlate, cittadini comuni e politici - comprendiamo il vero stato delle cose in questo campo per imparare a valutare criticamente il livello e la natura dello sviluppo dell'intelligenza artificiale di oggi.

Così come è importante per i cittadini interessati alle notizie e alle statistiche capire quanto sia facile ingannare le persone con parole e numeri, così ecco un aspetto sempre più significativo della comprensione per capire dove si trova l'intelligenza artificiale. dov'è reale; cosa è in grado di fare ora, e cosa non sa come e, forse, non imparerà.

La cosa più importante è rendersi conto che l'intelligenza artificiale non è magia, ma solo un insieme di tecniche e algoritmi, ognuno dei quali ha i suoi punti di forza e di debolezza, è adatto ad alcuni compiti e non adatto ad altri. Uno dei motivi principali per cui abbiamo deciso di scrivere questo libro è che molto di ciò che leggiamo sull'intelligenza artificiale ci sembra essere una fantasia assoluta, che nasce da una fiducia infondata nel potere quasi magico dell'intelligenza artificiale.

Nel frattempo, questa finzione non ha nulla a che fare con le moderne capacità tecnologiche. Sfortunatamente, la discussione sull'IA tra il grande pubblico è stata ed è fortemente influenzata da speculazioni ed esagerazioni: la maggior parte delle persone non ha idea di quanto sia difficile creare un'intelligenza artificiale universale.

Chiariamo ulteriormente la discussione. Sebbene chiarire le realtà associate all'IA richiederà serie critiche da parte nostra, noi stessi non siamo affatto avversari dell'intelligenza artificiale, ci piace molto questo lato del progresso tecnologico. Abbiamo vissuto una parte significativa della nostra vita come professionisti in questo campo e vogliamo che si sviluppi il più rapidamente possibile.

Il filosofo americano Hubert Dreyfus una volta scrisse un libro su quali altezze, secondo lui, l'intelligenza artificiale non potrà mai raggiungere. Non è di questo che tratta questo libro. Si concentra in parte su ciò che l'IA attualmente non può fare e perché è importante capirlo, ma una parte significativa parla di cosa si potrebbe fare per migliorare il pensiero informatico ed estenderlo alle aree in cui ora ha difficoltà a fare per primo.

Non vogliamo che l'intelligenza artificiale scompaia; vogliamo che migliori, inoltre, radicalmente, in modo che possiamo davvero contare su di essa e risolvere con il suo aiuto i tanti problemi dell'umanità. Abbiamo molte critiche sullo stato attuale dell'intelligenza artificiale, ma la nostra critica è una manifestazione di amore per la scienza che facciamo, non un invito a rinunciare e abbandonare tutto.

In breve, crediamo che l'intelligenza artificiale possa davvero trasformare seriamente il nostro mondo; ma crediamo anche che molti dei presupposti di base sull'IA debbano cambiare prima di poter parlare di vero progresso. Il nostro proposto "reset" dell'intelligenza artificiale non è affatto un motivo per porre fine alla ricerca (anche se alcuni potrebbero interpretare il nostro libro proprio in questo spirito), ma piuttosto una diagnosi: dove siamo bloccati ora e come usciamo da la situazione odierna.

Crediamo che il modo migliore per andare avanti possa essere guardarsi dentro, affrontando la struttura della nostra mente.

Le macchine veramente intelligenti non devono essere repliche esatte degli umani, ma chiunque guardi onestamente all'intelligenza artificiale vedrà che c'è ancora molto da imparare dagli umani, specialmente dai bambini piccoli, che sono per molti versi di gran lunga superiori alle macchine in la loro capacità di assorbire e comprendere nuovi concetti.

Gli scienziati medici spesso caratterizzano i computer come sistemi "superumani" (in un modo o nell'altro), ma il cervello umano è ancora di gran lunga superiore alle sue controparti in silicio in almeno cinque aspetti: possiamo capire il linguaggio, possiamo capire il mondo, possiamo flessibilmente adattarci a nuove circostanze, possiamo imparare rapidamente cose nuove (anche senza grandi quantità di dati) e possiamo ragionare di fronte a informazioni incomplete e persino conflittuali. Su tutti questi fronti, i moderni sistemi di intelligenza artificiale sono irrimediabilmente indietro rispetto agli umani.

Riavvio dell'intelligenza artificiale
Riavvio dell'intelligenza artificiale

Intelligenza artificiale: Reboot interesserà le persone che vogliono comprendere le moderne tecnologie e capire come e quando una nuova generazione di intelligenza artificiale può migliorare le nostre vite.

Consigliato: