Intelligenza artificiale: problematiche, cosa è come funziona e a cosa serve

” Tutto ciò che amiamo della civiltà è un prodotto dell’intelligenza, quindi amplificare la nostra intelligenza umana con l’intelligenza artificiale ha come potenziale aiutare la civiltà a prosperare come non mai – finché riusciremo a mantenere la tecnologia vantaggiosa. 

Max Tegmark , Presidente del Future of Life Institute

Dalla SIRI alle auto a guida autonoma, l’intelligenza artificiale (AI) stà progredendo rapidamente. Mentre la fantascienza spesso ritrae l’IA come un robot con caratteristiche umane, l’intelligenza artificiale può comprendere qualsiasi cosa, dagli algoritmi di ricerca di Google al Watson di IBM alle armi autonome. L’intelligenza artificiale è ora noto come IA ristretta (o IA debole), in quanto è pensata per svolgere un compito limitato. Tuttavia, l’obiettivo è a lungo termine di molti sforzi (IA o AI forte). Mentre l’IA ristretta può sovra performare gli esseri umani a prescindere dal suo compito specifico, come giocare a scacchi o equazioni, l’AI supererebbe gli umani in quasi tutti i compiti cognitivi.

L’intelligenza artificiale è l’intelligenza dimostrata dalle macchine, in contrasto con l’intelligenza naturale (NI) mostrata dall’uomo e da altri animali. In informatica la ricerca è arrivata allo studio degli “agenti intelligenti”: qualsiasi dispositivo che percepisce il suo ambiente e prende le azioni che massimizzano la sua possibilità di raggiungere con successo i propri obiettivi. Verbalmente, il termine “intelligenza artificiale” viene applicato quando una macchina imita le funzioni “cognitive” che gli umani associano ad altre menti umane come “apprendimento” e “risoluzione dei problemi”.

La portata dell’IA è contestata: quando le macchine diventano sempre più potenti, i compiti considerati come richiedenti “intelligenza” sono spesso rimossi dalla definizione, un fenomeno noto come effetto dell’IA, che porta alla battaglia, “l’intelligenza artificiale è tutto ciò che non è stato ancora fatto “. Ad esempio, il riconoscimento ottico dei caratteri è spesso escluso da “intelligenza artificiale”, essendo diventato una tecnologia di routine. Le capacità classificate provengono da A partire dal 2017 con successo la comprensione del linguaggio umano, competere ai massimi livelli in sistemi di gioco strategici (come scacchi e Go), auto autonome, routing intelligente nella rete di contenuto consegna e simulazioni militari.

L’intelligenza artificiale fu fondata come disciplina accademica nel 1956, e negli anni successivi ha subito diversi ondate di ottimismo seguite dalla delusione e dalla perdita di finanziamenti (nota come “inverno AI”) seguito da nuovi approcci, successo e nuovi finanziamenti. Per gran parte della sua storia, la ricerca è stata divisa in sotto campi che spesso non riescono a comunicare tra loro. Questi sotto campi sono basati su considerazioni tecniche, come obiettivi particolari (ad es. “Robotica” o “apprendimento automatico”), l’uso di particolari strumenti (“logica” o “reti neurali”), o profonde divergenze filosofiche. I sottocampi sono stati anche su fattori sociali.

I problemi tradizionali della ricerca, l’apprendimento, l’elaborazione del linguaggio, la percezione e la capacità di gestire e manipolare gli oggetti. L’intelligenza generale è tra gli obiettivi a lungo termine del campo. Gli approcci sono metodi statistici, intelligenza computazionale e AI simbolica tradizionale. Molti strumenti sono usati nell’IA, comprese le risposte di ricerca e ottimizzazione matematica, reti neurali e statistiche, statistiche ed economia. Il campo dell’IA si basa su informatica, matematica, psicologia, linguistica, filosofia e molti altri.

Il campo è stato fondato con la pretesa che l’intelligenza umana “può essere inserita in modo così preciso che può essere simulata da una macchina”. Ciò solleva argomentazioni filosofiche sulla natura della mente e l’etica della creazione di esseri artificiali è l’intelligenza umana che rappresentano questioni che sono state esplorate dal mito, dalla finzione e dalla filosofia fin dall’antichità. Alcune persone considerano l’IA anche un pericolo per l’umanità se progredisce senza sosta. Altri ritengono che l’AI, si differeniza delle precedenti rivoluzioni tecnologiche, creerà un rischio di disoccupazione di massa. Nel ventunesimo secolo, le tecniche di IA hanno sperimentato una rinascita in seguito a concomitanti progressi nella potenza del computer, grandi quantità di dati e intelligenza teorica; e le tecniche di IA sono diventate una parte essenziale del settore tecnologico, contribuendo a risolvere molti problemi nell’informatica.

Please accept YouTube cookies to play this video. By accepting you will be accessing content from YouTube, a service provided by an external third party.

YouTube privacy policy

If you accept this notice, your choice will be saved and the page will refresh.

Viaggio nel futuro – Nanorobot, immortalità e mind uploading – National Geographic

Perchè ricercare la sicurezza AI?

Nel breve termine, l’obiettivo di mantenere l’impatto dell’IA sulla società benefica motiva la ricerca in molte aree, dall’economia e dalla legge a argomenti tecniche come la verifica, la validità, la sicurezza e il controllo. Considerando che potrebbe essere poco più di un piccolo inconveniente se il tuo laptop si blocca o viene hackerato, diventa ancora più importante che un sistema di IA faccia ciò che vuoi cioà controlla la tua auto, il tuo aereo, il tuo pacemaker, il tuo trading automatizzato sistema o la tua rete elettrica. Un’altra sfida a breve termine è impedire una devastante corsa agli armamenti con armi autonome letali . A lungo termine, una domanda importante è che cosa accadrà se la ricerca di un’intelligenza artificiale forte avrà successo e un sistema di intelligenza artificiale diventa migliore degli umani in tutti i compiti cognitivi. Come sottolineato da IJ Good nel 1965, progettare sistemi IA più intelligenti è di per sé un compito cognitivo. Un sistema del genere potrebbe potenzialmente subire un auto-miglioramento ricorsivo, innescando una esplosione di intelligenza che lascia l’intelletto umano molto indietro. Inventando nuove tecnologie rivoluzionarie, una simile superintelligenza potrebbe aiutarci a  sradicare la guerra, le malattie e la povertà, e così la creazione di un’intelligenza artificiale forte potrebbe essere il più grande evento della storia umana. Alcuni esperti hanno espresso preoccupazione, tuttavia, che potrebbe anche essere l’ultima, a meno che non impariamo ad allineare gli obiettivi dell’IA con i nostri prima che diventi super intelligente. Ci sono alcuni che si chiedono se una IA forte verrà mai raggiunta, e altri che insistono sul fatto che la creazione di intelligenza artificiale superintelligente sia garantita. Alla FLI riconosciamo entrambe queste possibilità, ma riconosciamo anche il potenziale per un sistema di intelligenza artificiale che causa intenzionalmente o involontariamente grandi danni. Crediamo che la ricerca di oggi ci aiuterà a prepararci meglio e prevenire tali conseguenze potenzialmente negative in futuro, godendo così dei benefici dell’IA evitando le insidie.

Come può l’IA essere pericolosa?

La maggior parte dei ricercatori concorda sul fatto che un’intelligenza artificiale superintelligente non sia in grado di mostrare emozioni umane come l’amore o l’odio e che non ci sia ragione di aspettarsi che l’intelligenza artificiale diventi intenzionalmente benevola o malevola. Invece, quando si considera come l’AI potrebbe diventare un rischio, gli esperti ritengono che due scenari siano i più probabili:

  1. L’intelligenza artificiale è programmata per fare qualcosa di devastante: le  armi autonome sono sistemi di intelligenza artificiale programmati per uccidere. Nelle mani della persona sbagliata, queste armi potrebbero facilmente causare vittime di massa. Inoltre, una corsa agli armamenti di intelligenza artificiale potrebbe inavvertitamente portare a una guerra dell’IA che si traduce anche in perdite di massa. Per evitare di essere ostacolati dal nemico, queste armi sarebbero state progettate per essere estremamente difficili da semplicemente “spegnere”, così gli umani potrebbero facilmente perdere il controllo di una tale situazione. Questo rischio è presente anche con una IA ristretta, ma cresce con l’aumentare dei livelli di intelligenza e autonomia dell’intelligenza artificiale.
  2. L’intelligenza artificiale è programmata per fare qualcosa di utile, ma sviluppa un metodo distruttivo per raggiungere il suo obiettivo:  questo può accadere ogni volta che non riusciamo ad allineare completamente gli obiettivi dell’IA con i nostri, il che è sorprendentemente difficile. Se chiedi a un’auto intelligente e obbediente di portarti all’aeroporto il più velocemente possibile, potrebbe farti arrivare lì inseguito dagli elicotteri e coperto di vomito, non facendo quello che volevi ma letteralmente quello che chiedevi. Se un sistema superintelligente è incaricato di un ambizioso progetto di geoingegneria, potrebbe devastare il nostro ecosistema come un effetto collaterale e considerare i tentativi umani di fermarlo come una minaccia da soddisfare.

Come illustrano questi esempi, la preoccupazione per l’intelligenza artificiale avanzata non è la malevolenza ma la competenza. Un’ IA super-intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi obiettivi non sono allineati con i nostri, abbiamo un problema. Probabilmente non sei un cattivo nemico che muove le formiche per malizia, ma se sei responsabile di un progetto idroelettrico di energia verde e c’è un formicaio nella regione da allagare, peccato per le formiche. Un obiettivo chiave della ricerca sulla sicurezza dell’ IA è non collocare mai l’umanità nella posizione di quelle formiche.

Perchè il recente interesse per la sicurezza IA

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates e molti altri grandi nomi della scienza e della tecnologia hanno recentemente espresso preoccupazione nei media e tramite lettere aperte sui rischi posti dall’IA , insieme a molti dei principali ricercatori di IA. Perché il soggetto è improvvisamente nei titoli? L’idea che alla fine la ricerca di un’intelligenza artificiale forte sarebbe stata pensata a lungo come fantascienza, secoli o più. Tuttavia, grazie alle recenti scoperte, sono state raggiunte molte pietre miliari dell’IA, che gli esperti hanno considerato a distanza di soli cinque anni fa, facendo sì che molti esperti prendessero seriamente in considerazione la possibilità di una super intelligenza nel corso della nostra vita. Mentre alcuni esperti ritengono ancora che l’ IA a livello umano sia lontana secoli, la maggior parte delle ricerche di intelligenza artificiale alla Conferenza di Porto Rico del 2015 indovinò che sarebbe successo prima del 2060. Dal momento che potrebbero essere necessari decenni per completare la ricerca di sicurezza richiesta, è prudente avviarlo ora . Poiché l’intelligenza artificiale ha il potenziale per diventare più intelligente di qualsiasi essere umano, non abbiamo un modo sicuro per prevedere come si comporterà. Non possiamo utilizzare gli sviluppi tecnologici del passato come una base perché non abbiamo mai creato nulla che abbia la capacità di, astutamente o inconsapevolmente, di superarci in astuzia. Il miglior esempio di ciò che potremmo affrontare potrebbe essere la nostra stessa evoluzione. Le persone ora controllano il pianeta, non perché siamo il più forte, il più veloce o il più grande, ma perché siamo i più intelligenti. Se non siamo più i più intelligenti, abbiamo la certezza di mantenere il controllo? La posizione di FLI è che la nostra civiltà prospererà finché vinceremo la gara tra il crescente potere della tecnologia e la saggezza con cui lo gestiamo. Nel caso della tecnologia AI, la posizione di FLI è che il modo migliore per vincere quella gara non è quello di impedire il primo, ma di accelerare quest’ultimo, supportando la ricerca sulla sicurezza dell’IA.

Miti del calendario

Il primo mito riguarda la timeline: quanto ci vorrà prima che le macchine superino di molto l’intelligenza a livello umano? Un malinteso comune è che conosciamo la risposta con grande certezza. Un mito popolare è che sappiamo che avremo un’AI superumana in questo secolo. In effetti, la storia è piena di sovrapposizioni tecnologiche. Dove sono le centrali elettriche e le macchine volanti che ci hanno promesso che avremmo ormai? Anche l’IA è stata ripetutamente sovraffollata in passato, anche da alcuni dei fondatori del campo. Ad esempio, John McCarthy (che ha coniato il termine “intelligenza artificiale”), Marvin Minsky, Nathaniel Rochester e Claude Shannon ha scritto questa frase eccessivamente ottimistica su ciò che potrebbe essere realizzato durante i mesi con i calcolatori dell’età della pietra: ” Proposto che un mese, 10 anni di studio sull’intelligenza artificiale da eseguire nell’estate del 1956 al Dartmouth College […] problemi ora riservati agli umani e migliorarsi. Pensiamo a un altro progresso in una o più di questi problemi. D’altra parte, un contro-mito popolare è che sappiamo che non otterremo l’IA sovrumana in questo secolo. Io cerco di avere una gamma di stime per quanto siamo lontani dall’ia sovrumana, ma non è possibile dire che è troppo tardi in questo secolo, dato il triste passato di tali previsioni tecno-scettiche. Ad esempio, Ernest Rutherford, probabilmente il più grande fisico del suo tempo, disse nel 1933 – meno di 24 ore prima dell’invenzione di Szilard della reazione a catena nucleare – l’era era nucleare “chiaro di luna”. E l’astronomo Royal Richard Woolley si chiama il viaggio interplanetario “sentina” nel 1956. La forma più estrema di questo mito è che l’intelligenza artificiale non arriverà mai perché è fisicamente impossibile. però,

Ci sono stati diversi sondaggi che hanno chiesto ai ricercatori della IA quanti anni sono passati da ora pensare che avremo un’intelligenza artificiale a livello umano con almeno il 50% di probabilità. Tutte le indagini hanno la stessa conclusione: i maggiori esperti mondiali non sono d’accordo, quindi semplicemente non lo sappiamo. Ad esempio, nel sondaggio condotto dalla conferenza AI di Porto Rico del 2015, la risposta media (mediana) era nell’anno 2045, ma alcuni ricercatori hanno intuito vecchi di anni o più.

C’è anche un mito correlato che le preoccupazioni che si preoccupano dell’intelligenza artificiale. In effetti, la maggior parte delle persone si registrano preoccupate dell’IA superumana suppongono che siano ancora lontani almeno decenni. Ma non credo che sia sicuro al 100% che non accadrà in questo secolo, è subito pronto alla ricerca sulla sicurezza per prepararsi all’eventualità. Molti problemi connessi con l’intelligenza artificiale sono così difficili da prevedere. Quindi è prudente iniziare a ricercarli ora piuttosto che la sera prima che alcuni programmatori che bevono Red Bull decidano di accenderne uno.

Miti controversi

Un altro malinteso è che le persone pensano che la ricerca sulla sicurezza dell’intelligenza artificiale sia luddisti che non sanno molto dell’IA. Quando Stuart Russell, autore del manuale di intelligenza artificiale standard, lo menzionò durante il suo discorso in Porto Rico, il pubblico sale forte. Un malinteso correlato è che la ricerca sulla sicurezza dell’intelligenza artificiale è estremamente controverso. Infatti, per sostenere un modesto investimento nella ricerca sulla sicurezza dell’intelligenza artificiale, le persone non dovrebbero essere convinte che i rischi siano alti, semplicemente non trascurabili – proprio come un investimento nell’assicurazione sulla casa è giustificato da una probabilità non trascurabile della casa bruciando.

Può darsi che i media abbiano reso il dibattito sulla sicurezza dell’intelligenza artificiale più controverso di quanto non sia in realtà. Dopo tutto, la paura è, per gli affari, per il futuro. Di conseguenza, le persone che conoscono solo le rispettive posizioni dalle citazioni dei media potrebbero non essere più d’accordo. Ad esempio, un tecnico-scettico che legge solo la posizione di Bill Gates in un tabloid inglese potrebbe pensare erroneamente che Gates ritenga che la superintelligenza sia imminente. E ‘così che non si può negare la posizione di Andrew Ng eccetto la sua frase sulla sovrappopolazione su Marte può erroneamente pensare che non è importante la sicurezza dell’intelligenza artificiale, mentre in realtà lo fa. Il punto cruciale è semplicemente quello perché le previsioni della cronologia di Ng sono più lunghe.

Miti sui rischi dell’IA superumana

Molti ricercaiori dell’aviazione degli occhi quando vedono questo titolo: “Stephen Hawking che l’ascesa dei robot potrebbe essere disastrosa per l’umanità”. E molti hanno perso il conto di quanti articoli simili hanno visto. In genere, questi articoli sono accompagnati da un robot dall’aspetto malvagio che trasporta un’arma e suggeriscono che dovremmo preoccuparci che io sia robotizzato e ci uccidano perché sono diventati consapevoli e / o malvagi. Su una nota più leggera, tali articoli sono in realtà piuttosto impressionanti, perché riassumono sinteticamente lo scenario che ho di intelligenza artificiale non si preoccupano. Questo scenario combina ben tre malintesi separati: uomo per la coscienza, il maschio e io robot. Se guidi lungo la strada, hai esperienza soggettiva di colori, suoni, ecc. Ma un’auto a guida autonoma ha un’esperienza soggettiva? Ti sembra di essere un’automobile che guida da sola? Questo è il mistero della coscienza è interessante di per sé, è irrilevante per il rischio di IA. Se tieni colpito da un’auto senza conducente, non fa differenze se ti senti soggettivamente cosciente. Allo stesso modo, ciò che è vero è che l’intelligenza artificiale super intelligente fa, non come si sente soggettivamente.

La paura che le macchine trasformino il maschio è un’altra falsa pista. La vera preoccupazione non è la malevolenza, ma la competenza. Un’IA super intelligente è per definizione molto brava a raggiungere i suoi obiettivi, qualunque  essi siano, quindi dobbiamo assicurarci che i suoi obiettivi siano in linea con i nostri. Di solito non sono mai stato così facile, ma sono più intelligenti di loro – quindi se costruire una diga idroelettrica e lì è un formicaio, peccato per le formiche. Il movimento AI benefico vuole evitare di collocare l’umanità nella posizione di quelle formiche. L’equivoco della coscienza è legato al mito che le macchine non possono avere obiettivi. Le macchine possono essere orientate agli obiettivi: il comportamento di un missile è una ricerca di calore. Se ti senti minacciato da una macchina, io sono obiettivi in ​​disallineati con il tuo, allora sono proprio io in questo senso che sono turbano, non è la macchina è consapevole e prova un senso di scopo. Se quel missile è una ricerca di calore ti stesse inseguendo, probabilmente non esclameresti: “Non sono preoccupato, perché le macchine non possono avere obiettivi!”

Sono solidale con Rodney Brooks e altri pionieri della robotica che si sentono ingiustamente demonizzati da tabloid allarmanti, perché alcuni giornalisti risultano ossessivamente fissi sui robot e adornano molti dei loro articoli con più di metallo dall’aspetto malvagio con occhi lucidi rossi. In effetti, la preoccupazione principale del movimento non è con i robot ma con l’intelligenza stessa: in particolare, l’intelligenza e l’obiettivo sono disallineati con i nostri. Per causa problemi, un’intelligenza superumana disallineata non ha bisogno di un corpo robotico, semplicemente una connessione internet – questo può portare a superare i mercati finanziari, inventare ricercatori umani, manipolare i leader umani e sviluppare armi che non siamo nemmeno in grado di comprendere . Anche se la costruzione di robot è fisicamente impossibile, L’idea sbagliata del robot è legata al mito che le macchine non possono essere controllate dagli umani. L’intelligenza è il controllo: gli umani controllano le tigri non perché siamo più forti, ma perché siamo più intelligenti. Ciò significa che la nostra posizione è più intelligente sul nostro pianeta, è possibile che potremmo anche cedere il controllo.

Le controversie interessanti

Non perdere tempo con le opinioni sbagliate sopra menzionate ci permetterà di concentrarci su controversie vere e interessanti in cui anche gli esperti non sono d’accordo. Che tipo di futuro vuoi? Dovremmo sviluppare armi letali autonome? Cosa ti piacerebbe accadere con l’automazione del lavoro? Quale consiglio di carriera daresti ai bambini di oggi? Preferisci nuovi posti di lavoro che sostituiscono vecchi o una società senza lavoro dove tutti godono di una vita di svago e di ricchezza Più avanti, vuoi che creiamo una vita superintelligente e la diffondiamo attraverso il nostro cosmo? Controlleremo le macchine intelligenti o ci controlleranno? Le macchine intelligenti ci sostituiranno, coesisteranno con noi o si fonderanno con noi? Cosa significherà essere umani nell’era dell’intelligenza artificiale? Cosa vorresti che significasse, e come possiamo rendere il futuro così? Per favore, riportato alla conversazione!

L’Intelligenza Artificiale: dalle origini ai giorni d’oggi

Quando si parla di Intelligenza Artificiale, si pensa subito a tecnologie all’avanguardia, a robot in grado di comprendere e decidere le azioni da compiere e di un mondo futuristico in cui macchine e uomini convivono. In realtà, l’Intelligenza Artificiale e il suo utilizzo sono molto più reali di quanto si possa immaginare e vengono oggi utilizzati in diversi settori della vita quotidiana. Si tratta tuttavia di utilizzi meno invasivi di quello che si pensa o di quanto viene mostrato spesso dai film di fantascienza che hanno trovato nel tema dell’Intelligenza Artificiale lo spunto per molte serie più o meno di successo.

Ma cos’è realmente l’Intelligenza Artificiale e come si è sviluppata?

In termini tecnici l’Intelligenza Artificiale è un ramo dell’informatica che permette la programmazione e progettazione di sistemi sia hardware che software che permettono di dotare le macchine di determinate caratteristiche che vengono considerate tipicamente umane quali, ad esempio, le percezioni visive, spazio-temporali e decisionali. Si tratta cioè, non solo di intelligenza intesa come capacità di calcolo o di conoscenza di dati astratti, ma anche e soprattutto di tutte quelle differenti forme di intelligenza che sono riconosciute dalla teoria di Gardner, e che vanno dall’intelligenza spaziale a quella sociale, da quella cinestetica a quella introspettiva. Un sistema intelligente, infatti, viene realizzato cercando di ricreare una o più di queste differenti forme di intelligenza che, anche se spesso definite come semplicemente umane, in realtà possono essere ricondotte a particolari comportamenti riproducibili da alcune macchine.

Come e quando nasce l’Intelligenza Artificiale?

Per come viene definita oggi, l’Intelligenza Artificiale nasce con l’avvento dei computer e la sua data di nascita viene fissata come il 1956. Proprio in quest’anno, infatti, si parlò per la prima volta di Intelligenza Artificiale durante un convegno che si tenne in America e che vide la partecipazione di alcuni dei più importanti nomi di quella che sarebbe successivamente stata definita Intelligenza Artificiale, ma che allora veniva denominata Sistema Intelligente. Durante questo storico convegno, furono presentati alcuni programmi già capaci di effettuare alcuni ragionamenti logici, in particolar modo legati alla matematica. Il programma Logic Theorist, sviluppato da due ricercatori informatici, Allen Newell e Herbert Simon, era infatti in grado di dimostrare alcuni teoremi di matematica partendo da determinate informazioni.

Watson, alimentato da IBM POWER7, è un sistema ottimizzato per il carico di lavoro in grado di rispondere a domande poste in linguaggio naturale su una gamma quasi illimitata di conoscenze.

Come può essere facilmente immaginato, gli anni successivi alla nascita dell’Intelligenza Artificiale furono anni di grande fermento intellettuale e sperimentale: università e aziende informatiche, tra cui in particolare l’IBM, puntarono alla ricerca e allo sviluppo di nuovi programmi e software in grado di pensare e agire come gli esseri umani almeno in determinati campi e settori. Nacquero così programmi in grado di dimostrare teoremi sempre più complessi e, soprattutto, nacque il Lisp, ossia il primo linguaggio di programmazione che per oltre trent’anni fu alla base dei software di Intelligenza Artificiale. La particolarità degli anni Cinquanta-Sessanta fu soprattutto il sentimento di ottimismo che sosteneva tutte le ricerche e le sperimentazioni relative a questo ramo: tuttavia, se da un lato si riuscirono a sviluppare software sempre più sofisticati e in grado di risolvere soprattutto elaborazioni matematiche, dall’altro si iniziarono a vedere le prime limitazioni dell’Intelligenza Artificiale, che non sembrava poter riprodurre le capacità intuitive e di ragionamento tipiche degli esseri umani.

Durante la seconda metà degli anni sessanta, divenne sempre più evidente che quanto realizzato fino ad allora nell’ambito dell’Intelligenza Artificiale non era più sufficiente alle nuove necessità, che erano soprattutto quelle di realizzare macchine e programmi in grado di andare oltre la ‘semplice’ soluzione di teoremi matematici più o meno complessi. La nuova tendenza che si andava creando era quella di ricercare soluzioni a problematiche più vicine alla realtà dell’uomo, come la soluzione di problematiche le cui soluzioni potevano variare a seconda dell’evoluzione dei parametri in corso d’opera. Una delle maggiori sfide dell’epoca divenne quindi quella di cercare di riprodurre software e macchine che potessero ragionare e prendere delle soluzioni in base all’analisi di differenti possibilità. Ma questo tipo di problema prevedeva, prima di poter essere risolto, la soluzione di un altro step, ossia quello di realizzare dei percorsi semantici per le macchine, ossia un linguaggio che permettesse di programmare le diverse possibilità previste da un ragionamento, semplice o complesso che fosse. Come spesso succede per le grandi scoperte e per le ricerche, infatti, il passaggio da uno step a un altro si stava dimostrando tutt’altro che semplice: la ricerca in questo settore subì un brusco rallentamento, soprattutto perché a causa della produzione di risultati, tutti i finanziamenti per questo tipo di ricerca furono drasticamente ridotti.

Intelligenza Artificiale e biologia

Differentemente da quanto la maggior parte delle persone immagina, un nuovo impulso alla ricerca sull’Intelligenza Artificiale non venne dal campo informatico ma da quello biologico. Nel 1969, infatti, alcuni studenti e ricercatori del Carnegie Institute of Technology realizzarono un programma, denominato DENDRAL, che era in grado di ricostruire una molecole semplice a partire dalle informazioni ottenute dallo spettrometro di massa. Tali informazioni erano soprattutto relative alla massa molecolare dell’elemento analizzato e il risultato era basato soprattutto sulla conoscenza profonda, da parte della macchina, di determinati campi di applicazione. La ricerca, per quanto portata avanti da esperti dei linguaggi informatici, trovò la sua prima applicazione in un campo assolutamente innovativo e, soprattutto, permise di trovare una nuova strada e un nuovo impulso verso quella che sarebbe stata la rinascita dell’Intelligenza Artificiale, basata sui così detti sistemi esperti. I sistemi esperti, a differenza di quanto realizzato prima del software del team del Carnegie Institute of Technology, grazie ad una serie di informazioni di base, erano in grado di trovare soluzioni specifiche per determinati scenari. Con un simile punto di partenza, i passi successivi impiegarono poco tempo ad essere effettuati. Agli inizi degli anni ’80 il primo sistema di Intelligenza Artificiale fu utilizzato per scopi commerciali e, soprattutto, la ricerca sull’Intelligenza Artificiale allargò i propri ambiti geografici, interessando non solo gli Stati Uniti, ma anche il Giappone e l’Europa.

La nuova era dell’Intelligenza Artificiale si apre con il nuovo utilizzo di un algoritmo che, già ideato alla fine degli anni Sessanta, non aveva trovato la massima applicazione a causa delle carenze dovute ai sistemi di apprendimento dei primi programmi di Intelligenza Artificiale. Si tratta dell’algoritmo che permetteva l’apprendimento per reti neurali, le cui sperimentazioni coprirono sia campi prettamente informatici sia psicologici. Proprio questa doppia applicazione permise agli sviluppatori di Sistemi Intelligenti di trovare un ampio spettro di applicazioni. In particolare, il primo vero successo dell’Intelligenza Artificiale è stato quello che ha visto il confronto traDeep Blue, una macchina realizzata dalla IBM e il campione di scacchi allora in carica Garry Kasparov. Anche se i primi incontri furono vinti da Kasparov, i continui miglioramenti apportati al sistema di apprendimento di Deep Blue permisero, in successive partite, di assicurare la vittoria alla macchina. Una vittoria che, come confermò lo stesso campione di scacchi, fu sicuramente data dal fatto che la macchina aveva raggiunto un livello di creatività così elevato che andava oltre le conoscenze del giocatore stesso.

Ulteriori applicazioni dei sistemi di Intelligenza Artificiale molto noti al grande pubblico sono quelli utilizzati su veicoli, in grado di guidare senza che vi sia un conducente umano al volante. Si tratta di veicoli ancora in fase sperimentale, ma che raggiungono gradi di sicurezza sempre più elevati soprattutto grazie all’uso di sensori e telecamere che, proprio come occhi e orecchie umane, sono in grado di percepire tutto quanto avviene durante la guida, prendere decisioni ed effettuare manovre di sicurezza.

Coscienza, conoscenza e problem solving

Alla base delle problematiche legate allo sviluppo di sistemi e programmi di Intelligenza Artificiale vi sono tre parametri che rappresentano i cardini del comportamento umano, ossia una conoscenza non sterile, una coscienza che permetta di prendere decisioni non solo secondo la logica e l’abilità di risolvere problemi in maniera differente anche a seconda dei contesti nei quali ci si trova. L’uso dei reti neurali e di algoritmi in grado di riprodurre ragionamenti tipici degli esseri umani nelle differenti situazioni, hanno permesso ai sistemi intelligenti di migliorare sempre di più le diverse capacità di comportamento. Per poter realizzare ciò, la ricerca si è concentrata non solo sullo sviluppo di algoritmi sempre nuovi, ma soprattutto su algoritmi sempre più numerosi, che potessero imitare i diversi comportamenti a seconda degli stimoli ambientali. Tali algoritmi complessi, inseriti all’interno di sistemi intelligenti, sono quindi in grado di ‘prendere decisioni’ ossia di effettuare scelte a seconda dei contesti in cui sono inseriti. Nel caso degli algoritmi connessi ai sistemi intelligenti dei veicoli, ad esempio, un’automobile senza conducente può decidere, in caso di pericolo, se sterzare o frenare a seconda della situazione, ossia a seconda che le informazioni inviate dai vari sensori permettano di calcolare una maggiore percentuale di sicurezza per il conducente e i passeggeri con una frenata o con una sterzata.

Le decisioni di ogni tipo, sia quelle prese da un’auto senza pilota che da altri sistemi di Intelligenza Artificiale, sono prese, come già specificato, grazie alla realizzazione di determinati algoritmi, che permettono di definire una conoscenza di base e una conoscenza allargata, ossia creata tramite l’esperienza. Per realizzare algoritmi sempre più precisi e complessi, è sorta un vero e proprio settore specifico, definito rappresentazione della conoscenza, che studia tutte le possibilità di ragionamento dell’uomo e, soprattutto, tutte le possibilità di rendere tale conoscenza comprensibile alle macchine tramite un linguaggio e dei comandi sempre più precisi e dettagliati. Quando si parla di conoscenza dell’uomo e di trasferimento di tale conoscenza alla macchina, infatti, non si parla solo di conoscenza sterile, ossia di nozioni apprese dai libri o da altri strumenti di studio. Si parla piuttosto di esperienza e di possibilità di comprendere nuove informazioni tramite quelle già presenti nel sistema di partenza. Tali informazioni vengono fornite alla macchina tramite diverse modalità, le più importanti delle quali sono quelle che si basano sulla Teoria dei Linguaggi Formali e sulla Teoria delle Decisioni.

Nel primo caso, quando cioè si utilizza la Teoria dei Linguaggi Formali, si sceglie di utilizzare diversi approcci (quelli riconosciuti sono l’approccio generativo, riconoscitivo, denotazionale, algebrico e trasformazionale) che si rifanno alle teorie delle Stringhe e ai loro utilizzi. Le stringhe, infatti, rappresentano dei veri e propri linguaggi formali le cui proprietà variano proprio a seconda dell’approccio utilizzato. Si può quindi decidere di puntare su un approccio o sull’altro a seconda dei risultati che si intende ottenere, ossia a seconda del tipo di risposta che si vuole ottenere dalla macchina nelle differenti situazioni.

La Teoria delle Decisioni, invece, si basa su un albero di decisione, che permette di valutare per ogni azione/decisione le possibili conseguenze prendendo quindi poi la decisione più conveniente. A seconda delle impostazioni e dello scopo del programma, quindi, il sistema potrà prendere la decisione che meglio ottimizza il risultato che si vuole ottenere. Va sottolineato che situazioni simili possono prevedere risultati differenti a seconda del tipo di piano di azioni definito dagli algoritmi della macchina. L’utilizzo della Teoria delle Decisioni e degli alberi di decisione merita un maggiore approfondimento, perché maggiormente sfruttata soprattutto in tutti quei sistemi intelligenti utilizzati nel quotidiano. Come funzione un albero di decisione? Senza entrare nel dettaglio, basta sapere che un albero di decisione si basa su modelli predittivi a partire da una serie di informazioni iniziali e dati di partenza. Tali dati possono poi essere suddivisi in maniera tale da definire sia la struttura, ossia il tipo di previsioni possibili, sia l’accuratezza delle stesse. Proprio l’accuratezza dei dati permette di ottenere dei sistemi intelligenti che si differenziano tra di loro per le risposte in grado di dare a seconda non tanto del numero di dati sul quale si basano le decisioni, ma a seconda della precisione degli stessi. Va sottolineato, inoltre, che la mole di dati a disposizione per le elaborazioni delle Intelligenze Artificiali può interferire con la precisione del modello utilizzato. Per questo motivo i modelli più accurati presentano un numero di informazioni di partenza spesso inferiore a quello che si può immaginare: la bontà del modello viene comunque assicurata dalla dal tipo di dati di partenza e dall’accuratezza degli stessi.

Machine Learning: l’apprendimento automatico

Uno dei principali passi avanti nella storia dell’Intelligenza Artificiale è stata fatta quando si sono potuti ricreare degli algoritmi specifici, in grado di far migliorare il comportamento della macchina (inteso come capacità di agire e prendere decisioni) che può così imparare tramite l’esperienza, proprio come gli esseri umani. Sviluppare algoritmi in grado di imparare dai propri errori è fondamentale per realizzare sistemi intelligenti che operano in contesti per i quali i programmatori non possono a priori prevedere tutte le possibilità di sviluppo e i contesti in cui il sistema si trova a operare. Tramite l’apprendimento automatico (machine learning), quindi, una macchina è in grado di imparare a svolgere una determinata azione anche se tale azione non è mai stata programmata tra le azioni possibili.

Per i non addetti ai lavori, probabilmente l’apprendimento automatico rappresenta la parte più ‘romantica’ dell’Intelligenza Artificiale, quella su cui diversi registi hanno saputo trarre interessanti spunti per i loro film più o meno noti che vedono macchine e robot migliorarsi nel tempo proprio perché in grado di imparare tramite l’esperienza. Al di là dell’interesse scenico e romanzesco che può avere l’apprendimento automatico, dietro di questo particolare ramo dell’Intelligenza Artificiale vi è stata da sempre (e vi è ancora) una profonda ricerca, sia teorica che pratica, basata, tra le altre cose, sulla teoria computazionale dell’apprendimento e sul riconoscimento dei pattern. La complessità dell’apprendimento automatico ha portato a dover suddividere tre differenti possibilità, a seconda delle richieste di apprendimento che vengono fatte alla macchina. Si parla allora di apprendimento supervisionato, di apprendimento non supervisionato e di apprendimento per rinforzo. La differenza tra le tre modalità sta soprattutto nel differente contesto entro cui si deve muovere la macchina per apprendere le regole generali e particolari che lo portano alla conoscenza. Nell’apprendimento supervisionato, in particolare, alla macchina vengono forniti degli esempi di obiettivi da raggiungere, mostrando le relazioni tra input, output, e risultato. Dall’insieme dei dati mostrati, la macchina deve essere in grado di estrapolare una regola generale, che possa permettere, ogni volta che venga stimolata con un determinato input, di scegliere l’output corretto per il raggiungimento dell’obiettivo.

Nel caso di apprendimento non supervisionato, invece, la macchina dovrà essere in grado di effettuare scelte senza essere stato prima ‘educato’ alle differenti possibilità di output a seconda degli input selezionati. In questo caso, quindi, il computer non ha un maestro che gli permetta un apprendimento ma impara esclusivamente dai propri errori. Infine, le macchine che vengono istruite tramite un apprendimento per rinforzo si trovano ad avere un’interazione con un ambiente nel quale le caratteristiche sono variabili. Si tratta, quindi, di un ambiente dinamico, all’interno del quale la macchina dovrà muoversi per portare a termine un obiettivo non avendo nessun tipo di indicazione se non, alla conclusione della prova, la possibilità di sapere se è riuscita o meno a raggiungere lo scopo iniziale.

L’apprendimento automatico è stato reso possibile dallo sviluppo delle reti neurali artificiali, ossia un particolare modello matematico che, ispirandosi ai neuroni e alle reti neurali umane, punta alla soluzione dei diversi problemi a seconda delle possibilità di conoscere gli input e i risultati ottenuti a seconda delle scelte effettuate. Il nome di rete neurale deriva dal fatto che questo modello matematico è caratterizzato da una serie di interconnessioni tra tutte le diverse informazioni necessarie per i diversi calcoli. Inoltre, proprio come le reti neurali biologiche, anche una rete neurale artificiale ha la caratteristica di essere adattativa, ossia di saper variare la sua struttura adattandola alle specifiche necessità derivanti dalle diverse informazioni ottenute nelle diverse fasi di apprendimento. Dal punto di vista matematico, una rete neurale può essere definita come una funzione composta, ossia dipendente da altre funzioni a loro volta definibili in maniera differente a seconda di ulteriori funzioni dalle quali esse dipendono. Questo significa che nulla, all’interno di una rete neurale, può essere lasciato al caso: ogni azione del sistema intelligente sarà sempre il risultato dell’elaborazione di calcoli volti a verificare i parametri e a definire le incognite che definiscono le funzioni stesse.

L’intelligenza artificiale nel quotidiano

Molte persone credono che l’uso di sistemi intelligenti sia relegato a particolari elite informatiche senza pensare che, invece, l’Intelligenza Artificiale viene abbondantemente utilizzata anche nel quotidiano. Ad esempio, i vari strumenti di riconoscimento vocale che vengono regolarmente utilizzati, dagli smartphone ai sistemi di sicurezza, si basano su algoritmi tipici dell’Intelligenza Artificiale, in particolare quelli relativi all’apprendimento automatico. Molto noto, nel panorama dell’apprendimento automatico e dell’Intelligenza Artificiale, è l’utilizzo che si fa di questo strumento nel settore automobilistico. I veicoli in grado di muoversi nel traffico anche senza pilota sono oggi qualcosa che va oltre la sperimentazione, anche se il loro utilizzo è limitato solo a determinati settori e situazioni. Molto sfruttate, invece, tutte quelle applicazioni che fanno uso della logica Fuzzy, che permettono di realizzare sistemi di cambi di velocità in auto a guida semi-autonoma. Molti progetti di intelligenza Artificiale sono utilizzati soprattutto nell’ambito della programmazione di giochi, dagli scacchi al backgammon. Proprio questi due particolari giochi hanno anche dato un importante contributo allo sviluppo degli algoritmi di apprendimento. Ulteriori settori in cui l’Intelligenza Artificiale viene utilizzata in maniera regolare sono il mercato azionario, la medicina e la robotica.

Inoltre, i sistemi intelligenti sono utilizzati anche per migliorare ulteriormente molti settori dell’informatica stessa. In ambito medico, infine, l’Intelligenza Artificiale fa soprattutto uso delle reti neurali, soprattutto nelle analisi del battito cardiaco, nelle diagnosi di alcune forme tumorali e nella realizzazione di robot di accompagnamento. Infine, anche molti moderni smartphone e dispositivi mobili presentano piattaforme basate su sistemi di Intelligenza Artificiale, che permettono una vera e propria interazione tra il telefono e il suo proprietario, fondamentale per diverse funzioni. Alcuni moderni telefoni, ad esempio, presentano dei sensori in grado di rendersi conto se il proprietario del telefono si sta muovendo a piedi o in veicolo: in questo caso automaticamente potrà impostarsi sulla modalità di guida per garantire la massima sicurezza nell’uso. Ancora, alcuni telefoni accenderanno automaticamente la torcia incorporata quando si renderanno conto che il proprietario si sta muovendo al buio. Le funzioni sono differenti e molto varie a seconda dei telefoni, ma tutte volte a migliorare il comfort e la sicurezza di quanti ne fanno uso.

Il futuro dell’Intelligenza Artificiale

Se fino a pochi anni fa il principale problema di tutti gli scienziati coinvolti nella ricerca relativa all’Intelligenza Artificiale era quello di poter dimostrare la realistica possibilità di utilizzare sistemi intelligenti per usi comuni, oggi che questo obiettivo è ampiamente raggiunto ci si chiede spesso quale possa essere il futuro dell’Intelligenza Artificiale. Sicuramente molta strada deve essere ancora fatta, sopratutto in determinati settori, ma la consapevolezza che l’Intelligenza Artificiale oggi rappresenta una realtà e non più un’ipotesi, i dubbi sono soprattutto relativi alle diverse possibilità di utilizzo dei sistemi intelligenti e al loro impatto sul tessuto sociale ed economico. E se da un lato l’entusiasmo per l’evoluzione tecnologica è sicuramente molto evidente in diversi settori, dall’altro la paura che a breve le macchine potrebbero sostituire del tutto l’uomo in molti luoghi di lavoro si è insinuata in maniera sempre più insistente nelle menti di molti. L’evoluzione tecnologica già in passato ha portato a sostituire la mano d’opera umana con macchine e computer che, in maniera più rapida e soprattutto più economica, sono stati utilizzati in diversi settori. Con l’uso massivo dell’Intelligenza Artificiale sarà possibile perdere ulteriori posti di lavoro ma è anche vero che si apriranno sempre più strade per la realizzazione di nuove tipologie di figure professionali. Ma il contrasto tra uomo e macchina è un settore molto più ampio che non è solo relativo all’evoluzione dell’Intelligenza Artificiale e dei sistemi intelligenti, ma anche e soprattutto relativo alla morale e all’etica lavorativa e al corretto utilizzo delle macchine nel rispetto dell’uomo. Probabilmente la direzione che si prenderà non è ancora ben delineata, ma potrà portare a una nuova rivoluzione culturale e industriale.

Referenze

  1. Definition of AI as the study of intelligent agents:
  2. Poole, Mackworth & Goebel 1998p. 1, which provides the version that is used in this article. Note that they use the term “computational intelligence” as a synonym for artificial intelligenc
  3. Somalvico MarcoAmigoni Francesco e Schiaffonati Viola, Intelligenza Artificiale, in Petruccioli Sandro (a cura di), Storia della scienza vol. IX, Roma, Istituto della Enciclopedia Italiana, 2003, pp. 615-624.
  4. Marcus HutterUniversal Artificial Intelligence, Berlin, Springer, 2005, ISBN 978-3-540-22139-5.
  5. George Luger e William StubblefieldArtificial Intelligence: Structures and Strategies for Complex Problem Solving, quinta edizione, Benjamin/Cummings, 2004, ISBN 0-8053-4780-1
  6. Stuart Russell e Peter NorvigArtificial Intelligence: A Modern Approach, terza edizione, Pearson Education Limited, 2009, ISBN 978-0-13-604259-4.
  7. Nils J. Nilsson, The Quest For Artificial Intelligence, A History of Ideas And achievements, Web Version, Stanford University, 2010.
  8. Gardner A., An Artificial Intelligence Approach to Legal Reasoning, 0262071045, 9780262071048 MIT 19.

Specify a Disqus shortname at Social Comments options page in admin panel