Nei miei soliti esemplificativi voli pindarici (esemplificativi nemmeno poi tanto alle volte), oggi mi sono trovato ad aprire una delle tantissime parentesi che mi capita utilizzare mentre spiego. Non so se è una "buona pratica" ma le trovo utili soprattutto per rilassare un attimo l'audience.
Che centra col topic del post? Bene tenterò di chiuderne una...
Io credo nella IA Forte (dopo tutto c'è chi crede in dio...)
Spesso qui a casa (sono a Camerino in questo momento) succede che pre o post cena si aprano discussioni sul "sesso degli angeli", quella che in assoluto preferisco riguarda appunto l'intelligenza artificiale forte.
Cito direttamente da Wikipedia qualche dato:
Nella filosofia dell'intelligenza artificiale l'intelligenza artificiale forte è l'idea che opportune forme di intelligenza artificiale possano veramente ragionare e risolvere problemi; l'intelligenza artificiale forte sostiene che è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani. Il termine intelligenza artificiale forte (AI forte, in inglese strong AI) fu originalmente coniato da John Searle, che scrisse:
"Secondo l'intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente"
John R. Searle
Trovo difficile riuscire a stilare in poche righe quello che penso ma tenterò di essere conciso dicendo che ... secondo me ...
I computer un giorno potrebbero avere coscienza ed essere cognitivi
(ecco l'ho detto)
...ma non in un modo che potremmo capire, così com'è avvenuto per noi "l'evoluzione" potrebbe portare per loro diverse forme di percezione, sentimenti e coscienza.
C'è chi sostiene la tesi che in realtà un elaboratore fa esattamente quello per cui è programmato
Egli sostenne che Deep Blue possieda un'intelligenza che difetta riguardo all'ampiezza stessa del suo intelletto. Altri notano invece che Deep Blue è meramente un potente albero di ricerca euristico, e che affermare che esso "pensi" agli scacchi è come affermare che gli organismi unicellulari "pensino" al processo di sequenza proteica; entrambi sono ignari di tutto, ed entrambi seguono un programma codificato al loro interno...
Al contrario, i sostenitori della IA forte teorizzano la vera coscienza di sé ed il "pensiero" per come lo intendiamo ora possano richiedere uno speciale algoritmo progettato per osservare e prendere in considerazione i processi della propria stessa mente. Secondo alcuni psicologi dell'evoluzione gli umani potrebbero aver sviluppato una algoritmo di questo tipo, particolarmente avanzato, specificamente per l'interazione sociale o la mistificazione, due attività in cui il genere umano si dimostra nettamente superiore rispetto ad altre specie.
Come mai oggi la IA forte non è stata "realizzata" che tassello manca al puzzle? Una Simulazione computerizzata del modello cerebrale umano
Questa sembra essere la via più veloce per realizzare un'intelligenza artificiale forte, dal momento che non richiede una comprensione totale della mente umana. Necessita tre cose:
- Hardware. Per realizzare questo modello sarebbe necessario un calcolatore estremamente potente: per il futurista Ray Kurzweil 1 milione MIPS. Seguendo la Legge di Moore, tale macchina sarà disponibile nel 2020 al costo di 1500€.
- Software. Questa è considerata la parte difficile. Bisogna assumere che la mente umana sia data dal sistema nervoso centrale ed esso sia governato dalle leggi fisiche.
- Comprensione. Infine, richiederebbe sufficiente conoscenza dei meccanismi mentali da essere in grado di riprodurli matematicamente. Ciò si potrebbe fare studiando il funzionamento del sistema nervoso centrale, o mappandolo e copiandolo. Le tecniche di neuroimaging migliorano rapidamente, Kurzweil prevede che una mappa di sufficiente qualità verrà creata all'incirca per lo stesso periodo in cui sarà disponibile la necessaria velocità di calcolo.
Una volta messo a punto, un tale modello potrà essere facilente modificato e sperimentato, facendo progredire la ricerca sulla psiche umana, che a sua volta permetterà di migliorare il modello.
Una intelligenza artificiale sì fatta potrebbe migliorare ricorsivamente, è successo per le persone, perché non dovrebbe succedere per un modello che astrae gli stessi concetti?
Si dovranno apportare alcune modifiche però per rispondere alla domanda ...
Perché una IA dovrebbe evolvere?
L'uomo lo ha fatto per necessità, per i cambiamenti ambientali, per il caos insito nel suo DNA, tutto porta il nome di evoluzione e/o selezione naturale. "La psicologia evolutiva sostiene che gli esseri umani sono completamente motivati da un intricato insieme di, 'desiderio per l'anticipazione del piacere' e 'desiderio per l'anticipazione dell'evitamento del dolore', sviluppati tramite la selezione naturale. Da ciò derivano tutti i desideri umani".
L'auto miglioramento ricorsivo è necessario per la creazione di una singolarità tecnologica.
In maniera forse eccessivamente pionieristica ho detto a cena "...una volta innescata questa IA non potrà essere fermata e/o rallentata, evolverà con le nostre stesse leggi, ma a velocità esponenziale" (sa molto di film di fantascienza in verità) ... ne trovo però minimo riscontro...
Tuttavia, si stima che un neurone emetta 200 pulsazioni al secondo e questo limita il numero di operazioni. Tra loro i segnali sono trasmessi ad una velocità massima di 150 metri al secondo. Un moderno processore da 2 GHz esegue 2 miliardi di operazioni al secondo, e i segnali nelle componenti elettroniche viaggiano quasi alla velocità della luce (300.000 kilometri al secondo).
Se la nanotecnologia ha permesso di costruire dispositivi di dimensioni pari a quelle di un cervello umano e veloci quanto un moderno computer, un modello umano avvertirebbe lo scorrere del tempo più lentamente rispetto ad un uomo. Per questo un minuto potrebbe essere percepito molto più lungo da un cervello artificiale, probabilmente come se durasse qualche ora. Comunque, dal momento che la percezione della durata di un arco di tempo è differente dalla durata stessa, il modo in cui un'intelligenza artificiale tratta il tempo dipenderebbe dai calcoli e dal tipo specifico di cognizione durante quel periodo di tempo.
Se è successo a noi non potrebbe succedere anche "alle macchine"?
... shift happens
post squisito.. veramente gradevole.
RispondiEliminacredere o no nella strong AI sta diventando un domandone per me, porca miseria.
di sicuro darwin parla chiaro: l evoluzione. perche noi si e le macchine no?
o se vogliamo mettiamola al contrario: NOI non eravamo macchine programmate solo alla sopravvivenza (mangiare dormire riprodursi. stop.) ?
occhei.. diciamo che tornare a quello stato ci metterei una bella firmetta.. pero è un altro discorso xD
secondo me il punto è riuscire ad "astrarre" a dovere l algoritmo/meccanismo/programma che governa il "pensiero" e il ragionamento a 360 gradi. quanto piu si riesce a generalizzare, quanto prima avremo un punto di partenza che secondo me ancora non c è dato che TUTTo cio che c è in giro ora è solo un ammasso di codice ciclante, per quanto elegante esso possa essere, e ancora troppo attaccato al paradigma _macchina_+_programma_.
dulcis in fundo:
raymond kurzweil è il nerd dei nerd.
tu pure.
e io vi adoro xD
intanto saluti dai ghiacci d'islanda :)
Ti sto invidiando ...
RispondiEliminaCi si vede presto NERD! ;)
va benissimo cosi! il "post" sta funzionando.. sto apprezzando anche questo lato di argomentazioni.. :)
RispondiElimina(ciao a francè!)
http://www.eng.usf.edu/~wilkinso/gastrobotics/index_files/page0001.htm
RispondiEliminanon "funzioniamo" anche noi tramite impulsi elettrici?
bel post, ciao ;)
RispondiEliminaGrazie ;)
RispondiEliminaIntenzionalità... "Ogni fenomeno mentale, ogni atto psicologico ha un contenuto,
RispondiEliminaè diretto a qualche cosa (l' oggetto intenzionale). Ogni credere, desiderare etc.
ha un oggetto: il creduto, il desiderato." dice Brentano.
Bene, una macchina, il suo software hanno poche combinazioni di opcode per desiderare.
Non è tanto su che tessuto vengono elaborati, tessuto organico o pezzo di latta.
E' come sono organizzati.
L'uomo infatti fa errori nel pensare, la macchina non puo' saltare un "sillogismo",
qualcuno ha mai visto il dump di un crash?... la prima istruzione illegale
fa fermare il programma. Non è tanto il pensare opportunamente, ma inopportunamente...
le idee nascono sempre dall'elaborazione di un errore, quando si dubita di qualcosa.
E poi l'uomo ha sviluppato un pensiero per la necessità di proteggersi, già come
cellula dalle altre cellule. C'è chi dice che il pensiero nasce con il tatto,
quando ci si rapporta ad altri individui. Le macchine non hanno sensi, forse
sensori ma non sono collegati a un centro del dolore... quindi come puo' una macchina
desiderare?
D'altro canto se pensiamo di disconnetterci dai sensi, se non avessimo tatto, udito,
ecc... diventeremmo degli io trascendenti, nessuno potrebbe sapere cosa pensiamo
perché non potremmo comunicarlo, saremmo come un computer senza nessuna
interfaccia esterna.
Il discorso si fa sempre più interessante. Scusate se non rispondo ma leggo, digerisco e poi rispondo ...
RispondiEliminaGrande! L'ho sempre pensato anch'io questo!
RispondiEliminaVorrei farci la tesi su ma è roba che scotta!!
ogni discussione circa la possibile equiparazione fra intelligenza artificiale forte e debole, per essere scientificamente rigorosa, deve preliminarmente risolvere due quesiti:
RispondiEliminaa) che cosa è l'intelligenza in generale
b) se la sua condizione abbia carattere logico o psicologico
Stabilito che:
- la risposta ad a) è di esclusivo rango cognitivo: l'intelligenza è la cognizione che consegue ad un processo di apprendimento
- la condizione intelligente determina la cognizione dell'ordine di evento di un sistema di eventi (legge di Kohler o della gestalt)
ne consegue che sia la prima (cognizione) che la seconda (ordine) condizione hanno rango logico e non psicologico, per cui la identità della inferenza computazionale rispetto quella umana va desunta dalla identità logica (e quindi formale) del processo che ne ha determinato il conseguimento.
Ho letto con attenzione quanto dice Filippo.
RispondiEliminaIn particolare mi sono soffermato sulle frasi:
“Non credo che sia determinante, per definire un essere vivente come tale, il supporto fisico di cui fa utilizzo, bensì il grado di coscienza della propria persona che riesce a raggiungere e il grado di relazione che riesce a sviluppare con l’ambiente.“
e
Fino ad arrivare a macchine in grado di possedere algoritmi che le permettano di rendersi conto di star compiendo del lavoro e di star applicando altri algoritmi per organizzarlo, e quindi in grado di avere una coscienza. [...] Una coscienza dotata di sentimenti ed emozioni.
e soprattutto sul termine “coscienza”. Io direi che quest’ultima è una esperienza soggettiva di uno stato interiore. Quindi come è possibile capire se una macchina è cosciente o meno? A mio modo di vedere le cose, è possibile osservare dall’esterno se una macchina esibisce un comportamento che può essere giudicato positivamente o negativamente come “simile a un comportamento di un umano”, ma non stabilire se la macchina era cosciente mentre esibiva quel comportamento.
Faccio un esempio parlando di emozioni. Quando ad un umano accade qualcosa giudicato positivamente, l’umano prova una sensazione di benessere che corrisponde ad uno stato interno nella sua mente, stato che si riflette sul suo cervello con il rilascio di qualche sostanza etc etc.. Questo stato viene comunicato all’esterno in qualche modo, mettiamo con un sorriso.
Lo stesso evento positivo all’interno di una macchina (prendiamone una con sembianze umane) viene riconosciuto perché tale evento corrisponde ad un pattern posseduto dalla macchina (più o meno complesso, codificato dall’esterno, o appreso in qualche modo dalla macchina stessa). Tale riconoscimento porta la macchina in uno stato interno (fatto di variabili e strutture dati questa volta). Questo stato viene comunicato all’esterno in qualche modo, mettiamo con un sorriso... :)
Ora, la macchina è cosciente? è viva? La risposta alla prima domanda è irrilevante per l’AI ma ha senso secondo me solo se parliamo di filosofia. Ed è di difficile (se non impossibile risposta) considerando che è una esperienza soggettiva. (Allo stesso modo dovremmo porci la domanda se gli animali sono coscienti, cani, gatti, lucertole, formiche, etc.) Ciò che possiamo stabilire è come la macchina si relaziona con l’esterno dando o non dando ad un osservatore umano la “sensazione” di essere cosciente. Sensazione che è può essere provata dall’umano indipendentemente dallo coscienza/non-coscienza della macchina.
Una sorta di empatia trasmessa dalla macchina all’essere umano tramite il suo comportamento esterno. Ma è l’umano che percepisce la macchina come cosciente indipendentemente dal fatto che lo è o meno! Questa percezione “farà la differenza” a livello etico per l’adozione di questo genere di macchine nell’uso quotidiano non il fatto che la macchina sia cosciente.
Riguardo la seconda domanda secondo me la risposta è no. Come posso giudicare vivo una macchina solamente considerando il suo grado di interazione (anche autonoma) con l’ambiente? O per il fatto che mi sorride perché una sua variabile interna ha superato la soglia in quanto la sua webcam ha registrato un’immagine che corrisponde ad un pattern che ha appreso?!
[...] più di due anni fa ho voluto scrivere qualche riga su questo blog in merito all’intelligenza artificiale forte argomento a dir poco scottante di per se, senza considerare le implicazioni “da computer [...]
RispondiElimina