skip to main | skip to sidebar
98 commenti

No, un “supercomputer” non ha superato il Test di Turing

Questo articolo vi arriva grazie alla gentile donazione di “sergio.tom*” e “dabogirl” ed è stato aggiornato dopo la pubblicazione iniziale.

Impazza ovunque la notizia che un computer, anzi un “supercomputer”, come titola Il Sole 24 Ore, avrebbe superato il mitico Test di Turing, dimostrando quindi di essere dotato d'intelligenza. È una balla spacciata da un ricercatore, Kevin Warwick, già noto per le sue dichiarazioni roboanti e del tutto prive di fondamento scientifico. Il test non è stato affatto superato, nonostante Warwick ne abbia alterato le regole a proprio favore.

Prima di tutto, facciamo un ripassino veloce di cos'è il Test di Turing. Non ne esiste una definizione univoca, ma il matematico Alan Turing nel 1950 scrisse un celebre articolo, Computing Machinery and Intelligence, in cui proponeva un “gioco dell'imitazione” che è stato usato come ispirazione per il test: un esaminatore conversa liberamente via chat (allora si pensava a una telescrivente) con un computer e con un essere umano. Se non riesce a distinguere quale dei due è il computer e quale è l'essere umano, allora si può concludere – argomentava Turing – che il computer “pensa” o perlomeno è in grado di imitare perfettamente il pensiero umano e quindi è intelligente quanto un essere umano. Il test ha molti limiti, dovuti anche all'età: all'epoca l'intelligenza artificiale era un campo inesplorato.

Quello che è successo invece alla Royal Society di Londra, secondo il comunicato stampa dell'Università di Reading, è che il computer (o meglio, un software denominato “Eugene Goostman”) è riuscito a convincere soltanto il 33% degli esaminatori che era un essere umano. Uno su tre. Cito: “Eugene managed to convince 33% of the human judges that it was human.” L'altro 67% non s'è fatto fregare. Questo, a casa mia, non si chiama “superare” un test.

Non solo: secondo il comunicato stampa, il test di Turing prevederebbe che “se un computer viene scambiato per un essere umano più del 30% del tempo durante una serie di conversazioni via tastiera di cinque minuti, allora supera il test” (“If a computer is mistaken for a human more than 30% of the time during a series of five minute keyboard conversations it passes the test”). Falso: Turing non ha mai scritto una percentuale del genere come criterio di superamento. Ha invece scritto che il test viene superato se l'esaminatore sbaglia con la stessa frequenza sia quando deve distinguere fra un uomo e una donna, sia quando deve distinguere fra un essere umano e un computer (“We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?"”).

L'unica cosa che si avvicina a quanto asserito dal comunicato stampa è una previsione di Turing, sempre in Computing Machinery and Intelligence, che entro il 2000 sarebbe stato possibile programmare un computer in modo che “un esaminatore medio non avrebbe avuto più del 70% di probabilità di fare un'identificazione corretta dopo cinque minuti di domande” (“I believe that in about fifty years' time it will be possible, to programme computers [...] to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning”). Ma non è una descrizione del criterio di superamento del test: è, appunto, soltanto una previsione che fra cinquant'anni l'informatica sarà arrivata a questo livello. Tutto qui.

In altre parole, il test annunciato sui giornali non corrisponde affatto ai criteri originali enunciati da Turing, che non ponevano limiti di tempo, di argomento o di competenza all'esaminatore. Invece in questo evento:
– l'interrogatorio è stato limitato a sessioni di cinque minuti (forse ripetute);
– non tutti i giudici (che erano forse trenta o cinque in tutto; c'è una confusione sorprendente anche su cose semplici come questa) erano esperti nel valutare software d'intelligenza artificiale: i nomi finora resi noti sono quelli di Robert Llewellyn (attore noto come il robot Kryten di Red Dwarf), Aaron Sloman (professore d'informatica presso la University of Birmingham) e Lord Sharkey (che non sembra avere qualifiche nel settore dell'AI, anche se la BBC lo definisce “esperto” in questo campo);
– è stato detto ai giudici che dovevano decidere se stavano comunicando con un computer che simulava un bambino di tredici anni oppure con un vero tredicenne; ma la scelta di un adolescente equivale a barare, perché impedisce ai giudici di fare domande complesse di cultura o di etica e quindi semplifica molto il compito di imitare un essere umano;
– è stato inoltre comunicato ai giudici che “Eugene Goostman” non parlava bene l'inglese perché era ucraino: un trucco che permetteva di dare una spiegazione credibile alle sgrammaticature del software, incapace di formare frasi idiomatiche.

Infatti Time ha pubblicato una trascrizione di un dialogo con il software che avrebbe “superato” il Test di Turing: basta leggerla per notare che il programma non fa altro che produrre frasi preconfezionate, sviando le domande dell'intervistatore. Quando il software non trova nulla di utile nella domanda, risponde “Preferisco non parlare di questo”. Così son capaci tutti: questa non è intelligenza, è pura elaborazione meccanica. In pratica “Eugene Goostman” è un chatbot e nulla di più. Ne potete provare una versione qui (se il sito non è sovraccarico).

Il Guardian ha pubblicato una foto di uno spezzone di conversazione con “Eugene”: valutatene voi la credibilità. Notate che in due occasioni il software si limita a prendere la frase dell'interlocutore e ripresentarla sotto forma di domanda e per due volte risponde cambiando argomento.

ESAMINATORE: Hello

EUGENE: Hello, how are you?

ESAM: I am fine, you?

EUG: I am pleased you are fine.

ESAM: and you?

EUG: I do not want to answer that right now.

ESAM: Why not?

EUG: Lets talk about something else.

ESAM:  Ok what?

EUG: What is on your mind?

ESAM: I am wondering if you are a robot.

EUG: Would if be a problem if I was a robot?

ESAM: Not really.

La contraddizione tra le affermazioni del comunicato stampa e la realtà dei fatti è resa particolarmente palese da questo articolo della BBC, nel quale gli organizzatori sottolineano che “le conversazioni non avevano restrizioni” (“crucially, the conversations were unrestricted”) e subito dopo dichiarano che simulare un tredicenne ucraino limitava astutamente la conversazione (“It was very clever ruse to pretend to be a 13-year-old Ukranian boy, which would constrain the conversation”). Decidetevi.

Non è finita: anche l'affermazione che “nessun computer è mai riuscito a ottenere questo risultato finora” (“No computer has ever achieved this, until now”) è falsa. Già tre anni fa il chatbot Cleverbot aveva convinto il 59% degli esaminatori che era un essere umano. Ben più del 33% di “Eugene”.

Il professor Warwick, inoltre, è già in sé una garanzia di bufala. Anni fa aveva annunciato di essere il primo cyborg perché s'era impiantato un chip in un braccio (se così fosse, tutti i cani e gatti con microchip sottocutaneo d'identificazione sarebbero dei cyborg). Poi aveva fatto la sparata di annunciare il primo essere umano infettato da un virus informatico: in realtà aveva semplicemente preso un chip contenente un virus informatico e l'aveva inserito nel braccio di un collega. Ne ha dette talmente tante che The Register ha una compilation delle stupidaggini sensazionaliste annunciate da Warwick.

Una cialtronata in piena regola, insomma, che è indegna della Royal Society e cavalca il sessantesimo anniversario della morte di Turing, causando soltanto confusione nell'opinione pubblica. Non c'è nessuna intelligenza artificiale in arrivo: continueremo a essere circondati dalla stupidità naturale e dall'ingenuità dei giornalisti che scrivono di cose che non sanno e pubblicano qualunque cosa senza verificarla. E questo “test” dimostra semmai che se basta così poco per imitare un tredicenne, allora i tredicenni non sono esseri pensanti. Ho qualche dubbio in proposito anche su molti giornalisti.

Fonti aggiuntive: Techdirt, Ars Technica.
Invia un commento
I commenti non appaiono subito, devono essere tutti approvati da un moderatore. Lo so, è scomodo, ma è necessario per tenere lontani scocciatori, spammer, troll e stupidi: siate civili e verrete pubblicati qualunque sia la vostra opinione; gli incivili di qualsiasi orientamento non verranno pubblicati, se non per mostrare il loro squallore.
Inviando un commento date il vostro consenso alla sua pubblicazione, qui o altrove.
Maggiori informazioni riguardanti regole e utilizzo dei commenti sono reperibili nella sezione apposita.
NOTA BENE. L'area sottostante per l'invio dei commenti non è contenuta in questa pagina ma è un iframe, cioè una finestra su una pagina di Blogger esterna a questo blog. Ciò significa che dovete assicurarvi che non venga bloccata da estensioni del vostro browser (tipo quelle che eliminano le pubblicità) e/o da altri programmi di protezione antimalware (tipo Kaspersky). Inoltre è necessario che sia permesso accettare i cookie da terze parti (informativa sulla privacy a riguardo).
Commenti
Commenti (98)
Ho usato tante vole ELIZA (https://en.wikipedia.org/wiki/ELIZA), ce l'avevo nel floppy del muLISP (https://de.wikipedia.org/wiki/MuLISP) per MS-DOS e alcune volte mi lasciava davvero di sasso perche' quando era in difficolta' riprendeva un discorso tralasciato varie schermate prima. Era un bel simulatore per il periodo, ma nulla che potesse passare un test di Turing, ma almeno ELIZA non era una tredicenne.

Il problema e' che queste sono tutte simulazioni, non sono dei programmi con "coscienza di se'".

Vabbe', rilassiamoci; che ne dice di una bella partita a scacchi, Signor Attivissimo?
Anche i geni di Gizmodo.it ci sono cascati con tutte le scarpe. E dovrebbe trattarsi di un blog tecnico...
http://www.gizmodo.it/2014/06/09/programma-per-computer-supera-per-prima-volta-test-turing.html
La cosa di cui abbiamo bisogno è l'intelligenza naturale degli esseri umani. L'intelligenza artificiale non è detto che arrivi, magari il teorema di incompletezza di Godel, con il fatto che talune affermazioni logiche non possono essere dichiarate vere o false, è un ostacolo insormontabile. Ma di uomini intelligenti c'è bisogno e questo solo conta.
Il 33%? Cioè *meno* che se i “giudici” avessero tirato a indovinare a caso su qual era il computer!
Ah ma è QUEL Warwick? Non avevo approfondito l'articolo quindi non ho letto il nome. Mah.

E comunque avevo iniziato pure io a scrivere un chatbot, poi mi sono stufato :D
Per imitare molti capiredattori (non tutti) basta un chatbot che alle frasi:
"l'interessato smentisce tutto"
"la foto è tarocca, c'ha dei segni di photoshop che li vedo pure io"
"il massimo esperto mondiale spiega in dettaglio che non è possibile"
"in inglese vuol dire tutt'altra cosa"
"se nessuno ha visto i ladri, non si può dire che sono dell'etnia "cattiva" del momento"
"chiunque l'abbia detto, due più due non fa cinque"
risponde sempre "non hai il senso della notizia".
Appena ho letto il titolo su Google News, ancora prima di leggere l'articolo, ho pensato: qui sento odore di Antibufala in arrivo!

Prima di tutto, facciamo un ripassino veloce di cos'è il Test di Turing

Seeeeee, come se non fossi stato tu stesso a suggerirlo di persona a Turing, visto che sei un cugino di Daneel Olivaw e Odin Eidolon in viaggio nel tempo...
Mi sa che prima che un'IA riesca a passare un test, non dico di turing, ma uno in stile "Blade Runner", passerà ancora taaanto tempo.
Ogni giorno mi affliggo sempre di più per la "boccalonicità" dei media.
Caro Attivissimo, io spero che tu ti stia sbagliando. Sono stati davvero tante le testate che hanno riportato la notizia allo stesso identico modo del Sole 24 Ore, e non solo italiani, ma anche autorevoli testate internazionali quali l'Independent. Se tutti avessero riportato in coro notizie dovremmo ammettere che c'è un grave problema a livello di organi di informazione internazionali.
A leggere certe "notizie" (io stesso, pur non essendo esperto di informatica, avevo capito che era solo aria fritta già leggendo su normali quotidiani) verrebbe da dire che non solo l'intelligenza artificiale è lontana dall'arrivare, ma che l'intelligenza "tout court" è ben lontana dall'arrivare nel mondo...
Saluti,
Mauro.
Per sembrare umano, basta usare a rotazione poche risposte: a) non saprei; b) non ricordo; c) credo di sì, anche se non ho mai constatao di persona; d) credo di no, ma può darsi; e) queste sono cose personali, e non ti rispondo.
"tre anni fa il chatbot Cleverbot aveva convinto il 59% degli esaminatori che era un essere umano"

Beh, eliza ne aveva convinti di piu' ;-)
La notizia straordinaria sarebbe trovare un giornalista italiano che lo passa il test di Turing...
Dunque, per far sì che un computer venga scambiato per un essere umano da un babbione basta mettere suddetto babbione di fronte a Eliza?
stamattina la notizia è anche sulla home page dell"ineffabile Repubblica, che però presto smentirà…
Read it. Or should I say reddit?
@Unknown
leggendo la notizia riportata dalle testate italiane ero poco convinto e impressionato. In più, come riporta paolo, avevano anche posto un serio limite sulla correttezza del linguaggio! Questo dimostra solo che una certa parte del giornalismo scientifico è fatto da perfetti estranei al mondo della scienza che dovrebbero occuparsi solo di gossip, quello è il loro livello!
Oddio é vero, il 33% é meno del 50%, ma gli esaminatori erano solo 5.

Unknown, il fatto che tante testate abbiano copiato il comunicato stampa non implica che la notizia sia credibile.. Ok é vera perché racconta un fatto vero ma le conclusioni sono una cavolata
bell'articolo, grazie. proprio quello che stavo cercando per far fronte alla massa informe di annunci in cui mi ero imbattuto.

un appunto: io troverei una miglior spiegazione dei limiti del test di turing: l'articolo linkato a riguardo mi pare superficiale e inconcludente.
La notizia straordinaria sarebbe un test per individuare la stupidità, più che l'intelligenza.
Da non dimenticare anche PARRY che (secondo Wikipedia) arrivò al 48% nel 1972.
Il personaggio dell'adolescente straniero è una gran bella scusa... vi scrivo il programma che simula le risposte di un taiwanese che non sa l'italiano e poi proviamo?

5 giudici ed un 33% di successo? C'è un matematico in sala?

Sbaglio o la prova sarebbe stata corretta con un maggior numero di giudici e magari un gruppo di ragazzi da intervistare corrispondenti al profilo fra cui individuare il software?
Per l'ennesima volta, un enorme GRAZIE!
Gianfranco Porcelli
Una truffa per celebrare l'anniversario del test di turing non può gettare l'intera ricerca sulla IA nel lubidrio generale.

Siamo lontani anni luce da un intelligenza umana artificiale. A malapena riusciamo a dotare le macchine di un intelligenza cje si avvicina a quella degli insetti (e questi ultimi sembrano ancora superiori).

Ma la velocità con cui si evolvono è comunque elevata. Una vera IA cosciente non nascerà da un abile programmatore ma da software capaci di autoprogrammarsi e correggersi apprendendo da soli.
Bah. Ne ho già dette abbastanza su tomshw. É incredibile come, quando qualcosa sia difficile da fare, si aggirino le specifiche.
Se faceva delle sessioni monogiudice probabilmente prima o poi ne usciva una col 100% dei giudici convinti!
Se tutti avessero riportato in coro notizie dovremmo ammettere che c'è un grave problema a livello di organi di informazione internazionali.

Salve, straniero.
Benvenuto sul pianeta Terra
5 giudici ed un 33% di successo? C'è un matematico in sala?


Infatti. Per aver convinto il 33%, il totale deve essere un multiplo di tre.
Ammettiamo pure delle approssimazioni all'intero, ma con un totale di 5 non è comunque possibile.
Secondo The Register ci sono state 300 conversazioni da cinque minuti dei 5 (?) giudici e nel 33% dei casi il bot ha fatto credere di essere un essere umano.

300x33%=100

Matematicamente quadra.

Fonte:
http://www.theregister.co.uk/2014/06/09/software_passes_turing_test/

Mi ricorda molto il test VOIGHT KAMPFF di blade runner. Molto probabilmente Philip K. Dick si sarà sicuramente ispirato a questo Turing, visto che ha scritto il romanzo 18 anni dopo!
E' talmente tanta la "voglia di crederci", che le persone non verificano nulla, quando leggono ciò che vogliono.
Ed il discorso è il medesimo anche in altri campi...
Segnalo (dato che non mi sembra che altri lo abbiano fatto: https://www.techdirt.com/articles/20140609/07284327524/no-computer-did-not-pass-turing-test-first-time-everyone-should-know-better.shtml
Un aspetto che mi pare non abbastanza chiarito è quello del doppio cieco. Esso è implicito nella definiziona che giustamete Paolo ha dato all'inizio: "un esaminatore conversa liberamente ... con un computer e con un essere umano.". La e di congiunzione implca che il test abbia predisposto da qualche anche un vero tredicenne ucraino che risponde con un inglese non perfetto. Dove sono questi dialoghi?
Secondo. Un simile test è di tipo statistico e la statistica si basa, per essere affidabile, su un numero di campioni/test che sono stabiliti con metodo (appunto) statistico. Escludo che 5 sia un campione attendibile. Sarebbe come basare un sondaggio elettorale intervistando 5 persone. Sbagliano con migliaia, figuriamoci con 5.
Insomma è stato usato polygen e la gGente c'ha creduto.

Sarebbe da dire tantissimo su Turing invece.
Come dice il primo teorema di Giacobbo, il limite per t tendente a infinito della differenza fra la deficienza naturale e l'intelligenza artificiale tende a infinito.
Ieri, mentre leggevo la notizia (anzi, i titoli), pensavo: "Domani sicuramente ci sarà la 'sbufalata' di Paolo!" ;-)
Grazie Paolo! Preciso e simpatico!
Il test di Turing non è stato ancora superato solo perché Watson ha cose più interessanti da fare, tipo guidare gli oncologi su quali ulteriori analisi effettuare e su quali le strategie di cura più efficaci.

Ho ricalcolato proprio l'altro ieri l'avvento della singolarità tecnologica (1), sulla base della legge di Moore (2): intorno al 2025. Ci siamo quasi...

1) inteso come la simulazione di una rete neurale di pari complessità rispetto al cervello umano (100G neuroni, 100T sinapsi) e in tempo reale. Nel 2012 IBM ha già realizzato una rete neurale di 530G neuroni e 100T sinapsi, ma con una velocità all'incirca 1800 volte più lenta rispetto alla nostra
2) no, la legge di Moore non rallenta. E' 20 anni che dite che ormai siamo ai limiti fisici, non vi siete ancora stufati di sbagliare? Anzi, prevedo che appena inizieranno ad avere un mercato interessante uscirà hardware specializzato per le reti neurali, che potrebbe accelerare ulteriormente il processo.
E' 20 anni che dite che ormai siamo ai limiti fisici, non vi siete ancora stufati di sbagliare?
Vero, ma sono anche vent'anni che l'AI è più o meno indietro di vent'anni sulle previsioni di vent'anni prima.
Le reti neurali non sono certo la soluzione del problema, anche perché più si impara sul cervello e più si capisce che non funziona come una rete neurale...
Per pura deduzione, posso affermare che quel giornalista era un tredicenne
anche perché più si impara sul cervello e più si capisce che non funziona come una rete neurale...

Il mio certamente no. Assomiglia più al bussolotto a dadi del Paroliamo che ad un organo in grado di pensare...

RUMBLE-RUMBLE-RUMBLE

BAFCAO... Uhm... ABACO! ... ed una F... Abacof ?...

Bof...
Scusate forse mi sbaglio ma se è in doppio cieco un computer perfetto dovrebbe avere il 50% di giudici "imbrogliati", nel senso che parlando con l'umano e il computer questi sono indistinguibili e quindi i giudici sono costretti a tirare a indovinare... in questo senso 33% non sarebbe così negativo come risultato.
ovviamente tralasciamo tutta la storia del tredicenne ucraino e i 5 giudici che si commentano da soli
E' 20 anni che dite che ormai siamo ai limiti fisici, non vi siete ancora stufati di sbagliare?

Vallo a dire ai produttori di CPU che per costruire architetture con il silicio sempre più performanti, sono costretti a raddoppiare i Core, accoppiandoli a FPU, GPU ed ormai, ad un raffreddamento a liquido...
@Stupidocane

Il tuo cervello quando gira fa RUMBLE-RUMBLE-RUMBLE.

Quello di Topolino fa MUMBLE-MUMBLE-MUMBLE.

Uhm: non è che hai poco olio e i "dadi girano a secco"?

Attento che se continui così grippi!
Dire però che Aaron Sloman non è un esperto di Intelligenza Artificiale è però falso, visto che si occupa di machine consciousness e artificial intelligence da decenni. Inoltre il test di Turing non è definito nell'articolo originale di Alan Turing, ma è una cosa successiva. Sicuramente, quando (se) accadrà che un computer passerà il test di Turing, l'articolo originale di Turing centrerà poco o niente. Rileggerlo e usarlo come riferimento oggi, oltre che per motivi storici, ha poco senso (basti pensare che Turing discute di telecinesi, chiaroveggenza, poteri paranormali e telepatia in modo serio).
Detto questo, non abbiamo una strong AI (e non la avremo per anni, se mai la avremo), ovvero la vera macchina che "passa il test di Turing", e gli articoli sensazionalistici che riportano il contrario e qui citati sono semplicemente falsi. Al massimo abbiamo qualche esempio di "weak" AI che funzionano più o meno bene, ma questo lo si sapeva già da decenni.
Fx
Il test di Turing non è stato ancora superato solo perché Watson ha cose più interessanti da fare

Quale Watson? Un uomo intelligente o un sordido ladro bisognoso di una nuova Rosalind Franklin?
@ Guastu

Orpo! Hai ragione! Meglio che ci pensi due volte prima di pensCRINGLE!!!!

Ops...
Matteo,

non volevo insinuare che Sloman fosse incompetente. Infatti ho scritto che "sono stati scelti _alcuni_ giudici (forse cinque in tutto) non esperti". Alcuni dei giudici non sono esperti.

Riformulo comunque la frase per evitare ambiguità.
Anch'io non credo che un 30% possa andare bene per dire se si sta parlando un bot specialmente quando svia le domande (l'ho provato).
Sono d'accordo con tutto :-D
Paolo, Repubblica ha fatto marcia indietro, con la solita nonchalance che la contraddistingue:
http://www.repubblica.it/scienze/2014/06/10/news/computer_si_finge_umano-88594405/?ref=HREC1-9

l’articolo però mi sembra una riscrittura del tuo (ci sono gli stessi esempi e la sequenza logica del discorso ricalca il tuo post). Anche se in coda vieni citato e linkato, non mi sembra molto corretto...
Chissà. Forse il limite nello sviluppo di una AI sta nel fatto che i pc attuali non riescano a gestire un sufficiente flusso di informazioni visto che tutto passa da due soli stati: "0" e "1".

Magari, in futuro, ci saranno computer in grado di gestire più stati.

Avevo sentito parlare del progetto di un computer che potrebbe utilizzare la luce veicolata su fibre ottiche e di un altro che sfrutterebbe gli stati quantici degli elettroni.

Entrambe le tipologie di computer sarebbero in grado di gestire informazioni "più dense" visto che in un solo bit potrebbe essere contenuto, ad esempio, il numero "8".
Siamo in ritardo di 14 anni..
http://www.repubblica.it/scienze/2014/06/10/news/computer_si_finge_umano-88594405/
Repubblica ti parafrasa l'articolo, contento? :D
@ G'Kar

Piuttosto che non ritrattare, meglio piuttosto.

Ed adesso anche Repubblica legge ilDisinformatico. Complimenti Paolo!
@ Guastu

e di un altro che sfrutterebbe gli stati quantici degli elettroni.

D-Wave.
Dario
se è in doppio cieco un computer perfetto dovrebbe avere il 50% di giudici "imbrogliati", nel senso che parlando con l'umano e il computer questi sono indistinguibili e quindi i giudici sono costretti a tirare a indovinare

Non proprio.
Il doppio cieco funziona in modo diverso:

1. dalla popolazione di potenziali valutatori si estraggono e distribuiscono a caso in due sottopopolazioni A e B (randomizzazione) i valutatori effettivi

2. si fa interagire ogni elemento della sottopolazione A solo con il computer (trattamento 1) e ogni elemento di B solo con l'uomo (trattamento 2),
ad insaputa sia del valutatore (primo cieco) sia del personale di assistenza (secondo cieco, da cui doppio cieco)

3. si incrociano le risposte 1 (computer) e 2 (uomo) con i trattamenti 1 e 2 in una tabella 2x2

4. si elaborano i dati con il test esatto di Fisher, per determinare quale sia la probabilità (p) che le differenze nelle risposte delle sottopolazioni A e B siano dovute al caso:
- se p è "piccola" (convenzionalmente, < 0.05), ipotizziamo che il computer sia stato riconosciuto come computer (non ha superato il test di Turing)
- se p è "grande" (convenzionalmente, >= 0.05), ipotizziamo che il computer non sia stato riconosciuto come computer, ma come uomo (ha superato il test di Turing).

Ipotizziamo 100 valutatori a gruppo: senza confronto fra A e B, anche risultati apparentementi eclatanti possono non significare nulla.

Simulazione 1:
- l'85% della sottopolazione A ha creduto erroneamente che il computer sia un uomo
- WOW?
- mica tanto wow: il 98% di B ha riconosciuto correttamente di avere a che fare con un uomo
- risultato del test di Fisher: p = 0,0015: ipotizziamo che il computer non abbia superato il test di Turing.

Simulazione 2:
- il 65% della sottopolazione A ha creduto erroneamente che il computer sia un uomo
- poco?
- dipende: il 78% di B ha riconosciuto correttamente di avere a che fare con un uomo
- risultato del test di Fisher: p = 0,060: ipotizziamo che il computer abbia superato il test di Turing.

Seguono le necessarie verifiche.

Il vero problema è la scelta dell'uomo da far interagire con i valutatori: contro certi soggetti in giro per Internet, anche un computer svalvolato degli anni '50 supererebbe il test di Turing.

in doppio cieco un computer perfetto dovrebbe avere il 50% di giudici "imbrogliati"

Sì, ma praticamente tutti nello stesso gruppo :-)

i giudici sono costretti a tirare a indovinare

No, devono dire quello che pensano: per questo ognuno di loro è sottoposto a un'unica interazione.

in questo senso 33% non sarebbe così negativo come risultato

È pessimo :-)
Simulazione 3 (ricordiamo: ipotizzata su 200 interazioni, non 300):
- il 33% della sottopolazione A ha creduto erroneamente che il computer sia un uomo
- il 60% di B ha riconosciuto correttamente di avere a che fare con un uomo
- risultato del test di Fisher: p = 0,00000092: ipotizziamo (eufemismo) che il computer non abbia superato il test di Turing.
Scusate l'intromissione. L'articolo di Paolo, che pure ogni tanto seguo con grande attenzione, sostanzialmente in questo caso dice forse più cialtronate del presunto cialtrone di cui parla.
Innanzitutto il test di Turing così come esposto e nel suo articolo NON è corrispondente a quello enunciato (o riassunto) da Paolo nel test. E non sono neppure tali le tante varianti e migliorie formalizzate negli anni successivi da chi si è occupato di sviluppare i concetti di Turing.
Il test di Turing non corrisponde assolutamente a quanto qui asserito: non si tratta, per l'interlocutore, di determinare se chi ha di fronte sia una macchina o un essere umano, ma si tratta di determinare fra due soggetti X e Y quale di essi sia l'uomo (A) e quale sia la donna (B). La prova dell'intelligenza del software simulatore è data quando il numero di risposte corrette dell'interrogatore è simile sia nel caso A sia effettivamente un uomo, sia quando A sia sostituito dal software in testing.
Inoltre i soggetti A e B hanno scopi precisi nel test... non si limitano a "dialogare", ma A (sia esso umano o software) avrà il compito di trarre in inganno l'interrogatore... portandolo a dare la risposta sbagliata.
E' un test che richiede strategia, non semplice "simulazione di conversazione"... poiché lo scopo del test non è verificare se la macchina viene confusa con un essere umano reale, ma se la macchina è altrettanto efficace dell'essere umano nel conseguire lo scopo del "gioco".

L'interlocutore potrebbe rispondere correttamente alla domanda "chi è l'uomo e chi è la donna?" anche un numero piccolissimo di volte (es.: il 3% delle volte)... ma se risponde correttamente il 3% delle volte sia in presenza di un essere umano che in presenza di una macchina, allora il test si considera superato.

Personalmente considero veramente un errore da analfabeti informatici confondere i due concetti ("computer o macchina?" = "chi è uomo e chi è donna?") e ritenere che siano provanti della stessa cosa. Nel primo caso, il programma semmai dimostra di essere un buon simulatore di conversazione (e come è già stato detto, di questi simulatori ne sono sempre esistiti di ottimi). Nel secondo caso si cerca di dimostrare qualcosa di completamente diverso: che il software è in grado di simulare una strategia comunicativa, che è cosa ben diversa... così come, in entrambi i casi, è differente l'analisi statistica dei dati che deve essere fatta per determinare il successo o meno rispetto al test.

Non mi dilungo oltre in spiegazioni e concludo con una nota puramente formale e deontologica: chi si reputa uno scienziato, un divulgatore scientifico o un debunker, non può assolutamente permettersi il lusso di confutare qualsiasi teoria (verosimile o improbabile che sia) basandosi su articoli di giornale e comunicati stampa... nel caso in questione, bisognerebbe vedere quali sono stati gli effettivi parametri del test e i dati raccolti, prima di poter giudicare se è una "cialtronata" o un esperimento ben fatto (che sia riuscito o meno, lo si può dire poi a posteriori... sempre analizzando i dati).
Altrimenti il debunker in questione rischia, nell'affrettarsi a dare del cialtrone agli altri, di fare la figura del cialtrone egli stesso... come in questo caso.
@ Paolo, pardon, avevo interpretato la frase come un elenco di alcuni dei giudici non esperti, tra cui Sloman. Grazie per la precisazione.

Per farmi perdonare lascio qui un articolo dello stesso Sloman dove spiega come spesso l'AI "forte" venga trattata in modo parziale ed erroneo anche dagli addetti ai lavori (figuriamoci da Repubblica.it) e come siamo lontanissimi da avere uno straccio di idea sul come si possa creare una macchina cosciente. L'articolo si conclude prendendo in giro il Test di Turing quale mezzo idealizzato per valutare l'intelligenza di una macchina. http://goo.gl/zDfivm :)
"Scusate l'intromissione", disse Khalazar entrando a gamba tesa sulle caviglie altrui...

Aah, i collegamenti ipertestuali, questi sconosciuti...
Khalazar,

solitamente non dedico tempo a chi parte dicendo che ho scritto "cialtronate" o mi classifica fra gli "analfabeti informatici", ma sono di buon umore. Per cui mi limito a dirti che evidentemente la buona educazione e il dialogo civile non sono il tuo forte.


Il test di Turing non corrisponde assolutamente a quanto qui asserito

Avrai notato, se non sei stato troppo distratto dai tuoi travasi di bile, che infatti nell'articolo ho premesso "Non ne esiste una definizione univoca". Inoltre quello che citi tu in dettaglio non è il Test di Turing: è l'Imitation Game originale.

Il Test di Turing, nella sua interpretazione standard, è quello che ho descritto: uno sperimentatore deve decidere se sta conversando con un essere umano o con una macchina (Saul Traiger, "Making the Right Identification in the Turing Test", Minds and Machines 10 (4): 561).


non può assolutamente permettersi il lusso di confutare qualsiasi teoria (verosimile o improbabile che sia) basandosi su articoli di giornale e comunicati stampa...

Infatti. L'ho confutata sulla base dei fatti disponibili e delle conoscenze preesistenti. Comunque se non accetti il mio punto di vista non c'è problema. Tieni presente, però, che gente un tantinello più qualificata di me in materia, tipo Marvin Minsky, liquida l'evento come segue:

"Nothing is learned from poorly designed 'experiments'. Ask the program if you can push a car with a string. And, if not, then, why not?"

E Stevan Harnad, professore di scienze cognitive alla University of Quebec a Montreal: "It's nonsense, complete nonsense," he said. "We have not passed the Turing test. We are not even close."

Fonte: Guardian.

Insomma, potrei anche darti ragione, ma se lo facessi saremmo in due a dire cialtronate.
Gli argonenti di Khalazar, che sono tutti contenuti nel post di Paolo, altro non fanno che confermare che il test di cui tutti parlano non è un test di Turing. Ma su questo il "nostro" mi pare sorvoli, piu' che altro perchè impegnato ad accusare Paolo di "cialtronate". La cosa mi stimola assai. A quando un test per identificare i Troll? Dopo quello della stupidità, potrebbe essere il secondo passo storico per l'umanità. E magari potremmo scorpire che c'è un profodo legame tra le due cose. Non che voglia sostenere che qualcuno di voi qui sia l'uno o l'altro, sia chiaro. Probabilemente sono io :-) calcolate voi le diverse probablità :-)
Beh, dai in fondo questo test a qualcosa è servito ... ha dimostrato che i giornalisti fanno il loro mestiere peggio di un tredicenne urkraino.
Ed ora so che il cane del mio vicino è un Cyborg !!!!!! CHE FIGATA !!!!!
Paolo, ho la PROVA che un individuo non abbastanza riflessivo è venuto in questa pagina a fare il professorino, senza avere prima letto bene il tuo articolo, compresi i link.

Non è la fine del mondo, perché la qualità dell'intervento dell'individuo è facilmente verificabile.

Tuttavia, posso chiedere scusa io dell'accaduto?
In sostanza non è l'esperimento ad aver fallito il test di Turing ma è il Test di Turing che fallisce proprio perché è difficilmente replicabile in quanto non esiste una definizione precisa di "Test di Turing" (essenziale per un test è che sia replicabile).

Comunque, senza fare le primedonne con tacco cento, occhiali in bachelite e il fare di "Il diavolo veste prada" è abbastanza normale che, se blog di tecnologia, magari non italiano e di diversi paesi ( http://goo.gl/NfnB5Y ) pubblicano la notizia è facile che sia presa per vera.

Più che una bufala questa notizia è una bufala il test di Turing (che ammiro per tante cose ma non di certo per questa :D )
Ask the program if you can push a car with a string. And, if not, then, why not?"

Ehm... conosco dei tizi ai quali, se si ponesse una domanda del genere, verrebbero scambiati per un pessimo software di AI dal 100% dei giudici.
Se la versione di Eugene utilizzata è quella reperibile a questo indirizzo http://default-environment-sdqm3mrmp4.elasticbeanstalk.com... beh... l'ho mandato in panne scrivendo:

hi
i don't have any questions to ask
what?
why you need a question?

impallato su "...wait".
Scusate: errori di battitura.

È pessimo
eccetera


Potrebbe essere pessimo.
Simulazione 3:
- il 33% della sottopolazione A ha creduto erroneamente che il computer sia un uomo
- il 90% di B ha riconosciuto correttamente di avere a che fare con un uomo
- risultato del test di Fisher: p = 0,00012: ipotizziamo (eufemismo) che il computer non abbia superato il test di Turing.
Mi pare che "I Fucking Love Science", che ho sempre ritenuto un sito affidabile, sia abbastanza prudente a proposito della notizia, ma non sufficientemente scettico. Devo depennarlo dalla mia lista di siti che si ocupano di scienza? Qui l'articolo:
http://tinyurl.com/ls5qs33
Khalazar,

i nuovi commenti che hai inviato sono offensivi e inutilmente polemici.

Hai avuto la tua occasione per discutere civilmente e l'hai sprecata. Addio, e grazie per tutto il pesce.
I titolisti dell'ANSA dovrebbero ripassare le regole di punteggiatura:
Paolo Attivissimo, ricercatore noto per inaffidabilità
Sono abbastanza d'accordo con iolao: il problema è il test di Turing. E non solo perché è indeterminato ma perché è inadatto a discriminare l'intelligenza e si basa sul concetto che la simulazione di intelligenza sia indicatore di intelligenza stessa, "Se [l'esaminatore] non riesce a distinguere quale dei due è il computer e quale è l'essere umano, allora si può concludere – argomentava Turing – che il computer “pensa” o perlomeno è in grado di imitare perfettamente il pensiero umano e quindi è intelligente quanto un essere umano". Questa tesi mi pare sia stata nettamente falsificata da Searle, con l'argomento della Stanza Cinese, su cui sorvolo perché chiuque non lo conosca puo' googolarlo.
Rimane pero' la necessità, data l'esistenza (pur in tracce sparse) dell'intelligenza umana e dati i tentativi di qualcuno di predisporre sistemi di intelligenza artificiale, di avere dei test appositi per verificare il successo o meno dell'impresa. Sempre che sia possibile un test, rigoroso, su un argomento così impalpabile.
il sottotiolo dell'ansa: "Paolo Attivissimo, ricercatore noto per inaffidabilità"

http://www.ansa.it/sito/notizie/tecnologia/internet_social/2014/06/10/test-di-turing-da-blogger-dubbi-su-esperimento-di-londra_f0daf35c-3b35-431f-84a5-b3040f23d611.html
Faber: l'altro ancora, quello di IBM =)

Riccardo (D.O.C.): mah, per quello che so io tutto il contrario. E' una rete neurale strutturata in macroregioni, tant'è che un altro fronte di studio è proprio questo, capire meglio la macrostruttura del cervello per realizzare delle reti neurali artificiali complesse

Stupidocane: non credo tu abbia presente cosa dice la legge di Moore, parla di transistor, non di mhz o performance. Il problema della scalabilità è legato a parallelizzare l'esecuzione di istruzioni serializzate nel software, ma che non affligge altri contesti (vedi GPU, che gestiscono calcoli ben parallelizzabili e difatti le performance seguono la legge di Moore - e vanno anche oltre, per quello poi hanno bisogno di raffreddamento a liquido o soluzioni particolari). Le reti neurali artificiali sono un altro contesto altamente parallelizzabile, per cui nella peggiore delle ipotesi tra 12 anni avremo un supercomputer in grado di simulare 100G neuroni e 100T sinapsi in tempo reale, mentre se verranno introdotti chip specializzati (di prototipi ne hanno già realizzati) anche prima.
Tom's Hardware ha appena pubblicato un articolo in cui cita proprio questo blog. Almeno ritrattano....
Bellissima la vignetta di PHD comics di oggi http://www.phdcomics.com/comics.php?f=1717
@ Fx

Non parlavo della Legge di Moore, bensì del limite ormai raggiunto dalla tecnologia per la miniaturizzazione dei microprocessori che, per soddisfare la suddetta Legge, ha trovato l'escamotage di raddoppiare i Core. La Legge così non viene infranta, ma riconoscerai che è quasi un imbroglio. La legge stessa ventilava il limite della tecnologia per realizzare i processori sempre più piccoli.

Con il Multicore hanno trovato una scappatoia, pagando scotto (:D) però con maggiori temperature di esercizio. Se il limite non saranno più la miniaturizzazione né le architetture Multicore, probabilmente il nuovo limite sarà quello della temperatura.

Immagina tra qualche anno una CPU tetracontacore... Ammesso che trovino il modo di non fondere la Scheda Madre o creare un Mini Black Hole in salotto, quando guarderai il nuovo film in 12HD Superhypermega7D (odorama incluso) mentre il PC gestirà la tua bellissima casa domotica, con quello che scalderà la CPU ti ci riscalderai la casa a Gennaio... :)

Con bollette da centrale termonucleare, naturalmente. :D

Test di Turing o test della Kobayashi-Maru? ;-)
@Stupidocane
Con il Multicore hanno trovato una scappatoia, pagando scotto (:D) però con maggiori temperature di esercizio.

Io avevo letto il contrario: la "separazione" in più core serviva proprio a meglio smaltire il calore e ridurre i consumi visto che già i Pentium 4 erano molto "calorosi".

Ma forse ricordo male. Sono mie vecchie letture.
Con bollette da centrale termonucleare

Ehm, Stu, una centrale termonucleare (ma anche non termonucleare) la corrente non la consuma, la produce.





Avete sentito anche voi un sonoro "vaffanculo!" provenire da oltre l'orizzonte, a est?
Comunque questo episodio dimostra (come tanti altri) quanto siamo malati di sensazionalismo, come l'eccezionale (anche se falso) sia sempre più allettante del normale e come il WEB 2.0 sia diventato veicolo delle peggiori minchiate mondiali.

Ok, non che ai miei tempi (classe '72) le cose andassero meglio, basterebbe solo ricordare la famigerata raccolta dei codici a barre per acquistare fantomatiche carrozzine, ma del WEB 2.0 fa impressione la velocità di propagazione, la quantità di minchiate veicolate e quel che peggio la qualità ... soprattutto se si pensa che buona parte di queste cose sarebbe verificabile con una veloce ricerca anche su gugol.

... e una notizia diventa vera quando tutti la copiano dalla stessa fonte, qualsiasi essa sia. (non a caso le smentite citano tutte il disinformatico, perché la logica è sempre la medesima).

Malati di sensazionalismo, la vita di tutti i giorni proprio ci annoia.
Stupidocane: sei licenziato :D La miniaturizzazione non ha mai subito rallentamenti di sorta, ha subito rallentamenti la corsa ai MHz proprio perché salendo oltre la barriera dei 4 GHz le dispersioni salivano eccessivamente (il problema di temperatura di cui parli). La conclusione della corsa ai MHz è avvenuta in buona sostanza con il Pentium 4 architettura Prescott, uno dei più grandi buchi nell'acqua di Intel. La corsa ai core invece non pone particolari problemi essendo che finché i processi produttivi continuano a scalare secondo la legge di Moore diventa possibile continuare a aggiungere core a parità di dimensione e senza particolari problemi di temperature. Tanto per farti un raffronto concreto, un processore di fascia "enthusiast", ovvero che sacrifica i consumi per il massimo delle prestazioni, come il i7 4790K è quotato per un TDP massimo di 88 watt con 4 core fisici (8 virtuali) che funzionano a 4 GHz di frequenza base e 4,4 GHz di boost PIU' una GPU HD Graphics 4600. In pratica in 88 watt hai 4 core con IPC (Instruction Per Clock, ovvero quante istruzioni riescono a processare per hz) notevolmente superiore a quello dei Pentium 4 PIU' una GPU con una potenza superiore ai 400 GFLOPS. Con un Pentium 4 Prescott (che so, il 660) ti servivano 115 watt per far funzionare UN SOLO CORE fisico (2 virtuali).

E stiamo parlando di una cpu di oggi fascia enthusiast contro una cpu di ieri di fascia medio alta.

Il problema del multicore è semplicemente che l'esecuzione software è solitamente seriale, quindi se con 2 ghz al posto di 1 avevi (semplifico) un raddoppio di velocità di esecuzione, mentre con tanti software non ottimizzati o non ottimizzabili per il multicore avrai benefici risicati se non nulli. Ma questo è un altro discorso e che vale per una fascia di applicazioni. Per quanto riguarda ad es. la grafica 3D le GPU non hanno problemi di sorta, tant'è che hanno anche migliaia di unità di calcolo (come fossero dei piccoli core).

In conclusione: la tendenza è tenere il TDP massimo fisso, di generazione in generazione, quindi il consumo (e quindi la temperatura) dei processori di fascia alta tende ad essere costante, nonostante ci mettano dentro più core (e adesso anche le GPU, così come peraltro - dimenticavo - controller di memoria e del bus PCI Express, tutte cose che un tempo erano delegate a chip esterni che consumavano parecchi altri watt).
Ehm, Stu, una centrale termonucleare (ma anche non termonucleare) la corrente non la consuma, la produce.

Credevo si capisse che la battuta facesse riferimento alla produzione di una centrale termonucleare per alimentare il supermegachip a 40 Core.

P.S. Qua di vaffa*culi non ne sono partiti. Solo stridere di lame sulle mole per affilarle...

Stupidocane: sei licenziato

Mannoo... mannaggia... ed ora come faccio senza i 4.355.800 € netti al mese del NWO? Mi toccherà vendere due o tre Lambo...

Riguardo la miniaturizzazione, oltre un certo limite non si può comunque andare. Condivido però quanto dici sul fatto che si siano fermati ed abbiano preferito raddoppiare i core.

Infine sulle temperature, credevo che più core significasse più assorbimento, invece...

Bah. Licenziamento meritato. Ora vado a far domanda di pentitismo su altri lidi. Magari scrivo pure un libro dal titolo "Il NWO visto da dentro", sottotitolo "Arieggiato".
Chissà quanti spicci riesco a raggranellare...
@Stupidocane
Mi toccherà vendere due o tre Lambo...

Me ne regali una? Anche se consumicchia un po' la posso convertire a metano.
O GPL?
Che mi consigli?
Guastu, ehm, forse non ci siamo capiti...

[img]http://upload.wikimedia.org/wikipedia/commons/c/cd/Lamborghini_Trattori.jpg [/img]
@Stu
Guastu, ehm, forse non ci siamo capiti...

Embè? Sempre Lamborghini sono. E tutti più nuovi della mia UNO!

Eppoi vuoi mettere ad un incrocio? Chi avrebbe sempre la precedenza?
Stupidocane: per qualche mese hai il sussidio di disoccupazione quindi vai tranquillo :D

Per i limiti: vero ma c'è la gabola... Ogni nuovo processo produttivo è un tot in meno ma rispetto a quello precedente, per alcuni versi è come la storia della lepre e della tartaruga... Puoi vedere un grafico qui:

https://upload.wikimedia.org/wikipedia/commons/c/c7/Comparison_semiconductor_process_nodes.svg
Segnalo un mio articoletto di divulgazione, con dovuto ringraziamento:
http://saintmartinpost.wordpress.com/2014/06/14/la-bufala-di-turing/
A proposito, lo ho detto qui ma forse vale la pena di ripeterlo: Warwick è sicuramente un trombone, ma non ha mai detto di essersi impiantato un microchip nel braccio. O almeno, quello che la gente comunemente intende come microchip.
no ma il bello é che alla pagina dove potevi "provare" il fantomatico chattatore adesso si vantano di aver superato ilt est di Turing.
@Limone
no ma il bello é che alla pagina dove potevi "provare" il fantomatico chattatore adesso si vantano di aver superato ilt est di Turing

Se è per questo, in passato ho avuto a che fare con un programmatore italiano (che non voglio nominare per non fargli pubblicità, visto che è uno spillaquattrini patentato) che da vent'anni sostiene che il suo pessimo e ridicolo chatbot è intelligente (ma alla prova dei fatti si limita ad abbinare le domande ad una lista di risposte preconfezionate... ed è fermo a questo livello da vent'anni!), e quando gli si obietta che non passerebbe mai il test di Turing, si lancia in un sermone chilometrico secondo cui il test di Turing è una ca**ata e tutti gli esperti di IA del mondo sono idioti - mentre lui ovviamente è l'Unico Genio Incompreso...
mi è bastato leggere la discussione pubblicata per capire che qualcosa non tornava. superare un test di turing è tutta un'altra roba. ottime osservazioni!
Non ho molta esperienza in merito, ma i pochi chatbot che ho provato e di cui ho letto a me sembrano estremamente scadenti. Altro che ingannare un umano.
Pur avendo una conoscenza molto sommaria dell'elaborazione del linguaggio e di tutte le complessita' che comporta, mi sono sempre stupito che non si siano fatti particolari passi in avanti, anche semplicemente usando la pura brute-force. Una domanda in particolare che mi viene in mente e' la seguente. E' mai stato realizzato un chatbot che usa come elemento di elaborazione una computer grid o anche solo una workstation, ma magari una base dati come internet per rispondere? Lo so la domanda e' mal posta, pero' la "rete' e' quanto di piu' simile ad una memoria distribuita mi possa venire in mente e magari si potrebbe davvero ottenere un qualche risultato di "successo" sebbene questo non significherebbe che la macchina pensa, ma solo che ha una base dati talmente grande da poter "barare" credibilmente.
Scusate, ma se l'ultima volta che Paolo ha detto un "No" è successo quel che è successo in Russia, dopo quest'altro "No" dobbiamo aspettarci Skynet? ;oP

P.S.: se fa pe' gioca'. :o)
Sono in grado di mostrare che fino ad ora non abbiamo capito la mente perché ci mancavano gli strumenti per poterlo fare. E’ come se cercassimo di codificare le leggi della fisica senza conoscere la matematica.

Credo di aver trovato questi strumenti. Ho pubblicato un lavoro dove espongo i principali risultati:

https://www.academia.edu/6783625
Essendo rientrato da lavoro, ho ora più tempo per commentare il post.
Sono d'accordo che per ora il test di Turing non sia stato ancora realmente superato. Ma questo non toglie che si stiano facendo passi avanti importanti nel campo dell'intelligenza artificiale. Considerando la crescita della potenza di calcolo dei moderni supercalcolatori e i progressi che si stanno compiendo nel campo del deep learning, non è così improbabile che fra qualche anno potremmo assistere davvero al superamento del test.
Una delle questioni centrali, per la quale credo che nessuno conosca ancora la risposta, è se tutta la nostra attività cognitiva è realmente riproducibile in modo computazionale (classico) o se la natura è riuscita, nel corso dell'evoluzione, a sfruttare qualche fenomeno (ad esempio quantistico) che fornisce in realtà al nostro cervello capacità computazionali che vanno ben oltre a quelle che si possono stimare dal "semplice" calcolo delle capacità elaborative dei suoi neuroni (secondo il modello classico: una sorta di congegno in grado di eseguire una prodotto scalare seguito da una funzione a soglia).
Come dicevo, a quanto mi risulta, nessuno conosce realmente la risposta a questa domanda e quindi di fatto ne sappiamo se il cervello si può simulare con un calcolatore tradizionale.
Personalmente credo di poter fornire alcune idee importanti per capire come dovrebbe essere fatto un "sistema cognitivo" intelligenti. Come ho anticipato nel post precedente penso che non abbiamo capito come funziona la cognizione, vale a dire come funzionano i processi mentali, perché non abbiamo avuto gli strumenti per poterlo fare. La situazione è realmente profondamente analoga alle riflessioni sulla fisica prima della scoperta degli strumenti matematici essenziali.
Per comprendere la logica della cognizione è necessario sviluppare gli strumenti che ci consentono di comprendere, in modo corretto alcuni concetti che usiamo tutti intuitivamente, ma che non sappiamo precisare. Due di questi concetti sono quello di struttura e quello di regola. Tutti ne abbiamo una concezione intuitiva, ma chi sa spiegare cosa sono realmente?
Penso che per molti sia difficile comprendere l'importanza di questi punti. Ma vi posso assicurare che si tratta di questioni tutt'altro che banali e tutt'altro che "filosofiche". Per fare un altro paragone credo che la situazione sia simile ad avere un concetto intuitivo di "quantità" come lo potevano avere gli uomini prima della scoperta dei primi rudimenti della matematica, e avere gli strumenti per trattare invece il concetto di numero.
Ebbene oggi siamo un po' come gli antichi prima dello sviluppo del concetto di numero. Non abbiamo gli strumenti per comprendere la logica generale dei processi cognitivi.
Per chi fosse interessato ad approfondire questi argomenti, segnalo il lavoro che ho indicato nel commento precedente. Sono disponibile per rispondere a domande e anche ad eventuali critiche.
Una possibile definizione di intelligenza.

Penso che il test di Turing aggiri il problema di definire l’intelligenza. Provo allora a proporne una possibile definizione.

Secondo me è intelligente un sistema che:
1. è in grado di costruire buone rappresentazioni della realtà;
2. è in grado di applicare a queste rappresentazioni, delle leggi, delle regole, che gli consentono di generare previsioni per il futuro;
3. è in grado di usare leggi e regole per pilotare gli eventi in modo di evitare le situazioni negative e ottenerne invece di positive.

Tanto più il sistema è efficiente nel fare queste cose, tanto più è intelligente.

Questa possibile “definizione” di intelligenza, potrebbe essere “formalmente corretta”, ma lascia aperte molte domande.

Questo accade sostanzialmente perché non sappiamo come si fa concretamente a realizzare queste cose. Come si fa a rappresentare la realtà? Come sono codificate le informazioni all’interno del cervello? In cosa consistono le leggi e le regole che permettono di fare previsioni e/o di pianificare le nostre azioni? Come si identificano? Come si implementano? Come si fa a rappresentare le situazioni? Come si fa a distinguere quelle positive da quelle negative e da quelle neutre?

Sono tutte domande per le quali, nella cultura scientifica diffusa, non ci sono ancora risposte chiare e definitive.

Ma forse dobbiamo anche chiederci perché ancora non capiamo queste cose? Perché sono fenomeni troppo complessi o per altri motivi?
@Devis Pantano
Ricordo che anni fa, proprio a Padova, avevamo tenuto un workshop su questo argomento, che però non era approdato a nessuna conclusione.
Con riferimento al tuo ultimo messaggio, vorrei però osservare che
Secondo me è intelligente un sistema che:
1. è in grado di costruire buone rappresentazioni della realtà;

Forse allora dovremmo chiederci cos'è la realtà, perché di quella fisica che conosciamo esistono modelli matematici che la rappresentano adeguatamente, meglio di quanto non sappia fare il nostro cervello
2. è in grado di applicare a queste rappresentazioni, delle leggi, delle regole, che gli consentono di generare previsioni per il futuro;
Esistono sistemi di previsione (statistici, per esempio, o esperti) che funzionano egregiamente, ma che nessuno si sognerebbe di definire intelligenti. Al contrario io, che del tutto stupido non credo di essere, non sono assolutamente in grado di prevedere neanche se mia moglie gradirà il regalo che le ho comprato per il suo onomastico
3. è in grado di usare leggi e regole per pilotare gli eventi in modo di evitare le situazioni negative e ottenerne invece di positive.
Vedi il punto precedente. Certo, quando ci cacciamo in una situazione negativa poi diciamo "ho fatto una stupidaggine", ma questo non implica che siamo non intelligenti.
In conclusione, io credo che la definizione che tu proponi si applichi bene anche a macchine (ad esempio a molti controllori) non intelligenti. Credo invece che la chiave del problema vada ricercata nella parola "ragionamento", ovvero la capacità di inferire cose che prima non esistevano, e di cui non esisteva neanche l'algoritmo per generarle.
@ Riccardo
Comprendo le tue perplessità. La definizione che propongo è per forza di cose una versione “estremamente compatta” di idee che per essere illustrare richiedono molte pagine e che non possono essere realmente condensate in poche righe. Proprio per questo motivo penso che essa possa essere “formalmente corretta”, anche se da sola non dice granché.
Questa definizione potrebbe realmente contenere informazione utile se noi condividessimo delle conoscenze comuni (che in questo momento non sono disponibili nella cultura scientifica diffusa) su come il cervello rappresenta la realtà, su cosa sono le leggi e le regole, su come esse si possono implementare e usare all’interno di un sistema cognitivo, e molte altre cose.
Posso replicare brevemente nei tre punti, ma ancora una volta si tratta di risposte che sintetizzano argomenti in realtà molto complessi..
Per il primo punto, sono d’accordo che la fisica consente di rappresentare alcuni aspetti della realtà. Ma a quale livello lo fa? La realtà in cui viviamo è caratterizzata da molti fenomeni e proprietà emergenti. Se vogliamo capire come si rappresenta il mondo dobbiamo capire la logica profonda del fenomeno dell’emergenza. Dobbiamo capire per quale motivo siamo in grado di rappresentarci le cose concrete come esse appaino a livello macroscopico, anche ignorando totalmente che essi sono composti da atomi, molecole ecc…
Per il secondo punto, ti posso dire che il nostro cervello funziona diversamente dai sistemi di simulazione al calcolatore. Questi ultimi usano un insieme limitato di leggi universali, o comunque di ampia validità (fisiche, chimiche, matematiche, statistiche ecc…) Mentre il nostro cervello sa usare centinaia di migliaia di regole che compaiono a livello emergente. Queste hanno un aspetto diverso dalle leggi fisiche, sono molto meno universali, ma possono essere comunque sufficientemente affidabili se applicate in contesti particolari. Qui si tratta di spiegare cosa sono e come funzionano queste “regole emergenti”. Non posso farlo in un commento, servono molte pagine. Ti posso dire che queste regole compaiono passando da rappresentazioni più basilari ad altre che sono astrazioni delle prime usando metodi opportuni.
Per il terzo punto sono d’accordo che l’inferenza di nuove conoscenze, è uno degli aspetti più rimarchevoli dell’intelligenza, ma essa compare solo nelle sue forme più evolute. Prima di arrivare a queste dobbiamo capire come funziona “l’intelligenza di base”, quella presente negli animali. Per questo tipo di intelligenza, quanto espresso nel punto 3 credo sia, ancora una volta “formalmente corretto”.
Puoi trovare ulteriori spiegazioni nel lavoro che ho segnalato. Sarò lieto di rispondere ad altre domande e altre critiche.
Cialtronata in cui persino super quark è inciampato, oramai sta diventando un programma da serve.