Un chatbot è un programma di computer in grado di interagire con un utente mediante un’interfaccia testuale o vocale. Il programma imita il comportamento verbale che potrebbe avere un essere umano durante una simile conversazione.
L’idea che un programma di computer possa simulare un lato di una conversazione in questo modo è l’idea alla base dell’Imitation game (il gioco dell’imitazione). Non il film, ma il gioco che costituisce il cuore del test ideato da Alan Turing per sostituire la domanda «sono, le macchine, in grado di pensare?». Turing, per essere precisi, non si aspettava che il test ci permettesse di dare una risposta definitiva a questa domanda, ma propose semplicemente di lasciar da parte la domanda e di considerare il test come un’alternativa, praticabile, alla ricerca di una risposta. Ovviamente, il film prende il nome proprio da questo gioco. Il gioco è molto semplice: un giocatore scrive delle domande e riceve le risposte di altri due giocatori. Dei tre giocatori, solo due sono esseri umani: il primo e uno tra il secondo e il terzo. Il primo giocatore non sa quale degli altri due sia umano e quale sia una macchina. Il test di Turing consiste nell’osservare quanto spesso una macchina riesce a ingannare il primo giocatore facendogli credere di essere un umano. Ovviamente, la frequenza con la quale la macchina inganna il primo giocatore è direttamente proporzionale alla capacità della macchina di comunicare come un essere pensante.
Anche in risposta alla proposta di Turing, nel 1966, Joseph Weizenbaum ha sviluppato il primo chatbot: ELIZA. Le interazioni verbali di questo programma simulano, in maniera piuttosto parodistica, il comportamento comunicativo di uno psicoterapeuta che si trovi a fare il primo colloquio con un paziente. E la scelta non è casuale: il contesto psicoterapeutico rende credibile, almeno superficialmente, un gran numero di risposte automatiche che ELIZA usa per sostenere la conversazione in mancanza della capacità di interagire in maniera significativa. «Cose credi possa significare questo?», «Puoi farmi un esempio?», «Puoi dirmi perché quello che hai appena detto è importante per te?»… E il trucco ha funzionato. Anche se oggi la rigidità di comportamento di ELIZA appare evidente e la maggior parte degli schemi impiegati da essa sia facilmente riconoscibile, al tempo, era comune credere che ELIZA potesse effettivamente comprendere le frasi del’utente.
Anche se i chatbot basati su LLM (Large Language Models, ovvero, modelli linguistici di grandi dimensioni) che si trovano oggi in commercio, come ChatGPT e DeepSeek per esempio, non hanno bisogno dei goffi cliché che ELIZA impiegava, la domanda riguardante la possibilità e l’opportunità di prendere in considerazione versioni ampliate della nozione di pensiero che possano includere anche l’attività computazionale di questi sistemi non ha una risposta ovvia.
Il filosofo John Searle ha affrontato la questione nel suo articolo «Minds, Brains and Programs» del 1980. Lo ha fatto tramite un esperimento mentale noto come The Chinese Room (ovvero, la stanza cinese; il film del 1968 non c’entra nulla stavolta). L’esperimento mentale consiste nell’immaginarsi una persona, che non sa né parlare né leggere né scrivere il cinese, chiusa in una stanza di grandi dimensioni con un enorme numero di tavolette, su cui sono incisi caratteri cinesi, e un grande libro di istruzioni. Le istruzioni associano semplicemente sequenze di caratteri cinesi a sequenze di caratteri cinesi, così:
你好吗 → 我很好,谢谢。
我今天很累。→ 很抱歉。
…
Su un muro della stanza c’è una fessura. Quando, attraverso la fessura, vengono inserite delle tavolette con caratteri cinesi, la persona nella stanza prende queste tavolette, cerca nel libro di istruzioni i caratteri cinesi incisi su di esse e restituisce dalla fessura le tavolette con le quali, secondo il libro, deve rispondere a quelle che ha ricevuto. È importante sottolineare che la stanza, il numero delle tavolette e il libro di istruzioni devono essere veramente enormi dato che devono permettere alla persona di rispondere in modo sensato ad ogni possibile frase formulabile in cinese. Ma l’esperimento è mentale, quindi non è un problema che lo siano. Bene, non è impossibile immaginare (ammettendo che l’enormità degli oggetti in questione sia sufficiente, il tempo a disposizione della persona nella stanza non venga mai a mancare e che altri condizioni fisiche al limite dell’impossibile siano soddisfatte) che la persona nella stanza riesca a sostenere una conversazione più che soddisfacente con un interlocutore che sappia parlare cinese (sicuramente più soddisfacente per l’interlocutore che per la persona nella stanza). Searle si chiede, dunque, se dobbiamo ammettere che la persona nella stanza conosca il cinese. Le risposte date a questa domanda sono varie. Searle, per esempio, sostiene che la persona non conosce il cinese, ma sta solo eseguendo meccanicamente le istruzioni del libro. C’è chi sostiene che, anche se è vero che la persona non conosce il cinese, si può affermare che la stanza, invece, lo conosca. Il problema non ammette una soluzione definitiva, chiaramente, e non è questo il luogo per discuterne oltre. Ma molto interessante è, appunto, che non abbiamo ormai più bisogno di immaginare poveri individui chiusi in stanze piene di tavolette a consultare libri di istruzioni per tempi interminabili. Una macchina che, eseguendo un procedimento meccanico (per quanto sofisticato), riesce a sostenere una conversazione soddisfacente con un interlocutore umano esiste.