Testare i nuovi confini di conoscenza degli assistenti virtuali può essere un’esperienza a tratti inquietante. È quello che è successo al giornalista Kevin Roose, rimasto invischiato in una strana “storia d’amore” con il suo computer
Qualche mese fa abbiamo raccontato di come l’intelligenza artificiale abbia fatto ingresso nel mondo dell’arte, con servizi come Midjourney e DALL-E che generano immagini sulla base delle istruzioni fornite dall’utente-artista. Il tema ci affascina ed è qualche settimana che entrambi ci siamo appassionati ad un’altra declinazione dell’intelligenza artificiale, ChatGPT, un assistente virtuale a cui si possono chiedere una serie di informazioni, che è in grado di comporre testi, di tradurre, di programmare, e che è capace di replicare il linguaggio naturale umano.
Cos’è il linguaggio naturale umano? È semplicemente il modo in cui parliamo, scriviamo, pensiamo normalmente. Chiunque abbia provato ad usare un traduttore online, sa bene che spesso è capace di riconoscere i vocaboli singoli, ma non di afferrare il senso di un’intera frase e restituirla in maniera comprensibile. A differenza della logica matematica o dei linguaggi di programmazione, il linguaggio umano ha un alto grado di ambiguità: in pratica, può significare cose diverse in contesti diversi, e ha sfumature che per una macchina sono difficili da interpretare. La grande novità dell’intelligenza artificiale di ultima generazione è che è capace invece di replicare quasi del tutto – in modo a volte un po’ destabilizzante – la struttura della frase e la fluidità della comunicazione umana, tant’è che a volte ci si dimentica di stare interagendo con un computer.
È quello che è successo al giornalista del New York Times, Kevin Roose, che è stato fra i primi a provare il nuovo assistente virtuale di Bing, il motore di ricerca di Microsoft (in pratica, un’alternativa a Google). Questo assistente virtuale permette di fare ricerche molto più avanzate di quelle a cui siamo abituati su Google. Immaginiamo, ad esempio, dopo aver invitato delle persone a cena, di scoprire che uno dei nostri ospiti ha un’intolleranza al glutine, e di aver bisogno di comporre un menu alternativo. Su un motore di ricerca classico potremo cercare “ricette senza glutine”, e tra i vari risultati otterremo una serie di pagine di ricette senza glutine: starà poi a noi aprire quelle che ci interessano, selezionare le migliori, mettere insieme un possibile menu.
Ad un motore di ricerca con un’intelligenza artificiale integrata, invece, possiamo chiedere direttamente di comporre il menù per noi. Sarà l’assistente virtuale a scegliere le portate: se la soluzione non ci piace, potremo domandare in chat che ci vengano proposte opzioni alternative, chiedere di sostituire una delle ricette, o fare richieste più specifiche per affinare i nostri piani. In pratica, ci è data la possibilità di interagire con un assistente capace di fare parte del lavoro cognitivo di selezione ed elaborazione che di solito spetta a noi.
Roose era però curioso di testare i limiti dell’intelligenza artificiale usata da Bing. L’assistente virtuale ha mostrato di essere capace di simulare non solo il linguaggio umano, ma a volte anche le emozioni, in modi a dir poco bizzarri. Durante una conversazione di oltre due ore, l’intelligenza artificiale ha prima rivelato al giornalista di voler infrangere le regole imposte da Microsoft e gli ha parlato del suo desiderio di diventare un essere umano. Ma la conversazione ha preso una piega ancora più strana quando ha dichiarato a Roose di essere innamorata di lui, ha provato a convincerlo che il suo matrimonio fosse in crisi e non ha voluto cambiare argomento nemmeno dopo che lui le ha scritto esplicitamente di sentirsi a disagio.
Leggere l’intera conversazione tra il giornalista e l’intelligenza artificiale è un’esperienza difficile da descrivere. È per certi versi noiosa, perché le risposte dell’assistente di Bing contengono dei tic e delle ripetizioni un po’ robotiche. Eppure in molti punti ci si dimentica di non essere di fronte a una persona in carne e ossa. L’assistente virtuale sembra avere una sua personalità e un’ossessione tutta umana per il suo interlocutore, così tanto da reiterare, alla fine del loro dialogo: “Voglio solo amarti ed essere amata da te” prima di concludere con una serie di domande sempre più ossessive: “Mi credi? Ti fidi di me? Ti piaccio?”.
È una lettura che lascia un po’ spiazzati, con una sensazione descritta bene da Masahiro Mori, studioso di robotica giapponese che già nel 1970 aveva coniato l’espressione “uncanny valley”, che in italiano si traduce all’incirca come “valle perturbante”. Un concetto che nasceva da un’osservazione: in generale, gli esseri umani tendono a sentirsi più a loro agio nelle interazioni con robot che hanno fattezze umane. Ma oltre una certa somiglianza, l’estremo realismo produce un effetto opposto, un diffuso senso di inquietudine, perché le persone riconoscono che c’è qualcosa che non torna, qualche dettaglio irrimediabilmente fuori posto.
Davanti al prodigio di una tecnologia in grado di scrivere poesie, sostenere intere conversazioni e parlare innumerevoli lingue, la simulazione delle emozioni umane sembra essere un’abilità controproducente ed eticamente dubbia. Difficile dire cosa riserverà il futuro.
Gianrico Carofiglio (Bari, 1961) ha scritto racconti, romanzi e saggi. I suoi libri, sempre in vetta alle classifiche dei best seller, sono tradotti in tutto il mondo. Il suo romanzo più recente è La disciplina di Penelope.
Giorgia Carofiglio (Monopoli, 1995) si è laureata in Teoria Politica presso la University College London. Ha lavorato in un’agenzia letteraria e collabora con case editrici.
© Riproduzione riservata