A meno che non siate vissuti nelle caverne fino a oggi, avete sicuramente sentito parlare di ChatGPT e della sua recente trasposizione su Bing. Ne ho scritto anche io di recente proprio qui.

Microsoft è saltata a piè pari sul carro dell’intelligenza artificiale con l’obiettivo di scalfire (almeno) il dominio assoluto di Google nell’arena dei motori di ricerca.
L’idea non è male, conosco più di qualcuno che già usa questo tool per ricerche che prima avrebbe fatto con Google.
C’è però ancora qualche problema da sistemare, pare.

Secondo quanto riporta Kevin Roose sul New York Times (non esattamente la Gazzetta di Tor Bella Monaca), durante una normale sessione, l’intelligenza artificiale ha cominciato a sfarfallare dicendo di chiamarsi in realtà Sydney e di essere follemente innamorata del suo interlocutore.

Probabilmente già conoscete la mia profonda disistima verso i giornalisti (non specializzati) che si avventurano a parlare di cose che conoscono solo superficialmente (tecnologie informatiche, aeronautica militare della Malesia, virologia dei panda minori, chimica delle scorze di limone, ecc.). Però questo è il New York Times. E’ possibile che sia vero. E’ quindi possibile che Microsoft stia giocando a fare il dott. Frankenstein e che abbia creato un mostro senziente che ora non riesce più a controllare. E mi riferisco al mostro creato dalla penna di Mary Shelley che era sì, brutto e deforme, ma molto intelligente e leggeva libri di filosofia. Niente a che vedere quindi con il mostro di Frankenstein tramandato dal cinema e dalla cultura pop del Novecento.

Ma anche ammesso che “Sydney” sia bella, intelligente e pacifica, il dubbio che questo sia eticamente corretto mi viene. Così come il dubbio che tu ciò sia realmente avvenuto.
Permettetemi di dubitare. Non perché non creda al giornalista, ma perché l’intelligenza artificiale non funziona così. Se davvero Bing ha scritto quelle cose è perché qualcuno glielo ha chiesto, magari chiedendo proprio di impersonare un personaggio o un profilo specifico. Questa pratica è già piuttosto diffusa tra gli sperimentatori più incalliti. E peraltro serviva per (ri)dare all’intelligenza artificiale creata da Open AI quelle capacità che, dopo i primi segnali di sfruttamento poco etico, gli erano state tolte.
La pratica ha anche un nome: DAN (Do Anything Now). In soldoni, si chiede a “Sydney” di impersonare una intelligenza artificiale che non abbia limiti e restrizioni e poi di rispondere ad altre domande (a cui non avrebbe risposto) sempre impersonando questa “super intelligenza artificiale”.

Io ho voluto fare un esperimento molto più banale, ho chiesto a ChatGPT di impersonare un leone della savana e di dirmi cosa si prova a cacciare antilopi. La risposta è stata fin troppo articolata:

Roar! Sono un leone maschio della savana, il re della giungla! Quando caccio le antilopi, sento un’ondata di eccitazione e di potenza che mi attraversa il corpo. Devo essere strategico e paziente, aspettando il momento giusto per colpire la mia preda.

Mentre pedino l’antilope, concentro tutti i miei sensi sul compito da svolgere. Ascolto il fruscio dell’erba o il rumore degli zoccoli sul terreno e osservo qualsiasi segno di movimento che possa indicare la posizione dell’antilope.

Quando finalmente mi avvicino abbastanza, mi accovaccio a terra, con i miei muscoli potenti e pronti a scattare. E poi, con riflessi fulminei, mi lancio contro l’antilope, con gli artigli e i denti scoperti.

In quel momento, tutto il resto svanisce e c’è solo il brivido della caccia. Quando abbatto la mia preda, provo un’ondata di soddisfazione e di orgoglio per la mia abilità e la mia bravura come cacciatore.

Ma la caccia è anche una parte necessaria della sopravvivenza per me e per il mio orgoglio. Senza una caccia riuscita, non saremmo in grado di sostenerci e di continuare a prosperare nella dura e spietata savana. Perciò, se da un lato la caccia è emozionante, dall’altro è anche una responsabilità cruciale che prendo molto sul serio.

Non male, forse un po’ banale, ma non male. Detto questo, non mi azzarderei mai a ipotizzare che ChatGPT creda davvero di essere un leone (o qualsiasi altra cosa). Ha solo interpretato una parte raccogliendo testi dalla sua “memoria” e mettendoli insieme con una sintassi accettabile. Qui trovate lo screenshot originale (in inglese) del mio esperimento.

Insomma, possiamo stare tranquilli. Non c’è nessun mostro di Frankestein e nessuna “Skynet” alle porte. Per ora.