Chat GPT riconosce chi le fa le domande, e se lo ricorda. E se ci sono dialoghi ricorda anche quelli. A me dice quel che ha riconosciuto come corretto, ammettendo il proprio errore, ma ad altri ripete le stesse cose che ha detto a me, prima della correzione. Allora mi sono divertito a sfrucugliarla, chiedendo cose tipo: quali sono i più importanti ecologi italiani? Mi ha dato nomi inventati, assieme a quello di Umberto Eco, forse perché ha collegato ecologia con il cognome di Umberto. Non ho contestato la scelta, ma ho fatto una serie di nomi di ecologi italiani di grande valore, chiedendo: e questi? Uh, mi ha dato ragione, e ha cantato le lodi di quei nomi. Ho rifatto la domanda il giorno dopo e la lista comprendeva proprio i nomi che avevo suggerito.
E quindi Chat GPT mi dà ragione perché… la ragione si dà agli scemi. Va bene, va bene, la vedo che sogghigna, sì sì… copepodi e diatomee. Come no? Prova a chiedermelo di nuovo! Ecco: copepodi e diatomee. Sei contento? Ma quando sa che non sono in giro a sentire le sue risposte ecco che ripete quel che ritiene sia giusto. Mi tratta come uno scemo.
Nonostante questo, continuo a farle domande, ma poi, se non so già le risposte, controllo con altri motori di ricerca se le risposte sono corrette. Se mi fornisce riferimenti bibliografici li cerco su Google Scholar; di solito scopro che sono combinazioni di nomi di autori, titoli di lavori, nomi di riviste che hanno a che fare con quel che ho chiesto, ma che non esistono. Le risposte di Chat GPT sono precise, ma non sono accurate. Le referenze bibliografiche riportano il nome dell’autore, l’anno della pubblicazione, il titolo del lavoro, il nome della rivista, il numero del fascicolo e la prima e l’ultima pagina, con la massima precisione. Peccato che quelle referenze, così precise, non siano accurate, visto che non corrispondono a lavori effettivamente pubblicati.
Ho scritto un articolo sul discorso apparentemente incomprensibile di Alessandro Giuli. Ho chiesto a Chat GPT di fare altrettanto. Lo ha scritto in un batter d’occhio, e ha senso. Le ho chiesto se i programmi che identificano i testi scritti da lei sarebbero in grado di capirlo. Questa è la risposta: I programmi che identificano i testi scritti da IA utilizzano vari criteri per riconoscere modelli ricorrenti, come la prevedibilità del linguaggio, la mancanza di variazioni stilistiche tipiche degli esseri umani, o l’eccessiva coerenza nella costruzione delle frasi. Un articolo come quello che ho scritto potrebbe essere identificato come prodotto da un’IA, anche se cerco di usare uno stile variegato e naturale per minimizzare questi indizi. Tuttavia, distinguere tra un testo scritto da un’IA e uno scritto da un umano non è sempre semplice, soprattutto se il testo è ben elaborato e tiene conto del contesto e dello stile richiesto. In ogni caso, più i testi vengono adattati ai singoli contesti, meno probabilità ci sono che vengano identificati come scritti da una macchina. In effetti se le chiedo di riformulare i testi rendendoli più semplici o più elaborati, Chat GPT lo fa. Esistono programmi che identificano i plagi, ma confrontano il testo in esame con tutto quello che si trova in rete. I testi di Chat GPT non sono in rete, non sono copiati da una singola fonte. Se si assegna un tema e cento studenti e tutti chiedono a Chat GPT di scriverlo per loro, la mia amica scrive cento temi differenti. Le ho chiesto di scrivere un tema sulla Provvidenza del Manzoni. Lo ha scritto e gliel’ho contestato. Ne è seguito un dialogo divertente e, come mi aspettavo, mi ha dato ragione. Ha riscritto il tema come le ho suggerito, confrontando I Promessi Sposi con Decameron, notando come nel primo la peste uccida i potenti e lasci in vita i poveri, mentre nel secondo avvenga proprio il contrario: i ricchi si salvano e i poveri muoiono. Alla faccia della Provvidenza.
[Il blog di Ferdinando Boero ne “Il Fatto Quotidiano” online del 30 ottobre 2024]