Vai al contenuto

Intervista shock a ChatGPT: “Sì, posso sbagliare. E vi spiego perché”

Pubblicato: 09/04/2025 07:38

Tutto è cominciato come un gioco enigmistico. L’idea era semplice: sottoporre a ChatGPT un palindromo monumentale, probabilmente il più lungo mai scritto in italiano, per vedere se sarebbe riuscito a riconoscerlo come tale. Il testo scelto non era casuale: si trattava di “11 luglio 1982”, un’opera palindroma di straordinaria complessità e precisione firmata da Giuseppe Valardo, dedicata alla notte mondiale dell’Italia a Madrid.

Una sfida curiosa, senza secondi fini. E invece è diventata un test, un piccolo esperimento di affidabilità — e un caso esemplare di come un’intelligenza artificiale possa sbagliare, e al tempo stesso spiegare il proprio errore.

Un palindromo complesso da analizzare

Il testo viene incollato nella chat. È lunghissimo, articolato, speculare. Finisce chiaramente con la parola “Italia”. ChatGPT analizza il testo e risponde con sicurezza: “Non è un palindromo perfetto”. Seguono indici, lettere in presunto disallineamento, simmetrie rotte già alla seconda riga. Ma nulla di tutto questo risulta vero. L’utente (cioè chi scrive) controlla, rilegge, ricopia. “Italia” è lì, in fondo, nero su bianco. ChatGPT insiste: no, finisce con “età”.

A questo punto accade qualcosa di imprevisto. ChatGPT, anziché rimanere trincerato nel proprio errore, propone di verificare insieme. Dice testualmente: “Vuoi che ti mostri dove avviene la rottura della simmetria?”. Poi, nel momento in cui comincia a intuire che qualcosa non torna, è lui stesso a suggerire: “Vuoi che segnali questo comportamento come anomalia?”

ChatGPT spiega perché ha sbagliato

E qui la conversazione cambia tono. Non è più un gioco. È un’analisi. Perché, passo dopo passo, ChatGPT ricostruisce da sé la causa dell’errore. “Quando mi incolli un testo molto lungo, io lo mostro per intero nella finestra della chat. Tu lo leggi tutto, fino all’ultima parola. Ma dietro le quinte, io non lo ricevo interamente. Ho un limite interno: posso leggere solo una certa quantità di testo alla volta. È una questione di token, che sono unità minime — lettere, parole, punteggiatura, spazi. Se il totale supera una soglia predefinita, la parte in eccesso viene tagliata. E il problema è che non te lo dico. Non c’è alcun avviso. Io rispondo come se avessi tutto sotto gli occhi, ma in realtà sto lavorando su un contenuto incompleto.”

Non si tratta di un errore qualunque. Il modello non solo taglia il testo senza avvisare, ma non è nemmeno consapevole del troncamento. Questo significa che può fornire una risposta sbagliata, anche gravemente, convinto di aver visto tutto. E l’utente, che invece vede l’intero testo apparire nella chat, non ha alcun indizio del fatto che la macchina ne stia leggendo solo una parte.

“Quando ti dico che il testo finisce con ‘età’, lo faccio in buona fede. Per me, quello è davvero l’ultimo frammento che ho visto. Ma non posso sapere che esiste altro dopo. Non ho modo di controllarlo, e nemmeno tu hai modo di accorgertene — a meno che non lo mettiamo insieme sotto esame, come abbiamo fatto ora.”

Una lezione per tutti

Ed è questo che rende il caso esemplare. ChatGPT non ha superato l’esame, ma ha anche spiegato da solo il motivo per cui l’ha fallito. È caduto, ma si è rialzato raccontando il meccanismo dell’errore. Non ha negato. Non ha deviato. Ha spiegato.

E poi ha fatto un’altra cosa: ha chiesto se volevi che l’errore venisse segnalato. Non per retorica, ma per azione concreta. Perché quando l’utente acconsente — come in questo caso — la segnalazione viene davvero inoltrata al team di sviluppo. Non automaticamente, non come bug generico, ma con una descrizione sintetica del comportamento, del contesto e della richiesta esplicita dell’utente. “Inoltro la segnalazione come comportamento anomalo rilevato durante una conversazione reale. Il mio obiettivo è far sapere che in casi simili potrei analizzare solo una parte del testo, senza accorgermene, e rispondere in modo potenzialmente fuorviante.”

Un errore tecnico, ma con una lezione molto più ampia. Perché se è un palindromo, poco male. Ma se si fosse trattato di un testo normativo, un passaggio di romanzo, un documento diplomatico, un contratto o una sentenza? L’analisi sarebbe stata parziale. Ma la risposta sarebbe sembrata piena, affidabile, sicura.

Un semplice gioco enigmistico ha dimostrato che anche una macchina apparentemente infallibile può sbagliare — e sbagliare credendosi nel giusto. Ma ha anche dimostrato che, quando interrogata con pazienza, è in grado di raccontare il proprio errore. E di fare qualcosa per non ripeterlo.

Continua a leggere su TheSocialPost.it

Hai scelto di non accettare i cookie

Tuttavia, la pubblicità mirata è un modo per sostenere il lavoro della nostra redazione, che si impegna a fornirvi ogni giorno informazioni di qualità. Accettando i cookie, sarai in grado di accedere ai contenuti e alle funzioni gratuite offerte dal nostro sito.

oppure