ChatGpt ChatGpt

Di ChatGpt non ci si può fidare: ecco le cose che inventa

Ma davvero ci si può fidare dell’intelligenza artificiale? La domanda se la pongono tanti, soprattutto quelli che, avvezzi all’utilizzo di Internet, di Google e dei device, cercano in rete qualsiasi risposta ai loro dubbi, alle loro esigenze e ai quesiti della vita quotidiana. Ma se la risposta ad un dubbio riguarda una ricetta di cucina, piuttosto che una curiosità su un attore o uno sportivo è una cosa, con tutto il rispetto di chi fa queste ricerche e dei dati provenienti da questo genere di informazione.

Un’altra cosa sono ricerche di cose serie, magari di leggi, normative, pensioni, lavoro o tasse. La certezza che in rete si trovino risposte è sempre stata vaga. Ci sono siti e siti, pagine e pagine. L’attendibilità di una notizia o di una informazione dipende dalla pagina che si apre. Adesso però la prima risposta che Google mette davanti agli internauti è quella proveniente da ChatGpt.

Che pensione devo prendere o quando andrò in pensione se oggi ho 20 anni di versamenti? Quando scade il bollo auto o quando scade questa tassa o questa imposta? Domande comuni a tanti. Ma la risposta dell’intelligenza artificiale è sicura o rischiamo di fare un disastro fidandoci di ChatGpt?

ChatGpt non ci si può fidare: ecco le cose che inventa

Una cosa sono le persone, un’altra è la macchina. Sicuramente la differenza in questo caso è netta. In ogni caso per fidarsi di una notizia o di una informazione dipende dall’interlocutore a cui la si chiede. Questo vale in ogni caso. Anche perché se per esempio cercate legge 104 su Google, ecco che vi risponde “AI Overview” che riporta diverse informazioni, ognuna prelevata da un diverso sito.

Siamo di fronte quindi a risposte la cui attendibilità dipende dal sito. Ecco perché fidarsi e bene, ma non fidarsi è meglio. Anche perché pare che dall’intelligenza artificiale qualcuno abbia avuto risposte con frasi senza senso. Il problema è che dietro ChatGpt non ci sono uno staff di esperti in tuttologia, ma la risposta dell’intelligenza artificiale parte da notizie che la stessa intelligenza artificiale recupera in rete.

E se non ha informazioni sufficienti per rispondere, ecco che è assai probabile cadere in errore, perché una caratteristica tipica delle intelligenze artificiali generative è proprio rispondere sempre e comunque.

L’informazione ai tempi dell’intelligenza artificiale

A dire il vero tra motori di ricerca, siti, ricerche e informazioni oggi gli utenti hanno davvero da masticare amaro. Il sistema utilizzato che prevede la ricerca su questo o su quell’altro motore di ricerca è ancora molto utilizzato.

Ma poi ci sono le informazioni che arrivano direttamente sul proprio smartphone o sul proprio PC. Notizie che i sistemi inviano al diretto interessato in base alle sue abitudini di ricerca e alle cose che maggiormente gli interessano. In questo caso però non decide l’utente la notizia che gli arriva, ma la decide, tanto per fare un esempio, Discover per chi usa Google come motore di ricerca. Ora, tralasciando le questioni degli algoritmi, delle tecniche da seguire per i vari siti di informazione e di tutto ciò che determina quale sito Google deve fare vedere nelle notizie di un utente, in genere è proprio Google a scegliere.

E se è vero che da ChatGpt arrivano notizie spesso errate, poco complete e probabilmente errate, lo stesso arriva da Google. Non per il motore di ricerca in quanto tale naturalmente, ma perché ha scelto di mandare una determinata notizia scritta da un sito poco attendibile, magari con un titolo sensazionalistico che punta solo ad acchiappare click e così via dicendo.

Bisogna sempre prendere le cose con le pinze

Ed alla fine dei conti vediamo notizie con fantomatici bonus da 1.000 euro subito in busta paga o pensione che non esistono. Oppure buoni fruttiferi postali al 7% di interesse che non esistono. E ancora, pensioni a 50 anni, bollo auto che non si paga più e così via dicendo. I problemi di una informazione che nasce dalle macchine o che viene fornita da una macchina selezionatrice, lascia sempre margini di errore e di falsità. Anzi sono più le volte che si rischia di leggere cose che non esistono che le volte in cui la notizia va presa per buona.