Abbiamo già parlato di Intelligenza Artificiale e di quanto negli ultimi anni sia sempre più entrata nelle nostre vite: chatbot, assistenti virtuali, strumenti “intelligenti” che ci aiutano a scrivere, cercare informazioni o risolvere problemi. Ma c’è un aspetto di cui si parla ancora poco: l’IA può sbagliare, e anche inventarsi le risposte.
Proprio in questi giorni, è emersa una questione importante che riguarda ScaleUp, l’azienda che ha creato i modelli di IA chiamati “NOVA”. Secondo quanto rilevato dall’AGCM nel bollettino settimanale del 29/09/25, l’azienda non avrebbe informato in modo chiaro e trasparente gli utenti su un aspetto fondamentale: i suoi modelli di IA possono sbagliare. In particolare, mostrano che non sono presenti avvisi visibili o comprensibili che spieghino questo rischio durante l’uso del servizio.
Cosa sono le “allucinazioni” dell’IA?
Rimanendo sull’esempio del caso recente dell’IA, l’AGCM segnala che ci sono stati fraintendimenti nel non informare in maniera sufficientemente chiara, immediata e intellegibile che gli utenti dei propri modelli di IA potrebbero incorrere in quelle che in gergo tecnico prendono il nome di “allucinazioni”: situazioni cioè in cui, a fronte di un dato input inserito da un utente, il modello di IA genera uno o più outputs contenenti informazioni inesatte, fuorvianti o inventate. Questi errori possono essere causati da una serie di fattori, tra cui: dati di addestramento insufficienti, ipotesi errate effettuate dal modello o pregiudizi nei dati utilizzati per addestrare il modello.
Le cosiddette “allucinazioni” dell’intelligenza artificiale possono avere tante versioni. In tutti questi casi, il punto è lo stesso: le risposte sembrano sicure, ma possono essere completamente sbagliate. Ecco alcuni esempi comuni:
- Previsioni sbagliate: un modello di AI potrebbe prevedere che si verificherà un evento quando in realtà è improbabile che si verifichi. Es. dice che domani pioverà, ma in realtà c’è il sole.
- Falsi allarmi: può vedere problemi dove non ci sono. Es. un modello di AI utilizzato per rilevare le frodi potrebbe segnalare una transazione come fraudolenta quando non lo è.
- Errori gravi: può non accorgersi di una minaccia reale. Ad esempio, un modello di AI utilizzato per rilevare tumori potrebbe non riuscire a identificarne uno.
Come difendersi?
Per le aziende, esistono varie misure per prevenire le allucinazioni legate all’IA, durante l'”addestramento”. E’ importante ad esempio limitare il numero di possibili risultati che il modello può prevedere e utilizzare fonti pertinenti e specifiche. Per gli utenti, uno dei modi migliori per proteggersi dagli errori dell’intelligenza artificiale, è usare questa tecnologia con occhio critico e consapevolezza. Prima di fidarsi, è importante verificare sempre le informazioni controllando fonti affidabili.
Fonte: Google Cloud; AGCM
Foto: Adobestock



