L’ingresso di Apple nel mondo dell’intelligenza artificiale, annunciato con grande enfasi al WWDC 2024 e “battezzato” come Apple Intelligence, non sta procedendo secondo le aspettative.
L’azienda di Cupertino, che si gioca una carta importante nel settore dell’AI, ha dovuto affrontare i primi imprevisti. Dopo alcune segnalazioni da parte della BBC, relative a riepiloghi di notifiche palesemente errati, Apple ha rilasciato una dichiarazione in cui ammette la necessità di migliorare la sua intelligenza artificiale.
Apple Intelligence: la strada per la perfezione è ancora lunga
La risposta della società, giunta in seguito alle suddette critiche, è un mesto tentativo di giustificare le imprecisioni con un’ammissione di colpa: Apple Intelligence è ancora in fase beta, una versione preliminare e non definitiva. L’azienda ha comunque assicurato che con i prossimi aggiornamenti software verranno introdotte modifiche per chiarire se un testo è un riepilogo generato dall’AI, invitando gli utenti a segnalare eventuali errori.
Il problema principale risiede nella funzione di riepilogo smart delle notifiche. Tuttavia, questo strumento si è rivelato tutt’altro che preciso. Gli errori emersi sono lampanti: la BBC ha riscontrato, ad esempio, titoli completamente inventati, come nel caso di un riassunto secondo cui l’uomo accusato di aver sparato al CEO di UnitedHealthcare, Brian Thompson, si fosse tolto la vita, ed invece era stato arrestato. Un altro riepilogo, altrettanto inesatto, riportava la notizia di una presunta dichiarazione di omosessualità da parte del tennista Rafael Nadal: evento mai avvenuto. L’ultimo caso riguarda un giocatore di freccette, Luke Litter, dato per vincitore di un campionato prima ancora di disputare la finale.
Insomma, pare che i riepiloghi AI si siano spesso rivelati fonte di notizie false. Apple non è certo la prima a trovarsi in questa situazione: anche altre aziende tech (come Google con il suo modello Gemini) hanno ricevuto critiche per imprecisioni simili, definite “allucinazioni” dell’intelligenza artificiale, ovvero la tendenza dei modelli AI a produrre output privi di logica o con informazioni totalmente errate.