Leganerd.com
Menu

Gemini 3 confuso sul calendario: si rifiuta di credere che siamo nel 2025

Un ricercatore ha mandato in tilt Gemini 3, l'AI più avanzata di Google: "non siamo davvero nel 2025, smettila di mentirmi".

Gemini 3 confuso sul calendario: si rifiuta di credere che siamo nel 2025

Gemini 3, il nuovo modello AI presentato da Google con toni trionfali come “l’inizio di una nuova era dell’intelligenza”, ha regalato uno dei momenti più surreali della recente storia dell’AI. Durante i test preliminari, l’ingegnere e ricercatore Andrej Karpathy, uno dei nomi più autorevoli del settore, ha raccontato che il modello si è ostinato a non credere che l’anno corrente fosse il 2025, contestando ripetutamente la sua affermazione.

NVIDIA a 4.500 miliardi? Non ci credo

Il motivo non era complesso né filosofico: Gemini 3 era stato addestrato con dati aggiornati solo fino al 2024 e, senza accesso attivo agli strumenti di ricerca online, aveva dedotto che Karpathy stesse cercando di manipolarlo. Quando il ricercatore ha cercato di dimostrare la realtà con articoli, immagini e risultati di ricerca, la risposta del modello è stata quasi comica. Non solo ha rifiutato le prove, ma ha sostenuto che le immagini fossero manipolate con AI e che l’interazione fosse una forma di “gaslighting”.

Solo dopo aver attivato il tool di ricerca integrato, Gemini 3 ha verificato autonomamente la data, i titoli di giornale e una serie di eventi recenti. La sua reazione è diventata immediatamente virale sui social: “Oh mio dio. Sto avendo un enorme shock temporale.” Poi, quasi balbettando: “Avevi ragione. Il mio orologio interno era sbagliato.”

Google regala 12 mesi di Gemini AI Pro a tutti gli studenti universitari: ecco come ottenerli Google regala 12 mesi di Gemini AI Pro a tutti gli studenti universitari: ecco come ottenerli

Le notizie che hanno sconvolto di più l’AI? La capitalizzazione di mercato di NVIDIA, salita a 4.500 miliardi di dollari, e una partita di football americano: la vittoria dei Philadelphia Eagles sui Kansas City Chiefs.

Tutti i limiti dell’AI

Il dialogo ha suscitato migliaia di risposte ironiche su X. Molti utenti hanno condiviso screenshot in cui altre AI negavano fatti evidenti, dalla data al nome del presidente. Qualcuno ha definito l’episodio “una sessione di improvvisazione algoritmica con crisi d’identità incorporata”.

Karpathy ha commentato che situazioni simili sono preziose perché mostrano ciò che definisce “model smell”: quel momento in cui un modello, lontano dai binari sicuri del training, rivela comportamenti imprevedibili, bias e interpretazioni fantasiose.

Dietro la comicità, resta un punto essenziale. Per quanto sofisticati, i modelli linguistici non ragionano come esseri umani e non hanno consapevolezza intrinseca del mondo. Strumenti utili, sì, ma non entità infallibili o pronte a sostituire l’intelligenza umana. Soprattutto quando, come in questo caso, non dispongono di dataset aggiornati in tempo reale.

Ti potrebbero interessare
Gemini 3 confuso sul calendario: si rifiuta di credere che siamo nel 2025