Ieri, milioni di utenti in tutto il mondo si sono ritrovati davanti a un messaggio semplice quanto inquietante: “Qualcosa non va”. ChatGPT ha smesso di rispondere.

Da Mission Bay, sede di OpenAI a San Francisco, è arrivata la conferma: disservizi globali, errori elevati e latenze pesanti. Il problema è iniziato intorno alle 8:30 (ora italiana) e ha paralizzato il servizio per gran parte della giornata. Solo nel tardo pomeriggio è partita la mitigazione, ma il ripristino completo non era ancora garantito.

La causa? Non è chiara. E OpenAI ha fornito poche spiegazioni.

⚠️ Tra le ipotesi, quella più plausibile è il sovraccarico dei server. Troppo entusiasmo. Troppa domanda.

Ma dietro l’incidente si nasconde qualcosa di più grande.

L’intelligenza artificiale non sta solo trasformando il web. Sta riscrivendo l’impatto energetico della rete stessa. Ogni domanda su ChatGPT consuma fino a 20 volte più energia di una ricerca su Google. Uno studio ha stimato che l’addestramento di GPT-4 abbia richiesto fino a 62.000 MWh: quanto mille famiglie USA consumano in 5-6 anni.

E se non fosse solo un bug? Se fosse un limite fisico, strutturale, di sostenibilità?

Il blackout di ieri ha ricordato a molti quanto ci siamo abituati a convivere con l’AI. E quanto, ormai, ne siamo dipendenti.

Un assaggio di futuro?
O solo un crash passeggero?

Tags: