ChatGPT (5.1) è diventato/tornato più colloquiale ("per evitare mille ... ovunque"):
A volte Codex CLI è veramente stupido:
I need to inspect each file that imports '$lib/app/responses/domains-groups', but I failed due to quoting the route path incorrectly. I haven’t modified anything yet.
E si ferma.
TIL Nano Banana per la generazione di immagini AI non è un diffusion model ma autoregressive, a differenza delle generazioni precedenti di Imagen e a differenza di DALL-E 2 e 3. E Midjourney e Stable Diffusion.
Of note, gpt-image-1, the technical name of the underlying image generation model, is an autoregressive model. While most image generation models are diffusion-based to reduce the amount of compute needed to train and generate from such models, gpt-image-1 works by generating tokens in the same way that ChatGPT generates the next token, then decoding them into an image. It’s extremely slow at about 30 seconds to generate each image at the highest quality (the default in ChatGPT), but it’s hard for most people to argue with free.
In August 2025, a new mysterious text-to-image model appeared on LMArena: a model code-named “nano-banana”. This model was eventually publically released by Google as Gemini 2.5 Flash Image, an image generation model that works natively with their Gemini 2.5 Flash model. Unlike Imagen 4, it is indeed autoregressive, generating 1,290 tokens per image. After Nano Banana’s popularity pushed the Gemini app to the top of the mobile App Stores, Google eventually made Nano Banana the colloquial name for the model as it’s definitely more catchy than “Gemini 2.5 Flash Image”.
Can ChatGPT Land an Airplane? (video) è una delle cose più frustranti che ho mai visto. Sarà che la modalità vocale di ChatGPT è pensata per conversazioni leggere, ma sembra di parlare con GPT-3.5, cioè quando gli LLM dicevano qualsiasi cosa con convinzione, entusiasmo e nonchalance senza considerare il contesto, senza fare domande essenziali per risolvere il problema, senza mostrare un briciolo di incertezza, pianificazione, attenzione alle richieste, consapevolezza dei fondamentali, ecc. (Lo fanno ancora, ma il problema è stato in buona parte mitigato, specialmente con il reasoning.)
Non capivo molto il dibattito sul fatto che alcune persone chiamino ChatGPT così oppure semplicemente "chat". Finché non ho sentito usare la seconda versione da una persona più giovane di me qualche giorno fa ("chiedo a chat", e ci ho messo un attimo a capire).
Mi sa che ormai si può dire definitivamente che OpenAI con ChatGPT ha vinto la gara consumer nel campo AI. È il brand più forte che c'è nel settore e ora ha introdotto per prima il concetto di "chat with apps", es. chiedi a ChatGPT di creare una playlist Spotify, Spotify viene contattata in modo trasparente per poi mostrare il risultato con una UI interattiva.
I tentativi precedenti erano incompleti o con target diverso (es. MCP), e alla fine è stata di nuovo OpenAI a inventarsi qualcosa di nuovo (i benchmark non premiano più OpenAI ma anche i modelli di reasoning sono invenzione di OpenAI).
Primo commento su YouTube:
this presentation made me understand the concept of an "everything app."
Eh, altro che X.
OpenAI ha annunciato Sora 2, assieme a un'app stile TikTok dove si scorre tra video generati con AI (TikTok for deepfakes, dice The Verge, e già qui...), e sorprende il livello di distacco dalla realtà dei lavoratori di OpenAI sul tema.
Un ricercatore OpenAI che lavora su Sora ha pubblicato casualmente un video generato con AI, e quindi totalmente falso, di Sam Altman che viene arrestato dopo aver rubato una GPU. Dovrebbe passare per la testa un dubbio, no?