Note di Matteo


#ai

Anthropic punta sul B2B, mentre OpenAI domina il mercato di massa consumer:

Anthropic has generated much less mass-market appeal. The company has said about 80% of its revenue comes from corporate customers. Last month it said it had some 300,000 of them.

Anthropic is also surprisingly close to OpenAI when it comes to revenue. The company is already at a $7 billion annual run rate and expects to get to $9 billion by the end of the year—a big lead over its better-known rival in revenue per user.

(WSJ)

#106 /
26 ottobre 2025
/
10:43
/ #ai#anthropic

I grandi temi nell'AI negli ultimi 4 anni:

  • 2022: ChatGPT
  • 2023: Multimodality
  • 2024: Modelli di reasoning
  • 2025: Agenti e browser AI

Vedremo il 2026!

#94 /
22 ottobre 2025
/
16:43
/ #ai


In Firefox 144 ora si può cercare un'immagine con Google Lens dal menù "tasto destro".

#74 /
16 ottobre 2025
/
14:55
/ #ai#browser

Essere cattivi con gli LLM potrebbe aiutare a ottenere risultati migliori:

Contrary to expectations, impolite prompts consistently outperformed polite ones, with accuracy ranging from 80.8% for Very Polite prompts to 84.8% for Very Rude prompts. These findings differ from earlier studies that associated rudeness with poorer outcomes, suggesting that newer LLMs may respond differently to tonal variation.

Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy

#70 /
14 ottobre 2025
/
22:16
/ #ai

Google AI Mode

È arrivato Google AI Mode in Italia. Vediamo se è all'altezza di Perplexity. In Firefox, si può configurare come motore di ricerca personalizzato con questo URL:

https://www.google.com/search?udm=50&q=%s

E poi invocarlo ad esempio con @ai seguito dalla query di ricerca:

#65 /
13 ottobre 2025
/
23:42
/ #ai#browser

AI e giornali

Una nuova ricerca del Reuters Institute ha raccolto le esperienze e le opinioni di circa 12mila persone in sei paesi del mondo a proposito dell'uso dei software di "intelligenza artificiale". Ne sono uscite molte considerazioni ma quelle più rilevanti per il dannato futuro dei giornali sono due.

Una è che continua ad aumentare l'uso di simili servizi per la ricerca di informazioni di vario genere, e questo va a scapito dei siti di news, tradizionali fornitori di molte di queste informazioni. Ormai le prove di questa tendenza sono tante. Solo un terzo degli interpellati dice di cliccare con frequenza sui link dopo aver letto le sintesi offerte in testa alle pagine dei risultati di Google: un terzo dice di non farlo mai.

La seconda questione su cui riflettere è più complessa: a quanto pare sempre più persone usano abitualmente e serenamente i vari software di intelligenza artificiale per le proprie necessità, accettando il margine di insicurezza dei risultati in termini di qualità e accuratezza. Ma se si chiede alle stesse persone un giudizio sull'uso degli stessi software da parte dei giornali, una gran parte se ne dice critica e diffidente.

Le letture di questa contraddizione possono essere due. Una è che ci sia una specie di ipocrisia che ci rende severi contro l'uso delle AI da parte di altri, ma indulgenti le usiamo noi. O una specie di supponenza che ci fa pensare di saper essere più prudenti o esperti degli altri: non da escludere, è una tendenza assai comune. [...] Dovremmo abituarci a valutare i risultati di un lavoro giornalistico (è accurato o no? è completo o no? svolge adeguatamente la sua funzione di informazione?) piuttosto che l'insignificante percorso della sua costruzione (ci sono testi prodotti dalle "AI" che hanno maggiore accuratezza di certi testi prodotti dagli umani, per dire).

La seconda - più apprezzabile - lettura della contraddizione è che le nostre aspettative nei confronti del lavoro giornalistico siano maggiori di quelle che abbiamo per noi stessi. E che laddove consentiamo alle nostre ricerche di informazioni un margine di mediocrità e approssimazione - non dando a quelle ricerche ruoli rilevanti: non scegliendo delle cure mediche, per esempio -, diamo una maggiore credibilità al lavoro giornalistico e lo assumiamo per farci un'idea più radicata e affidabile del mondo. È una pretesa lusinghiera per i giornali, ma che deve imparare a fare i conti col costo di quella differenza: e capire che un lavoro giornalistico, se lo si vuole migliore di quello che fa ChatGPT, ha dei costi a cui serve contribuire. Nessuno è obbligato, basta che poi non si pretenda che giornali in crisi di risorse economiche non ricorrano sciattamente alle "AI".

Luca Sofri nella newsletter Charlie del 12 ottobre 2025.

#63 /
12 ottobre 2025
/
13:44
/ #ai#informazione


Figure 03. Pazzesco che probabilmente tra pochi anni non sarà utopia avere un assistente domestico robotico.

Tocca rispolverare le leggi della robotica di Asimov.

#59 /
9 ottobre 2025
/
17:49
/ #ai

Non capivo molto il dibattito sul fatto che alcune persone chiamino ChatGPT così oppure semplicemente "chat". Finché non ho sentito usare la seconda versione da una persona più giovane di me qualche giorno fa ("chiedo a chat", e ci ho messo un attimo a capire).

#48 /
6 ottobre 2025
/
21:05
/ #ai#openai

Apps in ChatGPT

Mi sa che ormai si può dire definitivamente che OpenAI con ChatGPT ha vinto la gara consumer nel campo AI. È il brand più forte che c'è nel settore e ora ha introdotto per prima il concetto di "chat with apps", es. chiedi a ChatGPT di creare una playlist Spotify, Spotify viene contattata in modo trasparente per poi mostrare il risultato con una UI interattiva.

I tentativi precedenti erano incompleti o con target diverso (es. MCP), e alla fine è stata di nuovo OpenAI a inventarsi qualcosa di nuovo (i benchmark non premiano più OpenAI ma anche i modelli di reasoning sono invenzione di OpenAI).

Primo commento su YouTube:

this presentation made me understand the concept of an "everything app."

Eh, altro che X.

#47 /
6 ottobre 2025
/
20:36
/ #openai#ai

Despite widespread confusion, Andrej Karpathy coined "vibe coding" as a kind of AI-assisted coding where you "forget that the code even exists."

We already have a phrase for code that nobody understands: legacy code. Legacy code is universally despised, and for good reason. But why? You have the code, right? Can't you figure it out from there? Wrong.

Code that nobody understands is tech debt. It takes a lot of time to understand unfamiliar code enough to debug it, let alone introduce new features without also introducing bugs. [...] If you don't understand the code, your only recourse is to ask AI to fix it for you, which is like paying off credit card debt with another credit card.

Vibe code is legacy code

#45 /
5 ottobre 2025
/
22:36
/ #ai

AI security engineers

Gli LLM stanno lentamente rivoluzionando il settore dei sistemi di analisi statica del codice per rilevare vulnerabilità. Finora erano prevalentemente basati su regole ma gli LLM specialmente di reasoning sono molto superiori perché sono in grado di fare collegamenti del codice e valutazioni dettagliate.

Qua ce ne sono alcuni con relativa recensione.

My general summary is as follows:

  • Multiple AI-native SASTs are already on the market, ready to use today.
  • They work extremely well.
  • They find real vulnerabilities and logic bugs in minutes.
  • They can “think”/”reason” about business logic issues.
  • They can match developer intent with actual code.
  • They aren’t based on static rule-sets and queries.
  • They have low false positive rates.
  • They’re cheap (for now).
  • My results showed that (in order of success for finding vulnerabilities), ZeroPath, Corgea, and Almanax, are the top three products on the market right now. I did not test DryRun. However, all three products have different functions and can solve different problems, so I would recommend testing all of them if you can.
#37 /
3 ottobre 2025
/
13:54
/ #ai

Il peggiore nemico dei giornalisti io ritengo che siano i giornalisti stessi. Dobbiamo abbandonare una pigrizia, una stanchezza che ormai ci ha un po' preso tutti e tornare a fare il nostro lavoro. Il nostro lavoro è guardare direttamente e raccontare direttamente. L'intelligenza artificiale non lo può fare.

Alessandra Costante, segretaria generale Federazione Nazionale Stampa Italiana.

#35 /
2 ottobre 2025
/
21:25
/ #informazione#ai


Interessante mossa di Microsoft: per 19,99 $ al mese Copilot + Microsoft 365 Family:

Microsoft 365 Premium will be priced at $19.99 per month, the same price as OpenAI’s ChatGPT Plus subscription, and will include Microsoft’s highest usage limits in features like GPT-4o image generation and voice, as well as Copilot Podcasts, Deep Research, Vision, and Actions. It will also include all of the Microsoft 365 Family benefits, with access to Office desktop apps for six people, 1TB of storage per person, and more.

(The Verge)

#30 /
1 ottobre 2025
/
18:11
/ #ai#microsoft

Seahorse emoji

is there a sea horse emoji? e gli LLM vanno in crisi!

Anche GPT-5 e Claude Sonnet 4.5, incredibilmente. Sembra uno di quei "bug" di GPT-3/3.5 quando il modello finiva in loop e buttava fuori token a caso.

(ChatGPT)

#25 /
1 ottobre 2025
/
14:47
/ #ai

TikTok for deepfakes

OpenAI ha annunciato Sora 2, assieme a un'app stile TikTok dove si scorre tra video generati con AI (TikTok for deepfakes, dice The Verge, e già qui...), e sorprende il livello di distacco dalla realtà dei lavoratori di OpenAI sul tema.

Un ricercatore OpenAI che lavora su Sora ha pubblicato casualmente un video generato con AI, e quindi totalmente falso, di Sam Altman che viene arrestato dopo aver rubato una GPU. Dovrebbe passare per la testa un dubbio, no?

#24 /
1 ottobre 2025
/
14:37
/ #ai#openai

Claude Sonnet 4.5

È il turno di Anthropic: è uscito Claude Sonnet 4.5, l'ultima evoluzione degli LLM Anthropic, e come al solito è molto focalizzato sul coding. Anthropic stessa dichiara che Sonnet 4.5 is the best coding model in the world, probabilmente senza temere di essere smentita. Simon Willison è d'accordo, vedremo!

#18 /
29 settembre 2025
/
21:18
/ #ai#anthropic

La storia si ripete:

Mr. Musk has reorganized xAI on the fly. He has led an aggressive recruiting drive for engineers. And he has pushed out a flurry of prominent researchers, even as others have left because they thought xAI had abandoned science in favor of attention-grabbing products, like a chatbot that sometimes produced offensive material and flirty A.I. chat companions, according to two people with knowledge of the company who spoke on the condition of anonymity.

(I capitoli precedenti sono la scissione di Anthropic per dissensi sulla scarsa attenzione alla ricerca sull'allineamento, e le grandi litigate tra OpenAI e Musk di nuovo sulla necessità di fare ricerca e in modo aperto: openai.com/elon-musk)

#12 /
28 settembre 2025
/
14:59
/ #ai