Note di Matteo


Cit.

It seems so rude and careless to make me, a person with thoughts, ideas, humor, contradictions and life experience to read something spit out by the equivalent of a lexical bingo machine because you were too lazy to write it yourself.

Pablo Enoc in It's insulting to read your AI-generated blog post

#194 /
2 dicembre 2025
/
17:18
/ #ai

I'm sure some of these are state/political projects, but I suspect most are just smart people in low and middle income countries doing it for the money, because Twitter invented a direct and quick way to make cold hard cash from making Americans angry and upset online.

Mike Bird (The Economist)

#177 /
24 novembre 2025
/
11:18
/ #internet#social

Molti dei prodotti delle “intelligenze artificiali” di cui parliamo quotidianamente mi sembra siano finora prodotti già esistenti, che queste tecnologie ci stanno aiutando a ottenere con minor impegno e a volte con maggiore qualità di quelli che avremmo ottenuto senza quelle tecnologie (tutte le immagini che vediamo prodotte da “intelligenze artificiali” possono essere realizzate con Photoshop; dei testi celebriamo proprio quanto siano simili a quelli umani, non diversi, impensati o eccezionali; eccetera). Non vedo – in questa gran parte di esempi protagonisti delle esperienze e conversazioni quotidiane della maggioranza delle persone – produzioni di cose o funzioni nuove e prima inesistenti, né effetti nuovi di quelle produzioni che trasformino le vite degli umani (salvo che nel tempo che liberano, o nel lavoro che sottraggono). In gran parte parliamo di “contenuti”: testi, immagini, suggerimenti, insegnamenti. Insomma, al momento niente sembra paragonabile alle trasformazioni indotte nelle nostre vite, nelle nostre società, persino nelle nostre teste, dalle innovazioni degli scorsi decenni. Al momento.

Luca Sofri

#175 /
19 novembre 2025
/
22:22
/ #ai#innovazione

Un giovane molto esperto e molto coinvolto nelle cose delle “intelligenze artificiali” mi ha messo le cose in una prospettiva interessante, pochi giorni fa: secondo lui esistono “intelligenze artificiali cattive” in quanto fanno cose al posto nostro atrofizzando in prospettiva la nostra capacità di farle e rincoglionendoci ancora di più (che le trasformazioni digitali degli scorsi decenni ci abbiano in parte rincoglionito è ormai dato per condiviso); ed esistono “intelligenze artificiali buone” che invece possiamo usare per migliorarle, le nostre capacità, e aumentare le nostre conoscenze e competenze. Mi è sembrata fin qui una lettura convincente: se ci pensate, è successo anche con la storia dell’umanità pre-digitale che i progressi tecnici e i nuovi strumenti ci sollevassero dal saper fare delle cose grazie al fatto che quelle cose le sapeva fare qualcun altro (parliamo di competenze e capacità, qui, non di rapporti di forza). E che nel frattempo i progressi civili e tecnici venissero sfruttati anche per aumentare altre conoscenze di tutti: attraverso la scuola, l’informazione giornalistica, la divulgazione, i libri, eccetera. La differenza adesso sarebbe che non avverrebbe più la seconda cosa, perché la conoscenza verrà tutta indirizzata verso i software (poi forse, dicono in molti, non ci sarà più conoscenza da indirizzare): la distribuzione di sapere tra gli umani si azzererà.

Luca Sofri

#174 /
19 novembre 2025
/
22:21
/ #ai#innovazione

io penso che le piste ciclabili non dovrebbero esistere.

le strade in città dovrebbero avere l’intera carreggiata riservata totalmente a biciclette, bici a pedalata assistita, monopattini, hoverboard, con i marciapiedi, magari allargati, per i pedoni, e con corsie per i mezzi pubblici ovviamente.

le automobili, per quel poco che ancora possono esistere in un secolo che non è piu il loro, dovrebbero poter circolare solo in poche arterie principali con una corsia rigorosamente destinata a loro, ben separata, comunque con forti limiti di velocità.

quindi si, penso che le piste ciclabili siano qualcosa di sbagliato, perché implicano troppo poco spazio e troppo circoscritto per le biciclette, e da questo punto di vista rappresentano qualcosa di anacronistico

(da un commento sul Post)

#157 /
16 novembre 2025
/
20:40
/ #mobilità

Inside Cursor

When people describe someone in a professional setting as “young,” I usually find this translates to either “somewhat incompetent” or “good at their job but gratingly unprofessional.” Knowing the former was not going to be an issue at Cursor, I was prepared for at least some of the latter.

Despite a young average age, I was pleasantly surprised to find the team instead to be warm, well-dressed, keen on eye contact, clear and respectful in communication, and assiduous about replacing empty toilet paper rolls on the dispenser of the shared bathrooms. I was also surprised to find people so young so often communicate their ideas by reference to Silicon Valley history, world history, pop culture, art, learnings from seemingly unrelated industries, and patterns they’ve observed in the work of others they’ve long admired. The range of references is wide, but what’s clear in every example is that people at Cursor study the world as they move through it, rather than rely exclusively on their own personal experience for all their context and idea-generation (a typical pitfall of “young” people). It makes the team particularly good at finding elegant solutions to many shapes of problems.

To share what they’re observing and learning, many team members create “brain” channels in Slack where they publish their personal musings; there’s no expectation of a response or engagement, but people with good ideas can command quite a following. For the most popular brain channels, the content has little to do with “proof of work” or “managing up,” but rather ideas and reflections. Recent examples include musings on whether “CMSes are an artifact of the pre-AI era,” a deeply considered readout from a slew of customer visits, and a very exacting friction log on a still-nascent Cursor product.

Perhaps most importantly to me, you won’t see much LFGGGGGG, talk of being “cracked,” or overuse of emojis or memes. Recent favorite non-work related messages include an invitation to Vivaldi’s The Four Seasons at the SF Symphony, a picture from respective NY and SF 9pm run clubs, friendly mockery at a bad take on AI in the The New Yorker, an entire channel dedicated to #laundry featuring a weekly “laundry standup” slackbot, debates about how to fold fitted sheets, and a poll about which humanoid robot will first make our beds. No one ever breaks character. By far, the most used reaction emoji is ♥️. No one raises their voices, gets angsty or flustered, or visibly panics when things go sideways. It all feels very…adult.

Brie Wolfson in Inside Cursor - Sixty days with the AI coding decacorn

#153 /
15 novembre 2025
/
17:27

#150 /
15 novembre 2025
/
16:10

I tend to stay up late, not because I'm partying but because it's the only time of the day when I'm alone and don't have to be on, performing.

Jim Carrey

#149 /
14 novembre 2025
/
16:59
/ #mondo

We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this to be a consumer tool or model, or to be used this way. To prevent this confusion, access to Gemma is no longer available on AI Studio. It is still available to developers through the API.

(Google)

#128 /
2 novembre 2025
/
23:46
/ #ai#google

Qualcosa è andato storto

Io propongo una resistenza della gentilezza. Il valore fondamentale che abbiamo perso stando sui social è la gentilezza. Tu andavi sui social all'inizio di Facebook e la gente era gentile. Ci vai oggi e ti devi mettere l'elmetto e l'armatura perché ci sarà qualcuno che ti attaccherà e ti insulterà a caso, e quindi siamo sempre in modalità difensiva. Dobbiamo recuperare la consapevolezza che è pieno di persone buone e perbene nel mondo, non hanno successo ma esistono, e il mondo è migliore di quello che ci fanno vedere. E se noi cambiamo prospettiva, forse lo diventa davvero.

Riccardo Luna presentando il libro Qualcosa è andato storto.

#123 /
30 ottobre 2025
/
21:09
/ #internet#social#mondo

AI slop

Nel caso non fosse ancora entrato nel vostro vocabolario, con AI slop si intendono contenuti di qualità medio-bassa creati con strumenti di intelligenza artificiale, secondo The Conversation. A me piace più la definizione su Wikipedia: “un contenuto digitale realizzato con l’intelligenza artificiale generativa, in particolare quando viene percepito come privo di impegno, qualità o significato profondo e caratterizzato da un volume di produzione eccessivo”.

Carola Frediani in Guerre di rete.

#116 /
29 ottobre 2025
/
21:20
/ #ai

At Netflix, we’d often find that backend services had slow memory leaks, which took a long time to discover and fix because instances rarely lived longer than 48 hours, due to autoscaling policies. If we had chosen to focus on memory leaks instead of autoscaling, Netflix would have been unable to scale to meet demand, and would’ve been a much smaller business.

Matthew Hawthorne, ex ingegnere Netflix.

#108 /
26 ottobre 2025
/
14:21
/ #dev

Negli anni scorsi mi è capitato di sentirmi chiedere, solo perché sono qui da un po’, se alla fine internet abbia migliorato o peggiorato il mondo, secondo me: la cosa che rispondo – con tutte le incertezze di uno che ha visto smentite molte delle sue risposte – è che lo ha sicuramente migliorato per chi aveva o ha gli strumenti per sfruttarne il meglio, che è un meglio letteralmente incredibile, fino trent’anni fa; lo ha invece probabilmente peggiorato per chi ne ha ricevuto solo una maggiore spinta verso gli egoismi e le vanità umane con cui continuiamo a nascere tutti, prima che gli umani esistenti non ci aggiornino sulle cose imparate in millenni di progresso civile. Che è ancora quello che può fare ognuno di noi, con la scuola, coi giornali, sui social network, col proprio esempio, o con libri come questo.

Luca Sofri nella prefazione a Qualcosa è andato storto di Riccardo Luna.

#99 /
24 ottobre 2025
/
13:47
/ #internet#social#mondo

It's always been our downfall, the human operating system. We're masters of the universe, make all these magical tools, but we're still savages up here. Heads full of the same buggy software as a million years ago. Darwinian 1.0.

In caveman times, you had to be violent to survive. Now that's on its head, and the only way we are gonna make it as a species is if we cooperate. We know that. But we can't do it, can we? We're still fearful. Territorial and selfish. Arrogant and violent.

Plaything (Black Mirror S7E4)

#93 /
21 ottobre 2025
/
23:06
/ #mondo

Niente si conosce di ciò che è accaduto prima del Big Bang: probabilmente il tempo è nato in quel momento.

Storia dell'universo

#89 /
20 ottobre 2025
/
22:55
/ #mondo

GitHub Pages infrastructure

GitHub Pages, our static site hosting service, has always had a very simple architecture. From launch up until around the beginning of 2015, the entire service ran on a single pair of machines (in active/standby configuration) with all user data stored across 8 DRBD backed partitions. Every 30 minutes, a cron job would run generating an nginx map file mapping hostnames to on-disk paths.

There were a few problems with this approach: new Pages sites did not appear until the map was regenerated (potentially up to a 30-minute wait!); cold nginx restarts would take a long time while nginx loaded the map off disk; and our storage capacity was limited by the number of SSDs we could fit in a single machine.

Despite these problems, this simple architecture worked remarkably well for us — even as Pages grew to serve thousands of requests per second to over half a million sites.

Hailey Somerville sul blog GitHub.

#83 /
18 ottobre 2025
/
13:28
/ #dev#cloud

A lot of my recent songs are a reaction to how one feels online in the modern world. Going back to this individualistic culture of writing about our deepest insecurities feels very liberating. Social media reinforces your impression of being inadequate and having to consume something to feel whole.

I would very much like to see a gentler world, a world with more with more compassion and more warmth, a world where not so many people are afraid of being different, being unique.

Tom Odell

#76 /
16 ottobre 2025
/
22:12
/ #internet#social

Io credo che l'essere umano non sia stato progettato per vivere sotto questo tipo di pressione legata a stimoli e informazioni che ti arrivano, di cui magari a volte vorresti anche fare a meno, a essere sempre obbligato a paragonarti agli altri. È un paragone che specialmente sugli adolescenti ma anche sugli adulti è sempre un po' perdente, per il semplice motivo che tutti mettono sempre il meglio di sé stessi in vetrina, e anche noi facciamo la stessa cosa, però quando vediamo la vetrina degli altri ci crediamo e non crediamo invece alla nostra. È l'effetto "l'erba del vicino è sempre più verde". E quindi questa cosa è frustrante perché viviamo in una specie di grande bugia che però crediamo solo quando sono gli altri a raccontarcela. [...]

Conta soltanto il risultato finale, non conta assolutamente niente come tu ci sei arrivato ad arrivare 2 milioni di visualizzazioni per un video o per una stupidaggine. Sempre a cercare di alimentare la negatività, perché la negatività stimola discussioni.

Siamo stimolati a continuare a [produrre contenuti]: è una specie di doping di cui non ci rendiamo conto, è il famoso "smetto quando voglio" ma non smetti mai. Pubblichi una cosa e poi guardi quello che ti hanno scritto sotto. [...] Ogni tanto ti prendi la vacanza: adesso per una settimana basta, e la settimana dura 7 minuti in verità.

Basterebbe in qualche modo togliere la tossicità del feedback, dei numeri, della competizione, delle visualizzazioni, di quanti ti hanno risposto.

Linus nel podcast De Core Podcast.

#72 /
15 ottobre 2025
/
22:29
/ #social

In other words, I realized that for IBM to become a great company it would have to act like a great company long before it ever became one. [...] Every day at IBM was a day devoted to business development, not doing business. We didn’t do business at IBM, we built one.

Tom Watson, fondatore di IBM.

#64 /
13 ottobre 2025
/
18:41
/ #business

AI e giornali

Una nuova ricerca del Reuters Institute ha raccolto le esperienze e le opinioni di circa 12mila persone in sei paesi del mondo a proposito dell'uso dei software di "intelligenza artificiale". Ne sono uscite molte considerazioni ma quelle più rilevanti per il dannato futuro dei giornali sono due.

Una è che continua ad aumentare l'uso di simili servizi per la ricerca di informazioni di vario genere, e questo va a scapito dei siti di news, tradizionali fornitori di molte di queste informazioni. Ormai le prove di questa tendenza sono tante. Solo un terzo degli interpellati dice di cliccare con frequenza sui link dopo aver letto le sintesi offerte in testa alle pagine dei risultati di Google: un terzo dice di non farlo mai.

La seconda questione su cui riflettere è più complessa: a quanto pare sempre più persone usano abitualmente e serenamente i vari software di intelligenza artificiale per le proprie necessità, accettando il margine di insicurezza dei risultati in termini di qualità e accuratezza. Ma se si chiede alle stesse persone un giudizio sull'uso degli stessi software da parte dei giornali, una gran parte se ne dice critica e diffidente.

Le letture di questa contraddizione possono essere due. Una è che ci sia una specie di ipocrisia che ci rende severi contro l'uso delle AI da parte di altri, ma indulgenti le usiamo noi. O una specie di supponenza che ci fa pensare di saper essere più prudenti o esperti degli altri: non da escludere, è una tendenza assai comune. [...] Dovremmo abituarci a valutare i risultati di un lavoro giornalistico (è accurato o no? è completo o no? svolge adeguatamente la sua funzione di informazione?) piuttosto che l'insignificante percorso della sua costruzione (ci sono testi prodotti dalle "AI" che hanno maggiore accuratezza di certi testi prodotti dagli umani, per dire).

La seconda - più apprezzabile - lettura della contraddizione è che le nostre aspettative nei confronti del lavoro giornalistico siano maggiori di quelle che abbiamo per noi stessi. E che laddove consentiamo alle nostre ricerche di informazioni un margine di mediocrità e approssimazione - non dando a quelle ricerche ruoli rilevanti: non scegliendo delle cure mediche, per esempio -, diamo una maggiore credibilità al lavoro giornalistico e lo assumiamo per farci un'idea più radicata e affidabile del mondo. È una pretesa lusinghiera per i giornali, ma che deve imparare a fare i conti col costo di quella differenza: e capire che un lavoro giornalistico, se lo si vuole migliore di quello che fa ChatGPT, ha dei costi a cui serve contribuire. Nessuno è obbligato, basta che poi non si pretenda che giornali in crisi di risorse economiche non ricorrano sciattamente alle "AI".

Luca Sofri nella newsletter Charlie del 12 ottobre 2025.

#63 /
12 ottobre 2025
/
13:44
/ #ai#informazione

Pagina 1 di 2 Successiva →