L’eterno settembre
19. Di oracoli, sicofanti, pipe e agenti invisibili
Settembre è già lontano: ci siamo lasciati alle spalle il ricordo delle vacanze e le prime fatiche della ripresa. Il ciclo dell’anno così come lo abbiamo conosciuto a scuola si ripete ancora una volta, più o meno simile a se stesso, celebrando senza troppa gloria il proprio ufficioso capodanno. Anche chi – per lavoro o altre situazioni – sfugge a questi riti collettivi non può sottrarsi a un Paese intero che rallenta durante l’estate e riparte poi bruscamente alla conclusione di agosto. A far eccezione sono piuttosto le “matricole” di ogni ordine e grado che si trovano alle prese con un sistema totalmente nuovo e le sue regole sconosciute.
Tra gli anni Ottanta e i primi Novanta, settembre era il mese in cui si impennava l’accesso di nuovi utenti ai sistemi informatici delle università americane; i gruppi di discussione Usenet venivano improvvisamente saturati dai newbies e dal loro ricorrente afflusso di domande, errori, off-topic; il tutto veniva accolto dagli utenti anziani con reazioni oscillanti fra la benevola pazienza e l’insofferenza esasperata (“RTFM!”), nella consapevolezza che comunque, nel giro di poche settimane, i nuovi arrivati sarebbero diventati abbastanza competenti da far tornare i gruppi alla loro regolare vita quotidiana.
Nel 1993 questo ritmo venne irreparabilmente spezzato: AOL (America OnLine, uno dei maggiori provider degli USA) fornì l’accesso ai gruppi Usenet a tutti i propri iscritti. Per la prima volta, quello spazio abitato per lo più da nerd universitari si apriva alla popolazione generale. Così avrebbe scritto pochi mesi dopo nel gruppo alt.folklore.computers il videoartista e fotografo Dave Fischer:
September 1993 will go down in net.history as the September that never ended.1
Iniziava dunque il “settembre eterno” in cui il flusso di nuovi utenti – utenti inesperti alle prese con uno spazio tecnologico nuovo – non era più scandito dal rassicurante ciclo dell’anno accademico ma diventava ininterrotto, indistinto e continuo.
Il genio è uscito dalla bottiglia
A proposito di vacanze, una me ne sono presa io dai social (o, meglio, da Twitter/X, l’unico che ancora frequento), e pure abbastanza lunga: da ottobre ’24 fino al luglio scorso. Al mio rientro, qualcosa era cambiato: tutti parlavano con un nuovo, ingombrante personaggio, Grok.
Grok è il bot che si interfaccia all’AI di X e non ha nulla di particolarmente diverso da altri LLM largamente diffusi ben prima che mi prendessi questo quasi-anno sabbatico. Reincontrare un Grok – che avevo lasciato come giocattolo sperimentale – improvvisamente “maturo” e perfettamente integrato nei processi sociali di X mi ha cionondimeno un po’ spiazzato. La ragione più ovvia è che, avendo seguito i progressi continui ma senza strappi dell’AI generativa negli ultimi anni, una pausa conclusa al momento giusto mi ha dato una percezione più di pancia e meno razionale di quanto questi progressi siano stati:
tecnologicamente veloci;
velocemente assimilati dalla popolazione generale;
acriticamente assimilati dalla popolazione generale.
Ma c’è almeno una ragione supplementare: a differenza di ChatGPT (uscito assai prima ma consultato nello spazio privato del rapporto personale col dispositivo), con Grok si assiste all’uso pubblico del modello da parte di un’utenza generalista e per una estrema varietà di scopi. Il consumo di Grok diventa addirittura partecipativo nel momento in cui viene chiamato in causa per la risoluzione di controversie.
Non esiste una data precisa (come fu per quel settembre del ’93) in cui si possa dire che l’AI generativa è entrata di fatto nello spazio pubblico. Gli ultimi cinque anni hanno visto un avanzamento spettacolare di molte tecnologie di questo tipo, ma con un andamento progressivo e incrementale. Eppure, se mi guardo indietro e poi guardo a oggi, ho la sensazione che da qualche parte nell’ultimo anno sia iniziato l’eterno settembre dell’AI.
Vale forse la pena, allora, di fare un punto della situazione su dove siamo e dove stiamo andando, ben consapevole che ogni riga che segue invecchierà (bene o male lo vedremo) nel giro di pochi mesi.
Oracoli
Scrive Giorgio Colli ne La nascita della filosofia:
Il segno del passaggio dalla sfera divina a quella umana è l’oscurità del responso, il punto cioè in cui la parola, manifestandosi come enigmatica, tradisce la sua provenienza da un mondo sconosciuto. Questa ambiguità è un’allusione alla frattura metafisica, manifesta l’eterogeneità tra la sapienza divina e la sua espressione in parole.
Apollo è un dio misterioso, ambiguo e crudele. È portatore – come tutti gli dei – di una sapienza inaccessibile all’uomo; la condivide con chi gliela chieda tramite un oracolo, ma essa passa sempre attraverso il furore mantico e si esprime quindi in modo incomprensibile. L’oracolo dunque attinge alla sapienza, ma la ritrasmette sotto forma di enigma. Il responso genera dubbi e domande, pretende una interpretazione.
Nel caso sopra menzionato della risoluzione delle controversie – un uso che sembra essere fra i più popolari – l’AI2 di Grok viene interpellata in modo quasi oracolare: le viene attribuita una sapienza di ordine superiore, non discutibile, e il suo responso viene esposto alla comunità come sacro e inviolabile. Poco sembra contare il fatto che la dinamica che osserviamo è, rispetto a quella dell’oracolo greco, completamente capovolta: l’oracolo “sa” (giacché sapiente della sapienza divina), ma si esprime in modo oscuro; Grok non sa (gli LLMs non hanno alcuna cognizione del senso di quello che contengono o che producono), ma si esprime in modo chiaro. Anzi, chiarezza e certezza sono proprio i modi in cui è programmato a rispondere.
In breve: l’oracolo sa tutto ma dà risposte ambigue, l’AI non sa nulla ma dà risposte certe.
Competenze
Se riportiamo il rapporto con l’AI a una dimensione più terrena (malvolentieri, giacché la questione di una metafisica dell’AI si sta facendo sempre più interessante), quello che emerge è un problema di competenze: i distributori dei modelli hanno poco interesse a far conoscere i limiti dei loro prodotti, in particolare i limiti strutturali – quelli cioè i cui difetti possono essere mitigati ma mai del tutto eliminati. Piccoli avvisi in calce alla pagina, annunci sull’imminente rilascio del modello definitivo (o dell’AGI o della “superintelligence” etc.), versioni “beta” quasi pronte ma non proprio proprio pronte – tutto questo serve a creare un hype intorno a un prodotto incompleto sì da mascherarne le imperfezioni e non scoraggiarne l’uso.
Gli LLMs danno risposte sempre più corrette, ma mai completamente attendibili. E quando falliscono lo possono fare tanto su inezie quanto in maniera catastrofica, mantenendo con disinvoltura il medesimo registro di granitica certezza. Questa architettura funziona in modo egregio quando l’approssimazione sia accettabile e la precisione non necessaria (come per la maggior parte di compiti noiosi, ripetitivi, utili ma non strategicamente determinanti – pensiamo solo alla produzione di minute, riassunti, trascrizioni, traduzioni all’impronta, estrapolazioni grossolane, reperimento di informazioni vaghe in pool di dati giganteschi, ricerca di fonti, riconoscimento di pattern etc.). Eppure da anni si susseguono incidenti ridicoli che dimostrano che anche utenti con elevate competenze generali non si rendono minimamente conto del tipo di strumento con cui hanno a che fare. Precedenti legali inventati di sana pianta, citazioni di pubblicazioni mai esistite, interi database cancellati in un amen, l’elenco è lungo e a tratti esilarante.
Molto sottovalutata sembra essere inoltre la sycophancy – ovvero la tendenza dell’AI a compiacere l’utente – anche talora presentando la risposta che questi si aspetta (e quanto tale risposta sia suscettibile di come viene strutturato il prompt).
“Questa-pipa-non-è”
Quando uscirono i primi modelli di generazione video, la comunità anonima della Rete – che non perde mai il senso dell’umorismo – elesse un proprio benchmark per determinarne la qualità: “Will Smith che mangia spaghetti”. Come spesso accade, un compito reale scelto con ironia funziona meglio di molte analisi di laboratorio e, a dispetto delle solite mirabolanti promesse, i risultati hanno ricordato a lungo un incubo di Francis Bacon. In meno di tre anni, il “benchmark Will Smith” ha raggiunto un livello di qualità verosimile.
Un giro su FOOM!, il canale gestito da RunwayML in cui vengono proiettati a rotazione filmati prodotti interamente in modo sintetico, dà l’idea di quale sia lo stato dell’arte in questo momento. E se RunwayML si offre innanzitutto all’industria cinematografica, altri produttori si rivolgono al mondo consumer e molti modelli open source girano senza problemi su un PC casalingo dotato di una scheda grafica da gaming senza pagare troppo in termini di qualità (privi, anzi, di safeguards e per questo motivo addirittura preferiti da molti utenti).

Se da un lato osserviamo lo spalancamento di possibilità creative che ci erano prima inaccessibili, dall’altro non possiamo non considerare che è ormai possibile creare ex novo o alterare – che si tratti di immagini3, video o audio – praticamente qualunque cosa in modo credibile con strumenti tecnici di uso comune.
Ho voluto reinterpretare in copertina il celebre quadro della pipa di Magritte (che non a caso si intitola La Trahison des images) perché, se fino a ieri il “tradimento delle immagini” era un gioco semi-scoperto, oggi scivola sempre più sotto traccia.
Chi potrebbe fumare la pipa del mio quadro?
La pipa di Magritte non è una pipa (ma una sua rappresentazione). La pipa dell’AI è una pipa che non c’è ma che ci fa credere di esserci. Che potremmo – quella sì – veramente fumarla.
Ri-costruzioni
Poco dopo l’omicidio di Charlie Kirk, l’FBI ha diffuso due foto molto sgranate di un sospetto. Rapidamente, molti utenti ne hanno pubblicato versioni “migliorate” senza tener conto di un dettaglio determinante: il miglioramento dell’AI generativa è, appunto, generativo. Il modello non recupera: crea. La confusione è stata tale da costringere il Bureau a fare appello ai cittadini di non dar credito a immagini enhanced. Uno strumento poco compreso ma molto diffuso può quindi creare danni incalcolabili: si pensi solo se un comune cittadino, per coincidenza, si fosse trovato a somigliare all’immagine generata.
Scrivevo due anni e mezzo fa, nel n. 6 (“Stable Confusion”):
Potrebbe non esserci miglior notizia della diffusione e popolarizzazione delle immagini sintetiche. A oggi, per fare un esempio, il potenziale disinformativo di un deep fake ben fatto può essere devastante. Ma che impatto avrebbe se ciascuno di noi potesse creare quello stesso deep fake sul telefonino mentre aspetta l’autobus… se è interiorizzato il fatto che ogni immagine è, in qualche modo, artificiale?
L’auspicio era che con una diffusione capillare le immagini sintetiche avrebbero perso una quota rilevante del loro potenziale disinformativo. In parte ciò è avvenuto: “Ma è AI?” è una domanda ormai ricorrente di fronte a immagini ambigue. Purtroppo questa stessa domanda – che denota uno spirito critico prima assente – non ci avvicina alla realtà ma ce ne distanzia ulteriormente: per via di un inevitabile ricircolo, essa vale, indifferentemente, anche per le immagini reali.
Mentre da un lato si distingue il sintetico dal reale, dall’altro si accusa il reale – soprattutto quando sgradito – di essere sintetico in un continuo gioco a rimpiattino al quale del resto le immagini non sono mai state totalmente estranee.
Mediazioni
In quanto discusso finora è rimasta sempre chiara la distinzione tra autore (di un prompt o di un input), mezzo (il modello4) e prodotto (un testo, un’immagine, un video etc.) in un processo apparentemente lineare di creazione (o falsificazione) di un manufatto digitale. C’è però un’area molto delicata cui rischiamo di non prestare abbastanza attenzione: ci sono casi in cui l’inserimento di strumenti e tecniche di AI è completamente trasparente.
Sempre nel n. 6 di Asterione, riferivo di come TikTok rendesse a loro insaputa il viso di alcuni utenti più sottile:
Con Instagram l’utente è artefice intenzionale della propria “falsificazione” (…) con TikTok (…) questo confine sembra essere saltato: l’app non fornisce un’immagine migliorata solo al pubblico ma anche all’autore – e senza che questi ne sia consapevole: uno specchio bugiardo. “Un bug”, spiegarono quando scoperti; una traiettoria ben studiata (v. MIT Technology Review, The Verge), possiamo legittimamente ritenere.
Più di recente, YouTube ha sottoposto alcuni video all’insaputa degli utenti (sia creatori che fruitori) a strumenti di “miglioramento della qualità” (v. Ars Technica e PetaPixel per maggiori dettagli). È sempre più difficile sapere, a questo punto, se il prodotto digitale che ci raggiunge sia stato alterato e in che modo – possono non saperlo neanche gli autori.
Col passare del tempo, l’AI tenderà a occupare ogni spazio tecnologico disponibile e a inserirsi in maniera sempre più intrusiva ma meno evidente nei processi che separano l’autore (o la fonte) dal prodotto (e dal destinatario). Sono difficilmente calcolabili i rischi introdotti da un elemento terzo che si inserisca in questo processo operando secondo principi e orientamenti che non ci sono noti, vieppiù quando ciò accade senza che ce ne accorgiamo.
Grazie per l’attenzione,
Cristiano M. Gaston
Comunicazioni di servizio
A proposito di cicli, riprenderanno il 25 ottobre (dalle 10:00 alle 13:00) gli incontri di BombaCarta – l’associazione che si occupa di arte e creatività cui appartengo da ormai circa venticinque anni – con diverse novità.
La prima è un cambio di sede (saremo ospiti della libreria Passaparola, in via della Balduina 122 a Roma). L’accesso è come sempre libero, gratuito e senza necessità di prenotazione.
La seconda è che sta partendo la nuova versione di BombaMag sotto forma di pubblicazione qui su Substack. Stiamo rifinendo i dettagli ma chi vuole si può già iscrivere.
Il tema dell’anno è “il Tempo” e quello della prima Officina sarà “Iniziare”. Per tutte le altre informazioni, rimando al sito di BC .
Messaggio originale sul mirror di alt.folklore.computers; cit. in Tanni, V., Memestetica. Il settembre eterno dell’arte., Roma 2021, pag. 5. In questo libro, che consiglio, Valentina Tanni spiega come la Rete e le nuove forme di accesso a contenuti e tecnologie abbiano influenzato l’arte contemporanea (e i suoi rapporti col mondo sociale) sia in termini di produzione che di fruizione.
Da qui in poi userò il termine molto generico di “AI” in riferimento solo alla sua precisa connotazione nel contesto. In questo caso quindi parlo di LLM e chatbot. Per brevità e semplicità eviterò di distinguere continuamente fra tutte le diverse forme di intelligenza artificiale le quali, ricordo, hanno caratteristiche, funzioni, finalità, usi e diffusioni estremamente eterogenei.
Per ripercorrere l’evoluzione dei modelli generativi T2I (text-to-image) Ethan Mollick ha messo insieme “The recent history of AI in 32 otters”.
Per non complicare le cose, non parleremo oggi del fatto che il modello è a propria volta prodotto di qualcosa e di qualcuno.




Grazie per questa riflessione molto interessante