Divagazioni tra l’AI e Oppenheimer
7. “They won’t fear it until they understand it. And they won’t understand it until they’ve used it.”
Il numero archiviato su web è stato modificato il 6 gennaio 2024 rispetto alla versione originale inviata per posta agli iscritti (che conteneva un lungo preambolo di aggiornamento). Sono stati cambiati anche titolo (in origine “Intermission”) e immagine in evidenza per meglio adattarsi alla sequenza dei post. Il resto è sostanzialmente immutato.
Il 16 maggio scorso Sam Altman, CEO di OpenAI, è stato ascoltato dal Senato USA insieme a Gary Marcus (ben noto a chi mi legge) e Christina Montgomery (VP e Chief Privacy and Trust Officer di IBM).
L’audizione è stata preceduta (il 12 aprile) e seguita (il 30 maggio) da due lettere aperte dal tono molto allarmato sugli effetti che l’AI può avere sul destino stesso dell’umanità.
La prima chiedeva una moratoria sulla messa in produzione di strumenti più potenti di GPT-4. Data la vaghezza del presupposto e la non praticabilità della soluzione, diversi firmatari hanno specificato di aver voluto più che altro attirare l’attenzione del legislatore su una questione che presenta novità assolute sia in termini tecnici che giuridici.
La seconda stabilisce forse un nuovo record di laconicità, recitando la sola frase:
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
Nonostante qualche confusione (per esempio tra AI in senso lato e Large Language Models), i parlamentari si sono fatti trovare meno impreparati di altre volte: durante l’audizione dei “Big Four” del 2020 i rapporti di forza, al di là delle cortesie istituzionali e delle apparenze formali, sembravano nettamente in favore di questi ultimi. I volti su monitor dei quattro CEO (in remoto per via del Covid) sancivano una differenza quasi metafisica tra i due gruppi. Di tutt’altro tenore il rapporto con Altman, presente in aula, visibilmente emozionato e lui per primo promotore di maggiore regolamentazione.
In questi ultimi due mesi, per farla breve, applicazioni e servizi di ogni sorta hanno introdotto entusiasticamente la propria forma di AI (qualunque cosa ciò voglia dire) mentre al tempo stesso la stampa lanciava moniti a nove colonne sul rischio di estinzione del genere umano (“AI poses ‘risk of extinction’ on par with nukes, tech leaders say”, The Washington Post; “AI poses same threat as nuclear wars and pandemics, experts say”, The Times; “A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn”, The New York Times; etc.).
Di fronte alle grandi novità è abbastanza frequente la divisione fra entusiasti e apocalittici (di solito sbagliano entrambi); raramente però le due posizioni si intersecano e si rimescolano come nel caso dell’AI. Gli stessi firmatari delle lettere di cui sopra hanno posizioni di merito molto diverse fra loro, a volte radicalmente opposte (sulla frammentazione della comunità scientifica – in cui sono volati stracci – consiglio la puntata del 3 maggio di The Intelligence che ne fa una buona sintesi). Lo stesso concetto da regolamentare, poi, nemmeno gode di una definizione univoca.
In questo clima da Apocalisse Nucleare, è uscito il trailer dell’ultimo film di Nolan e mi è difficile non pensare a un’analoga audizione: quella di Oppenheimer dell’ottobre 19451.
Nolan lavora a questo film almeno dal 2021 quindi escludo avesse l’AI in mente quando lo ha scritto – eppure i parallelismi non mancano. Non mi riferisco ovviamente al rischio di estinzione del genere umano che ha un po’ troppo il sapore di clickbait. Penso invece all’apertura di un vaso di Pandora che libera una forza di cui i creatori non sanno prevedere gli effetti – e al conflitto morale che ciò può generare (Altman è un buon esempio di “entusiasta apocalittico ansioso”). Penso poi alla “disruption” che alcune tecnologie hanno creato nel corso della storia (la stampa, la polvere da sparo, la Rete…) e alla difficoltà di comprenderne le implicazioni se non molto a posteriori; a questo proposito il testo che accompagna il trailer è pregnante:
We imagine a future, and our imaginings horrify us. They won’t fear it until they understand it. And they won’t understand it until they’ve used it. Theory will take you only so far. I don’t know if we can be trusted with such a weapon. But we have no choice. Is anyone ever going to tell the truth about what’s happening here?
E penso infine al rapporto complicato tra tecnico e legislatore, due mondi destinati a non capirsi mai completamente (e raramente disposti a fare lo sforzo), rapporto che proprio Oppenheimer in quell’audizione seppe invece maneggiare con destrezza (lo riferisce Ray Monk nella sua biografia, Inside the Centre: The Life of J. Robert Oppenheimer):
Oppenheimer’s, Szilard later said, was a ‘masterpiece’. What he meant, it seems, is that it was a masterly piece of equivocation. ‘He talked in such a manner that the congressmen present thought he was for the bill but the physicists present all thought that he was against the bill.
Con questo parallelismo in mente, quindi, sono molto curioso di vedere il film (nonostante le tre ore di durata).
Di cosa parliamo quando parliamo di AI
Per quanto il termine sia sulla bocca di tutti, resta comunque molto difficile discutere di AI in modo rigoroso. Casey Newton ha chiesto ai suoi lettori come trattare l’argomento. Ne è uscita una summa piuttosto interessante, in particolare riguardo il primo punto:
Be rigorous with your definitions. There’s an old joke that says “AI” is what we call anything a computer can’t do yet. (Or perhaps has only just started doing.) But the tendency to collapse large language models, text-to-image generators, autonomous vehicles and other tools into “AI” can lead to muddy, confusing discussions.
“Each one of those has different properties, risks and benefits associated with them,” commenter Matthew Varley wrote. “And even then, treating classes of AI & machine learning tech super broadly hurts the conversation around specific usage. The tech that does things like background noise suppression on a video call is the same exact tech that enables deepfake voices. One is so benign as to be almost invisible (it has been present in calling applications for years!), the other is a major societal issue.”
The lesson is to be specific when discussing various different technologies. If I’m writing about a large language model, I’ll make sure I say that — and will try not to conflate it with other forms of machine learning.
Gli altri sono:
Predict less, explain more
Don’t hype things up
Focus on the people building AI systems — and the people affected by its release
Offer strategic takes on products
Emphasize the tradeoffs involved
Remember that nothing is inevitable
Grazie per l’attenzione,
Cristiano M. Gaston
Suggestioni
Let’s debate
Peter Kafka ha dedicato tre belle puntate del proprio podcast al tema dell’AI:
Una autentica falsa Nina Schick
L’avvocato che si è fidato troppo
Insomma… RTFM…!
Vision Pro di Apple
È stato presentato il nuovo dispositivo di Apple. You either die a hero, or you live long enough to see yourself become the villain.
Per la precisione le audizioni furono due, consecutive, una al Senato e l’altra alla Camera, il 17 e il 18 ottobre del ’45.