Natale AI 2024 passa alla storia. Dovevano essere i “12 days of OpenAI”, in una corsa giornaliera di annunci da parte della società di Sam Altman. Presto si sono aggiunti tutti gli altri big in una vera corsa a “chi ce l’ha più lungo”. Ieri si è chiuso con il botto.
Prima di un veloce recap, diciamo che ormai è tradizione che, a fine anno, succeda qualcosa di “grosso” nell’AI. E’ a fine 2022 che scoppia il fenomeno ChatGPT (il Big Bang dell’AI). Poi, a fine 2023, assistiamo al primo grande scandalo, la cacciata di Sam Altman da OpenAI e tutto il trambusto che porterà al suo ritorno in poche settimane.
Non sorprende quindi che anche questo fine 2024 lasci il segno.
Tutto inizia con l’annuncio “12 days of OpenAI” fatto lo scorso 8 dicembre da Sam Altman. Ricalcando la tradizione nordica dei calendari dell’avvento, ogni nuovo giorno avrebbe portato una nuova release.
Nei successivi 12 giorni, vengono annunciati in sequenza la versione di o1 reasoning, Sora, il nuovo Canvas, l’integrazione con IOS, i Projects di ChatGPT, SearchGPT, fino al botto finale di o3 (ne parliamo dopo).
Ma ciò che rende interessante la stagione è soprattutto la reazione degli altri grandi player. Difficile dire se fossero preparati o se, talvolta, abbiano dovuto improvvisare, fatto sta che la corsa agli annunci, speso anche anticipando quelli di OpenAI, ci ha consegnato una sequenza impressionante di colpi di scena senza precedenti nella storia della tecnologia.
Già all’ottavo giorno, tra annunci e contro-annunci, soprattutto protagonista Google e quella incredibile fucina che è la sua Deep Mind, ce n’era abbastanza per dire che il panorama dell’AI era già stato rivoluzionato, sia in termini di funzionalità che di prestazioni. Ne parlavo in questo post dove mi sono arrischiato a tirare giù un primo bilancio (non sapevo cosa stesse ancora per arrivare).
Ma era appena l’antipasto. Solo il giorno dopo, per non essere da meno, Nvidia, che è il vero perno tecnologico della rivoluzione AI, rilasciava il suo nuovo chip Jetson Nano Super (249 dollari), destinato nel 2025 a stravolgere la robotica commerciale.
Lo dico qui: il 2025 sarà l’anno in cui i robot entreranno nella vita di tutti (e non parliamo delle aziende… o degli eserciti…).
A stretto giro arrivava l’annuncio di Microsoft che annunciava il free-tier di Github copilot e l’integrazione su VS Code. Ora avete accesso gratis a quella che è probabilmente la più potente piattaforma di sviluppo software al mondo usando la facilità del linguaggio ordinario per programmare, fare debugging etc.. Non a caso, Satya Nadella nel video dice che vuole vedere un miliardo di sviluppatori registrati sulla piattaforma (sì, un ottavo della popolazione mondiale).
A questo punto, pareva proprio che i competitor di OpenAI gli avessero rubato la scena, soprattutto Google che umiliava l’uscita di Sora con il lancio della sua piattaforma Veo 2 per la generazione di video (oggettivamente superiore).
E non diciamo nulla delle major release fatte da decine di altre startup AI. Alcune realmente interessanti, ma impossibile da descrivere qui.
Un po’ al di sotto delle aspettative Meta che, in questi giorni, ha rilasciato Llama 3.3 (molto interessante) e un articolo sul training in patches, anziché in tokens (molto promettente), ma da cui sarebbe stato lecito aspettarsi qualcosa di più (l’anno non è ancora finito, chissà che non ci sia ancora tempo per rimediare…).
E arriviamo al botto di ieri con il rilascio da parte di OpenAI di o3. Il modello oggettivamente lascia nella polvere tutti gli altri LLM sul mercato. E lo fa su tutti i possibili benchmarks.
Soprattutto, ha fatto scalpore la performance di o3 sul benchmark ARC-AGI, creato appositamente per misurare le performance AGI (Artificial General intelligence, o, se volete, chiamatela anche superintelligenza).
Qualcuno ha cominciato a gridare che o3 è già AGI. Non ci cascate, questi benchmark saturano sempre, per essere sostituiti da altri per cui i modelli non sono stati addestrati (o3 continua a fallire su task che gli esseri umani risolverebbero con facilità).
Ma forse l’aspetto più interessante (e sorprendente) del rilascio di o3, lo rivelano proprio i costi di esecuzione del modello nei task AGI, dove un singolo “run” può arrivare a costare migliaia di dollari.
In altre parole, per risolvere i problemi più complessi, o3 ha bisogno di un uso veramente smisurato di risorse computazionali (non sappiamo come funziona esattamente, ma probabilmente si basa su una combinazione di Reinforced Learning e Tree of Thought – una sorta di gara a premi evoluzionistica eseguita su un elevatissimo numero di inferenze).
Per completezza, va detto che OpenAI ha anche rilasciato una versione o3 mini che, a parità di task, risulta molto più economicamente efficiente degli altri modelli in circolazione.
Ma è qui che si cela uno degli aspetti su cui più saremo chiamati in futuro a riflettere, come messo in evidenza dallo stesso Sam Altman: la divaricazione tra incrementi marginali di performance a costi esponenzialmente maggiori.
La cosa sembra andare drammaticamente in conflitto con la promessa di democratizzazione dell’AI che, fino a ora, è stata sostanzialmente mantenuta.
La domanda che si pone per il futuro è: che tipo di vantaggio competitivo possono costruirsi quelle organizzazioni che possono permettersi quel differenziale esponenziale di costo in più?
Mille dollari per un singolo “run” sono tanti. Ma pensate ad una società di consulenza internazionale e i benefici che ne potrebbe trarre se tale differenziale garantisse un forte vantaggio competitivo. Vedremo.
E con ciò, ricordandoci che mancano ancora una manciata di giorni alla fine dell’anno e che, quindi, non è detto che non vengano fuori altre sorprese, l’augurio a tutti è per un fantastico 2025 all’insegna dell’AI (della robotica soprattutto…).
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link