Come ogni anno da sei a questa parte, anche nel 2023 l’Università di Stanford ha pubblicato il suo report sull’Intelligenza Artificiale, l’Artificial Intelligence Index Report. Redatto dal centro per la ricerca sul tema, l’Hai (Human-Centered Artificial Intelligence), il report, come esplicitato nell’Introduzione, si propone di “fornire dati imparziali, rigorosamente controllati e di ampia provenienza affinché politici, ricercatori, dirigenti, giornalisti e il pubblico in generale possano sviluppare una comprensione più approfondita e sfumata del complesso campo della IA. Il rapporto mira a essere la fonte più credibile e autorevole al mondo per dati e approfondimenti sull’Intelligenza Artificiale”.
Il centro si è avvalso in sede di ricerca di partner noti anche al grande pubblico come LinkedIn e McKinsey & Company, mentre altrettanto note sono alcune aziende che hanno fornito la loro partnership, come Google e OpenAI. Come indicato in apertura dai condirettori dello studio Jack Clark e Ray Perrault, “la nostra analisi mostra che l’Intelligenza Artificiale è sempre più definita dalle azioni di un piccolo insieme di attori del settore privato, piuttosto che da una gamma più ampia di attori sociali”. La palla sta sempre più passando in mano alle grandi aziende private, intorno alle quali potrebbe formarsi un oligopolio simile a quello che ha monopolizzato Internet. Le ricadute di questa dinamica potrebbero essere molteplici e imprevedibili. Non è dunque un caso che i ricercatori abbiano deciso di partire da lì per sviluppare la loro analisi.
Il ruolo sempre più dominante della grande industria
Lo sviluppo dell’Intelligenza Artificiale ha mosso i suoi primi passi nel mondo accademico, tanto che fino al 2014 i modelli di machine learning più significativi erano stati sviluppati proprio in ambito universitario. Da allora il settore economico privato ha preso il sopravvento, tanto che nel 2022 i modelli di machine learning sviluppati dall’industria sono stati 32 a fronte dei soli tre prodotti dal mondo accademico. Realizzare sistemi di IA all’avanguardia richiede sempre più grandi quantità di dati, computer dalle prestazioni elevatissime e denaro, risorse di cui la grande industria dispone appunto in quantità nettamente maggiore rispetto al mondo della ricerca. Se si prendono ad esempio i modelli di apprendimento linguistico di grandi dimensioni, vediamo che GPT-2, lanciato nel 2019, considerato da molti il primo grande esemplare di questa categoria, era basato su 1,5 miliardi di parametri e il costo stimato del suo “addestrame…