SPORNI IZVJEŠTAJI

Sam Altman umiruje investitore zabrinute zbog razvoja AI-a: Ne postoji zid

Nedavno se pojavio izvještaj koji navodi da se OpenAI, Google i Anthropic suočavaju s poteškoćama u razvoju naprednih AI modela.

Sam Altman umiruje investitore zabrinute zbog razvoja AI-a: Ne postoji zid
Depositphotos

Izvršni direktor (CEO) OpenAI-a Sam Altman tvrdi da "ne postoji zid" u razvoju naprednih AI modela usprkos zabrinjavajućim izvještajima.

Nedavno se pojavio jedan koji navodi da se OpenAI, Google i Anthropic suočavaju s poteškoćama u razvoju naprednih AI modela. Kao glavni razlozi navode se nedostatak visokokvalitetnog sadržaja za treniranje AI modela i visoki troškovi povezani s praćenjem AI trenda.

Investitori su izrazili zabrinutost zbog kontinuiranih velikih ulaganja Microsofta u AI unatoč slabim profitnim rezultatima. Izvršni direktor Anthropica Dario Amodei predviđa da bi AI laboratoriji do kraja godine mogli potrošiti 100 milijuna dolara na treniranje naprednih AI modela. Dodao je kako bi taj iznos mogao porasti na 100 milijardi dolara u narednim godinama.

Njegova predviđanja nisu nerealna. Altman je nedavno izjavio kako bi superinteligencija mogla biti udaljena samo "nekoliko tisuća dana". Međutim, dok je nejasno govorio o ambicioznom AI snu, napomenuo je da bi za postizanje tog cilja bilo potrebno sedam bilijuna dolara i 36 tvornica poluvodiča te dodatnih podatkovnih centara.

Izvršni direktor Anthropica priznaje da mnogi faktori mogu spriječiti napredak AI-ja, uključujući nedostatak dovoljne količine podataka za treniranje. Međutim, optimističan je da uvijek postoji rješenje za takve probleme, uključujući korištenje sintetičkih podataka. Za kontekst, sintetički podaci sastoje se od slika i tekstova generiranih računalima, koji oponašaju sadržaj stvoren od strane ljudi.

Izvještava se da sljedeća generacija AI modela OpenAI-ja i Anthropica nije ispunila očekivanja, što je dovelo do odgode njihovog objavljivanja. Iako modeli pokazuju bolje sposobnosti i performanse od svojih prethodnika, razlika je minimalna.

Bivši glavni znanstvenik OpenAI-ja i direktor Safe Superintelligencea Ilya Sutskever priznao je da skaliranje naprednih AI modela očito dostiže svoje granice.

Iako se Altman nije izravno osvrnuo na tvrdnje da je OpenAI dosegao granice znanja za treniranje AI modela, zanimljivo je da je poruku o nepostojanju zida objavio ubrzo nakon što su izvještaji počeli kružiti društvenim mrežama.