LG osvojio prestižne ekološke certifikate za održivost i vizionarski dizajn
LG je ponovno prepoznat zbog predanosti održivosti i ekološki prihvatljivim inicijativama, osiguravši globalno priznate eko-certifikate za OLED televizore iz ove godine.
Iako u radu ne navode konkretno kako bi AGI mogao dovesti do izumiranja, autori naglašavaju potrebu za strategijama koje bi smanjile rizik od zlouporabe i neželjenih posljedica.
Google DeepMind u novom istraživačkom radu upozorava da bi umjetna inteligencija na ljudskoj razini, tzv. AGI, mogla nastupiti već do 2030. godine te potencijalno izazvati ozbiljnu, pa čak i egzistencijalnu štetu čovječanstvu.
Iako u radu ne navode konkretno kako bi AGI mogao dovesti do izumiranja, autori naglašavaju potrebu za strategijama koje bi smanjile rizik od zlouporabe i neželjenih posljedica. Među autorima je i suosnivač DeepMinda Shane Legg, koji godinama predviđa dolazak AGI-ja oko 2028., dok CEO DeepMinda Demis Hassabis smatra da bi se to moglo dogoditi u idućih pet do deset godina.
Dokument navodi četiri glavne vrste rizika: namjerno štetno korištenje AI-ja, neusklađenost ciljeva, tehničke pogreške te sukob interesa među različitim akterima, poput država ili tvrtki. DeepMind u radu neizravno kritizira pristupe drugih tvrtki poput OpenAI-ja i Anthropica, a vlastitu strategiju temelji na prevenciji zlouporabe i prepoznavanju opasnih sposobnosti u ranoj fazi. Ipak, dio stručnjaka za sigurnost umjetne inteligencije nije impresioniran.
Anthony Aguirre iz Future of Life Institutea poručuje da se radi o pozitivnom koraku, ali da je potrebno puno više truda jer bi nadljudska umjetna inteligencija mogla izazvati društvene i političke potrese bez presedana. Ostaje i problem same definicije AGI-ja – neki znanstvenici poput Heidy Khlaaf ističu da je koncept još uvijek previše nejasan da bi se znanstveno procijenio, dok skeptici poput Garyja Marcusa smatraju da trenutačni AI sustavi, osobito oni temeljeni na jezičnim modelima, nisu u stanju dosegnuti razinu ljudske inteligencije u svim aspektima.
Unatoč velikim razlikama u mišljenjima, sve je više glasova koji upozoravaju da bi razvoj AGI-ja mogao biti bliže nego što se misli, dok je naše razumijevanje kako ga kontrolirati još uvijek daleko iza tog tempa razvoja. Pitanje koje ostaje otvoreno jest hoće li društvo uspjeti uspostaviti dovoljno čvrste okvire prije nego što ti sustavi postanu stvarnost.
Očekivanja su velika, ali i strahovi jednako tako – i upravo zato pitanje sigurnosti ostaje u središtu svih rasprava o budućnosti umjetne inteligencije.