Šta je novo?

Veštačka inteligencija

Posle malo sistematizacije dosada izrečenog, opasnost od AI može da se segmentira na:

- opasnost od maliciozne primene
- opasnost od prebrze proliferacije koja izaziva društvene lomove brže nego je sposobnost društva/civilizacije da se tome prilagodi.

Očigledno da svaki segment treba posmatrati odvojeno, u smislu otklanjanja identifikovanih opasnosti.
Ako kreneš da ih mešaš, samo se pogubiš.
 
Poslednja izmena:
Jedna od potencijalno najmračinih indicija u ovoj priči je takozvani Fermijev paradoks. Enriko Femi se zapitao zašto još uvek nemamo ni najmanjeg znaka o postojanju vanzemaljskih civilizacija iako u svemiru postoji praktično beskrajan broj zvezda i njihovih planetarnih sistema, a pri tome izgleda da već sami fizički zakoni spontano proizvode život posle nekog vremena. Onda bi morali već videti neke veštačke signale sa tih silnih zvezda, a ipak još nismo videli ni jedan. To se nešto veoma bitno ne slaže sa elementarnom teorijom verovatnoće.

Jedan od mogućih odgovora je da je sama priroda razvoja civilizacija takva da je mnogo lakše otkriti zakonitosti manje složenog sistema nego nekog složenijeg sistema. Pošto je interna organizacija bilo koje složene civilizacije inteligentnih bića već po definiciji složenija od baznih fizičkih zakona koji su je omogućili, onda praktično sve one pre otkriju kako kontrolisati destruktivne prirodne sile nego kako kontrolisati internu organizaciju složenijeg sistema višeg reda, tj same sebe i svoju civilizaciju. Zbog toga maltene sve one relativno brzo unište same sebe, pošto je to samo pitanje verovatnoće, tj nešto ih dočeka nespremne pre ili kasnije. I ZATO nismo videli veštačke signale ni sa jedne zvezde. Prosto, nema puno i dalje postojećih civilizacija, pa nije verovatno da ćemo ih brzo, ili ikada, naći. To je inače razlog zato Elon Mask tvrdi da je ceo svoj život posvetio tome da postanemo multiplanetarna civilzacija. Jer, ako, ili kad, nam se nešto zaista ružno desi na jednoj planeti, i dalje bi postojalo ljudsko društvo na drugoj.

Moram da kažem da je ovo krajnje depresivno objašnjenje Fermijevog paradoksa ipak proizvoljna konstrukcija u ovom trenutku jer zavisi od previše velikog broja proizvoljnih pretpostavki. Ali eto, da spomenemo i to.
 
Osnovna razlika izmedju nas i AI nije u inteligenciji, vec u tome sto smo m i ziva bica.
Zelimo da zivimo i ne zelimo da umremo.
Imamo nagone.
Imamo sposobnost da zivimo i postojimo i bez inteligencije, po nagonu.

Ne samo mi, svaki crv ima ono sto AI nema.

Fascinacija sa AI je prirodna, ali je i proizvod "akademskog razmisljanja". To univerzitetsko razmisljanje, slicno je rezonovanju AI.
 
Razumem šta hoćeš da kažeš, ali ne vidim kako bi se vrednost rada mogla održati ako razvijemo autonomne sisteme koji su sposobni da ga zamene (i to na dosta efikasniji način). Možda neće moći da se zameni sav ljudski rad, ali da zamene i 50% tog rada veštačkom inteligencijom, kako se rešava taj politički problem?
Ne postoji neka fiksna kolicina ljudskog rada, pa da se 50% istog zameni AI. Struja je zamenila 90% ljudskog rada od pre 300 godina pa i dalje radimo iako nas je 10 puta vise na planeti.

Nismo dostigli nekih 100% sve moguce produktivnosti (verovatno nismo ni zagrebali povrsinu) pa da sad nema gde da se napreduje.
 
Nije to sporno, nego diskutujemo o brzini kojom AI nastupa u odnosu na sposobnost društva da se tome prilagodi.
Opasnost je da stvari idu brže nego što bi trebalo... sa svim posledicama...
 
U priči o robotima i veštačkoj inteligenciji bi trebalo ponovo spomenuti i sada aktuelnu uzbunu oko Kineskog DeepSeek AI programa.

Humanoidni roboti su oni koji imaju ljudski oblik da bi se mogli kretati i raditi u sredini koja je dizajnirana za oblik ljudskog tela. Tek tada lako mogu preuzeti mnoge poslove od ljudi, jer onda nije potrebno praviti veoma skupe fabrike prilagođene svakom posebnom obliku nekog robota. Razlog zašto do sada nije bilo više humanoidnoh robota nije taj da je bilo teško napraviti njihova tela, nego mozak. Slobodno i po druge bezopasno kretanje u sredini napravljenoj za ljude zahteva ne mali stepen opšte inteligencije. Dakle, bilo je potrebno u telo relativno male težine i dimenzija spakovati i dovoljno moćne motore i dovoljno moćan mozak, zajedno sa izvorom energije koji može da napaja obe te stvari dovoljno dugo vreme. I tako je razvoj pravih humanoidnih robota opšte namene u dobroj meri stajao u mestu, jer je mozak takvih robota ranije bio previše veliki i tražio previše energije da bi stao u tela toliko ograničene veličine.

Međutim Kinezi su sada DeepSeek-om pokazali da postoji način da mozak iste inteligencije može da troši bitno manje energije i da bude bitno manji nego što su nas Američki OpenAI, Meta i Mikrosoft ubeđivali da je neophodno. Pa je sada ne samo srušen taj zamišljeni budući monopol Amerikanaca (fiksiran vrlo visokom tehnologijom, obiljem kapitala i raspoložive energije kod njih) nego je postalo moguće spakovati dovoljno dobar mozak u robota gde nema ni puno mesta ni puno energije za trošenje. Nisam video da je neko o tome pričao, a deluje mi da je to još značajnije od geopolitičkih natezanja za tehnološku prevlast. Ne sumnjam da se recimo Teslin Optimus robot upravo sada veoma intenzivno prilagođava ovome što su Kinezi objasnili u objavljenom naučnom radu, odnosno dali na uvid u otvorenom sors kodu.
 
Nisam mogao da odolim, a ne bih da sad raspirujem vatru sa offtopic:
1738160653650.jpeg

Ovo se zove podela posla. Još samo oko nove valute da se dogovore.
 
Poslednja izmena:
Osnovna razlika izmedju nas i AI nije u inteligenciji, vec u tome sto smo m i ziva bica.
Zelimo da zivimo i ne zelimo da umremo.
Imamo nagone.
Imamo sposobnost da zivimo i postojimo i bez inteligencije, po nagonu.

Ne samo mi, svaki crv ima ono sto AI nema.

Fascinacija sa AI je prirodna, ali je i proizvod "akademskog razmisljanja". To univerzitetsko razmisljanje, slicno je rezonovanju AI.

Trivijalno je robotima uprogramirati emocije i želju za životom. To nije nikakva razlika.
 
Nije to sporno, nego diskutujemo o brzini kojom AI nastupa u odnosu na sposobnost društva da se tome prilagodi.
Opasnost je da stvari idu brže nego što bi trebalo... sa svim posledicama...
U mojoj firmi ove godine je bas jak akcenat na AI, integrisemo ga na svim nivoima, i iskreno, sto vise radim to sam manje zabrinut. Jako koristan za neke stvari, ali i dalje samo alat. Pri tom mi verovatno radimo na nesto naprednijem nivou od velike vecine korisnika.
 
Drago mi je, mi amateri naravno uvek uveličamo stvari, jer ih dubinski ne razumemo.
Ali mislim da treba obratiti više pažnju na potencijal, nego na tekuću implementaciju. Koliko daleko sve to može da ode, to je pitanje.

A ovo je nerd koji je navodno skuckao Deepseek:
 
Poslednja izmena:
AI odnosno LLM (Large Language Model) je samo programiranje na jako neefikasan način. To je iluzija inteligencije koja se zasniva na statistici sa dovoljno velikim uzorkom. Ono što je dobro u toj priči je što ima mnogo prostora za sve vrste optimizacija, pre svega povećanje efikasnosti i kvaliteta odgovora.

Trenutno smo u smo u situaciji gde je kineski DeepSeek napravio ogroman pomak na oba polja. Običan DeepSeek koristi nešto što se zove Mixture of experts da podeli zadatak na više specijalizovanih LLM i tako efektivno smanji potrošnju struje. Rezultat je sličan onome što daje ChatGPT ali mnogo brži. Postoji i DeepSeek R1 koji koristi Chain-of-Taught pomoću kojeg preispituje sam sebe i daje mnogo kvalitetniji i opširniji odgovor, a po brzini je približan ChatGPT.

Kao što su na ovoj temi već svi primetili, LLM se odlično snalazi sa kodovima svih jezika. To mu omogućava da pročita ceo npr. Stackoverflow i potencijalno pronađe neke delove koda koji bi mu pomogli u optimizaciji. Pošto LLM trenutno ne razume šta čita i piše, sama primena toga i dalje zavisi od ljudi ali je pitanje vremena kada će postati automatizovano. To će verovatno dovesti do toga da će glasovni pomoćnici na telefonima postati mali LLM (možda bi se to zvalo samo LM :D) koji radi na samom telefonu bez interneta.

Ovo je od pre godinu dana, još ne znamo tačno šta je sve danas moguće
 
Ima tu jedan problem koji AI ne može rešiti: šta ako ga hraniš namerno pogrešnim informacijama?
Nisu sve primene u programiranju i matematici.

Interesantno pitanje je da li će AI ikada steći kognitivnu sposobnost sinteze gomile sukobljenih mišljenja koje ima kao input.
Evo primera:

- nahraniš AI sa 1000 dokumenata da je bilo doseljavanja Slovena na Balkan
- onda ga nahraniš sa 1000 dokumenata da se to NIJE desilo
- onda ga nahraniš sa 1000 dokumenata da se to desilo, ali ne na način na koji se predstavlja u mainstream nauci

govorim o dokumentima u smislu istorijskih izvora...

- onda ga nahraniš sa 1000 različitih etnografskih, lingvističkih i geografskih, klimatskih i drugih analiza koje same za sebe veze nemaju sa temom niti istoriografijom, ali uvezivanjem njihovih rezultata sa istoriografskim podacima itekako može da se dođe do nekog zaključka.

I onda pitaš AI: da li je bilo doseljavanja Slovena na Balkan?
Da li će ikada moći da pređe magičnu granicu između prostog navođenja informacija koje ima u inputu, i njihove sinteze i zaključivanja?

Drugim rečima, šta nam sutra, prekosutra uopšte znači "mišljenje" AI o nečemu, sve i da može sve ove podatke da sintetizuje, kad je, što reče jedan pametan čovek, mišljenje kao dupe: svako ga ima! Mišljenje neke AI tu ne pravi neku posebnu razliku.

Ako pogledamo ove inpute gore, problem je i u tome što svaki čovek ove inpute različito ponderiše - različitu važnost im prodaje.
Neki ljudi svesno zanemaruju neke od ovih inputa kao irelevantne - ponder im je nula.

Kako će sad AI, čak i da ima neke kognitivne sposobnosti, da se snađe u svemu tome i koliko je to merodavno za Peru, u odnosu na Simu, koji imaju svoje mišljenje o celoj ovoj temi.
Nadam se da razumete šta pokušavam da kažem - na klizavim terenima AI može da prokliza isto kao i čovek. I onda njena prednost u odnosu na čoveka pada.

Njena primena je možda opravdanija kod egzaktnih problema - na primer, upravljanje avionom. Imaš objektivne parametre, imaš maršrutu, imaš input sa svim vremenskim prilikama koje mogu da se dese na putu, imaš sve procedure u kriznim situacijama... i ajd da kažemo, minus ljudska kreativnost da razmišlja out of the box, što ne verujem da AI ikad može imati, AI bi mogla lepo da zameni pilota - shvatam da je ovo strech, smatrajte ovo samo primerom, ništa više od toga. Ja prvi ne bih seo u avion kojim upravlja AI.

Ali kako da zameni sociologa, istoričara... itd...

Smatrajte ovo kao brainstorming, niti imam jasno definisanu tezu, niti jasnu argumentaciju. Misli mi šetaju, a tema je više nego interesantna.
 
Poslednja izmena:
Ne postoji neka fiksna kolicina ljudskog rada, pa da se 50% istog zameni AI. Struja je zamenila 90% ljudskog rada od pre 300 godina pa i dalje radimo iako nas je 10 puta vise na planeti.

Nismo dostigli nekih 100% sve moguce produktivnosti (verovatno nismo ni zagrebali povrsinu) pa da sad nema gde da se napreduje.

Ne mislim da ti stoji poređenje. Struja nije entitet koji obavlja rad. Ovde govorimo o veštačkoj inteligenciji koja bi potencijalno mogla da pokrije i trenutne i buduće potrebe i procese, i da skroz isključi čoveka iz procesa proizvodnje roba i usluga.

Naravno, ne verujem da to može u potpunosti da se desi i uvek će ostati određena zanimanja koja prosto mora da obavlja čovek za čoveka (npr. advokaski posao zastupanja pred sudom), ali pogledaj koliko kancelarijskog posla bi hipotetički AI mogao da zameni. A sa razvojem robotike, i fizičkog, terenskog posla.
 
U mojoj firmi ove godine je bas jak akcenat na AI, integrisemo ga na svim nivoima, i iskreno, sto vise radim to sam manje zabrinut. Jako koristan za neke stvari, ali i dalje samo alat. Pri tom mi verovatno radimo na nesto naprednijem nivou od velike vecine korisnika.

Stavi to u perspektivu 10-20-30 godina. Nije mi nezamislivo da dođemo u neku fazu gde bi mu trebala minimalna kontrola i usmeravanje od strane čoveka, dok on obavlja 95% procesa unutar neke firme.

Možda sam ja malo i paranoičan, pod utiskom najava koje dolaze od Saltmana i ostalih da mogu postići AGI u kratkom roku, ali gledam koliko je samo LLM uznapredovao u roku od godinu dana i stvarno osećam kao da smo na pragu ekonomske revolucije. Automatizacija mnogih procesa ne izgleda kao daleka budućnost.
 
AI ne može rešiti ni jedan problem jer ne postoji :D LLM ima vrlo jasno definisane primene u gde rezultati variraju od neprihvatljivih do izuzetnih.
LLM se ne koristi u matematici, bukvalno ne može da izbroji koliko slova ima u nekoj reči.
U programiranju se koristi tako što prevodi ljudsku logiku iz govornog jezika u neki programski, ne rešava logičke zadatke.
Problem je što ljudi misle da je to AI i da ne greši nigde, pa ga slušaju za sve.
 
Nekako sam sklon mišljenju da je LLM ipak ćorsokak i da se ne treba bojati AI dok je na njemu zasnovana.
Ako ikada uspemo da shvatimo kako funkcioniše ljudski mozak, pa napravimo tehnologiju koja to oponaša - e to bi bio momenat za paniku i postavljanje teških pitanja.
 
postavi mu zadatak da ti napise recenicu nesto tipa do 120 karaktera, ukljucujuci razmake, znace da poludi skroz
 
AI ne može rešiti ni jedan problem jer ne postoji :D LLM ima vrlo jasno definisane primene u gde rezultati variraju od neprihvatljivih do izuzetnih.
LLM se ne koristi u matematici, bukvalno ne može da izbroji koliko slova ima u nekoj reči.
U programiranju se koristi tako što prevodi ljudsku logiku iz govornog jezika u neki programski, ne rešava logičke zadatke.
Problem je što ljudi misle da je to AI i da ne greši nigde, pa ga slušaju za sve.

Ne znam za programiranje. Moja niša je narativna (društveni i institucionalni razvoj) i tu LLM briljira. Uz kvalitetno promptovanje, sposoban je da generiše sadržaj koji se u velikoj meri gađa sa industrijskim standardom. Gemini je sad sposoban, zbog širokog context windowa, i da uzme stotine stranica dokumenata i da ih koristi pri odgovaranju na promptove. Opet, s obzirom da je to language model, logično je da će pokazivati izuzetne rezultate u generisanju narativa, i svestan sam da je za neke druge upotrebe i dalje slab.

Opet, ne mislim da je LLM ono što će dovesti do velikih promena, već AGI za koji developeri pričaju da nije toliko daleko.
 
To je posledica naknadne cenzure, nema veze sa internim sposobnostima samog modela.
 
Ovde je ključno pitanje da li sadašnji AI modeli u sebi imaju bar mali deo prave inteligencije, ili je to zaista samo slepa analiza verovatnoća u ulaznom tekstu, podignuta na viši stepen. Ja sam u početku takođe mislio da je u pitanju ovo drugo, ali sada više nisam siguran. Samo pitanje je trenutno neodgovorljivo jer ne znamo šta je inteligencija, pa onda ni samo pitanje nema smisla. Ne može pitati nešto o nečemu, ako ne znamo o čemu se to pitamo. Ali možda možemo imati bar neki osnovni "osećaj" o tome, u kom pravcu se stvari razvijaju, čemu teže. Meni sve više izgleda se inteligencija bakterije suštinski, po osnovnoj prirodi, ne razlikuje od inteligencije ljudi. A onda bi i LLM modeli ustvari bili bar donekle inteligentni. Ima puno primera da tačno odgovaraju na pitanja koja nisu deo ulaznog trening materjala. Večina njihovih testova je takva. Kako je to moguće ako samo mere verovatnoće? Naravno da nije, oni dakle donekle i zaključuju o novim stvarima o kojima ranije nisu čuli, bar ne direktno. A to je već neka logika. Da li je takva logika istovremeno i razmišljanje i na kraju inteligencija ... ko zna. Čini mi se da jeste, ali videćemo.
 
Ma da mi primenimo bosanski model uništenja svake AI postavljanjem pitanja: "Jarane, šta ima?"
:)

Što je sigurno, sigurno je! :)
 
Vrh