Root NationČlanciAnalitikaŠest zapovijedi umjetne inteligencije

Šest zapovijedi umjetne inteligencije

-

Sljedeće godine bit će obilježene ubrzanim razvojem tehnologija umjetne inteligencije. Možda je potrebno uvesti jasno definirane okvire za stvaranje i korištenje AI? Je li 6 mjeseci iskustva dovoljno za reguliranje tehnologije koja još nije ni izašla iz laboratorija? Ovo pitanje sve češće dolazi iz usta stručnjaka i novinara kada je u pitanju umjetna inteligencija. Sve se češće čuju glasovi i pozivi da se poduzmu mjere regulacije umjetne inteligencije – kako na razini korisnika, tako i na razini razvoja projekta. Povijest takvih žalbi započela je dosta davno.

Sveprisutna prisutnost umjetne inteligencije u digitalnom prostoru i, prije svega, modela sposobnih kreirati sadržaj koji se neće razlikovati od onoga što stvaraju ljudi, izaziva vrlo različite emocije. S jedne strane imamo skupinu entuzijasta koji budućnost vide u umjetnoj inteligenciji i, unatoč njezinim relativno ograničenim mogućnostima (jer umjetna inteligencija ne razmišlja, a često samo preuzima informacije s interneta), ne boje se povjeriti joj mnoge zadatke . S druge strane barikade nalazi se skupina koja izražava skepticizam i zabrinutost aktualnim trendovima u razvoju umjetne inteligencije.

AI postulat

Most između dviju skupina su istraživači umjetne inteligencije, koji s jedne strane navode brojne primjere kako je umjetna inteligencija pozitivno utjecala na okolnu stvarnost. Pritom shvaćaju da je prerano odmarati se na lovorikama, a veliki tehnološki skok donosi brojne izazove i veliku odgovornost. Jasan primjer ovakvog stava je međunarodna grupa istraživača umjetne inteligencije i strojnog učenja koju vodi dr. Ozlem Garibay sa Sveučilišta Central Florida. Publikacija na 47 stranica, koju je napisalo 26 znanstvenika iz cijelog svijeta, identificira i opisuje šest izazova s ​​kojima se moraju suočiti istraživačke institucije, tvrtke i korporacije kako bi njihovi modeli (i softver koji ih koristi) bili sigurni.

Da, ovo je ozbiljan znanstveni rad s važnim objašnjenjima za razumijevanje budućnosti umjetne inteligencije. Tko je zainteresiran može samostalno pročitajte ovo znanstveno izvješće i sami donesite zaključke. Jednostavnim riječima, znanstvenici su identificirali 6 zapovijedi umjetne inteligencije. Svi razvoji i radnje umjetne inteligencije moraju biti u skladu s njima kako bi bili sigurni za ljude i svijet.

AI postulat

U svom članku, napisanom upravo na temelju ovog znanstvenog rada, pokušat ću formulirati glavne postulate, zakonitosti prema kojima bi umjetna inteligencija trebala postojati i razvijati se. Da, ovo je moja gotovo slobodna interpretacija zaključaka znanstvenika o razvoju umjetne inteligencije i pokušaj njihovog prikazivanja u, da tako kažem, biblijskoj verziji. Ali ovako sam vas htio upoznati s ovim znanstvenim radom cijenjenih znanstvenika.

Također zanimljivo: Izgradnja AI: Tko vodi u utrci?

Prvi zakon: Ljudska dobrobit

Prvi postulat istraživača je usmjeriti rad umjetne inteligencije na dobrobit ljudi. Zbog nedostatka „ljudskih vrijednosti, zdravog razuma i etike“, umjetna inteligencija može djelovati na način koji će dovesti do značajnog pogoršanja ljudskog blagostanja. Problemi mogu biti rezultat nadljudskih sposobnosti umjetne inteligencije (primjerice koliko lako umjetna inteligencija pobjeđuje ljude - i to ne samo u šahu), ali i činjenice da umjetna inteligencija ne misli svojom glavom, pa stoga nije u stanju "filtrirati" predrasude ili očite greške.

AI postulat

- Oglašavanje -

Istraživači napominju da pretjerano povjerenje u tehnologije umjetne inteligencije može negativno utjecati na dobrobit ljudi. Društvo koje ima malo razumijevanja o tome kako zapravo funkcioniraju algoritmi umjetne inteligencije sklono mu je pretjerano vjerovati ili, naprotiv, ima negativan stav prema sadržaju generiranom određenim modelom, posebice chatbotovima. Uzimajući u obzir ove i druge čimbenike, Garibayev tim poziva na stavljanje ljudskog blagostanja u središte buduće interakcije AI-ljud.

Pročitajte također: ChatGPT: jednostavan korisnički vodič

Drugi zakon: Odgovornost

Odgovornost je pojam koji se stalno pojavljuje u svijetu umjetne inteligencije u kontekstu onoga za što koristimo strojno učenje i kako se točno modeli i algoritmi umjetne inteligencije razvijaju i obučavaju. Međunarodni tim ističe da se dizajn, razvoj i implementacija umjetne inteligencije trebaju raditi isključivo s dobrim namjerama.

AI postulat

Po njihovom mišljenju, odgovornost treba promatrati ne samo u tehničkom, već iu pravnom i etičkom kontekstu. Tehnologiju treba promatrati ne samo sa stajališta njezine učinkovitosti, već iu kontekstu njezine uporabe.

"Uvođenjem naprednih tehnika strojnog učenja postaje sve važnije razumjeti kako je odluka donesena i tko je za nju odgovoran” - pišu istraživači.

Treći zakon: Povjerljivost

Privatnost je tema koja kao bumerang ulazi u svaki diskurs o tehnologiji. Pogotovo kada se o svemu raspravlja na društvenim mrežama. No, to je iznimno važno za umjetnu inteligenciju jer ona ne postoji bez baze podataka. A što su baze podataka?

Znanstvenici ih opisuju kao "apstrakciju osnovnih građevnih blokova koji čine način na koji vidimo svijet". Ti su blokovi obično svakodnevne vrijednosti: boje, oblici, teksture, udaljenosti, vrijeme. Dok uska umjetna inteligencija usmjerena na jedan cilj, kao što je stupanj do kojeg se zatvarač otvara pri određenom intenzitetu svjetla, koristi javno dostupne objektivne podatke, umjetna inteligencija u širim primjenama (ovdje, na primjer, modeli teksta u sliku kao što je Midjourney, ili jezični modeli kao što je ChatGPT ) mogu koristiti podatke o ljudima i podatke koje su stvorili ljudi. Treba spomenuti i članke u tisku, knjige, ilustracije i fotografije objavljene na internetu. Algoritmi umjetne inteligencije imaju pristup svemu, jer smo im to sami dali. Inače neće ništa znati i neće dati odgovore ni na jedno pitanje.

AI postulat

Korisnički podaci temeljno utječu kako na ljude o kojima se prikupljaju tako i na ljude u sustavu u kojem će se implementirati algoritmi umjetne inteligencije.

Stoga se treći izazov odnosi na široko razumijevanje privatnosti i pružanje takvih prava kao što su pravo na ostanak sam, pravo na ograničenje pristupa sebi, pravo na tajnost osobnog života ili poslovanja, pravo na kontrolu osobnih informacije, odnosno pravo na zaštitu osobnosti, osobnosti i dostojanstva. Sve to mora biti zapisano u algoritme, inače privatnost jednostavno neće postojati, a AI algoritmi se mogu koristiti u prijevarnim shemama, ali i kaznenim djelima.

Pročitajte također: 7 najboljih načina korištenja ChatGPT-a

Četvrti zakon: Struktura projekta

Umjetna inteligencija može biti iznimno jednostavna i jednonamjenska, ali u slučaju većih modela sa širokom i višezadaćnom prirodom, problem nije samo privatnost podataka, već i struktura dizajna.

Na primjer, GPT-4, najnoviji OpenAI-jev model umjetne inteligencije, unatoč svojoj veličini i utjecaju na svijet umjetne inteligencije (i šire), nema u potpunosti javnu dokumentaciju. Odnosno, ne razumijemo koji su konačni ciljevi programera, što žele dobiti u konačnom rezultatu. Stoga ne možemo u potpunosti procijeniti rizike povezane s upotrebom ovog AI modela. GPT-3, s druge strane, obučen na podacima s 4chan foruma, model je s kojim definitivno ne želite komunicirati. 4chan forum jedan je od najzanimljivijih fenomena na internetu. Ovo je primjer apsolutne, totalne anarhije, koja u praksi nije ograničena nikakvim okvirom. Ovdje su stvorene hakerske grupe poput Anonymous ili LulzSec. To je izvor mnogih najpopularnijih memeova, mjesto za rasprave o kontroverznim temama i objavljivanje još kontroverznijih mišljenja. Iako slikovna ploča na engleskom jeziku navodi da je "zasad legalno", to je pomalo upitno, s obzirom na to da se 4chan povremeno bavi medijskim izvještavanjem, uključujući rasističke, nacističke i seksističke sadržaje.

AI postulat

- Oglašavanje -

Tim profesora Garibaya želi da svaki model umjetne inteligencije funkcionira unutar jasno definiranog okvira. Ne samo zbog dobrobiti osobe s kojom AI komunicira, već i zbog sposobnosti procjene rizika povezanih s korištenjem modela. Struktura svakog projekta treba uključivati ​​poštivanje potreba, vrijednosti i želja različitih kulturnih skupina i dionika. Proces stvaranja, obuke i finog podešavanja umjetne inteligencije trebao bi biti usmjeren na dobrobit ljudi, a krajnji proizvod – model umjetne inteligencije – trebao bi biti usmjeren na povećanje i poboljšanje produktivnosti same ljudske zajednice. Modeli kod kojih se rizici ne mogu identificirati trebaju imati ograničen ili kontroliran pristup. Oni ne bi trebali biti prijetnja čovječanstvu, već naprotiv, doprinositi razvoju čovjeka i društva u cjelini.

Pročitajte također: Twitter u rukama Elona Muska - prijetnja ili "poboljšanje"?

Peti zakon: Upravljanje i neovisni nadzor

Algoritmi umjetne inteligencije doslovno su promijenili svijet u samo godinu dana. Bard od Googlea i Bing premijere do Microsoft značajno utjecalo na dionice oba diva na burzi. Usput, oni su pridonijeli rastu dionica ovih kompanija čak i na pozadini dionica Apple. Učenici škole počeli su aktivno koristiti ChatGPT, s njim komuniciraju, ispituju ga i postavljaju pitanja. Najvažnije je da ima sposobnost samoučenja, ispravljanja svojih grešaka. Umjetna inteligencija čak počinje djelovati u vladama nekih zemalja. Ovo je slučaj rumunjskog premijera Nicolaea Chuce angažirao virtualnu pomoćnika koji će ga informirati o potrebama društva. Odnosno, umjetna inteligencija igra sve važniju ulogu u našim životima.

AI

S obzirom na sve veću međuovisnost između umjetne inteligencije, čovjeka i okoliša, znanstvenici smatraju potrebnim stvaranje tijela upravljanja i neovisnog nadzora nad njezinim razvojem. Ta će tijela kontrolirati cijeli životni ciklus umjetne inteligencije: od ideje do razvoja i implementacije. Vlasti će pravilno definirati različite modele umjetne inteligencije i razmotriti slučajeve vezane uz umjetnu inteligenciju i subjekte društvenog života. Odnosno, umjetna inteligencija može postati predmetom sudskih procesa, ali i tužbi. Iako, naravno, ne on osobno, već njegovi programeri.

Pročitajte također: Sve o Neuralinku: Početak Cyberpunk ludila?

Šesti zakon: Međudjelovanje čovjeka i umjetne inteligencije

U programima umjetne inteligencije svatko može pronaći nešto za sebe: generirati tekst, detektirati sadržaj na slikama, odgovarati na pitanja, generirati slike, prepoznati ljude na fotografijama, analizirati podatke. Ova višestruka upotreba ne zabrinjava samo ljude koji pokušavaju prilagoditi umjetnu inteligenciju pravnim i etičkim standardima. Mnogi se boje da će ih modeli umjetne inteligencije istisnuti s tržišta rada. Zato što će algoritmi umjetne inteligencije moći napraviti istu stvar brže, jeftinije, a možda čak i bolje od osobe. Istovremeno, postoje ljudi koji se u svom radu oslanjaju na AI, odnosno umjetna inteligencija im je već danas neizostavan pomoćnik.

AI

No iz studija na koje se pozivaju znanstvenici jasno je da je zamjena ljudi jeftinom umjetnom radnom snagom još prilično daleko. Unatoč tome, već inzistiraju na potrebi uspostave stroge hijerarhije interakcije između čovjeka i umjetne inteligencije. Po njihovom mišljenju, ljude treba staviti iznad umjetne inteligencije. Umjetna inteligencija mora biti kreirana uvažavajući kognitivne sposobnosti čovjeka, uzimajući u obzir njegove emocije, društvene interakcije, ideje, planiranje i interakciju s objektima. Odnosno, u svim situacijama osoba je ta koja mora stajati nad umjetnom inteligencijom, kontrolirati ponašanje i sadržaj kreiran modelom te biti za to odgovorna. Jednostavnim riječima, čak i najnapredniji AI mora poslušati osobu i ne ići dalje od onoga što je dopušteno, kako ne bi naštetio svom tvorcu.

Pročitajte također: Kako Ukrajina koristi i prilagođava Starlink tijekom rata

Visnovki

Da, netko će reći da znanstvenici u svom izvješću nisu ukazali na ništa važno i novo. O tome svi već dugo pričaju. Ali već sada je potrebno AI staviti u neki okvir zakona. Posezanje za GPT-4 je kao naslijepo posezanje za nožem. Skrivaju ključne podatke od nas. Sva kretanja u umjetnoj inteligenciji, a posebno projekt ChatGPT iz Open AI-ja, često me podsjećaju na odgoj malog djeteta. Ponekad se čini da je riječ o djetetu vanzemaljskog podrijetla. Da, izvanzemaljac, ali on je ipak dijete koje uči, griješi, ponekad se ponaša nedolično, razdražljivo je, svađa se s roditeljima. Iako vrlo brzo raste i razvija se.

AI

Čovječanstvo možda neće pratiti svoj razvoj i stvari mogu izmaći kontroli. Dakle, čovječanstvo već treba shvatiti zašto sve to razvijamo, znati krajnje ciljeve, biti „odgovorni roditelji“, jer inače „dijete“ može jednostavno uništiti svoje „roditelje“.

Pročitajte također: 

Yuri Svitlyk
Yuri Svitlyk
Sin Karpata, nepriznati genij matematike, "pravnik"Microsoft, praktični altruist, lijevo-desno
- Oglašavanje -
Prijavite se
Obavijesti o
gost

0 Komentari
Ugrađene recenzije
Pogledaj sve komentare