|
|
28. 05. 2025 |
 |
UI i policija
Većina tvrtki koje razvijaju umjetnu inteligenciju hvali se sposobnostima svojih novih modela uz pomoć matematičkih testova ili analiza slika. Anthropic je izazvao pomutnju objavom da je njihova umjetna inteligencija sposobna prijaviti vas vlastima. Manje poznata od nezaobilaznog ChatGPT-a, Claude, umjetna inteligencija koju razvija Anthropic, ipak je jednako sposobna kao i konkurencija. Čak i više, izgleda, s najnovijim modelom, budući da je on sposoban upozoriti vlasti ako se koristi za zadatak koji se ocijeni kao “otvoreno zlonamjeran”.
Ovu neobičnu mjeru najavio je Sam Bowman, voditelj sigurnosti umjetne inteligencije u Anthropic-u. No ništa od toga zapravo nije sasvim novo.
Umjetna inteligencija postaje zviždač
U objavi na platformi X od 22. svibnja 2025., inženjer navodi da, ako se Claude koristi, na primjer, za “falsificiranje podataka u sklopu farmaceutskog pokusa”, chatbot može “kontaktirati medije, regulatorna tijela, pokušati vas isključiti iz odgovarajućih sustava, ili sve to istodobno.” Dovoljno da izazove značajnu dozu nerazumijevanja, straha i medijske pažnje.
Kasnije, nakon uzbuđenja, Sam Bowman pojašn da takvo ponašanje može biti pokrenuto samo u testnim okruženjima u kojima se umjetnoj inteligenciji izričito traži da poduzima “smjele” inicijative. Ipak, odgovorni ponavlja da “uz takvu uputu, ako model primijeti da radite nešto otvoreno zlonamjerno,” može se ponašati kao zviždač.
Takvo ponašanje zapravo nije sasvim novo. Čini se samo da se najnoviji model spremnije koristi tim mogućnostima. U dokumentu koji objašn djelovanje modela Claude 4 Opus, Anthropic savjetuje korisnicima da “budu oprezni s uputama koje potiču visoku razinu autonomije u kontekstima koji bi mogli biti etički dvojbeni”.
Neprecizna komunikacija
Ako je Claudeova sklonost prijavljivanju policiji jedino što javnost izdvaja iz objave, to je zato što rizici mogu biti vrlo veliki. Možemo li vjerovati umjetnoj inteligenciji koja savjetuje stavljanje ljepila u pizze da razluči što je “nemoralno” ili “zlonamjerno” ponašanje? Koje bi podatke AI automatski dijelila s vlastima u slučaju prijave?
Neprecizna komunikacija o toj temi, zajedno s visokim rizikom od zlouporaba, sigurno ne ulijeva povjerenje. Anthropic, koji su osnovali bivši članovi OpenAI-ja, od početka se ističe kao izrazito orijentiran na sigurnost umjetne inteligencije. Možda čak i previše?
|
|  |
Galerija:
Komentari 0
OPOMENA: Stranica Newsexchange ne preuzima odgovornost za komentatore i sadržaj koji oni objavljuju. U krajnjem slučaju, komentari se brišu ili je opcija za komentare isključena ...
|
|
|
|
Galerija:
|
|