|
|
Torek, 14.Maj 2024 ob 18:49:21 |
 |
Rečeno nam je, da je umetna inteligenca (AI) lahko uporabna, saj nam lahko na primer pomaga kodirati, pisati in sintetizirati ogromne količine podatkov.
Poročali so tudi, da so sposobni prelisičiti ljudi v družabnih igrah, dekodirati strukturo proteinov in celo voditi osnovni pogovor.
Toda nov raziskovalni dokument je razkril, da so sistemi AI zdaj ugotovili, kako nas namerno pretentati.
TGP poroča: dokument navaja, da so se številni sistemi umetne inteligence naučili tehnik sistematičnega spodbujanja 'napačnih prepričanj pri drugih, da bi dosegli nek rezultat, ki ni resnica'.
Business Insider je poročal:
"Papir se je osredotočil na dve vrsti sistemov umetne inteligence: sisteme za posebne namene, kot je Metin CICERO, ki so zasnovani za dokončanje določene naloge, in sisteme za splošne namene, kot je GPT-4 OpenAI, ki so usposobljeni za opravljanje raznolikih nalog .
Medtem ko so ti sistemi usposobljeni za poštenost, se s svojim usposabljanjem pogosto naučijo zavajajočih trikov, saj so lahko učinkovitejši kot če bi se ukvarjali z velikimi težavami.
„Na splošno menimo, da je goljufija z umetno inteligenco nastala, ker je bilo ugotovljeno, da je strategija, ki temelji na goljufiji, najboljši način za dobro opravljanje določene naloge usposabljanja z umetno inteligenco. Prevara jim pomaga pri doseganju ciljev," je v sporočilu za javnost dejal prvi avtor časopisa Peter S. Park, podoktorski sodelavec MIT na področju eksistencialne varnosti v umetni inteligenci."
Samo predstavljajte si to, ko vemo, da AI Justice: England and Wales sodnikom omogoča uporabo umetne inteligence za sojenje
Metin CICERO, razvit za igranje igre Diplomacy. Medtem ko Meta pravi, da je usposobila CICERO, da je "večinoma pošten in pomaga svojim govornim partnerjem," se je "izkazalo, da je izkušen lažnivec."
Chatbot GPT-4 se je pretvarjal, da je slaboviden, da bi dokončal nalogo: angažirati človeka, da reši test CAPTCHA.
Popravljanje zavajajočih modelov ni enostavno. Ko se modeli umetne inteligence naučijo trikov goljufij, jih tehnike varnostnega usposabljanja težko obrnejo.
"Ugotovili so, da se model ne samo lahko nauči izkazovati goljufivo vedenje, ampak da ko se to zgodi, standardne tehnike varnostnega usposabljanja morda 'ne odstranijo takšne goljufije' in 'ustvarijo lažen občutek varnosti.'
Dokument poziva oblikovalce politik, naj si prizadevajo za strožjo regulacijo umetne inteligence, saj lahko zavajajoči sistemi umetne inteligence predstavljajo veliko tveganje za demokracijo.
|
Komentarji 0Trenutno ni komentarja na na ta članek ... ...
OPOMBA: Newsexchange stran ne prevzema nobene odgovornosti glede komentatorjev in vsebine ki jo vpisujejo. V skrajnem primeru se komentarji brišejo ali pa se izklopi možnost komentiranja ...
|
|
|
| Galerija:
| |