|
|
18. 03. 2025 |
 |
Ovo sada doista ide u opasnom smjeru Mogućnost čitanja misli proučava se jako dugo, a čak se govori i o njegovoj upotrebi u implementaciji sustava društvenog kreditiranja. Kretanja u tom smjeru upućuju na to da uvođenje slične prakse u masovnim razmjerima više nije stvar daleke budućnosti.
Čitanje misli ili manipulacija mislima vrlo su korisni alati koji bi se mogli uključiti u okvir digitalnih identiteta koji se uvode – a kasnije i sustava društvenih kredita.
Kontroliranje masa bilo bi – posebno u potpuno bezgotovinskom svijetu s programabilnim CBDC-om – puno lakše.
Nedavni napredak Meta AI u pretvaranju aktivnosti mozga u tekst izaziva pomutnju. Tehnologija temeljena na neinvazivnim tehnikama kao što je magnetoencefalografija (MEG) obećava rekonstrukciju napisanih rečenica s do 80% točnosti.
No iako se ova inovacija pozdravlja kao revolucionarna, ona postavlja duboka etička i društvena pitanja.
Čitanje misli ili kontrola?
Meta model umjetne inteligencije, razvijen u suradnji s Baskijskim centrom za kogniciju, mozak i jezik, mogao bi predstavljati značajan korak u interakciji čovjeka i stroja.
Dekodiranjem moždanih valova i njihovim pretvaranjem u tekst, omogućuje oblik komunikacije bez fizičkog unosa. No ono što se na prvi pogled čini tehnološkim dostignućem može se pokazati kao riskantno zadiranje u privatnost.
Tko će jamčiti da se ova tehnologija neće zloupotrijebiti za čitanje misli bez pristanka dotične osobe?
Iluzija dobrovoljnosti
Trenutna istraživanja temelje se na volonterima koji sudjeluju u eksperimentima. Ali uz sve veće usavršavanje, ova bi tehnologija mogla postati sredstvo nadzora.
U prošlosti su se biometrijski podaci kao što su otisci prstiju ili prepoznavanje lica isprva koristili u dobrovoljne svrhe – ali kasnije za masovni nadzor. Sada su uobičajeni dio digitalnih identiteta koji se implementiraju.
Sličan razvoj bio bi moguć u području podataka o mozgu. Tko će zaštititi ljude od tvrtki ili vlada koje tajno ili pod pritiskom koriste ovu tehnologiju?
Tehnološki izazovi kao sigurnosni rizik
Dok MEG nudi visoku prostornu rezoluciju, a EEG je prijenosniji, temeljni problem ostaje: kvaliteta i sigurnost prikupljenih podataka. Moždani signali iznimno su složeni i pogrešno tumačenje može imati ozbiljne posljedice.
Umjetna inteligencija koja ne razumije misaonu izjavu mogla bi imati kobne posljedice – osobito ako su takvi sustavi integrirani u pravne ili medicinske procese.
Hoćemo li uskoro biti podsvjesno izmanipulirani?
Meta i drugi tehnološki divovi već su pokazali da se ne libe koristiti korisničke podatke u komercijalne ili političke svrhe. Što se događa kada tvrtke dobiju pristup našim mislima?
Granica između oglašavanja i mentalnog utjecaja mogla bi biti zamagljena. San o izravnom sučelju čovjek-stroj mogao bi se pretvoriti u stvarnost noćne more u kojoj privatne misli više nisu sigurne.
Zaključak: Napredak s opasnim posljedicama
Sposobnost pretvaranja aktivnosti mozga u tekst možda je tehnološka prekretnica, ali nosi ozbiljne rizike. Bez jasnih etičkih granica i pravnih zaštitnih mjera, ovakav bi razvoj mogao dovesti do toga da ljudi izgube svoj posljednji bastion privatnosti – vlastite misli.
Euforična vjera u napredak ne smije dovesti do ignoriranja temeljnih prava i etičkih načela.
|
|  |
Galerija:
Komentari 0
Trenutno nema komentara na ovaj članak ...
OPOMENA: Stranica Newsexchange ne preuzima odgovornost za komentatore i sadržaj koji oni objavljuju. U krajnjem slučaju, komentari se brišu ili je opcija za komentare isključena ...
|
|
|
|
Galerija:
|
|