Umělá inteligence je pro lidstvo stejně nebezpečná jako jaderné zbraně, varuje vědec Tegmark

Věděc Max Tegmark varuje, že se velkým technologickým společnostem daří odvrátit pozornost světa od existenčních rizik, které umělá inteligence (AI) pro lidstvo představuje. Tegmark rizika AI přirovnává k nebezpečným jaderným zbraním.

REKLAMA

Umělá inteligence by v budoucnu podle expertů na AI dokonce mohla vyhubit lidstvo. Odborníci upozorňují na takový scénář už delší dobu. „Doslovné vyhynutí je jedno z mnoha možných rizik, které ještě není zcela pochopeno. Existuje i mnoho dalších rizik plynoucích z vývoje umělé inteligence, které si zaslouží pozornost,“ řekl v rozhovoru pro NBC News v květnu loňského roku přední kritik umělé inteligence a emeritní profesor psychologie a neurální vědy na Newyorské univerzitě Gary Marcus.

Max Tegmark upozorňuje na rizika, která přináší zanedbání existenčních hrozeb umělé inteligence ve prospěch obecnějšího pohledu na její bezpečnost. Podle něj tento přístup může vést k nebezpečnému odkladu v zavádění nezbytných regulací pro vývojáře pokročilých AI systémů. Tegmark také tvrdí, že takové zpoždění může mít vážné důsledky, pokud nebudeme jednat rychle a rozhodně.

„V roce 1942 sestrojil Enrico Fermi pod chicagským fotbalovým hřištěm vůbec první reaktor se samoudržující se řetězovou jadernou reakcí,“ nastínil fyzik Tegmark. „Když se o tom dozvěděla tehdejší elita fyziků, byli zděšeni, protože si uvědomili, že právě byla překonána jediná největší překážka, která zbývala k sestrojení jaderné bomby. Modely AI, které mohou projít Turingovým testem, jsou stejným varováním před umělou inteligencí, nad kterou můžete ztratit kontrolu. Proto vás nyní varují lidé jako Geoffrey Hinton a Yoshua Bengio – a dokonce i mnoho technologických ředitelů,“ řekl Tegmark.

Institut pro budoucnost života (FLI), jehož předsedou je vědec Max Tegmark, vydal v loňském roce na základě rostoucích obav výzvu k šestiměsíční pauze ve vývoji pokročilé umělé inteligence. Tegmark poukázal na spuštění modelu GPT-4 od společnosti OpenAI v březnu téhož roku jako na alarmující signál, který naznačuje, že rizika spojená s AI jsou alarmující a nebezpečně blízká.

Přestože výzvu k zastavení vývoje umělé inteligence podepsalo tisíce odborníků, včetně Geoffreya Hintona a Yoshuy Bengia, kteří jsou považováni za průkopníky moderního strojového učení a jsou mezi tzv. „kmotry“ AI, nebylo jejich úsilí o pauzu schváleno. Tato skutečnost zdůrazňuje složitost a kontroverznost tématu regulace v oblasti AI.

V poslední době dochází k odklonu od řešení existenčních rizik v rámci mezinárodní regulace umělé inteligence. Tento trend vyvolává otázky o prioritách a směřování politik v této klíčové oblasti technologického vývoje.

Tegmark varuje, že zlehčování nejzávažnějších rizik není náhodné. „To je přesně to, co jsem předpovídal, že se stane na základě průmyslového lobbingu,“ řekl Tegmark.

„V roce 1955 vyšly první články v časopisech, že kouření způsobuje rakovinu plic, a člověk by si myslel, že poměrně rychle dojde k nějaké regulaci. Ale ne, trvalo to až do roku 1980, protože existoval obrovský tlak ze strany průmyslu na odvedení pozornosti. Mám pocit, že právě to se děje nyní,“ vysvětluje vědec.

AI samozřejmě způsobuje škody i v současnosti. Někteří odborníci dokonce spekulují nad tím, že v tomto odvětví panuje předpojatost.

Podle vědce Maxe Tegmarka se zdá, že podpora pro regulaci umělé inteligence slábne u některých technologických lídrů. „Vnímají, že jsou zaseknutí v situaci, z které se zdá být těžké vymanit. Přestože by mnozí z nich rádi přistoupili k zastavení, cítí, že to není možné. Proto je podle mě nezbytné, aby vlády zasáhly a stanovily jednotné bezpečnostní normy pro všechny, aby byla zajištěna prioritní ochrana před riziky AI,“ vysvětluje Tegmark.

V apelu odborníků se uvádí, že zmírňování rizik spojených s umělou inteligencí by mělo být vnímáno jako globální priorita, srovnatelná s riziky jako jsou pandemie nebo jaderný konflikt. Mezi signatáři této výzvy jsou významné osobnosti jako Sam Altman, ředitel společnosti OpenAI, která stojí za ChatGPT, Demis Hassabis, generální ředitel Google DeepMind, a Dario Amodei z Anthropic, což zdůrazňuje vážnost a důležitost této problematiky.

Přestože existují obavy z možných nebezpečí pokročilé umělé inteligence, je stále velmi obtížné zjistit skutečné úmysly AI v reálném světě.

Autor: Petr Ševčík. Zdroje: The Guardian, Future of Life Institute, NBC News

Diskuze Vstoupit do diskuze
REKLAMA
REKLAMA

AKTUÁLNÍ ZPRÁVY

Ukrajinci zasáhli v Brjansku raketami Storm Shadow závod vyrábějící čipy pro...

Ukrajinská armáda zasáhla raketami Storm Shadow závod na výrobu čipů pro rakety a drony v ruském Brjansku....

Markéta Šichtařová rezignovala na mandát poslankyně. „U cenzury nebudu asistovat,“ uvedla

Ekonomka a poslankyně Markéta Šichtařová oznámila rezignaci na svůj mandát v Poslanecké sněmovně. Rezignaci zdůvodnila tím, že...

Ukrajina chystá nasazení balistických raket FP-7 a FP-9. Jedna z nich...

Ukrajina dokončuje testy nových balistických raket FP-7 a FP-9. Jedna z nich by podle vývojářů mohla zasáhnout...

Mapa republiky v Krkonoších má nejméně sněhu za 25 let. Letos...

Sněhové pole známé jako Mapa republiky na svahu Studniční hory letos vykazuje rekordně nízkou mocnost sněhu. Odborníci...

Rajchl šíří hoaxy o Zelenském a Ukrajině. Mluví o kokainu i...

KOMENTÁŘ | Poslanec Jindřich Rajchl na Facebooku zveřejnil příspěvek s obviněními proti ukrajinskému prezidentovi Volodymyru Zelenskému. Bez...

Nad Česko dorazil saharský písek. Obloha bude zakalenější

Odborníci upozorňují na příchod saharského prachu nad Česko, který může v následujících dnech způsobit zakalený vzhled oblohy....

Jaro přebírá vládu nad zimou. O víkendu teploty vystoupají až na...

Jaro se začíná hlásit o slovo. Český hydrometeorologický ústav (ČHMÚ) předpovídá na víkend převážně slunečné počasí s...

Informace z Česka přicházejí pozdě nebo vůbec, říká Češka uvízlá s...

ROZHOVOR | Tisíce Čechů zůstaly po eskalaci konfliktu na Blízkém východě bez možnosti rychlého návratu domů. Zatímco...
REKLAMA

VÝBĚR ČLÁNKŮ

REKLAMA