REKLAMA

Umělá inteligence je pro lidstvo stejně nebezpečná jako jaderné zbraně, varuje vědec Tegmark

Věděc Max Tegmark varuje, že se velkým technologickým společnostem daří odvrátit pozornost světa od existenčních rizik, které umělá inteligence (AI) pro lidstvo představuje. Tegmark rizika AI přirovnává k nebezpečným jaderným zbraním.

REKLAMA

Umělá inteligence by v budoucnu podle expertů na AI dokonce mohla vyhubit lidstvo. Odborníci upozorňují na takový scénář už delší dobu. „Doslovné vyhynutí je jedno z mnoha možných rizik, které ještě není zcela pochopeno. Existuje i mnoho dalších rizik plynoucích z vývoje umělé inteligence, které si zaslouží pozornost,“ řekl v rozhovoru pro NBC News v květnu loňského roku přední kritik umělé inteligence a emeritní profesor psychologie a neurální vědy na Newyorské univerzitě Gary Marcus.

Max Tegmark upozorňuje na rizika, která přináší zanedbání existenčních hrozeb umělé inteligence ve prospěch obecnějšího pohledu na její bezpečnost. Podle něj tento přístup může vést k nebezpečnému odkladu v zavádění nezbytných regulací pro vývojáře pokročilých AI systémů. Tegmark také tvrdí, že takové zpoždění může mít vážné důsledky, pokud nebudeme jednat rychle a rozhodně.

„V roce 1942 sestrojil Enrico Fermi pod chicagským fotbalovým hřištěm vůbec první reaktor se samoudržující se řetězovou jadernou reakcí,“ nastínil fyzik Tegmark. „Když se o tom dozvěděla tehdejší elita fyziků, byli zděšeni, protože si uvědomili, že právě byla překonána jediná největší překážka, která zbývala k sestrojení jaderné bomby. Modely AI, které mohou projít Turingovým testem, jsou stejným varováním před umělou inteligencí, nad kterou můžete ztratit kontrolu. Proto vás nyní varují lidé jako Geoffrey Hinton a Yoshua Bengio – a dokonce i mnoho technologických ředitelů,“ řekl Tegmark.

Institut pro budoucnost života (FLI), jehož předsedou je vědec Max Tegmark, vydal v loňském roce na základě rostoucích obav výzvu k šestiměsíční pauze ve vývoji pokročilé umělé inteligence. Tegmark poukázal na spuštění modelu GPT-4 od společnosti OpenAI v březnu téhož roku jako na alarmující signál, který naznačuje, že rizika spojená s AI jsou alarmující a nebezpečně blízká.

Přestože výzvu k zastavení vývoje umělé inteligence podepsalo tisíce odborníků, včetně Geoffreya Hintona a Yoshuy Bengia, kteří jsou považováni za průkopníky moderního strojového učení a jsou mezi tzv. „kmotry“ AI, nebylo jejich úsilí o pauzu schváleno. Tato skutečnost zdůrazňuje složitost a kontroverznost tématu regulace v oblasti AI.

V poslední době dochází k odklonu od řešení existenčních rizik v rámci mezinárodní regulace umělé inteligence. Tento trend vyvolává otázky o prioritách a směřování politik v této klíčové oblasti technologického vývoje.

Tegmark varuje, že zlehčování nejzávažnějších rizik není náhodné. „To je přesně to, co jsem předpovídal, že se stane na základě průmyslového lobbingu,“ řekl Tegmark.

„V roce 1955 vyšly první články v časopisech, že kouření způsobuje rakovinu plic, a člověk by si myslel, že poměrně rychle dojde k nějaké regulaci. Ale ne, trvalo to až do roku 1980, protože existoval obrovský tlak ze strany průmyslu na odvedení pozornosti. Mám pocit, že právě to se děje nyní,“ vysvětluje vědec.

AI samozřejmě způsobuje škody i v současnosti. Někteří odborníci dokonce spekulují nad tím, že v tomto odvětví panuje předpojatost.

Podle vědce Maxe Tegmarka se zdá, že podpora pro regulaci umělé inteligence slábne u některých technologických lídrů. „Vnímají, že jsou zaseknutí v situaci, z které se zdá být těžké vymanit. Přestože by mnozí z nich rádi přistoupili k zastavení, cítí, že to není možné. Proto je podle mě nezbytné, aby vlády zasáhly a stanovily jednotné bezpečnostní normy pro všechny, aby byla zajištěna prioritní ochrana před riziky AI,“ vysvětluje Tegmark.

V apelu odborníků se uvádí, že zmírňování rizik spojených s umělou inteligencí by mělo být vnímáno jako globální priorita, srovnatelná s riziky jako jsou pandemie nebo jaderný konflikt. Mezi signatáři této výzvy jsou významné osobnosti jako Sam Altman, ředitel společnosti OpenAI, která stojí za ChatGPT, Demis Hassabis, generální ředitel Google DeepMind, a Dario Amodei z Anthropic, což zdůrazňuje vážnost a důležitost této problematiky.

Přestože existují obavy z možných nebezpečí pokročilé umělé inteligence, je stále velmi obtížné zjistit skutečné úmysly AI v reálném světě.

Autor: Petr Ševčík. Zdroje: The Guardian, Future of Life Institute, NBC News

Diskuze Vstoupit do diskuze
REKLAMA
REKLAMA

AKTUÁLNÍ ZPRÁVY

Zoo Praha slaví světový úspěch. Odchovala 18 mláďat dvojzoborožce za 18...

Zoo Praha slaví světový úspěch. Nikde jinde na světě se nepodařilo odchovat 18 mláďat dvojzoborožce nosorožčího za...

Originální vánoční cukroví: Nepečené pistáciové kuličky s bílou čokoládou

Zkuste letos vánoční cukroví ozvláštnit něčím netradičním. V těchto kuličkách se skvěle snoubí chuť sladké bílé čokolády,...

Jak vytvořit útulnou atmosféru doma pomocí svíček

Vánoce přejí teplému světlu a malým rituálům. Svíčky a svícny dokáží během chvilky v interiéru vytvořit útulno,...

Němci jsou pošahaní negramoti, řekl Turek. Podle Zdechovského bude brzy Letná...

Poslanec Filip Turek čelil podle iROZHLAS.cz trestnímu řízení kvůli podezření ze schvalování trestného činu. Na jeho profilu...

Recept na Kinder likér, který nadchne děti a s rumem i...

Krémový Kinder likér si zamilují děti i dospělí. Jemná čokoládová chuť připomínající Kinder Bueno vykouzlí doma pravou...

Recept na vánoční perníčky jako od babičky, které jsou měkké hned...

Vůně skořice, hřebíčku, badyánu a medu k Vánocům neodmyslitelně patří. Připravte si lahodné perníčky podle rodinného receptu...

Likvidace eternitu a co ovlivňuje cenu odborné likvidace azbestu

Možná jste to už zažili. Chystáte se na rekonstrukci střechy, stojíte na dvoře a při pohledu vzhůru...

Domácí kebab z mletého masa je hitem sociálních sítí. Připravíte ho...

Domácí kebab se v poslední době stal hitem sociálních sítí. A není divu. Během pár desítek minut...
REKLAMA

VÝBĚR ČLÁNKŮ

REKLAMA