REKLAMA

Umělá inteligence je pro lidstvo stejně nebezpečná jako jaderné zbraně, varuje vědec Tegmark

Věděc Max Tegmark varuje, že se velkým technologickým společnostem daří odvrátit pozornost světa od existenčních rizik, které umělá inteligence (AI) pro lidstvo představuje. Tegmark rizika AI přirovnává k nebezpečným jaderným zbraním.

REKLAMA

Umělá inteligence by v budoucnu podle expertů na AI dokonce mohla vyhubit lidstvo. Odborníci upozorňují na takový scénář už delší dobu. „Doslovné vyhynutí je jedno z mnoha možných rizik, které ještě není zcela pochopeno. Existuje i mnoho dalších rizik plynoucích z vývoje umělé inteligence, které si zaslouží pozornost,“ řekl v rozhovoru pro NBC News v květnu loňského roku přední kritik umělé inteligence a emeritní profesor psychologie a neurální vědy na Newyorské univerzitě Gary Marcus.

Max Tegmark upozorňuje na rizika, která přináší zanedbání existenčních hrozeb umělé inteligence ve prospěch obecnějšího pohledu na její bezpečnost. Podle něj tento přístup může vést k nebezpečnému odkladu v zavádění nezbytných regulací pro vývojáře pokročilých AI systémů. Tegmark také tvrdí, že takové zpoždění může mít vážné důsledky, pokud nebudeme jednat rychle a rozhodně.

„V roce 1942 sestrojil Enrico Fermi pod chicagským fotbalovým hřištěm vůbec první reaktor se samoudržující se řetězovou jadernou reakcí,“ nastínil fyzik Tegmark. „Když se o tom dozvěděla tehdejší elita fyziků, byli zděšeni, protože si uvědomili, že právě byla překonána jediná největší překážka, která zbývala k sestrojení jaderné bomby. Modely AI, které mohou projít Turingovým testem, jsou stejným varováním před umělou inteligencí, nad kterou můžete ztratit kontrolu. Proto vás nyní varují lidé jako Geoffrey Hinton a Yoshua Bengio – a dokonce i mnoho technologických ředitelů,“ řekl Tegmark.

Institut pro budoucnost života (FLI), jehož předsedou je vědec Max Tegmark, vydal v loňském roce na základě rostoucích obav výzvu k šestiměsíční pauze ve vývoji pokročilé umělé inteligence. Tegmark poukázal na spuštění modelu GPT-4 od společnosti OpenAI v březnu téhož roku jako na alarmující signál, který naznačuje, že rizika spojená s AI jsou alarmující a nebezpečně blízká.

Přestože výzvu k zastavení vývoje umělé inteligence podepsalo tisíce odborníků, včetně Geoffreya Hintona a Yoshuy Bengia, kteří jsou považováni za průkopníky moderního strojového učení a jsou mezi tzv. „kmotry“ AI, nebylo jejich úsilí o pauzu schváleno. Tato skutečnost zdůrazňuje složitost a kontroverznost tématu regulace v oblasti AI.

V poslední době dochází k odklonu od řešení existenčních rizik v rámci mezinárodní regulace umělé inteligence. Tento trend vyvolává otázky o prioritách a směřování politik v této klíčové oblasti technologického vývoje.

Tegmark varuje, že zlehčování nejzávažnějších rizik není náhodné. „To je přesně to, co jsem předpovídal, že se stane na základě průmyslového lobbingu,“ řekl Tegmark.

„V roce 1955 vyšly první články v časopisech, že kouření způsobuje rakovinu plic, a člověk by si myslel, že poměrně rychle dojde k nějaké regulaci. Ale ne, trvalo to až do roku 1980, protože existoval obrovský tlak ze strany průmyslu na odvedení pozornosti. Mám pocit, že právě to se děje nyní,“ vysvětluje vědec.

AI samozřejmě způsobuje škody i v současnosti. Někteří odborníci dokonce spekulují nad tím, že v tomto odvětví panuje předpojatost.

Podle vědce Maxe Tegmarka se zdá, že podpora pro regulaci umělé inteligence slábne u některých technologických lídrů. „Vnímají, že jsou zaseknutí v situaci, z které se zdá být těžké vymanit. Přestože by mnozí z nich rádi přistoupili k zastavení, cítí, že to není možné. Proto je podle mě nezbytné, aby vlády zasáhly a stanovily jednotné bezpečnostní normy pro všechny, aby byla zajištěna prioritní ochrana před riziky AI,“ vysvětluje Tegmark.

V apelu odborníků se uvádí, že zmírňování rizik spojených s umělou inteligencí by mělo být vnímáno jako globální priorita, srovnatelná s riziky jako jsou pandemie nebo jaderný konflikt. Mezi signatáři této výzvy jsou významné osobnosti jako Sam Altman, ředitel společnosti OpenAI, která stojí za ChatGPT, Demis Hassabis, generální ředitel Google DeepMind, a Dario Amodei z Anthropic, což zdůrazňuje vážnost a důležitost této problematiky.

Přestože existují obavy z možných nebezpečí pokročilé umělé inteligence, je stále velmi obtížné zjistit skutečné úmysly AI v reálném světě.

Autor: Petr Ševčík. Zdroje: The Guardian, Future of Life Institute, NBC News

Diskuze Vstoupit do diskuze
REKLAMA
REKLAMA

AKTUÁLNÍ ZPRÁVY

Psi mě naučili nikdy se nevzdávat, říká armádní psovodka Adriana Švecová

Armádní psovodka Adriana Švecová už v pětadvaceti letech patří do české reprezentace v canicrossu. Prvního psa si...

Jaké hračky si letos malé děti přejí k Vánocům? Hitem je...

Vánoce se blíží a s nimi i tradiční otázka, čím potěšit děti pod stromečkem. Zakladatelka hračkářství Agátin...

Jaký topný systém v dnešním domě dává smysl a proč volit...

Vytápění je jedním z nejzásadnějších aspektů domácí pohody. Volba vhodného topného systému se promítá do každodenního komfortu,...

Překvapte návštěvu zajímavým pohoštěním. Alsaský cibulový koláč si skvěle rozumí s...

Vyměňte klasické chlebíčky a jednohubky za něco netradičního. Připravte si alsaský cibulový koláč z pár ingrediencí, který...

Recenze knihy Na vše připravena Ivanky Deváté

Ivanka Devátá letos slaví devadesátiny a u této příležitosti vydala novou knihu Na vše připravena. V knižním...

Nejkrásnější Češky boří mýty o hloupých blondýnách. V soutěžích krásy uspěly...

A znáte tenhle? "Přijde blondýna do obchodu…" Stop. Čtyři nejkrásnější Češky, které uspěly v mezinárodních soutěžích krásy,...

Stává se z politiky experiment? Pášma varuje před normalizací agrese a...

Antonín Pášma ze Štítu demokracie varuje, že se z politiky stává nebezpečný experiment, kde se agrese a...

Recept na domácí langoše, které vás myšlenkami přenesou na maďarské vánoční...

Nadýchané zlatavé těsto, sýr a aromatický česnek – přesně tak voní maďarské vánoční trhy. Jejich atmosféru si...
REKLAMA

VÝBĚR ČLÁNKŮ

REKLAMA