REKLAMA

Umělá inteligence je pro lidstvo stejně nebezpečná jako jaderné zbraně, varuje vědec Tegmark

Věděc Max Tegmark varuje, že se velkým technologickým společnostem daří odvrátit pozornost světa od existenčních rizik, které umělá inteligence (AI) pro lidstvo představuje. Tegmark rizika AI přirovnává k nebezpečným jaderným zbraním.

REKLAMA

Umělá inteligence by v budoucnu podle expertů na AI dokonce mohla vyhubit lidstvo. Odborníci upozorňují na takový scénář už delší dobu. „Doslovné vyhynutí je jedno z mnoha možných rizik, které ještě není zcela pochopeno. Existuje i mnoho dalších rizik plynoucích z vývoje umělé inteligence, které si zaslouží pozornost,“ řekl v rozhovoru pro NBC News v květnu loňského roku přední kritik umělé inteligence a emeritní profesor psychologie a neurální vědy na Newyorské univerzitě Gary Marcus.

Max Tegmark upozorňuje na rizika, která přináší zanedbání existenčních hrozeb umělé inteligence ve prospěch obecnějšího pohledu na její bezpečnost. Podle něj tento přístup může vést k nebezpečnému odkladu v zavádění nezbytných regulací pro vývojáře pokročilých AI systémů. Tegmark také tvrdí, že takové zpoždění může mít vážné důsledky, pokud nebudeme jednat rychle a rozhodně.

„V roce 1942 sestrojil Enrico Fermi pod chicagským fotbalovým hřištěm vůbec první reaktor se samoudržující se řetězovou jadernou reakcí,“ nastínil fyzik Tegmark. „Když se o tom dozvěděla tehdejší elita fyziků, byli zděšeni, protože si uvědomili, že právě byla překonána jediná největší překážka, která zbývala k sestrojení jaderné bomby. Modely AI, které mohou projít Turingovým testem, jsou stejným varováním před umělou inteligencí, nad kterou můžete ztratit kontrolu. Proto vás nyní varují lidé jako Geoffrey Hinton a Yoshua Bengio – a dokonce i mnoho technologických ředitelů,“ řekl Tegmark.

REKLAMA

Institut pro budoucnost života (FLI), jehož předsedou je vědec Max Tegmark, vydal v loňském roce na základě rostoucích obav výzvu k šestiměsíční pauze ve vývoji pokročilé umělé inteligence. Tegmark poukázal na spuštění modelu GPT-4 od společnosti OpenAI v březnu téhož roku jako na alarmující signál, který naznačuje, že rizika spojená s AI jsou alarmující a nebezpečně blízká.

Přestože výzvu k zastavení vývoje umělé inteligence podepsalo tisíce odborníků, včetně Geoffreya Hintona a Yoshuy Bengia, kteří jsou považováni za průkopníky moderního strojového učení a jsou mezi tzv. „kmotry“ AI, nebylo jejich úsilí o pauzu schváleno. Tato skutečnost zdůrazňuje složitost a kontroverznost tématu regulace v oblasti AI.

V poslední době dochází k odklonu od řešení existenčních rizik v rámci mezinárodní regulace umělé inteligence. Tento trend vyvolává otázky o prioritách a směřování politik v této klíčové oblasti technologického vývoje.

Tegmark varuje, že zlehčování nejzávažnějších rizik není náhodné. „To je přesně to, co jsem předpovídal, že se stane na základě průmyslového lobbingu,“ řekl Tegmark.

REKLAMA

„V roce 1955 vyšly první články v časopisech, že kouření způsobuje rakovinu plic, a člověk by si myslel, že poměrně rychle dojde k nějaké regulaci. Ale ne, trvalo to až do roku 1980, protože existoval obrovský tlak ze strany průmyslu na odvedení pozornosti. Mám pocit, že právě to se děje nyní,“ vysvětluje vědec.

AI samozřejmě způsobuje škody i v současnosti. Někteří odborníci dokonce spekulují nad tím, že v tomto odvětví panuje předpojatost.

Podle vědce Maxe Tegmarka se zdá, že podpora pro regulaci umělé inteligence slábne u některých technologických lídrů. „Vnímají, že jsou zaseknutí v situaci, z které se zdá být těžké vymanit. Přestože by mnozí z nich rádi přistoupili k zastavení, cítí, že to není možné. Proto je podle mě nezbytné, aby vlády zasáhly a stanovily jednotné bezpečnostní normy pro všechny, aby byla zajištěna prioritní ochrana před riziky AI,“ vysvětluje Tegmark.

V apelu odborníků se uvádí, že zmírňování rizik spojených s umělou inteligencí by mělo být vnímáno jako globální priorita, srovnatelná s riziky jako jsou pandemie nebo jaderný konflikt. Mezi signatáři této výzvy jsou významné osobnosti jako Sam Altman, ředitel společnosti OpenAI, která stojí za ChatGPT, Demis Hassabis, generální ředitel Google DeepMind, a Dario Amodei z Anthropic, což zdůrazňuje vážnost a důležitost této problematiky.

Přestože existují obavy z možných nebezpečí pokročilé umělé inteligence, je stále velmi obtížné zjistit skutečné úmysly AI v reálném světě.

Autor: Petr Ševčík. Zdroje: The Guardian, Future of Life Institute, NBC News

Diskuze Vstoupit do diskuze
REKLAMA
REKLAMA

NEJNOVĚJŠÍ ZPRÁVY

Gemini po velké aktualizaci umí editovat obrázky

Google DeepMind přináší do aplikace Gemini zásadní novinku. Nejlépe hodnocený AI model pro úpravu obrázků na světě...

Jak probíhá likvidace eternitu a kolik za ni skutečně zaplatíte

Likvidace eternitu a azbestu patří mezi práce, které vyžadují zkušenosti, ochranné pomůcky a soulad s legislativou. V...

Finský prezident Stubb vyzývá k útoku na ruskou válečnou mašinérii

Podle finského prezidenta Alexandera Stubba je nutné zasáhnout ruskou válečnou mašinérii, protože Vladimir Putin nemá v úmyslu...

Nejúspěšnější hráči na US Open: Kdo ovládl tenisový grandslam nejčastěji?

US Open není jen tenisový turnaj, ale příběh plný legend, emocí a nečekaných zvratů. Připomeňme si hráče,...

Domácí porody a obvinění z násilí. Šichtařová a Pikora proti sobě...

Markéta Šichtařová a Vladimír Pikora byli roky jedním z nejznámějších ekonomických párů v Česku. Společně psali knihy,...

Ukrajina představila raketu Dlouhý Neptun s doletem až 1000 km

Ukrajina během oslav Dne nezávislosti odhalila novou raketu dlouhého doletu Dlouhý Neptun. Raketa, vyvinutá ukrajinskými odborníky, dokáže...

Glosa: Kolem Tomia Okamury se rodí fenomén politické idiocie

Když Reflex kdysi označil Tomia Okamuru za "Pitomia", někteří to brali jako drzý bonmot. Uživatelé sociálních sítí...

„Jaderný úder“ na ekonomiku Ruska? Graham navrhuje označit Rusko za sponzora...

Americký senátor Lindsey Graham navrhuje legislativu, která by označila Rusko za stát sponzorující terorismus kvůli únosům ukrajinských...
REKLAMA

VÝBĚR ČLÁNKŮ

REKLAMA