REKLAMA

Umělá inteligence je pro lidstvo stejně nebezpečná jako jaderné zbraně, varuje vědec Tegmark

Věděc Max Tegmark varuje, že se velkým technologickým společnostem daří odvrátit pozornost světa od existenčních rizik, které umělá inteligence (AI) pro lidstvo představuje. Tegmark rizika AI přirovnává k nebezpečným jaderným zbraním.

REKLAMA

Umělá inteligence by v budoucnu podle expertů na AI dokonce mohla vyhubit lidstvo. Odborníci upozorňují na takový scénář už delší dobu. „Doslovné vyhynutí je jedno z mnoha možných rizik, které ještě není zcela pochopeno. Existuje i mnoho dalších rizik plynoucích z vývoje umělé inteligence, které si zaslouží pozornost,“ řekl v rozhovoru pro NBC News v květnu loňského roku přední kritik umělé inteligence a emeritní profesor psychologie a neurální vědy na Newyorské univerzitě Gary Marcus.

Max Tegmark upozorňuje na rizika, která přináší zanedbání existenčních hrozeb umělé inteligence ve prospěch obecnějšího pohledu na její bezpečnost. Podle něj tento přístup může vést k nebezpečnému odkladu v zavádění nezbytných regulací pro vývojáře pokročilých AI systémů. Tegmark také tvrdí, že takové zpoždění může mít vážné důsledky, pokud nebudeme jednat rychle a rozhodně.

„V roce 1942 sestrojil Enrico Fermi pod chicagským fotbalovým hřištěm vůbec první reaktor se samoudržující se řetězovou jadernou reakcí,“ nastínil fyzik Tegmark. „Když se o tom dozvěděla tehdejší elita fyziků, byli zděšeni, protože si uvědomili, že právě byla překonána jediná největší překážka, která zbývala k sestrojení jaderné bomby. Modely AI, které mohou projít Turingovým testem, jsou stejným varováním před umělou inteligencí, nad kterou můžete ztratit kontrolu. Proto vás nyní varují lidé jako Geoffrey Hinton a Yoshua Bengio – a dokonce i mnoho technologických ředitelů,“ řekl Tegmark.

Institut pro budoucnost života (FLI), jehož předsedou je vědec Max Tegmark, vydal v loňském roce na základě rostoucích obav výzvu k šestiměsíční pauze ve vývoji pokročilé umělé inteligence. Tegmark poukázal na spuštění modelu GPT-4 od společnosti OpenAI v březnu téhož roku jako na alarmující signál, který naznačuje, že rizika spojená s AI jsou alarmující a nebezpečně blízká.

Přestože výzvu k zastavení vývoje umělé inteligence podepsalo tisíce odborníků, včetně Geoffreya Hintona a Yoshuy Bengia, kteří jsou považováni za průkopníky moderního strojového učení a jsou mezi tzv. „kmotry“ AI, nebylo jejich úsilí o pauzu schváleno. Tato skutečnost zdůrazňuje složitost a kontroverznost tématu regulace v oblasti AI.

V poslední době dochází k odklonu od řešení existenčních rizik v rámci mezinárodní regulace umělé inteligence. Tento trend vyvolává otázky o prioritách a směřování politik v této klíčové oblasti technologického vývoje.

Tegmark varuje, že zlehčování nejzávažnějších rizik není náhodné. „To je přesně to, co jsem předpovídal, že se stane na základě průmyslového lobbingu,“ řekl Tegmark.

„V roce 1955 vyšly první články v časopisech, že kouření způsobuje rakovinu plic, a člověk by si myslel, že poměrně rychle dojde k nějaké regulaci. Ale ne, trvalo to až do roku 1980, protože existoval obrovský tlak ze strany průmyslu na odvedení pozornosti. Mám pocit, že právě to se děje nyní,“ vysvětluje vědec.

AI samozřejmě způsobuje škody i v současnosti. Někteří odborníci dokonce spekulují nad tím, že v tomto odvětví panuje předpojatost.

Podle vědce Maxe Tegmarka se zdá, že podpora pro regulaci umělé inteligence slábne u některých technologických lídrů. „Vnímají, že jsou zaseknutí v situaci, z které se zdá být těžké vymanit. Přestože by mnozí z nich rádi přistoupili k zastavení, cítí, že to není možné. Proto je podle mě nezbytné, aby vlády zasáhly a stanovily jednotné bezpečnostní normy pro všechny, aby byla zajištěna prioritní ochrana před riziky AI,“ vysvětluje Tegmark.

V apelu odborníků se uvádí, že zmírňování rizik spojených s umělou inteligencí by mělo být vnímáno jako globální priorita, srovnatelná s riziky jako jsou pandemie nebo jaderný konflikt. Mezi signatáři této výzvy jsou významné osobnosti jako Sam Altman, ředitel společnosti OpenAI, která stojí za ChatGPT, Demis Hassabis, generální ředitel Google DeepMind, a Dario Amodei z Anthropic, což zdůrazňuje vážnost a důležitost této problematiky.

Přestože existují obavy z možných nebezpečí pokročilé umělé inteligence, je stále velmi obtížné zjistit skutečné úmysly AI v reálném světě.

Autor: Petr Ševčík. Zdroje: The Guardian, Future of Life Institute, NBC News

Diskuze Vstoupit do diskuze
REKLAMA
REKLAMA

AKTUÁLNÍ ZPRÁVY

Vánoce na sněhu? Šance s nadmořskou výškou roste, vyplývá z predikce...

Letošní Vánoce budou pravděpodobně bílé jen na horách. O pravděpodobnosti sněhové nadílky informoval Český hydrometeorologický ústav (ČHMÚ)....

Jak připravit nezapomenutelnou zahradní oslavu?

Plánujete zahradní párty a chcete ji povýšit na stylovou událost, o které se bude ještě dlouho mluvit?...

Recept na tiramisu kuličky bez pečení: rychlé vánoční cukroví

Hledáte recept na vánoční cukroví, které je rychle hotové a navíc se ani nepeče? Vyzkoušejte tiramisu kuličky...

Kam vyrazit za adventním rozjímáním i lednovým klidem? Na Karlštejnsko!

Zatímco většina výletníků míří na Karlštejn v létě, teprve zima ukáže, jak neobyčejně klidné a dechberoucí může...

Babiš ve Sněmovně plakal a obvinil i Zdechovského, že chtěl jeho...

Poslanci se ve čtvrtek večer sešli k mimořádnému jednání o možném střetu zájmů Andreje Babiše. Babiš při...

Před Novou radnicí v centru Prahy se otvírají vánoční trhy ve...

Před Novou radnicí v centru Prahy se letos uskuteční vánoční trhy s dobročinným přesahem. Součástí akce, která...

Jak vybrat dětské zimní boty, aby z toho nebyla rodinná sága

Ráno. Za oknem tma, na chodníku břečka a v předsíni jedno dítě hledá čepici, druhé rukavice. A...

Recept na pravé spaghetti carbonara, které vás svou chutí přenesou do...

Jen málokteré jídlo dokáže přenést atmosféru Itálie tak dokonale jako pravé spaghetti carbonara. Kombinace krémové omáčky, aromatického...
REKLAMA

VÝBĚR ČLÁNKŮ

REKLAMA