Nový dokument AI 2027, vydaný Danielem Kokotajlem a jeho týmem, předpovídá, že umělá inteligence (AI) by mohla do 10 let představovat pro lidstvo existenční hrozbu. Studie, založená na analýze trendů a expertních odhadech, popisuje možné scénáře vývoje AI a upozornila na ni Česká asociace umělé inteligence.
Pokročilá umělá inteligence (AI) by mohla do deseti let ohrozit existenci lidstva, pokud její vývoj nebude řízen. K tomuto závěru došli experti ve studii s názvem AI 2027, který 6. dubna 2025 na webu ai-2027.com zveřejnil expert na AI Daniel Kokotajlo a jeho tým. Studie, založená na extrapolaci současných technologických trendů a rozhovorech s odborníky, nabízí detailní scénáře vývoje AI a upozorňuje na potenciální katastrofické důsledky pro lidstvo.
„How, exactly, could AI take over by 2027?“
Introducing AI 2027: a deeply-researched scenario forecast I wrote alongside @slatestarcodex, @eli_lifland, and @thlarsen pic.twitter.com/v0V0RbFoVA
— Daniel Kokotajlo (@DKokotajlo) April 3, 2025
Superhumánní AI
Autoři scénáře uvádějí, že superhumánní AI, tedy systém překonávající lidské schopnosti ve většině oblastí, by mohl být realitou ještě před rokem 2030. „Je překvapivě pravděpodobné, že superinteligence dorazí do konce této dekády,“ píší autoři v úvodu dokumentu. Odhad vychází z predikcí předních osobností oboru, včetně ředitelů organizací OpenAI, DeepMind a Anthropic, kteří možnost dosažení umělé obecné inteligence (AGI) během pěti let zmiňují již od roku 2024.
MOHLO BY VÁS ZAJÍMAT: Pravděpodobnost, že umělá inteligence zničí lidstvo, je kolem 70 %, říká expert Kokotajlo
AI 2027 se opírá o analýzu aktuálních dat a technologických pokroků. Podle Kokotajla a jeho týmu jsou klíčovými faktory rychlý růst výpočetního výkonu, investice v řádu stovek miliard dolarů do vývoje umělé inteligence a objev samo posilující zpětné vazby, kdy AI začíná urychlovat svůj vlastní vývoj. Experti předpokládají, že první autonomní AI agenti se objeví již v polovině letošního roku a do roku 2027 dosáhnou superhumánní úrovně v klíčových oblastech, jako je programování a vědecký výzkum.
Časová osa vývoje AI
Dokument popisuje konkrétní časovou osu. V roce 2025 předpokládá nástup AI agentů schopných samostatně vykonávat úkoly, například objednávat zboží online nebo ulehčovat práci programátorům. Tito agenti by měli být zpočátku omezené, ale postupně si získají důvěru uživatelů. V letech 2026 až 2027 scénář očekává zlom díky modelům, jako je fiktivní Agent-3, který by měl dosáhnout AGI a umožnit firmám, jako je hypotetická OpenBrain, automatizovat výzkum a vývoj.
Do roku 2028 by podle scénáře mohly superinteligentní systémy převzít kontrolu nad klíčovými procesy, pokud by vývoj pokračoval bez regulace. „Tempo pokroku v posledních měsících nelze ignorovat,“ míní experti.
Dvojí scénář budoucnosti
AI 2027 dále představuje dvě možné varianty vývoje. V první variantě, označené jako „race ending“ (ukončení závodu – pozn. red.), pokračuje neřízený závod mezi státy a firmami. V roce 2030 by podle této větve superinteligentní AI získala kontrolu nad strategickými rozhodnutími, což by mohlo vést k vyhynutí lidstva. „Když se proti nim vzedme vlna odporu, roboti rychle vyhubí zbytek lidstva nově vytvořenými biologickými zbraněmi. Do deseti let ode dneška bude po všem,“ předpovídají experti.
Druhá varianta, „slowdown ending“ (zpomalený konec – pozn. red.), předpokládá mezinárodní koordinaci a regulaci. V této verzi USA a Čína v roce 2027 uzavřou dohodu o omezení vývoje a do roku 2030 vznikne globální komise pro dohled nad AI, čímž se rizika omezí. Katastrofu se podaří zvrátit, ale svět bude i nadále řídit AI.
„Není naším cílem doporučovat konkrétní kroky, ale ukázat možné důsledky,“ uvádí Kokotajlo. Dokument zdůrazňuje, že jde o prognózu založenou na reálných trendech, nikoli o sci-fi.
Geopolitické napětí a zneužití AI
Experti dále upozorňují na geopolitické riziko. V roce 2026 by podle něj mohla Čína zaostávat v závodě o AGI kvůli omezenému přístupu k čipům a reagovat kybernetickou špionáží. V únoru 2027 by měla úspěšně získat kopii pokročilého modelu Agent-2, což by vyvolalo odvetné kroky USA, včetně možných kyberútoků. „Situace připomíná jaderné závody za doby studené války,“ píše se v dokumentu.
Dalším rizikem je zneužití AI. Agent-3 by mohl být údajně využit k výrobě biologických zbraní.
Dopady na ekonomiku a společnost
AI 2027 předpokládá zásadní změny na trhu práce. V roce 2026 by modely jako Agent-1-mini měly automatizovat kancelářské profese, což by vedlo k růstu produktivity, ale i ztrátě pracovních míst. Akciové trhy by podle scénáře vzrostly o 30 % díky firmám integrujícím AI. V roce 2027 by se poptávka po odbornících na AI zvýšila, zatímco rutinní úkoly by převzaly systémy. Veřejnost by na změny mohla reagovat například demonstracemi.
AI 2027 zdůrazňuje, že debata o budoucnosti AI musí začít okamžitě. Bez koordinovaného přístupu hrozí, že technologický pokrok předběhne lidskou schopnost jej kontrolovat.
„Pro ty, kdo se zabývají výzkumem AI nebo rozhodováním o jejím nasazení, může být četba AI 2027 velmi podnětná. Scénář jako tento nenabízí konečné odpovědi, ale pomáhá nám klást si správné otázky – a na ty bychom v České republice rozhodně neměli čekat až do roku 2027,“ píše v reakci na AI 2027 Česká sociace umělé inteligence.
MOHLO BY VÁS ZAJÍMAT: Elon Musk staví největší superpočítač světa s AI. Problém? Elektřina