REKLAMA

Umělá inteligence by mohla zničit lidstvo již během nadcházejících let, tvrdí Yudkowsky

Umělá inteligence by mohla zničit lidstvo již během 2–10 let. Alespoň to tvrdí zakladatel Machine Intelligence Research Institute a expert na danou problematiku Eliezer Yudkowsky. Máme jen nepatrnou šanci na přežití, řekl v rozhovoru pro The Guardian.

REKLAMA

Eliezer S. Yudkowsky je americký odborník na problematiku umělé inteligence (AI), který je znám především díky popularizaci myšlenek týkajících s tzv. přátelské AI. Nedávno přišel s varováním, že již během nadcházejících 2–10 let bychom se mohli dočkat něčeho na způsob soudného dne z Terminátora.

„Potíž je v tom, že lidé si to neuvědomují. Máme jen nepatrnou šanci, že lidstvo přežije,“ konstatoval Yudkowsky v rozhovoru pro The Guardian.

Yudkowsky se proslavil mimo jiné i tím, že si zásadně nebere servítky a mnohé jeho výroky jsou poměrně radikální. Minulý rok například veřejně volal po bombardování datových center, aby se vzestup umělé inteligence zastavil.

Tento konkrétní názor sice v mezičase přehodnotil, ale pouze do určité míry – konkrétně tak že, bombardovat stále chce, ale již bez použití jaderných zbraní. „Teď bych zvolil opatrnější slova,“ připustil Yudkowsky.

Dodejme, že pro výše zmíněný The Guardian se k danému tématu vyjádřila i řada dalších odborníků – od Briana Merchanta po Molly Crabappleovou. Většina z nich se přitom domnívá, že nutně nemusíme přijímat úplně každou novou technologii, zvlášť pokud ji nelze považovat za vysloveně dobrou.

V případě AI je často poukazováno nejen na to, že pro nás představuje významnou existenční hrozbu, ale také, že její rozšíření může způsobit masivní propouštění a destabilizovat trh práce. Samozřejmě, že AI stejně tak dokáže být velice užitečným nástrojem. Diskuse se ale vedou o tom, zda se její vývoj za aktuálních podmínek nemůže velice snadno vymknout z rukou a zda pro nás tak není zbytečně velkým rizikem.

„Nejsem jediným člověkem zabývajícím se těmito problémy, který věří, že nejpravděpodobnějším výsledkem budování nadlidsky chytré AI za jakýchkoliv okolností, které se, byť jen vzdáleně podobají těm současným, bude to, že doslova každý na Zemi zemře,“ konstatoval Yudkowsky pro web Bloomberg.

Zásadní potíž prý nespočívá v tom, že vytvoření něčeho mnohem inteligentnějšího, než jsme my sami, by nutně muselo znamenat naši zkázu – zásadní potíž spočívá v tom, že k tomu, abychom hrozbu Armagedonu odvrátili, bychom potřebovali mnohem důkladnější přípravu, pokročilejší vědecké poznatky atd. Jinými slovy, nesměli bychom tak moc „tlačit na pilu“.

Momentálně však může nějaká výzkumná laboratoř v rámci honby za co nejlepšími výsledky snadno překročit pomyslnou kritickou mez, aniž si toho vůbec všimne. A pokud k tomu skutečně dojde, pak již bude na přijetí nějakých opatření – klidně i méně extrémních, než navrhuje Yudkowsky – příliš pozdě.

Autor: Jiří Černý (zahraniční redaktor).

Diskuze Vstoupit do diskuze
Přidat na Seznam.cz
REKLAMA
REKLAMA
REKLAMA