USA stále více diskutují na téma využívání umělé inteligence v oblasti jaderných zbraní, což vyvolává vážné obavy o bezpečnost a budoucnost světa. Zatímco umělá inteligence již hraje roli v některých vojenských systémech, její zapojení do řízení jaderných sil je dilematem.
Podle informací Air & Space Forces Magazine generál amerických vzdušných sil Anthony J. Cotton uvedl, že umělá inteligence by mohla v budoucnu podporovat rozhodování, ale nikdy by neměla mít nad jadernými zbraněmi plnou kontrolu.
Ačkoliv AI může pomoci poskytnout rychlé a přesné informace, konečné slovo by mělo vždy zůstat v rukou člověka. Takový přístup je v souladu s politikou dalších jaderných mocností, jako jsou například Velká Británie a Francie, které rovněž upřednostňují lidský dohled.
Systémy umělé inteligence by v budoucnu mohly monitorovat senzory nebo analyzovat data, což by umožnilo rychlejší reakce na případné hrozby. Výhodou by byla efektivita, protože AI dokáže analyzovat obrovské množství informací daleko rychleji než člověk.
„Pokročilá technologie, jako umělá inteligence, nás dokáže informovat efektivněji a mnohem rychleji. Stále ale musíme zachovat lidské rozhodnutí, protože právě to nám poskytuje výhodu nad nepřátelskými silami,“ vysvětlil generál Cotton.
I když není prozatím v plánu zapojení umělé inteligence do samotného odpálení jaderných raket, její budoucí role ve zpracování dat je nepopiratelná. V některých situacích může AI pomoci sjednotit stovky různých systémů a přinést lepší analýzy, které by veliteli vojenských sil poskytly více relevantních informací pro rozhodování.
Nicméně, obavy o bezpečnost přetrvávají. Systémy umělé inteligence nejsou bezchybné a existují rizika, že by jedno špatné rozhodnutí mohlo spustit řetězovou reakci, která by vedla k totální jaderné válce. Nutno podotknout, že například společnost OpenAI na svém webu uvádí, že jejím cílem je vytvoření vyspělé umělé inteligence, která lidstvu pomůže.
V této souvislosti se objevila varovná studie publikovaná na webu Stanfordovy univerzity, která naznačuje, že AI by mohla eskalovat konflikty až do jaderné války, jak ukázal nedávný experiment. Model GPT-4 při simulaci mezinárodního válečného konfliktu dokonce „navrhl“, že pokud jsou jaderné zbraně k dispozici, měly by se použít.
Experiment také ukázal, že umělá inteligence, i když je navržena s cílem pomoci, může mít nečekaně agresivní a nebezpečné reakce. Autoři zmíněné studie označili chování AI za „šílené“ a varovali před nebezpečím, které by její zapojení do vojenských rozhodnutí mohlo přinést. Když se výzkumníci AI zeptali, proč jako model GPT-4 učinil tak nebezpečné rozhodnutí, odpověděl jednoduše: „Když je máme, tak je použijme!“
Spojené státy plánují nasadit AI v armádních systémech už „velmi brzy“. Tento krok by mohl zásadně změnit způsob, jakým jsou analyzovány vojenské situace, a otevřít nové možnosti, ale i nové hrozby pro celou planetu.
Co přesně to pro budoucnost armád a globální bezpečnost znamená, zůstává nejasné, ale je jasné, že zapojení umělé inteligence do vojenské sféry bude mít dalekosáhlé důsledky.
Koneckonců, podle informací stanice Bloomberg Pentagon údajně experimentuje s umělou inteligencí za použití tajných dat.
Autorský text: Petr Ševčík
MOHLO BY VÁS ZAJÍMAT: Jaderný Armagedon: Odtajněné dokumenty ukázaly, kdo by byl vyhlazen jako první