Bývalý zaměstnanec společnosti OpenAI Daniel Kokotajlo otevřeně varoval před nebezpečím, které pro nás představuje neregulovaný vývoj umělé inteligence (AI).
Společnosti OpenAI se v oblasti vývoje umělé inteligence bezpochyby daří dosahovat značných úspěchů. Stále více a více odborníků však má strach, k čemu by to v nadcházejících letech mohlo vést. OpenAI totiž podle nich odmítá vidět hrozbu, kterou představuje tzv. obecná umělá inteligence (Artificial general intelligence, AGI) snažící se replikovat lidské kognitivní schopnosti.
Mezi tyto odborníky patří i Daniel Kokotajlo, který z dotyčné firmy odešel letos v dubnu. Kokotajlo nedávno poskytl deníku The New York Times obsáhlý rozhovor, v němž mj. uvedl, že AGI by teoreticky mohla být k dispozici do roku 2027 – a že jde o pádný důvod k obavám.
Problém spočívá především v tom, že vývoj AI v současnosti probíhá až příliš rychle a bezohledně. Řada vědců se mu věnuje s velkým zápalem a vzájemně spolu soutěží o to, komu se podaří daného cíle dosáhnout jako prvnímu a získat v důsledku toho nehynoucí slávu.
Na internetu se tak nedávno objevil otevřený dopis, jehož signatáři jsou pevně přesvědčeni o tom, že je nejvyšší čas „ubrat plyn“.
„Jsme současní i bývalí zaměstnanci společností v oblasti AI a věříme v potenciál technologie AI přinášet lidstvu nebývalé výhody. Chápeme však také vážná rizika, která tyto technologie představují. Tato rizika sahají od dalšího zakořenění stávajících nerovností přes manipulaci a dezinformace až po ztrátu kontroly nad autonomními systémy umělé inteligence, která může mít za následek vyhynutí lidstva,“ píše se v úvodu otevřeného dopisu.
Sám Kokotajlo dokonce prohlásil, že pravděpodobnost toho, že AI nakonec skutečně lidstvo zničí (nebo minimálně způsobí velice závažné škody), podle jeho názoru činí kolem 70 %, což rozhodně není málo.
Nejvyšší čas na regulace AI?
I pokud si lidé z vedení firem jako OpenAI výše zmíněná rizika uvědomují, bagatelizují je a nechtějí přijmout odpovídající opatření. Kokotajlo údajně OpenAI opustil právě proto, že na toto téma vedl několik obsáhlých diskusí s jejím CEO Samem Altmanem a na jejich základě nabyl dojmu, že od něj bohužel nemůže očekávat zodpovědné chování.
14/15: Some of us who recently resigned from OpenAI have come together to ask for a broader commitment to transparency from the labs. You can read about it here: https://t.co/EoApH8484I
— Daniel Kokotajlo (@DKokotajlo67142) June 4, 2024
Nelze se tudíž divit, že stále častěji zaznívá volání po tom, aby se do celé záležitosti vložily vlády jednotlivých států a zavedly určitá pravidla, které tvůrci umělých inteligencí následně budou muset respektovat bez ohledu na to, zda jim samotným to vyhovuje či nikoliv.
V tomto kontextu jistě stojí za zmínku, že Evropská unie již právě taková pravidla pro fungování AI schválila, a to letos na jaře. V důsledku toho se v ní budoucnu některé vybrané systémy nebudou smět používat vůbec, zatímco používání jiných bude velice přísně regulováno.
Tento dokument – tzv. Akt o umělé inteligenci – je „vůbec prvním komplexním právním rámcem pro umělou inteligenci na celém světě“ a mohl by tak teoreticky posloužit jako vzor pro ostatní země. Vzor, který aktuálně skutečně potřebujeme, neboť jak Kokotajlo napsal v e-mailu určeném pro své bývalé spolupracovníky, „svět není připraven a my také nejsme připraveni“.
Autor: Jiří Černý