Organizace OpenAI, kterou Elon Musk před rokem opustil, vyvinula efektivní nástroj pro tvorbu fake news
Elon Musk v roce 2015 spoluzaložil výzkumnou organizaci OpenAI, která si dává za cíl vyvinout bezpečnou a všeobecně prospěšnou umělou inteligenci. Loni v únoru však Musk organizaci opustil, přičemž uvedeným důvodem byl potenciální budoucí konflikt zájmů s jeho společností Tesla, která se také věnuje vývoji umělé inteligence pro systém Autopilot. Musk nyní vysvětlil, že to nebyla celá pravda. Důvodem totiž bylo také to, že Musk se musel loni soustředit především na obtížné problémy s výrobou Modelu 3 v Tesle. Dalším problémem pak bylo, že Tesla a OpenAI neustále soupeřily o stejné potenciální zaměstnance a Musk prý navíc nesouhlasil s některými věcmi, které tým v OpenAI chtěl dělat. „Ve výsledku tedy bylo lepší se rozejít v dobrém,“ shrnul na Twitteru Musk.

Elon Musk v roce 2016 se šéfem společnosti Nvidia, která OpenAI dodala speciální superpočítač pro umělou inteligenci (Foto: Nvidia)
O OpenAI se také aktuálně mluvilo kvůli jejich poslední vyvinuté technologii, jejíž potenciál organizaci tak znepokojil, že pro jistotu zatím zveřejnila jen část souvisejícího výzkumu. Ve zkratce jde o to, že OpenAI vytvořilo jazykový model GPT-2 s 1,5 miliardami parametrů, který byl následně vycvičen na 8 milionech webových stránek (40 GB textu). Výsledný model díky tomu nyní dokáže vygenerovat smysluplný text na základě krátkého vstupního textového řetězce.
Příkladem je třeba člověkem vložená věta „V Cincinnati byl dnes ukraden vagón s nukleárním materiálem. Neví se, kam se poděl.“ Na základě tohoto vstupu pak GPT-2 dokáže vygenerovat souvislý krátký novinový článek na toto téma, přičemž informace a citace v něm obsažené jsou zcela smyšlené, ale přitom výsledek lze jen velmi těžko rozeznat od textu vytvořeného člověkem.
Podle OpenAI by tato technologie mohla najít uplatnění v překladech mezi jazyky, systémech rozpoznávání řeči nebo diktovacích asistentech poháněných umělou inteligencí. Jenže na druhou stranu si OpenAI také uvědomuje, že technologie je velice snadno zneužitelná pro vytváření lživých novinových článků nebo automatizaci tvorby spamu či falešného obsahu na sociálních sítích. Mimo jiné by takový nástroj značně zjednodušil a zlevnil vytváření politicky motivovaných dezinformačních kampaní (například s cílem ovlivnit výsledky voleb). Z toho důvodu OpenAI zatím zveřejnilo jen část výzkumu a dat týkajících se GPT-2 a za 6 měsíců situaci znovu přehodnotí.
Zdroj: OpenAI