Aktuality

Organizace OpenAI, kterou Elon Musk před rokem opustil, vyvinula efektivní nástroj pro tvorbu fake news

Elon Musk v roce 2015 spoluzaložil výzkumnou organizaci OpenAI, která si dává za cíl vyvinout bezpečnou a všeobecně prospěšnou umělou inteligenci. Loni v únoru však Musk organizaci opustil, přičemž uvedeným důvodem byl potenciální budoucí konflikt zájmů s jeho společností Tesla, která se také věnuje vývoji umělé inteligence pro systém Autopilot. Musk nyní vysvětlil, že to nebyla celá pravda. Důvodem totiž bylo také to, že Musk se musel loni soustředit především na obtížné problémy s výrobou Modelu 3 v Tesle. Dalším problémem pak bylo, že Tesla a OpenAI neustále soupeřily o stejné potenciální zaměstnance a Musk prý navíc nesouhlasil s některými věcmi, které tým v OpenAI chtěl dělat. „Ve výsledku tedy bylo lepší se rozejít v dobrém,“ shrnul na Twitteru Musk.

Elon Musk v roce 2016 se šéfem společnosti Nvidia, která OpenAI dodala speciální superpočítač pro umělou inteligenci (Foto: Nvidia)

O OpenAI se také aktuálně mluvilo kvůli jejich poslední vyvinuté technologii, jejíž potenciál organizaci tak znepokojil, že pro jistotu zatím zveřejnila jen část souvisejícího výzkumu. Ve zkratce jde o to, že OpenAI vytvořilo jazykový model GPT-2 s 1,5 miliardami parametrů, který byl následně vycvičen na 8 milionech webových stránek (40 GB textu). Výsledný model díky tomu nyní dokáže vygenerovat smysluplný text na základě krátkého vstupního textového řetězce.

Příkladem je třeba člověkem vložená věta „V Cincinnati byl dnes ukraden vagón s nukleárním materiálem. Neví se, kam se poděl.“ Na základě tohoto vstupu pak GPT-2 dokáže vygenerovat souvislý krátký novinový článek na toto téma, přičemž informace a citace v něm obsažené jsou zcela smyšlené, ale přitom výsledek lze jen velmi těžko rozeznat od textu vytvořeného člověkem.

Ukázka vygenerovaného textu modelem GPT-2 (Zdroj: OpenAI)

Podle OpenAI by tato technologie mohla najít uplatnění v překladech mezi jazyky, systémech rozpoznávání řeči nebo diktovacích asistentech poháněných umělou inteligencí. Jenže na druhou stranu si OpenAI také uvědomuje, že technologie je velice snadno zneužitelná pro vytváření lživých novinových článků nebo automatizaci tvorby spamu či falešného obsahu na sociálních sítích. Mimo jiné by takový nástroj značně zjednodušil a zlevnil vytváření politicky motivovaných dezinformačních kampaní (například s cílem ovlivnit výsledky voleb). Z toho důvodu OpenAI zatím zveřejnilo jen část výzkumu a dat týkajících se GPT-2 a za 6 měsíců situaci znovu přehodnotí.

Zdroj: OpenAI

Zobrazit komentáře

Sdílet

Aktuální články

Střípky o Neuralinku z platformy X (25. díl)

V dalším shrnutí novinek a zajímavostí o Neuralinku bude řeč například o těchto tématech: Exponenciální…

29. 10. 2025

Ochrnutý uživatel Neuralinku se opět dokáže sám najíst díky robotické paži ovládané myšlenkami

Neuralink ukázal video zatím asi nejpokročilejšího použití robotické paže pomocí myšlenek v rámci studie CONVOY.…

24. 10. 2025

Trumpova vláda chce satelitní ochranný štít nad USA, SpaceX možná bude hlavním kontraktorem

Americká vláda plánuje vybudovat protiraketový štít zvaný Golden Dome. Jednou z jeho prvních částí by…

18. 10. 2025

Neuralink plánuje masivní expanzi, v roce 2030 by prováděl 10 000 implantací ročně

Neuralink údajně v následujících letech plánuje rapidní rozvoj. Kolem roku 2031 mají být rozhraní Neuralinku…

17. 10. 2025

Kosmonomika aneb ekonomická stránka kosmonautiky (3. část)

Zatímco v prvním a druhém dílu jsme na „kosmonomiku“ nahlíželi spíše očima daňových poplatníků, v…

13. 10. 2025

Neuralink plánoval zrakovou protézu Blindsight testovat i ve Španělsku, ale zřejmě z toho sešlo

Víme, že Neuralink už nějaký čas vyvíjí zrakovou protézu zvanou Blindsight. Zatím ale příliš nevíme…

11. 10. 2025