Neuralink: Nejkontroverznější technologie v dějinách, 6. část – Co s tím?

Po přečtení této série článků se asi nabízí otázka: Je vůbec vývoj technologie, která s sebou může přinést tolik různých problémů na mnoha úrovních našeho života, etický? Má smysl holýma rukama šťourat ve vosím hnízdě? Zdá se, že pravděpodobně ano, ale musíme být maximálně opatrní. Rozhodující je cíl, o který jde.

V případě Neuralinku Elona Muska jde o zajištění, aby nás nepřeválcovala umělá inteligence. Ta by nám skutečně mohla v mnoha ohledech dost zavařit a je možné, že jediným východiskem ze situace je svézt se s ní na vlně kombinované biologicko-technologické superinteligence.

Navíc na cestě k symbióze s umělou inteligencí by se díky rozhraním dalo vyřešit mnoho fyziologických i psychických problémů – navrátit pohyb ochrnutým, zrak nevidomým, vyléčit Alzheimerovu nebo Parkinsonovu chorobu, zbavit lidi depresí a tak dále.

Vývoj rozhraní, stejně jako vývoj umělé inteligence, nezastavíme. Pokročilé neurální interfejsy tu jednou budou, ať to chceme nebo ne. Bezpočet institucí, firem a specialistů už celé dekády tuto technologii vyvíjejí. Byly investovány obrovské peníze. Není cesty zpět.

Troufám si tvrdit, že komerční rozhraní zde budou dříve, než by to kdo čekal a mnohem dříve, než na ně bude připravena veřejnost. Velkou chybou je myslet si, že tato technologie je ještě daleko a nemá smysl se na ni už teď připravovat. Dokládají to následující skutečnosti:

  • mnoho neinvazivních neurálních rozhraní už je dávno na trhu
  • už teď se pomocí nich dají číst myšlenky (například obrazy z paměti nebo i dekódovat řeč)
  • různá invazivní rozhraní už jsou testována na lidech (BrainGate, Utah Array, Stentrode)
  • do odvětví vstoupilo mnoho dobře financovaných hráčů (Neuralink, Facebook, Kernel…)
  • objevují se první ryze komerční invazivní systémy (Neuralink)

Reportáž televize ABC Science o rozhraní Stentrode:

Co s tím?

Jak zajistíme, aby nejkontroverznější technologie v dějinách lidstva byla co nejbezpečnější a nezpůsobila více škody než užitku? Budou potřebné akce a změny na několika frontách:

  • vyvolání diskuze
  • edukace veřejnosti a potenciálních uživatelů
  • odpovědnost a transparentnost výrobců
  • dohled médií a veřejnosti
  • dozor, regulace
  • nastavení sankcí a jejich vymáhání
  • legislativa
  • redefinice lidských práv
Vyvolání diskuze

O to jde v této sérii článků. Je potřeba, aby se širší veřejnost dozvěděla o plusech a minusech technologie neurálních rozhraní a o možných důsledcích, jaké mohou plynout z jejího masového využívání. Nejde samozřejmě o to vyvolat paniku nebo odpor, ale věcnou diskuzi o tom, co je třeba podniknout, aby tato technologie byla bezpečná a nepřevrátila civilizaci naruby.

Edukace veřejnosti a potenciálních uživatelů

O to jde ve všech článcích o Neuralinku na ElonX. Veřejnost musí mít co nejvíce informací o tom, jak rozhraní fungují, jak probíhá jejich vývoj, jaké jsou cíle firem a organizací, které je vyvíjejí, a tak dále.

Odpovědnost a transparentnost výrobců

Jedna z nejdůležitějších věcí. Jde o natolik kontroverzní a potenciálně nebezpečnou technologii, že výrobci musejí nést odpovědnost za své výrobky. Masová výroba, prodej a implantace nekvalitních přístrojů může způsobit obrovskou tragédii. Zároveň firmy a organizace vyvíjející podobná zařízení musí být maximálně transparentní k médiím a veřejnosti.

Bezpečnost systému po všech stránkách musí být primárním cílem všech výrobců. Zařízení musí být od začátku vývoje „secure by design“, tedy jeho bezpečnost musí být začleněna do návrhu v každé fázi vývoje.

Dohled médií a veřejnosti

Rovněž velmi důležitá záležitost. V moderní společnosti média fungují jako určitý dozorce, zejména v případě, kdy jiné systémy dozoru nefungují nebo jsou špatně nastaveny. Dobrým příkladem jsou zde politici, na které často nemají páky ani soudy nebo policie. Nezávislá média mají páky na každého.

Dozor a regulace

Odvětví neurálních rozhraní musí být důkladně a přísně regulováno vládními i nevládními organizacemi. V USA tuto kontrolu momentálně zajišťuje FDA (Food and Drug Administration, Úřad pro kontrolu potravin a léčiv). V budoucnosti ale kontrola tohoto úřadu nebude stačit. Pokročilejší rozhraní začnou přesahovat ze zdravotnictví do ekonomie, sociologie, politiky, práva a tak dále. Bude potřeba zapojit i jiné organizace.

Otázkou je, jak taková kontrola bude vypadat v jiných zemích, které budou rozhraní vyvíjet. Evropa zde zřejmě nebude problémem, ale co třeba Čína nebo Rusko? Tyto země jsou určitě potenciálním zdrojem problémů s regulací a dozorem čehokoliv, tím spíše takové technologie, jakou jsou neurální rozhraní.

Nastavení sankcí a jejich vymáhání

Pokud má dozor a regulace fungovat a má být zajištěn vývoj bezpečných přístrojů, musejí být nastaveny sankce a musejí pak být důsledně vymáhány. A to nejen v západním světě, ale globálně.

Legislativa

Potřebná legislativa určitě chybí a ještě dlouho chybět bude. Minulý díl série se týkal právních aspektů – všechny záležitosti v něm zmíněné musejí být nějakým způsobem zahrnuty v zákonech. Vztahy producentů a uživatelů, neurokriminalita, povinnosti výrobců a tresty za jejich nedodržování, odpovědnost za jednání umělé inteligence, nakládání s neurologickými daty, lidská práva související s neurotechnologiemi.

Lidská práva

Marcello Ienca

Někteří odborníci v oboru neuroetiky, jako například Marcello Ienca z polytechniky v Curychu (ETH Zürich), tvrdí, že neurální rozhraní budou mít natolik velký vliv na člověka a společnost, že bude potřeba zaktualizovat základní lidská práva. Konkrétně by mělo jít o čtyři nová práva:

  1. Právo kognitivní svobody čili možnost svobodně se rozhodnout, zda chci danou neurotechnologii použít, nebo ji odmítnut.
    • Příkladem může být tlak zaměstnavatelů na pracovníky nebo využití v armádách.
  2. Právo duševního soukromí neboli právo izolovat mozkové údaje nebo je naopak veřejně sdílet.
    • Rozhraní musí zajistit ochranu neurálních dat čili myšlenek uživatelů.
  3. Právo duševní integrity čili právo nebýt fyzicky nebo psychicky poškozen neurotechnologií.
    • Zařízení musí být ve všech ohledech bezpečné a musí projít důkladnými testy.
  4. Právo psychologické kontinuity neboli právo na ochranu před nechtěnými změnami osobnosti.
    • Rozhraní nemůže způsobit změnu vaší osobnosti, pokud s tím nesouhlasíte.
Veřejné vlastnictví

Neuroetik Marcello Ienca navrhuje ještě jinou, dost radikální věc – překlasifikování neurálních rozhraní na veřejné statky, čímž by nad nimi ztratily kontrolu soukromé společnosti. Těžko říci, co přesně by to znamenalo, ale byl by to určitě výrazný zásah do jejich vývoje. Mohly by potom vůbec podobná zařízení vyvíjet soukromé společnosti nebo jen veřejné instituce? Podle Iancy by to mělo vést k ochraně zdraví a práv uživatelů a k zajištění, aby rozhraní nebylo jen pro bohaté.

Závěrem

Jak už zaznělo v úvodu, vývoj neurálních rozhraní nezastavíme. Není k tomu ani důvod. Neurotechnologie může přinést lidstvu mnoho dobrého. Nyní je však třeba vyvinout veškeré možné úsilí, aby pozitiva plynoucí z této technologie co možná nejvýrazněji převážila nad negativy. Jinak naší společnosti hrozí, že nás tato technologie sežere, přežvýká a vyplivne něco, co bude jen velmi vzdáleně připomínat člověka, jakého dnes známe.


Zdroje

Autor série čerpal informace z mnoha článků na různých webech a několika videí na YouTube. Odkazy na ně byly uváděny v textu. Zde najdete seznam významnějších z nich. Všechny jsou v anglickém jazyce.

Články

Videa

< Předchozí část

Předchozí díly seriálu Nejkontroverznější technologie v dějinách:


Přispějte prosím na provoz webu ElonX, aby mohl nadále zůstat bez reklam. Podpořte nás pomocí služby Patreon či jinak a zařaďte se tak po bok ostatních dobrodinců, kteří už finančně přispěli. Děkujeme!




Mohlo by se vám líbit...

Odebírat komentáře
Nastavit upozorňování na
guest

1 Komentář
nejnovější
nejstarší nejlepší
Inline Feedbacks
Zobrazit všechny komentáře
Ricardo

Jasně, znárodnit Neuralink, už jsem myslel že to nikoho z Eurosojuzu nenapadne. Socani nikdy nezklamou…

Než to bude mít EU prodiskutované, tak to už Elon bude mít hotové a bude bydlet ve vile na Marsu.