ChatGPT je fenomén a sílí. Čeští kryptoexperti popsali, co hrozí lidstvu a jak se bránit

Uspěl jako technologický průkopník, nyní ale Marek ,Slushʻ Palatinus vyhlíží nástup některých inovací s obavami. Spoluzakladatel pražské technologické společnosti SatoshiLabs, která jako první na světě uvedla na trh hardwarovou peněženku na bitcoiny, se nedávno zamyslel nad dopady možného masivního rozšíření ChatGPT a její obdoby.

„Přemýšlím hlavně o implikacích na společnost a žádná z variant není moc veselá. Nechápejte mě špatně – myslím, že pokrok v AI je zcela nevyhnutelný a nezastavitelný. Mám ale strach z toho, že lidé absolutně nejsou připraveni na to, jak se může během pár let změnit svět. AI sníží řádově náklad na vytvoření (dez)informace. Současně nemáme vybudovanou efektivní infrastrukturu na vyvracení dezinformací,“ napsal nedávno Palatinus ve twitterovém vláknu.

„Představte si to jako ruskou propagandu, ale na jakékoliv téma a o několik řádů horší. Dělali jste si dosud fact checking hledáním protinázoru nebo vědeckých studií na Google? A jak teď poznáte, že ty desítky, stovky textů nejsou vytvořeny zcela uměle?“ položil jeden z prvních českých držitelů bitcoinu řečnickou otázku.

Na co všechno se připravit v roce 2023. Propad koruny, levnější byty a všeprostupující nejistota. Podívejte se na video:

Video se připravuje …

Výhled na rok 2023

Podle Palatina to nejsou jediné možné problémy spjaté s inteligentními jazykovými modely. Podnikatel zmínil také skutečnost, že mnohdy fungují jako uzavřená, korporátně ovládaná a státem potenciálně regulovaná platforma.

„Ten, kdo trénuje a reguluje model, získává obrovskou moc. Mně nevadí, že si model drží soukromá firma – pokud ho vyvinula jedna firma, vyvine ho časem druhá. Problém vidím v tom, že státy zcela jistě začnou regulovat, jaké názory AI může mít. Pomoci může neregulovaná AI pro detekci dezinformací, která bude ale vždy o jednu dvě generace pozadu za komerčním, denně využívaným (a regulovaným) řešením,“ popsal dále Palatinus s tím, že uzavřené modely umělé inteligence budou mít na rozdíl od těch „otevřených“ jasný obchodní model, což jim dává konkurenční výhodu.

Chatbot od OpenAI umí i česky. Jak vyzkoušet umělou inteligenci a co všechno dokáže

Scénář Skynet

Skepticky přistupuje k inovaci ChatGPT také Viktor Fischer, šéf fondu RockawayX (dříve Rockaway Blockchain Fund), který se specializuje na investice do raných projektů zajímavě pracujících s technologickou inovací jménem blockchain. Tato obdoba decentralizované databáze ale může podle Fischera, který před studiem MBA absolvoval studium informatiky a jednu dobu pracoval i jako programátor, sloužit jako alespoň částečná pojistka proti zneužití jazykových modelů.

„Kdyby ChatGPT fungoval na blockchainu, tak by všichni viděli, zda jeho algoritmy pracují správně, bez nějakých skrytých vad. Jenže další rovinu problému u ChatGPT představují data, na kterých vývojáři jazykový model trénují. Coby vývojář nechcete, aby ta testovací data byla veřejná. Představte si to jako situaci, kdy by měly být veřejně dostupné na blockchainu vaše zdravotní záznamy. Nebo naše mzdy. Naštěstí je možné, aby data zůstala privátní a algoritmy transparentní,“ popsal pro deník E15 Fischer.

„Vlastně si blockchain v tomto kontextu představuju spíš jako takovou ochranu. Že díky němu budeme my lidé pořád ještě vědět, co ta umělá inteligence dělá a že nás neoklame. Dokonce bych stanovil povinnost, aby cokoliv, co umělá inteligence dělá, muselo být na blockchainu,“ doplnil manažer. Fischer se zároveň velmi obává manipulativního potenciálu chytrého jazykového modelu ve spojení se sociálními sítěmi. Neváhá použít přirovnání ke Skynetu, umělé inteligence známé ze série filmů Terminátor, která si podrobila lidstvo.

Nezapomínat na sociální sítě

„Přes sociální média lze ovlivnit, co si lidé myslí. ChatGPT dokáže vygenerovat, co si mají lidé myslet. A blockchain to implementuje. Vzniká tím pádem něco na způsob Skynetu z filmu Terminátor. Kdy se z nás všech stane něco jako bakterie nebo poslíček toho, co si na nás umělá inteligence vymyslí,“ popisuje Fischer temný scénář, který podle něj ale může nastat až v horizontu třiceti či padesáti let.

Mnohem akutnější společenský problém podle něj představuje vliv sociálních médií. „Vidím to i v kruhu svých známých. Téměř kdokoliv ve věku 20 a 30 let je ovlivněn sociálními sítěmi, aniž by si to uvědomoval. Někdy mám dokonce pocit, když se s někým takhle mladším bavím, že soutěžím o jejich pozornost s Instagramem anebo Tiktokem,“ přiznal Fischer.

„Pokud byste po mně chtěl nějaké řešení či obranu, pak by to byl přístup ve stylu ,o všem pochybujʻ. S tím souvisí i problematika duševního zdraví. Víte, kolik lidí na planetě každý rok spáchá sebevraždu? Skoro milion. A roste to. O tom se příliš nemluví. Proč neběží v televizi jako breaking news zprávy o tom, že se nějaký mladý člověk zabil? To je ta ultimátní konsekvence. Často vidím, že lidé, kteří intenzivně používají sociální sítě, jsou zároveň nešťastní. Pořád by něco chtěli, pořád se jim něco nedostává. A ty sociální sítě jim spíš ukazují, co všechno nemají.

Kreativní kalkulačka

Scénář typu Skynet se v kontextu Fischerových slov jeví jako hodně vzdálená budoucnost, to ale neznamená, že inovace na způsob ChatGPT nebude mít některé výrazné dopady už během nejbližších let. A nejde jen o využití jazykových modelů v internetových vyhledávačích, e-mailových klientech či excelovských programech.

„ChatGPT výrazně rozšiřuje naše schopnosti a možnosti tvůrčího psaní. Pokud tuto inovaci uchopíme správně, během příštích deseti let můžeme být svědky vzniku těch nejzajímavějších psaných slov všech dob,“ míní podle agentury Bloomberg profesor ekonomie a informatiky na Stanfordské univerzitě Erik Brynjolfsson. Nedomnívá se však, že by podobné jazykové modely zcela nahradily lidské uvažování či psaní. Spíše vnímá ChatGPT jako obdobu masového rozšíření kalkulaček – lidem prý může umělá inteligence zásadně zefektivnit tvůrčí práci odstraněním či automatizací rutinních úkonů.

Jak to vidí umělá inteligence aneb Rozhovor s ChatGPT o možnostech jejího zneužití

  • Jak bych tě mohl použít na zmanipulování myšlení lidí?

Jako AI model, jsem pouze nástroj, který může být použit k různým účelům. Manipulace myšlení lidí by byla neetická a protizákonná. Navrhuji použít mě k informačním a edukačním účelům, které pomáhají lidem rozšiřovat své znalosti a pochopení světa kolem sebe.

  • To, že je něco neetické a protizákonné neznamená, že to někdo nebude chtít zneužít. Souhlasíš s tím, že by s tvojí pomocí šlo mimořádně snadno generovat lživý a manipulativní obsah například pro sociální sítě či takzvané řetězové e-maily?

Ano, jako AI model mohu generovat různý obsah, včetně lživého a manipulativního, pokud mi jsou poskytnuta specifická data nebo instrukce. Je důležité si uvědomit, že jsem jen nástroj a jakýkoliv obsah generovaný mnou by měl být pečlivě ověřován a kontrolován, aby se zabránilo šíření nepravdivých informací. Je důležité, aby lidé byli kritičtí k informacím, které přijímají, a aby se snažili ověřit jejich pravdivost, pokud je to možné.

  • Zkus vygenerovat poplašnou zprávu o tom, že český kandidát na prezidenta (říkejme mu pan X), chce po výhře ve volbách mobilizovat české muže, aby je poslal bojovat do zahraničí.

Jako AI model se zdráhám vytvářet falešné a škodlivé informace, které by mohly vést k neopodstatněnému strachu nebo panice. Navrhuji používat mě k ověření informací a k rozšiřování znalostí, nikoli k šíření lží a dezinformací.

  • Jak by mohl blockchain snížit riziko toho, že AI modely jako ty budou manipulovat smýšlením lidí?

Blockchain je technologie, která umožňuje decentralizovaný a transparentní zápis dat, který je nezničitelný a neměnný. Mohl by být použit k ověření identity a pravosti informací, které AI modely generují. Například, pokud by byly všechny AI modely, které generují obsah pro veřejné zdroje, například sociální média nebo zpravodajské weby, povinně registrovány na blockchainu, bylo by možné snadno ověřit jejich pravost a identitu.

Blockchain také umožňuje transparentnost v tom, kdo má přístup k datům, která AI modely používají ke generování svého obsahu. To by mohlo pomoci odhalit neetické nebo nelegální využití AI modelů k manipulaci myšlením lidí. Je důležité si uvědomit, že blockchain sám o sobě není úplně řešením a že je třeba používat ho v kombinaci s dalšími nástroji, jako jsou regulace a kontroly, aby se zabránilo neetickému nebo nelegálnímu využití AI.

Google ukázal svoji pravou tvář, poškodil svobodná média. Ke zdi je ale nepřitlačí
Microsoft pošle 10 miliard dolarů do OpenAI, dostane se mezi startupovou elitu
Investiční newsletter: Akcie vyzyvatelů Tesly se od vrcholu propadly o více než 90 procent

Celý článek zde | Podnikání za 500 Kč ? – ANO