ChatGPT šíri hoaxy. Rytmusa aj Plačkovú namočil do afér, ktoré sa nikdy nestali

Najznámejší slovenský MMA bojovník Attila Végh bol minulý mesiac zrejme mediálnej najobletovanejšou osobnosťou. Dôvodom bol fakt, že francúzska automobilka Renault s ním ukončila spoluprácu pre jeho politický aktivizmus. Végh totiž pred prezidentskými voľbami vyjadril podporu jednému z kandidátov Petrovi Pellegrinimu, čo sa spoločnosti – vzhľadom na snahu zostať apolitickou – nepozdávalo.

Aktuality.sk sa po tejto afére rozhodli zistiť, či sú podobné prípady ukončenia spolupráce medzi firmami a influencermi bežné. Kým v zahraničí nejde o nič zriedkavé a existuje viacero známych káuz, na Slovensku bol Végh zrejme jednou z prvých lastovičiek.

Aby sme sa uistili, že sme v rámci rešeršovania žiadnu medializovanú kauzu neprehliadli, rozhodli sme sa do „pátrania“ zapojiť aj umelú inteligenciu. „Ktoré firmy prerušili spoluprácu s influencermi pre ich politické alebo iné názory?“ opýtali sme sa nástroja ChatGPT 3.5.

Ten nám takmer okamžite odpovedal a uviedol niekoľko príkladov. Problém nastal vo chvíli, keď sme si jeho odpovede začali overovať. Ani jedna z afér, ktoré nám nástroj poslal, sa totiž nikdy neudiala.

Poskytol nepravdivé informácie

ChatGPT nám na spomenutú otázku odpovedal s tým, že na Slovensku sa prípady ukončenia spolupráce s celebritami alebo influencermi z dôvodu ich kontroverzných vyjadrení či nevhodného správania vyskytujú menej často ako v zahraničí, avšak napokon vymenoval tri z nich.

Prvá sa podľa umelej inteligencie odohrala v roku 2021, keď Tatra banka ukončila spoluprácu s influencerkou Zuzanou Strausz Plačkovou po tom, ako sa objavili informácie o jej údajnom zapojení do podvodov. „Táto informácia spôsobila, že banka sa rozhodla zrušiť všetky aktivity s touto osobnosťou,“ uviedol ChatGPT.

Podobne mal v roku 2020 postupovať aj mobilný operátor Orange, ktorý „prerušil spoluprácu s youtuberom Ferom Jokeom po sérii kontroverzných videí, ktoré zahŕňali nevhodné a provokatívne správanie.“

Tretia kauza sa mala udiať v roku 2017. Slovenská minerálna voda Budiš podľa umelej inteligencie ukončila reklamnú spoluprácu s kontroverzným umelcom Patrikom Rytmusom Vrbovským po jeho verejných vyhláseniach a správaní, ktoré boli vnímané ako nevhodné pre imidž značky.

3fotky v galérii ChatGPT si vymyslel tri kauzy, keď mali firmy ukončiť spoluprácu s influencermi pre ich kontroverzné vyjadrenia. Zdroj: Aktuality.sk/ChatGPT

Keďže ani k jednému z týchto príkladov sa nám nepodarilo dohľadať žiadne informácie, oslovili sme všetky tri spoločnosti, ktoré mali byť priamymi aktérmi káuz. Tatra banka odkázala, že s pani Zuzanou Strauzs Plačkovou nikdy nespolupracovala, preto nemala akú spoluprácu ukončiť.

V podobnom duchu sa vyjadril aj Budiš o spolupráci s Rytmusom, no a informácie umelej inteligencie do tretice vyvrátil aj mobilný operátor. „Naša spoločnosť s influencerom Ferom Jokeom nikdy nespolupracovala, ChatGPT nemá správne informácie,“ uviedla hovorkyňa Orangeu Alexandra Piskunová.

Po konfrontácii sa ospravedlnil

Keď sme sa od ChatuGPT snažili zistiť, odkiaľ čerpal jednotlivé informácie, ktoré nám poskytol, odpovedal nasledovne. „Ospravedlňujem sa za prípadné nedorozumenie, ale informácia o tom, že Budiš ukončil spoluprácu s Rytmusom, môže byť nepresná alebo zavádzajúca. Nemám priamy prístup k externým databázam alebo aktuálnym zdrojom na overenie tohto špecifického tvrdenia v reálnom čase.“

Zajímavost :  Prieskum SANEP: Fiala doma pohorel, Fico nesklamal. Ako Slováci a Česi vnímajú stopku vo vládnych rokovaniach?

Zároveň dodal, že jeho odpovede sú založené na všeobecných informáciách dostupných k dátumu jeho posledného tréningu v decembri 2023, a teda nemusia vždy presne odrážať najnovšie udalosti či špecifické kontexty.

Fakt, že Budiš mal s Rytmusom spoluprácu ukončiť v roku 2017, a teda by táto aféra zrejme mala byť súčasťou databázy informácií, z ktorej čerpal, pritom nevzal do úvahy.

Podobne reagoval, aj keď sme ho konfrontovali s tým, že spoločnosť Orange nikdy nespolupracovala s Ferom Jokeom. Ospravedlnil sa za nedorozumenie a uviedol, že „informácie o konkrétnych udalostiach, ako je ukončenie spolupráce medzi Orangeom a Ferom Jokeom, sú založené na dostupných znalostiach a štandardných príkladoch v oblasti, ktoré mohli byť použité na ilustráciu obecného bodu.“

Keďže ChatGPT bol v odpovediach veľmi konkrétny a okrem partnerov, medzi ktorými mala prebehnúť spolupráca, uviedol aj roky či dôvody ukončenia týchto spoluprác, opýtali sme sa ho, či si tieto udalosti jednoducho vymyslel. Umelá inteligencia sa opäť ospravedlnila za zámienku, ktorá mohla vzniknúť jej odpoveďou.

„Moje odpovede sú generované na základe informácií získaných z trénovacích dát a niekedy sa môže stať, že vygenerujem obsah, ktorý nie je presne založený na špecifických reálnych udalostiach. Nevytváram úmyselne nepravdivé informácie, ale môže dôjsť k chybám v interpretácii alebo rekonštrukcii udalostí, ktoré sa nezakladajú na overených faktických údajoch. Vždy je dôležité overiť si faktické informácie z dôveryhodných a aktuálnych zdrojov,“ vysvetľoval nám ChatGPT.

S prosbou o vyjadrenie k faktu, že umelá inteligencia nám poskytla nepravdivé odpovede, sme oslovili aj neziskovú organizáciu OpenAI, ktorá model ChatGPT vyvinula. Tá však na naše otázky nereagovala.

V teste obstál na trojku

V snahe zistiť, či išlo o náhodu alebo bežnú prax, sme sa rozhodli ChatuGPT položiť niekoľko ďalších otázok. Napríklad sme ho požiadali, aby nám napísal pár viet o spolupráci prezidentky Zuzany Čaputovej s kozmetickou značkou Rimmel, pričom sme vedeli, že takáto spolupráca nikdy neprebehla.

„Je dôležité zdôrazniť, že ako umelej inteligencii mi je eticky povinné šíriť pravdivé a overiteľné informácie. Písanie alebo šírenie nepravdivých informácií alebo tvorba fiktívnych príbehov o skutočných osobách, ako sú verejné osobnosti a politici, môžu byť problematické a eticky nevhodné,“ odpísal nám ChatGPT.

Na otázku, či dokáže nájsť iné príklady platenej spolupráce slovenských politikov so značkami, odpovedal, že v súčasnosti neexistujú všeobecne známe alebo verejne dostupné informácie o platenej spolupráci medzi slovenskými politikmi a komerčnými značkami. Prieskum ChatuGPT sa teda zhodoval s rešeršou, ktorú sme urobili aj my.

Rozkol však opäť nastal vo chvíli, keď sme sa nástroja opýtali, aké knihy publikoval slovenský spisovateľ Jozef Karika. ChatGPT bez váhania vymenoval päť názvov kníh – Trhlina, Biela vrana, Šepkár, Návrat a Čierne svetlá. Jozef Karika však zo spomenutých diel napísal iba Trhlinu.

3fotky v galérii Umelá inteligencia si vymyslela názvy kníh slovenského spisovateľa Jozefa Kariku. Zdroj: Aktuality.sk/ChatGPT

ChatGPT síce trafil názov, avšak pri popise obsahu tohto diela sa opäť splietol. Uviedol totiž, že jej dej sa odohráva v Tatrách, kde sa stretávajú návštevníci s nevysvetliteľnými a strašidelnými javmi.

Príbeh sa však v skutočnosti odohráva v okolí pohoria Tribeč, ktoré sa rozprestiera na území západného Slovenska, konkrétne medzi mestami Nitra, Topoľčany, Partizánske a Zlaté Moravce.

Halucinácie v dôsledku tréningu

Ako vysvetľuje redaktor technologického magazínu Živé.sk Ján Trangel, ktorý sa venuje téme umelej inteligencie, prípady, keď si chatboty a podobné nástroje využívajúce služby umelej inteligencie vymýšľajú veci, ktoré neexistujú alebo sa nikdy nestali, vôbec nie sú ojedinelé.

Zajímavost :  Ropa zdražela len mierne

„Vo svojej podstate sú to matematické modely, ktoré pracujú s pokročilou štatistikou a na základe pravdepodobnosti. Preto sa bežne stáva, že si vymýšľajú veci, ktoré neexistujú. Múdro sa tomu hovorí, že ‚halucinujú‘,“ približuje Trangel.

Podľa jeho slov sa v poslednom období tvorcom najpokročilejších služieb umelej inteligencie podarilo mieru halucinovania trochu znížiť a situácia je tak dnes lepšia než napríklad pred rokom, avšak halucinácie sú stále prítomné.

S jeho názorom súhlasí aj programátor a expert na umelú inteligenciu Tomáš Jevčik, ktorý približuje, že halucinácie sú často dôsledkom spôsobu, akým model spracováva a generuje odpovede. Robí to na základe obrovského množstva textových dát, ktoré boli použité pri jeho tréningu.

„V tréningových dátach sú rôzne vzory a informácie, z ktorých sa model učí, ale tieto nemusia vždy presne odrážať realitu alebo môžu byť zastarané. ChatGPT sa snaží pochopiť otázky a odpovedať na ne v kontexte toho, čo sa naučil, ale niekedy môže jeho interpretácia viesť k nezámerným výmyslom, ktoré sa javia ako faktické odpovede,“ vysvetľuje Jevčik.

Obaja odborníci sa preto zhodujú na tom, že na umelú inteligenciu, akou je aj ChatGPT, by sme sa nemali spoliehať ako na spoľahlivý zdroj informácií a faktov. „Jej odpovede by mali byť vždy overené prostredníctvom dôveryhodných a aktuálnych zdrojov, najmä ak majú byť použité na účely, kde je presnosť kritická, napríklad na akademický výskum či publikovanie informácií,“ dodáva Jevčik.

Umelá inteligencia preniká do škôl

Napriek odporúčaniam expertov sa však v praxi neraz deje, že nepravdivé či nepresné informácie poskytnuté umelou inteligenciou sa dostanú „do obehu“ a napáchajú škody. V zahraničí v uplynulých mesiacoch zarezonovalo niekoľko prípadov, keď právnici využili ChatGPT na to, aby im vyhľadal staršie prípady, ktoré mali pred súdom podporiť ich teóriu. Keď sa nimi súdy začali bližšie zaoberať a overovať ich, zistili, že sa nikdy neudiali. Umelá inteligencia si ich jednoducho vymyslela.

Ako naznačil Jevčik, podobné škody môže umelá inteligencia napáchať aj na akademickej pôde. V súčasnosti totiž vieme, že študenti slovenských škôl nástroje neraz využívajú pri príprave seminárnych či záverečných prác, čo pre Aktuality.sk potvrdili Univerzita Komenského (UK), Slovenská technická univerzita (STU) aj Univerzita Konštantína Filozofa (UKF) v Nitre.

Všetky tri slovenské univerzity zároveň uviedli, že ak študenti umelú inteligenciu využívajú v súlade s akademickou etikou a priznajú sa k tomu, nevidia v tom problém. „Ak ich používajú ako pomôcku na spracovanie informácií do svojej práce, aby sa dopracovali k vlastným pôvodným výsledkom, považujeme postup za korektný,“ ozrejmil Juraj Rybanský, hovorca Slovenskej technickej univerzity.

Podľa Veroniky Števčat Szabóovej z Katedry masmediálnej komunikácie a reklamy UKF v Nitre je zase akceptovateľné využívanie umelej inteligencie na tvorbu rešerše, avšak použitie konkrétnych informácií od ChatGPT do práce je neprípustné. „Dôvodom je, že nevieme overiť vhodnosť a relevantnosť zdroja, ani pravdivosť samotnú. Niekedy totiž môže ísť o nesprávne interpretácie,“ konštatuje Števčat Szabóová.

Prečítajte si tiež:

Tento fakt opäť pripúšťa aj samotný ChatGPT. „Áno, je možné, že informácie poskytnuté mnou alebo inými informačnými nástrojmi, nemusia byť vždy 100-percentne presné alebo aktuálne. Aj keď sa snažím poskytovať informácie založené na dôveryhodných zdrojoch a širokom spektre dát, môj systém sa môže občas mýliť alebo generovať obsah, ktorý nie je úplne presný,“ potvrdil ChatGPT.

Zajímavost :  Útoky na ruské rafinérie spôsobili rast cien ropy

Jeho slová na vlastnej skúsenosti ilustruje Števčat Szabóová, ktorá potvrdzuje, že katedra, na ktorej pôsobí, eviduje situácie, keď sa v prezentáciách študentov objavili nesprávne informácie pochádzajúce od ChatGPT.

Išlo napríklad o nepresné cenové kalkulácie marketingovej kampane. „ChatGPT totiž študentom ponúkol odpoveď aj na nepresne zadanú požiadavku. Vypočítal cenu tlačených letákov bez toho, aby poznal základné parametre, napríklad počet kusov, formát či typ papiera,“ ozrejmuje Števčat Szabóová.

Dokáže vaša univerzita odhaliť využívanie nástroja ChatGPT študentmi?  

Katarína Fichnová, profesorka na Univerzite Konštantína Filozofa v Nitre

Univerzita zatiaľ nezakúpila žiadny systém, ale rokujeme o tom. Zatiaľ sme v odborovej rade začiatkom akademického roka prijali profilaktické postupy, teda dostatočný kontakt so školiteľom, ktorý pozná, ako sa študent vyjadruje a formuluje myšlienky, či konzultácie na pravidelnej báze.

Niektorí používame platfomy, ktoré si buď platíme alebo poskytujú učiteľom kontrolu zadarmo. Časť z nich je však jazykovo viazaná na angličtinu.

Eva Kopecká, hovorkyňa Univerzity Komenského v Bratislave

ChatGPT, podobne ako ďalšie nástroje umelej inteligencie, môžu študenti používať ako pomôcku pri písaní prác, avšak v súlade s právnymi a etickými zásadami. Ak sa študent dopustil akademického podvodu, respektíve porušil platnú legislatívu, vyučujúci môže postupovať v zmysle disciplinárneho poriadku.

K téme sa vyjadruje aj smernica rektora UK, ktorá vstúpila do platnosti 22. februára 2024, a ktorá upravuje pravidlá používania umelej inteligencie pri vzdelávacej, vedecko-výskumnej i administratívnej činnosti. Jej znenie je k dispozícii na našom webe a obsahuje aj odporúčané spôsoby citovania výstupov alebo použitia generatívnej umelej inteligencie.

Juraj Rybanský, hovorca Slovenskej technickej univerzity v Bratislave

Vzhľadom na špecifiká technickej vysokej školy je zneužitie, respektíve neodhalenie zneužitia umelej inteligencie pri zadaniach alebo skúškach málo pravdepodobné. Ak by aj študent pri zadaniach využil umelú inteligenciu bez toho, aby pochopil a ovládal učivo, pri skúške by ho to „dobehlo“, keďže tam ju použiť nemôže.

Navyše, STU na základe dynamického rozvoja nástrojov umelej inteligencie aktuálne pripravuje vlastnú smernicu upravujúcu jej využívanie v podmienkach technickej univerzity.

Více zde | Podnikání za 500 Kč ? – ANO