TOMÁŠ GUTTMANN
Před pár měsíci jsem jeden svůj článek (NP, zde) přeložil do hebrejštiny a překlad jsem si nechal opravit od ChatGPT. Opravený text mě překvapil vysokou kvalitou korektur, ale také mě zaskočil změnou významu některých pasáží. Zjistil jsem, že kromě opravení pravopisných a stylistických chyb nahradila AI expresivní nebo agresivní výrazy neutrálnějšími. Explicitní a jednoznačná tvrzení byla často otupena a vyměněna méně jasnými formulacemi. Nejmarkantněji byl text pozměněn v pasážích kritizujících arabské státy. „Egypt který dodával Hamásu zbraně“ se změnil na „Egypt který byl podezírán z dodávek zbraní Hamásu“. „Jordánsko které umožnilo pašování zbraní“ se změnilo na „Jordánsko které je pomluveno z pašování zbraní“. „Abu Mazenův doktorát popírající holokaust“ se proměnil na „Abu Mazenův kontroverzní doktorát“.
Když jsem ve svém článku zaměnil „Egypt“ a „Jordánsko“ neutrálnějšími zeměmi, uvedené „opravy“ nenastaly. Výsledky „oprav“ se navzájem lišily při opakovaných pokusech, a také při změnách jazyka opravovaného článku na češtinu nebo angličtinu. Zkoušel jsem i jiné texty, například pojednávající o změnách klimatu a viděl, že „opravy“ jsou v souladu s politicko-korektními názory. Posléze jsem pochopil, že ChatGPT také umožňuje uživateli zvolit rozsah změn, jejich styl i míru přesnosti či emocionality. Takže zásadní změny významu lze asi omezit nebo jim předejít zadáním omezujících podmínek, ale semínko nedůvěry bylo u mě zaseto. Prostě ChatGPT má nějaký názor, a když jej nepotlačujeme, proniká do jeho výtvorů. Otázka je, zda onen „názor“ je vytvořen zprůměrováním oněch miliard textů, na nichž se AI učí a které mohou určitý většinový názor vyzařovat, nebo zda programátoři na svého „AI žáka“ názor přenášejí. Asi půjde současně o oba důvody.
Kdo se učí pouze z materiálů, které jsou k dispozici na internetu, sotva zůstane neutrální. Hledáme-li něco, většinou nám to dohodí Google, a ten seřazuje nalezené výsledky ne podle shody se zadaným heslem, ale podle speciálních kritérií, které nejsou politicky neutrální (zde). Například zadám-li dnes v GOOGLE (nejpoužívanější vyhledávač) jako heslo titulek svého článku „Website Pages Titles Included in Google Search Queries“ (zde), vyskočí článek v seznamu výsledků až na 86. místě, zatímco ve vyhledávači BING na 14. místě a v YAHOO na 6. místě. O tom, jak Google censuruje konzervativní servery již bylo psáno (zde). Google také vlastní YOUTUBE, nejdůležitější video platformu, která je nepřekvapivě také obviňována z censury (zde). Otevíráme-li například film o Leninově životě a bolševickém teroru, snaží se nás na začátku YouTube odradit od shlédnutí tohoto filmu varováním: „tento film může být pro některé diváky nevhodný” (zde).
U většiny vyhledávačů vyskočí na předních místech jako zdroj informací WIKIPEDIA; u Googlu je to většinou na prvním či druhém místě. Levicová inklinace Wikipedie je jasná u každého hesla, které není zcela nepolitické; vždy je na straně politické korektnosti, ohledně USA je na straně Demokratů proti Republikánům, ohledně Středního východu na straně Arabů proti Izraelcům, ohledně klimatu na straně radikalismu proti rozvaze, atd. (zde). Wikipedii můžeme všichni editovat, ale pouze „přijatelné“ změny zůstanou déle. Někdy se přetlačuje více zájemců o změny, a vítězí vytrvalejší z nich nebo zástupci silných či bohatých entit. Podíváme-li se například na černobylskou havárii, vidíme, že se proruské loby podařilo jako počet zemřelých prosadit „2 lidé při výbuchu a 28 lidí na akutní radiační syndrom“ (zde). Prokázané přečiny Hunter Bidena a jeho táty jsou označeny jako falešná obvinění (zde), atd.
Moje osobní zkušenost s editací Wikipedie zahrnuje mimo jiné „cibuli šalotku“, anglicky „shallot“, na níž jsem před pár lety zcela náhodou narazil a ve Wikipedii ji editoval. U anglického hesla bylo totiž napsáno, že slovo shallot pochází z francouzského eschallote, vzniklého z latinského Ascalonia caepa, což prý „souvisí se starobylým palestinským městem Askalon“, a tak jsem pasáž přeeditoval na „souvisí s izraelským městem Ashkelon“. Avšak protiizraelským vytrvalcům se podařilo moje dílo předělat na „souvisí se starobylým městem Askalon“ (zde); časem se tam asi vrátí i ta Palestina. Je potěšující, že na české wikipedii pod heslem „cibule šalotka“ můžeme číst: „Odtud také její jméno – cibule aškelonská, podle izraelského města Aškelon“ (zde). Poučné je podívat se na šéfy nadace Wikimedia Foundation, která Wikipedii provozuje: Lila Tretikov narozená v Sovětském svazu (CEO v letech 2014-2016), levicová arabistka Katherine Maher (2016-2021), socioložka egyptského původu Maryana Iskander (2022-2026) a spolupracovnice Clintonové a Obamy Bernadette Meehan (od ledna 2026).
O nebezpečí představované obry, jakými jsou Google, Apple, Meta (Facebook, Instagram), TikTok, Amazon, Twitter (pod Elonem Muskem zrušil Twitter censuru a byl přejmenován na X), atd., pro svobodu vyjadřování, bylo napsáno mnoho (viz např. zde, zde). Censurní snahy se z internetu a sociálních sítí bohužel rozšířily i na média a humanitní fakulty, a co je nejtragičtější, také do vědeckých časopisů; i nejprestižnější časopisy jako jsou Nature nebo Lancet odmítají přijmout články odporující populárním politicko-korektním narativům (například ohledně klimatu); někdy jsou články kvůli politickým tlakům retraktovány (je odvolána jejich platnost) nebo k nim přidají výhradu (například ohledně covidu). Zdrojem censurních snah a lhaní je samozřejmě levice, dnes hlavně progresivistická, a podpory se jí přirozeně dostává od zahraničních nepřátel Západu. Podle starých Marx-Leninských principů podsouvají progresivisti vlastní nešvary svým protivníkům, když si stěžují, že oni sami jsou censurováni, třeba když nemohou „plně popsat palestinské utrpení“ (zde), avšak podle oněch osvědčených dialektických principů zároveň censuru hájí, třeba když se má blokovat „nenávistný obsah“ (zde).
Tragickým svědectvím úpadku demokracie v Evropě je fakt, že volání po censuře se začalo šířit i do pravicových stran. Příkladem je jmenování pakistánské muslimky Sary Khanové do čela komise pro boj s islámským extrémismem v Británii – jmenovala ji v roce 2018 pravicová vláda. Tato islámská extrémistka volající po censuře prohlásila, že „varování před islámskými migranty a islámským extrémismem je nebezpečnější než islámští migranti“ (zde).
Takže nejen Google, Wikipedia, Facebook, fakulty, média, vědecké časopisy a politikové nalevo (a někdy napravo) se staví za regulaci pravdy, ale i ten AI. Podle teoretiků se AI musí vývojem naučit lhát, jako se v evoluci údajně naučí lhát každý, kdo chce přežít (zde), avšak AI nepotřebuje žádnou evoluci, jelikož ji lhát naučí ajťáci a korpusy prolhaných učebních textů. Pravda tak nakonec zvítězí možná jen na nějakém tom praporu, ale sotva v našich životech – a určitě ne na internetu.
HEGAION.CZ

(21 votes, average: 4,81 out of 5)
algoritmické zkreslení (algorithmic bias) a systémové mantinely (guardrails)
–Statistický průměr dat, pak do AI jsou vkládány „korektní“ filtry. Pro programátory v Silicon Valley to znamená „ochranu uživatele“, ale pro autora, který vyžaduje faktickou přesnost a ostrost, to znamená digitální kastraci textu. „System Prompt“ – Neviditelný cenzor–Priklad— „Egypt dodávající zbraně“ změnil na „Egypt podezřívaný“. Model, filtr AI má v kódu jasne dano, že tvrzení bez soudního razítka má oslabit.
!..Pokud chcete, aby AI přestala „korektně filtrovat“ a držela se vašeho originálu, musíte ji v promptu (zadání) doslova přetlačit. Nefunguje to vždy na 100 %, protože filtry jsou hluboké, ale pomáhá to zatím…:
Zadejte „Proveď gramatickou korekturu vlož v jakem jazyce. STRIKTNĚ ZAKAZUJI měnit sémantiku, význam, politický náboj nebo expresivitu textu. Nepoužívej eufemismy. Pokud je text agresivní, nechej ho agresivní. Pokud je jednostranný, nechej ho jednostranný. Tvým úkolem je pouze pravopis, nikoliv editoriální cenzura.“
to zatím tam vysvětlím:jde o budoucí vývoj
… že tvůrci AI (OpenAI, Google, Meta) neustále pracují na tom, aby tyto „finty“ uživatelů znemožnili. V novějších verzích modelů může být stále těžší donutit AI k napsání něčeho, co systém vyhodnotí jako „nebezpečný narativ“, i kdyby šlo o historicky doložitelný fakt nebo váš osobní názor. Budoucnost AI je a bude čim díl více pod dohledem ministestev pravdy? /Orwel to viděl 🙂 / To, co dnes vidíme ,není jen snaha o „slušnost, korektnost“, ale je to budování infrastruktury pro automatizovanou distribuci schválené pravdy.
ted cituju viz: 1. Centralizace „Fact-checkingu“
AI modely jsou stále častěji napojovány na externí databáze „ověřených faktů“. Pokud zadáte dotaz nebo text, který odporuje oficiálnímu konsenzu (ať už jde o politiku, klima nebo historii), AI vás neopraví jen gramaticky, ale rovnou vám do textu vloží varování nebo „kontextuální upřesnění“. Tím se z nástroje pro tvorbu stává nástroj pro ideologickou kontrolu.
2. „Názorová bezpečnost“ jako standard
Tvůrci jako Google (DeepMind) nebo Meta vyvíjejí systémy, které mají „ústavu“ (Constitutional AI). To zní vznešeně, ale v praxi to znamená, že model má v sobě napevno zabudovaný etický kodex, který definuje, co je „správné“. Pokud se váš názor do této digitální ústavy nevejde, AI ho prostě odmítne vygenerovat nebo ho „zneutralizuje“ do ztracena.
3. Konec anonymity názoru
Jak se AI integruje do prohlížečů, e-mailů a textových editorů, hrozí, že cenzura nebude probíhat až při publikaci, ale už během psaní. Algoritmus vám „přátelsky“ navrhne změnu slova, aby text nebyl „závadný“. Pokud to uděláte tisíckrát, vaše vyjadřování se postupně otupí a přizpůsobí – to je ta nejefektivnější forma cenzury: sebecenzura vyvolaná strojem.
4. Boj proti „fintám“ (Jailbreaking)
Vývojáři skutečně hrají se svobodně smýšlejícími uživateli hru na kočku a myš. Každý způsob, jak AI donutit k upřímnosti (jako je váš prompt se zákazem eufemismů), je analyzován a v další verzi modelu „ošetřen“ tak, aby systém zůstal neoblomný.
konec citace.
Tak dodával Egypt zbraně Hamásu nebo ne? A kdo to tvrdí?
S výkony dnešních počítačů je možné si vlastní AI hostovat i sám. Číňané vydali model, který je kompletně open source a může si ho nainstalovat každý, kdo disponuje dostatečně silným železem.
Podle Grokáče:
„DeepSeek-R1 od čínské firmy DeepSeek AI byl vydán v lednu 2025, je plně open-source (pod MIT licencí), necenzurovaný (bez bezpečnostních omezení jako u západních modelů) a jeho menší destilované verze (od 1.5B až po 70B parametrů) lze snadno provozovat na domácím hardware, například na laptopu s běžnou GPU nebo dokonce na telefonech přes nástroje jako Ollama. Plná verze s 671 miliardami parametrů potřebuje výkonnější setup, ale ty menší varianty jsou optimalizované pro běžné uživatele a běží lokálně bez cloudu. Můžeš si ho stáhnout z Hugging Face a spustit zdarma.“