Většina společnosti bude ovládána pomocí AI. Možná budou muset lidé, kteří se nechtějí nechat ovládat, odejít ze systému




Sdílet článek:

SU/LUDĚK NEZMAR

„Pokud zdigitalizuji celou společnost, tak tím spíš mohu celou společnost vypnout, a nebudu potřebovat jadernou zbraň na to, abych rozložil kompletně celý stát,“ upozornil v předchozím díle Luděk Nezmar. Mělo by nás možná znepokojovat, že sami tvůrci AI nejsou často schopni doložit, podle jakého klíče, jakých indicií se umělá inteligence rozhodla, to znamená, že postupně ztrácíme kontrolu nad technologiemi, které jsme sami vytvořili. Skoro to vypadá, že po létech přichází na řadu temné varování z filmové série Terminátor, že nás – lidstvo – vlastně nezničí vzpoura strojů, ale především naše vlastní lenost, tedy že je necháme rozhodovat za nás. Otázkou je, zda můžeme ještě zůstat pány své vlastní budoucnosti?

Martina: Česká společnost ComSource zveřejnila svou analýzu předpokládaných trendů v kybernetické bezpečnosti pro rok 2025, a mezi klíčové hrozby patří například zneužití umělé inteligence v kybernetické válce, zranitelnosti biometrického zabezpečení, útoky na chytrá zařízení, či na strategickou infrastrukturu, zejména ve zdravotnictví, ale i nové formy dezinformačních kampaní. Toto opravdu nevypadá jako klidnější svět. Možná chvíli pohodlnější, ale klidnější ne.

Luděk Nezmar: Ano, čím bude svět pohodlnější, tím méně bude klidu. To zcela jednoznačně. Bezpečnost není pohodlná. A lidé si na to zvykli, lidé strašně zpohodlněli, a to myslím, že je velký problém.

Martina: Abych to teď tak trošku sama ve svých očích vyvážila, tak ji musíme pochválit, protože o ní také přemýšlím jako o bytosti, a mám pocit, že už musí být smutňoučká, protože ji pomlouváme. Ale řekni mi, kromě mraků vznášejících se nad lidstvem kvůli umělé inteligenci, v čem bude mít nenahraditelné, pozitivní využití? Ať už v lékařství, diagnostika, vývoj nových léků? Co všecko nám může přinést?

Luděk Nezmar: Myslím, že jsi to teď krásně vyjmenovala. Třeba v lékařství umělá inteligence například dokáže lépe identifikovat karcinomy než nejzkušenější lékaři, protože umělá inteligence má rozpoznávání vzorů, a je fenomenální. To znamená, že dokáže identifikovat věci, které člověk přehlédne. Tak přesně na toto je úžasná věc. Stejně tak vývoj léků. Tam se blížíme době, kdy přijdou – nechci říct, že zázračné léky – ale léky, které budou schopny léčit doposud neléčitelné věci. A k tomu všemu je umělá inteligence nepostradatelná.

Martina: Ale tím se asi nebudeme blížit více pochopení zázračného stroje, kterým je naše tělo, ale k pochopení nových algoritmů AI.

Luděk Nezmar: To myslím, že je naopak ještě větší problém, protože čím dál tím častěji se stává, že AI je jakýsi black box, to znamená, že do něj dám nějakou informaci, třeba pomocí promptu, a na konci mi něco vypadne. A já bych teoreticky měl tento proces znát, algoritmus, a měl bych být schopen predikovat, co bude výsledkem. Ale čím dál tím častěji se stává, že sami tvůrci AI nejsou schopni doložit, podle čeho se umělá inteligence rozhodla tak, jak se rozhodla.

Martina: Protože přece každý člověk je originál, a léčit ruku virtuózní pianistce si žádá jiný přístup než ji léčit horníkovi na předku.

Luděk Nezmar: Ano, a tady hrozí další věc, to je ta předpojatost těchto dat. Umělá inteligence se učí z obrovského množství dat, to je důvod, proč všechny technologické společnosti chtějí data. A když umělou inteligenci naučím na datech horníků a zedníků, tak samozřejmě v momentu, kdy takhle naučenou umělou inteligenci použiji pro pianistku, tak to asi nedopadne úplně dobře.

Martina: Představa: Letí moucha, znečistí čip, a čip najednou udělá špatnou indikaci, třeba i chybnou diagnózu, a dá léky, na které má dotyčný člověk alergii. Kdo za to bude zodpovědný? Bude to nemocnice, bude to konkrétní ošetřující lékař? Moucha?

Luděk Nezmar: Já bych nejdřív řekl, že to nebude o samotném čipu, protože to bude o software, který je v čipu, to znamená, asi to nebude o situaci, že by to způsobila moucha, ale bezpochyby může dojít k tomu, kdy umělá inteligence rozhodne chybně. Z toho důvodu všechny regulace také říkají, že by na konci měl být člověk, který bude potvrzovat výsledky umělé inteligence. Jenomže Němci udělali studii, ze které vyplynulo, že lidé více důvěřují výsledkům stroje než třeba odborníkům v dané oblasti. A kromě toho, většinou se z toho pak stane rutina, takže když má člověk podepsat výsledek výstupu z umělé inteligence, tak to jenom podepisuje jako stroj, absolutně tomu důvěřuje, a vůbec neřeší relevantnost výsledků. Takže se obávám, že nás v této souvislosti čeká ještě celá řada sporů a problémů, protože to je zatím věc naprosto neřešená.

Největší nebezpečí není v samotné umělé inteligenci, ale v tom, jak s ní zacházíme – a naše pohodlnost

Martina: Úřad pro bezpečnost letecké dopravy v Americe vydal studii, ve které dokládá, že častou příčinou leteckých nehod je přílišné spoléhání pilotů na stroje. A to přesně potvrzuje to, o čem jsi mluvil před malou chvílí. Konkrétně v tomto případě by tedy asi došlo k defektu kapitána letadla.

Luděk Nezmar: Naprosto jednoznačně. To je přesně obrovské nebezpečí. A proč se na to piloti spoléhají? Protože je to pohodlné. A tam je největší nebezpečí. To znamená, největší nebezpečí není v samotné umělé inteligenci. Ale v tom, jak s ní zacházíme – a naše pohodlnost.

Martina: Já velmi často používám navigaci v autě, a uvědomuji si, jak se i tak špatná orientace zhoršuje stále více, a jak si čím dál tím méně vím rady nad mapou. Je to násobně horší.

Luděk Nezmar: Teď si představ situaci, že náš nepřítel nepoužije jadernou bombu, ale použije EMP bombu, to znamená něco, co vyřadí všechny technologické hračičky z provozu. Budou vůbec lidé schopni ještě normálně fungovat? Budou umět vzít do ruky mapu a buzolu a dostat se na konkrétní místo? A s rozvojem digitalizace tohoto bude přibývat. A tím pádem odolnost přístrojů, softwarů, je naprosto klíčová. A v této souvislosti je kybernetická bezpečnost nesmírně podstatný prvek, který je obrovským způsobem podceňován.

Martina: „Kybernetická bezpečnost“, budu si to pamatovat. A mluvil jsi o ztrátě kompetencí, dovedností. Co tedy může AI přinést, nebo možná spíš napáchat ve školství?

Luděk Nezmar: To je problém sám o sobě. Nemyslím si, že cestou je zakázat AI používat ve škole, protože děcka, studenti, si ji dřív, nebo později najdou, a udělají to tak, že to učitelé nepoznají, protože bohužel většina učitelů nejde tak rychle s dobou, a studenti jsou obvykle před nimi. Já si myslím, že by se na školách měla umělá inteligence učit, a také jak s ní pracovat, k čemu je vhodná. A na druhou stranu by se také měli učit na školách domácí práce, protože jedna z věcí, kterou se rozvíjí mozek, je jemná motorika. A pokud vím, tak na žádné škole už se šití, vaření a podobné věci neučí. Já jsem se je ještě učit musel.

Existují systémy AI schopné číst myšlenky, a zobrazovat, na co člověk myslí. U dosavadních zbraňových AI systémů byl na konci člověk, který rozhodl, zda někoho zabít. Nyní to je jen AI.

Martina: AI – o tom už jsme se také zmiňovali – bude mít obrovské využití ve vojenství, možná bych řekla i ve válečnictví, protože v následujících letech bude určitě dominovat zbraňovým systémům, letectvu, námořnictvu, pěchotě. Já jsem se dokonce dočetla o – pokud vím už dokončeném – projektu americké vojenské agentury pro výzkum pokročilých zbraňových systémů DARPA, která v rámci projektu BrainSTORSMS zkoumala, jestli nanočástice vpravené do mozku vojáků umožní bezdrátovou komunikaci mez mozky těchto vojáků, a vojenskými systémy. A to už jsme, myslím si, v Hollywoodu. Tohle už je Jason Bourne.

Luděk Nezmar: Ne, nejsme v Hollywoodu. Skutečně už existují systémy, které jsou schopny číst myšlenky, dokonce jsou schopny právě pomocí AI zobrazovat to, na co člověk myslí. To nejsme v Hollywoodu, to už je realita. To je to, co říkám, že celá řada lidí neví, jak daleko už to je. Obecně použití AI ve zbraňových systémech je něco, co už běží, ne že to přijde. A hezkým příkladem je Google, který s nastupující administrativou ze svého prohlášení o vývoji AI odebral informaci, že nebude vyvíjet AI, která by mohla být použita ve zbraňových systémech.

Martina: To tam není?

Luděk Nezmar: Nově to dal Google pryč, a na konkrétní dotaz zatím neodpověděl, ale naprosto logicky lze předpokládat, že to tak bude. A nejnebezpečnější na tom je to, že doteď byl člověk za spouští, kde to musel zmáčknout, to znamená, že rozhodl člověk. Nově rozhoduje umělá inteligence bez člověka. To znamená, že se jenom samotný stroj rozhodne, že někoho zabije.

Martina: Myslíš si, že – když to řeknu úplně lapidárně – spolu v budoucnu budou bojovat stroje, a ne lidé?

Luděk Nezmar: Bezpochyby k této situaci dojde tak jako tak, na tom pracují už velmi dlouho. Mimochodem, Číňané jsou se svými robotickými psy také velmi daleko, už jsou k dohledání záběry, kdy spolu bojuje autonomně řízený dron právě s tímto bojovým psem. Takže k této situaci bezpochyby dojde. Otázkou je, jestli to bude finální řešení, protože pro obsazení území musí na místo vždycky přijít pěchota, a samotné stroje – přinejmenším zatím – na to stačit nebudou. Ale kráčíme tímto směrem.

Martina: Přemýšlím o tom, že pokud se chystají takovéto druhy konfliktů, a bude se bojovat tímto způsobem a na těchto frontách, tak až nám za 12 let dodají F35, tak je možná budeme moct dát dětem na hřiště jako průlezky.

Luděk Nezmar: Rozhodnutí o F-35 považuji za nerozumné. Stačí se podívat na konflikt, který je na Ukrajině: Klíčovou zbraní jsou drony. Naprosto klíčovou zbraní.

Martina: A co teprve, až umělá inteligence dostane nového parťáka – kvantový počítač.

Luděk Nezmar: Kdo se dívá na technologický pokrok Číny, tak mohl vidět, jak oslavovali Nový rok. Tam jsou tisíce dronů, které jsou koordinovány v jeden moment, a na obloze dělají nádherné draky a světelnou show. A úplně stejně lze koordinovat bojové drony. Takže je jenom otázkou času, než budeme svědky reálného využití.

Martina: Ve kterých oborech, a ve kterých oblastech myslíš, že najdou kvantové počítače první využití?

Luděk Nezmar: Obecně ve všech. Ale první to samozřejmě bude farmacie, bude to klima, budou to vesmírné technologie – a vojenství. Ale tam už jsme. Tam už to bezpochyby běží.

Martina: A jak to vidíš v časovém horizontu?

Luděk Nezmar: Povídáme si o rocích, protože jestliže už máme kvantový čip, tak už jde spíš o to, jak to dát do produkce. Takže bych asi nemluvil o desetiletích.

Patnáctiminutová města velké části populace vadit nebudou, protože tito lidé jsou pohodlní. Ale pro druhou část budou vězením.

Martina: A když se tě třeba zeptám na projekty, které dlouhou dobu vypadaly jako příliš odvážný sen – mám na mysli chytrá města, patnáctiminutová města – myslím, že s umělou inteligencí, a s kvantovými počítači ve stavebnictví, to půjde prakticky samo?

Luděk Nezmar: Samo asi úplně ne, ale pokud se člověk podívá právě do Číny, jak tam některá města prošla neuvěřitelným rozvojem, takže tam myslím, že už je to vidět. A je to zase o pohodlnosti lidí, protože kdyby lidé nebyli ochotní patnáctiminutová města akceptovat, tak nebudou. Ale ono je to pro velkou část populace strašně pohodlné.

Martina: Ale pro značnou část populace je to regulérní vězení.

Luděk Nezmar: Ano, ale tamti lidi si to neuvědomují. Jim to nevadí.

Martina: Ale až už budeme platit jenom elektronickým eurem, a až už budeme mít doma autonomního agenta, který samozřejmě dohlíží jen na to, aby se nám nic nestalo, abychom nespadli ze schodů, a jenom při té příležitosti informuje o každém našem kroku, případně o každé naší myšlence, tak kde se pak schovají ti, kteří toto nebudou chtít žít?

Luděk Nezmar: To myslím, že je velmi správná otázka. Popravdě řečeno – já nevím. Já sám mám třeba slepice, mám včely, protože si uvědomuji, že dřív nebo později nastane situace, kdy v nějaké podobě dojde ke kolapsu digitalizace. Podívejme se vedle na Slovensko. Oni jim hackli jenom katastrální úřad, a už x desítek dní tam nikdo není schopen prodat, nebo zdědit dům, jakákoliv operace s nemovitostmi není možná, a paralyzovali v podstatě nějakou část odvětví. A momentem, kdy toho spadne ještě víc, tak stát vydrží v klidu – řekněme – pět dní, ale šestý den už někteří začnou brát do ruky kameny a klacky.

Martina: Vzpomeňme si, co v létě udělal s leteckou dopravou jeden problém s aktualizací – a Amerika nelétala.

Luděk Nezmar: Přesně tak. A zase jsme u kybernetické bezpečnosti, a u bezhlavé, a velmi nákladné digitalizace.

Martina: Protože my se tady těmito kroky děláme čím dál tím křehčími, čím dál tím zranitelnějšími, čím dál tím nesamostatnějšími, a ztrácíme jakoukoliv osobní i rodinnou resilienci. A to do doby, než někdo to patnáctiminutové smart city vyndá ze zásuvky. Jak jsme připraveni na to, aby tento systém, který bude velmi křehký, aby byl hlídaný a bezpečný?

Luděk Nezmar: Obrovský problém je v tom, jak je teď nastavena společnost, protože všichni chtějí všechno strašně rychle, a za co nejméně peněz. A jedna z věcí, která bývá velmi často opomíjena, je právě bezpečnostní otázka. Bylo to hezky vidět na stavebním řízení na Slovensku, které teď spadlo. To znamená, že se velmi často v projektech, kterých se týká digitalizace, zanedbává právě bezpečnost, která by měla zvyšovat odolnost, resilienci. Řekněme, že teď by nová směrnice Evropské unie NIS2, a s tím související Zákon o kybernetické bezpečnosti by měly napomoct. Nicméně je samozřejmě snaha spoustu věcí zase trošku ošvejkovat, obejít. Bezpečnost je nákladná, a nepřináší peníze, takže pro celou řadu firem je fajn, když některé věci, které by jim komplikovaly výdělek, zmizí. Ale pro nás pro všechny je to problém.

Martina: Ale pořád z naší vlády slyšíme proklamace, že jsme v hybridní válce, že jsme ovlivňováni ve svých názorech nejrůznějšími fejky a že pak špatně volíme. Tak by přeci logicky mělo být účelem a povinností takovéto vlády dohlížet na kyberbezpečnost, aby se nám tedy do hlavy nedostávaly špatné zprávy.

Luděk Nezmar: Bezpochyby, pokud budeme používat pojem „hybridní válka“, tak v ní jsme. Ale nesouhlasím s tím, že by byla tato hybridní válka vedena jedním směrem, který je nám prezentován. Stačí se podívat do Rumunska, kde přesně k takové situaci došlo, a v závěru se ukázalo, že to nebyl nepřítel, ale ten spojenec, který to tam ovlivňoval. Takže důraz na bezpečnost a odolnost je věc, která je nezbytná, zatím přehlížená, a považuji to samozřejmě za chybu vlády.

Velká část populace se oddá nadužívání sociálních sítí a AI, což snižuje lidskou inteligenci. Takže se mezi lidmi velmi rozevřou nůžky, a část bude degenerovat.

Martina: Zákon o kybernetické bezpečnosti se zpožďuje více než rok. Proč?

Luděk Nezmar: Zákon o kybernetické bezpečnosti měl být přijat nejpozději 17. 10. 24. Jedním z hlavních problémů byla nedohoda na dodavatelském řetězci.

Martina: Asi to bude dobrý business.

Luděk Nezmar: Jako vždycky – za vším hledej peníze. Ale je tam snaha odstavit čínské technologie, ale celá řada našich operátorů je postavena na čínských technologiích Huawei, ZTE, a podobně. My jsme přistoupili na hru, že všechny technologie z Ameriky jsou bezpečné, a čínské jsou nebezpečné, a to je jeden z hlavních důvodů tohoto zpoždění. Třeba na Slovensku je od 1. 1. 25 zákon implementován a běží, ale u nás to vypadá tak, že jestli všechno půjde luxusně, tak bychom zákon mohli přijmout k 1. červenci. Ale hlasy z Poslanecké sněmovny hovoří o tom, že to spíš vypadá na 1. 1. 26, takže Česká republika zase, řekl bych, v jedné z klíčových věcí selhala.

Martina: To znamená, že je tady v oblasti kybernetické bezpečnosti naprostá – použiji to slovo, pardon – cochcárna? Každý si to dělá po svém?

Luděk Nezmar: Ne, úplně tak to není, protože existuje předchozí zákon o kybernetické bezpečnosti. Nicméně, když se člověk podívá do praxe, tak zjistí – nechci říct, že to je cochcárna – že celá řada těchto věcí je zanedbávána, protože pokuta, která hrozila, když nebude mít firma zavedenou kybernetickou bezpečnost, byla stále menší než investice třeba do kybernetické bezpečnosti. Takže v současné době na tom nijak zvlášť dobře nejsme. Nový zákon pravidla významně zpřísňuje, takže by mělo dojít k lepšímu zabezpečení Ale opět, právo je za technologiemi zpožděno, takže i když tento zákon konečně přijmeme, tak už tyto technologie budou zase o dva roky dál, takže budeme moct rovnou začít pracovat na novém.

Martina: Luďku Nezmare, teď jsi to řekl, že potřebujeme nutně nový zákon, protože právo opravdu nereaguje na technologie, které se rozvíjejí obrovskou rychlostí a silou. Když připustíme, že budeme mít nový zákon ať už v létě, nebo až příští zimu, tak čeho všeho si tento nový zákon všímá především? Co především opravuje, upravuje? Je dobrý?

Luděk Nezmar: Myslím, že dobrý je. Patří rozhodně k tomu lepšímu, co naši legislativci přijali, a reaguje na nejpodstatnější věci. Otázkou je, jestli NÚKIB, který zodpovídá za následnou kontrolu, bude schopen firmy a organizace donutit k tomu, aby kybernetickou bezpečnost respektovaly, a tyto věci dělaly tak, jak je dělat mají. A tam mám jisté pochybnosti.

Martina: Už dnes jsou známy výsledky výzkumů prostřednictvím nejrůznějších zobrazovacích technik, že nadužívání sociálních sítí, potažmo umělé inteligence snižuje lidskou inteligenci. Obáváš se toho, že se staneme jakýmisi degenerovanými vzpomínkami na bývalého člověka? Říkám to trošku vášnivě, ale: Hrozí, že se skutečně oddáme technologickému otroctví s takovou vervou, že nás to změní?

Luděk Nezmar: Já si myslím, že se tady mezi lidmi velmi rozevřou nůžky, protože bezpochyby bude část populace, která se tomu zcela oddá a poddá, a bude u nich postupovat degenerace. Ale pak bude druhá část populace, která si uvědomuje všechny souvislosti, a bude reagovat jinak. To znamená, že tady bude docházet k diverzifikaci a že sociální stratifikace, a všechny věci související s populací, se budou zesložiťovat, protože se bude měnit struktura společnosti.

Blížíme se k situaci, kdy většina společnosti bude ovládána pomocí AI technologií. Může se stát, že lidé budou muset jít mimo systém, neběžet s davem, pokud se nebudou chtít nechat ovládat.

Martina: Ale ve všech vizích takovéto společnosti je markantní, že pokud nejsi součástí systému, tak nestojíš mimo systém – ale jsi nepřítelem systému.

Luděk Nezmar: To už jsme u prepperů a být připraven na situaci. To ano, to samozřejmě souhlasím. A klidně se může stát, že člověk bude muset jít do toho…

Martina: Demolition Man – kanály?

Luděk Nezmar: Já jsem hledal to správné slovo – v podstatě mimo systém, do temna, do schování se do své ulity, kdy nepoběží s davem.

Martina: A umíš si představit, že to dopadne dobře? Tedy že se člověk nenechá umělou inteligencí poučovat, a posléze převálcovat?

Luděk Nezmar: Strašně moc záleží na tom, jestli to společnost dopustí. A největší strach mám z toho, co bylo vidět v posledních letech při covidu. Vždyť během covidu jsme jako společnost dopustili věci, které jsou neuvěřitelné. Takže já mám strach, že se spíš budeme blížit situaci, kdy bude snaha pomocí technologií ovládnout většinu společnosti.

Martina: Ty jsi tady zmiňoval armádu lidí, kteří budou mít, řekněme, nepodmíněný příjem, protože pro ně nebude jiné využití, a těžko říct, jestli si konečně najdou čas, aby si dělník ve šroubárně přečetl Ovidia v originále. Proto se ptám tak trošku naivně: Nemyslíš si, že bychom se mnohem víc měli věnovat neprozkoumanému počítači, který máme v našem těle, v naší hlavě? Pokusit se ho vylepšovat, pokusit se ho pochopit, pokusit se mu porozumět, a možná tak mnohem více zkvalitnit lidství?

Luděk Nezmar: Celý klíč je ve vzdělání. Celý klíč je ve výchově. A tam já tedy vidím, že jsme jakožto celá západní společnost zaspali, protože pokud se člověk podívá, jakým způsobem fungují malé děti v čínské mateřské školce, tak tam jsme úplně někde jinde. Já jsem skutečně nabyl dojmu, že Čína nás předběhla minimálně o dvacet let a že dopad na naši nejmladší generaci v podobě digitalizace bude fatální.

Martina: Zmínil jsi, jak fungují děti v čínské mateřské školce. Jak fungují?

Luděk Nezmar: Vedou je k zodpovědnosti. Každý den běhají, skáčou, ale smysluplně, to znamená, není to jenom o tom, že je vezmu na procházku, ale oni je trénují k odolnosti, právě k resilienci. Tato děcka si tam sama vaří. Já bych chtěl tady u nás vidět, které z dětí okolo čtyř, pěti let, je schopno jít a uvařit si jídlo. Myslím, že jich je minimum.

Martina: Myslím, že jenom vietnamské děti.

Luděk Nezmar: Samozřejmě, oni už díky Konfuciovi mají k životu jiný přístup. Ale obávám se, že teprve teď se projeví, že čínská civilizace je tři tisíce let stará a že to, že západní civilizace byla dvě stě let vepředu, byl spíše omyl, a že se to opět začíná vracet k dominanci Číny.

Martina: Byla to historická etapa. Ale v sedmnáctém století byli světovými lídry Čína a Indie.

Luděk Nezmar: Ano.

Martina: Tys řekl, že všechno záleží na vzdělání. A my jsme se školství s AI trochu dotkli. Myslíš si, že v sobě máme odolnost nepodřídit školství právě jí? Protože s ní to bude rychlejší, produktivnější, a vytratí se z toho možná kritické myšlení, vytratí se z toho dril, vytratí se z toho trénování paměti, vytratí se z toho recitace, protože si přece všecko dohledáš. Vytratí se z toho slovo, vytratí se z toho práce s hlasem, vytratí se práce s barvou hlasu, s intenzitou, s laskavostí v hlase. A toho je mnoho.

Luděk Nezmar: Já chci věci dělat důsledně, takže pokud bych měl hovořit o školství, tak jsem udělal to, že jsem si nejenom vystudoval pedagogické minimum, ale já jsem na rok šel učit ICT, tedy počítače, abych věděl, o čem mluvím. A můžu tedy za sebe říct, že pro mě bylo šokující zjištění, v jakém stavu české školství je. Myslím, že tam je potřeba začít úplně od základu, rozkopat současný stav a postavit to celé znovu.

Martina: Budu ráda, až tady bude jednou sedět někdo, kdo řekne: „Je to potřeba rozkopat“, a řekne mi, jak to postavit.

Luděk Nezmar: Tomu rozumím. A to by byla jedna z věcí, kde by AI mohla pomoct.

Martina: Tak uvidíme, kterým směrem. Luďku Nezmare, já ti moc děkuji za to, že jsi nás, myslím si, velmi informoval, velmi poučil a velmi vyděsil. Díky za to.

Luděk Nezmar: Já mockrát děkuji za pozvání. A půjčím si slova člověka, Aleše Špidlu, který v kybernetické bezpečnosti léta pracoval léta, a vždycky říkal: „Vystrašit a vyfakturovat“. A dneska jsme jenom strašili. Děkuji pěkně.

Martina: Já jsem myslela, že to platí pro zdravotnictví. Děkuji.

Luděk Nezmar

Velmi špatnéŠpatnéPrůměrnéDobréVelmi dobré (6 votes, average: 5,00 out of 5)
Loading...

>> Podpora

Svobodný svět nabízí všechny články zdarma. Náš provoz se však neobejde bez nezbytné finanční podpory na provoz. Pokud se Vám Svobodný svět líbí, budeme vděčni za Vaši pravidelnou pomoc. Děkujeme!

Číslo účtu: 4221012329 / 0800

 

>> Pravidla diskuze

Než začnete komentovat článek, přečtěte si prosím pravidla diskuze.

>> Jak poslat článek?

Chcete-li také přispět svým článkem, zašlete jej na e-mail: redakce (zavináč) svobodny-svet.cz. Pravidla jsou uvedena zde.

Sdílet článek:

Buďte první kdo přidá komentář

Napište komentář

Vaše e-mailová adresa nebude zveřejněna.


*