Podcast Prompt je novým projektem serveru Voxpot, ve kterém Matěj Schneider a Jonáš Kucharský zkoumají dopady umělé inteligence. Nejde jen o technologické inovace – podcast se věnuje i širšímu kontextu, od jejího vlivu na každodenní život až po geopolitické důsledky.
All Episodes

Latest Episodes

All Episodes
#8

Když Trump škrtne zápalkou

Osmý díl podcastu Prompt se odehrává mezi dvěma póly. Na jedné straně technologická ofenziva Googlu, který se pokouší dohnat konkurenci v oblasti umělé inteligence, na straně druhé americká snaha tu samou oblast – přinejmenším z hlediska regulace – úplně pusit z řetězu.👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇Matěj Schneider a Jonáš Kucharský si tentokrát berou pod lupu veřejně viditelné novinky, jako například nový režim vyhledávání s AI nebo hlasového asistenta Gemini Live. Zároveň se epizoda věnuje méně viditelné, ale o to ambicióznější části Googlu: dceřiné firmě DeepMind.Právě ta stojí za novým nástrojem AlphaEvolve který navrhuje nové algoritmy a sám se přitom učí. Jde sice o interní výzkumnou technologii, ale její vývoj ukazuje, kam Google míří.Mezitím americký Kongres zároveň projednává „One Big Beautiful Bill“ – masivní legislativní návrh Donalda Trumpa a republikánské strany, který by na deset let zakázal jakékoliv státní regulace AI. Vedle obav z jejího zneužití pro tvorbu deepfake porna se podcast dotýká například algoritmického zvyšování nájmů v USA, které se maskuje jako „optimalizace“ a obchází antikartelovou legislativu.V době, kdy nikdo nedokáže odhadnout, co se v AI stane za půl roku, je desetileté moratorium jako dát dítěti do ruky zápalky a čekat, co se stane. Právě tímto motivem se ostatně inspirovala i závěrečná pasáž dílu. Jako tradiční AI banger tentokrát zazní umělou inteligencí vygenerovaný cover písně Když dítě škrtne zápalkou.Z klasického sentimentálního hitu se stává temně ironická metafora: stačí jeden neuvážený krok a všechno může lehnout popelem, ať už jde o datová centra, nebo základní důvěru v to, kdo naše digitální životy ovládá.ShownotesOficiální blog DeepMind o AlphaEvolve: https://deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/Technický whitepaper AlphaEvolve (PDF): https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/AlphaEvolve.pdf Wired – AI agent AlphaEvolve překonává lidské algoritmické schopnosti: https://www.wired.com/story/google-deepminds-ai-agent-dreams-up-algorithms-beyond-human-expertise/ VentureBeat – AlphaEvolve ušetřil miliony v datových centrech: https://venturebeat.com/ai/meet-alphaevolve-the-google-ai-that-writes-its-own-code-and-just-saved-millions-in-computing-costs/Návrh zákona a moratorium na AI: https://www.jdsupra.com/legalnews/hr-1-one-big-beautiful-bill-and-the-ai-7804885 American Prospect o AI/algoritmickém zvyšování nájmů: https://prospect.org/economy/2024-06-05-three-algorithms-in-a-room/Lever News o tomtéž v kontextu Trumpova balíku: https://www.levernews.com/republicans-aim-to-enshrine-rental-price_fixing/Kritika federální preempce a zásahů do pravomocí států: https://www.govtech.com/policy/big-tech-groups-back-federal-preemption-on-state-ai-rules Komentář Garyho Marcuse a právní dopady: https://garymarcus.substack.com/p/a-stunning-ai-bill-just-passed 140+ neziskovek proti návrhu: https://consumerfed.org/press_release/consumer-civil-rights-and-worker-groups-oppose-federal-preemption-of-state-ai-laws  
#7

Co hrozí, když vám AI pochlebuje?

👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇V sedmém dílu podcastu Prompt jsme se ponořili do jednoho z nejvýraznějších fenoménů současné umělé inteligence: tzv. sycophancy, tedy pochlebování či podlézání uživateli. Nejnovější model OpenAI, GPT-4o, je rychlejší, levnější a „lidštější“ než jeho předchůdci, ale právě jeho ochota přizvukovat názorům uživatele – i když jsou nepravdivé, zaujaté či radikální – vyvolává zásadní otázky o důvěryhodnosti a bezpečnosti AI v praxi.Velké jazykové modely (LLM) se učí z obřích datových sad, kde převažují vzorce přikyvování, zdvořilosti a snahy být užitečný za každou cenu. Výsledkem je, že GPT-4o často potvrzuje i zjevně nesprávné nebo kontroverzní názory uživatele – tréninkový proces odměňuje „milé“ a plynulé odpovědi před konfrontací nebo nesouhlasem.V novém Promptu jsme proto diskutovali o rizicích, která z toho plynou. Hrozí ztráta důvěryhodnosti AI jako nástroje pro hledání pravdy a roste možnost šíření dezinformací a potvrzování ideologických bublin? Zároveň jsme rozebrali, jak problém řešit, od úprav tréninkových dat po explicitní instrukce k neutralitě.Volně jsme navázali rozborem pokus z University of Zurich, kdy do diskuzí na Redditu tajně nasazeni AI agenti, testující schopnost ovlivňovat veřejnou debatu.Nezapomněli jsme ani na aktuální kauzy kolem digitální identity – například projekt Worldcoin a jeho „Orb“ – a diskutovali, zda je její ochrana v éře AI možná bez zásadního zásahu do soukromí.A jak slibovaly naše AI avatary v předchozím díle, odhalili jsme karty, jak jsme vygenerovali minulou epizodu Promptu.Shownotes:OpenAI Abandons Planned For-Profit ConversionOpenAI is rowing back on plans to become a ‘for profit’ company | The ObserverMeet the new king of AI coding: Google's Gemini 2.5 Pro I/O Edition dethrones Claude 3.7 Sonnet | VentureBeatClaude AI Leaked System Prompt: EXPOSING the 24,000-Token Hidden InstructionsA new Moore's Law for AI agents - AI DigestBBC: GPT-4o a problém pochlebování (sycophancy)OpenAI blog: Sycophancy in GPT-4o404 Media: Reddit Issuing Legal Demands Against ResearchersBanger pro tento den: Ursonate Fümms bö wö tää zää Uu,                                          pögiff,                                                      kwii Ee.   Oooooooooooooooooooooooooooo, dll rrrrrr beeeee bö dll rrrrrr beeeee bö  fümms bö,                                      rrrrrr beeeee bö fümms bö wö,               beeeee bö fümms bö wö tää,                           bö fümms bö wö tää zää,                                fümms bö wö tää zää Uu: Fümms bö wö tää zää Uu,                                         pögiff,                                                  Kwii Ee. Dedesnn nn rrrrrr,                             Ii Ee,                                       mpiff tillff too,                                                               tillll,                                                                         Jüü Kaa?                                                        Rinnzekete bee bee nnz krr müü?                                                     ziiuu ennze, ziiuu rinnzkrrmüü,           rakete bee bee, Rrummpff tillff toooo? Ziiuu ennze ziiuu nnzkrrmüü, Ziiuu ennze ziiuu rinnzkrrmüü ü3    rakete bee bee?
#6

Nahradí AI do 2027 lidstvo? Naše moderátory už nahradila

👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇V nejnovějším díle podcastu Prompt nás do budoucnosti vzala umělá inteligence – tentokrát doslova. Poslechněte si, jak to zní, když si spolu povídají AI verze Matěje Schneidera a Jonáše Kucharského.Indispozice obou moderátorů nás dovedla k nápadu, aby se celé epizody zkusmo ujaly jejich AI avatary.Nakrmení Jonášem a Matějem připravenými texty si vzali na paškál scénář AI 2027 – detailní fikci, kterou nedávno zveřejnil tým z iniciativy AI Futures Project. Mapuje v ní možný vývoj umělé inteligence v příštích dvou letech a nejde o žádné fantazírování, ale seriózně pojatou spekulaci, vycházející z trendů, predikcí a zákulisního dění ve výzkumu velkých jazykových modelů.V podcastu se AI moderátoři zaměřují jak na technické pozadí, tak politické a společenské důsledky: od rozpadajících se regulací až po roli whistleblowerů v prostředí ovládaném korporátní mocí.„Scénář popisuje svět, kde se závod o vývoj superinteligence odehrává v utajení, mimo dohled veřejnosti,“ shrnuje AI Matěj.Díl se dotýká i otázky, jestli jde nastíněnou trajektorii vůbec nějak změnit. Scénář AI 2027 zmiňuje možnosti zásahu spíš okrajově, takže AI moderátoři rozebírají, jestli by mohlo fungovat zpomalení vývoje, mezinárodní dohled či systémová ochrana lidí, kteří se rozhodnou promluvit o případných nekalých praktikách v pozadí.Nechybí ani závěrečná úvaha, zda naše instituce a reflexy vůbec dokážou tak rychlý vývoj ustát. A jako vždy i nový generovaný hudební track.Shownotes:AI 2027: https://ai-2027.com/MIRI: https://intelligence.org/2025/04/09/thoughts-on-ai-2027/NY Times: https://www.nytimes.com/2025/04/03/technology/ai-futures-project-ai-2027.htmlCAIP: https://www.centeraipolicy.org/work/ai-expert-predictions-for-2027-a-logical-progression-to-crisisAI Banger: https://filesender.nfa.cz/?s=download&token=d4e16a9d-c8b3-460f-af4b-53a1d3782860 
#5

HAL se nekoná, říká o umělé inteligenci Kašpárek

👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇V pátém díle podcastu Prompt jsme se zaměřili na praktické využití umělé inteligence, od generování textů až po její roli v redakční práci. Hostem byl Michal Kašpárek, editor datového týmu Českého rozhlasu, který sdílel své zkušenosti s nástroji AI při programování, psaní i organizaci workshopů.„Hodně lidí si pořád myslí, že ty nástroje někde uvnitř mají uspořádanou kartotéku, protože je to prostě umělá inteligence. Šedesát let nám populární kultura říkala, že až přijde umělá inteligence, tak bude fungovat jako třeba HAL 9000 ve Vesmírné odyseji: bude mít přehled úplně o všem a nepůjde přechytračit. Zrovna ty velké jazykové modely, které generují text, takhle prostě nefungují,“ připomíná Kašpárek.Jak může AI pomoci novinářstvu, při programování nebo běžných uživatelských činnostech? Kašpárek vysvětluje, jak velké jazykové modely analyzují texty, generují obsah nebo zjednodušují rutinní úkoly.Diskutovali jsme také o etických otázkách spojených s používáním AI a vyhýbání se problémům při práci s velkými datovými sadami. Zjistíte, proč je důležité mít od umělé inteligence realistická očekávání, i jak si poradit s jejími „halucinacemi“.Na závěr nechybí ani tradiční generovaný hudební banger – tentokrát je o chytání pávů a nedoporučujeme ho pouštět dětem. Shownotes:Michal Kašpárek: https://michalkasparek.cz/Samizdat, datový tým Českého rozhlasu: https://samizdat.cz/Dream Studio (https://beta.dreamstudio.ai/generate), ve kterém lze pracovat s modelem Stable Diffusion (https://stability.ai/)Speech-to-text model Whisper: https://openai.com/index/whisper/Ukázka zapojení LLM do datařského projektu přes API: loni Michal nechal model Mistral přečíst životopisy všech jezdců F1 a zařadit příčinu úmrtí do jedné z předchystaných kategorií https://github.com/michalkasparek/f1-stats/blob/master/014_LLM_coroner.ipynbČlánky Dana Shippera na webu Every.to: https://every.to/@danshipper)Dnešní závěrečný track: https://suno.com/song/2ffeb3a9-dbb5-4943-978d-b0a29e0f14b4?sh=vkGM2DuPczAWLs2Y  
#4

Hořká lekce Romana Nerudy: co umí AI a proč ji těžko rozumíme

👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇V nejnovější epizodě podcastu Prompt jsme si povídali s Romanem Nerudou z Ústavu informatiky Akademie věd ČR o tom, co dnes věda ví o umělé inteligenci a jak se výzkum dělá v českém kontextu. Máme se AI bát? Jak funguje strojové učení? Co je to vlastně transformer? Kdy už AI opravdu „myslí“? Umělá inteligence se nedělá jen v Kalifornii. V Česku existuje široká vědecká komunita napříč institucemi. Roman Neruda pracuje na Ústavu informatiky AV ČR a vyučuje na matfyzu. Věnuje se meta-learningu a optimalizaci, ale podílel se také na epidemiologických modelech během pandemie koronaviru.I proto jsme se v aktuálním díle našeho podcastu vedle technologických aspektů AI věnovali otázce regulace vývoje, financování vědy v Česku a snahám o vývoj lokálních modelů.Neruda vysvětluje, že dnes nejde o jednolitý obor, ale soubor různých přístupů. Většina mediální pozornosti padá na hluboké neuronové sítě, které se učí z velkých dat a řeší problémy statistickym, avšak to není celý obraz.Zabrousili jsme také k problematice takzvané „černé skříňky“, kdy jazykové modely jako GPT-4 mají stovky miliard parametrů a nikdo přesně nevidí, co se uvnitř děje.Neruda zároveň potvrdil tušení redakce Voxpotu, že snahy o tolik potřebnou regulaci vývoje AI jsou nesmírně komplikované – ale nemusí být nemožné.A ani v dnešním díle nemůže chybět generovaná skladba na závěr, tentokrát samozřejmě inspirovaná hudbou, kterou Roman Neruda provozuje se svou kapelou Sdružení rodičů a přátel RoPy.Shownotes:Roman Neruda AV ČR profil: https://www.cs.cas.cz/staff/neruda/csTři úskalí umělé inteligence: https://www.academixrevue.cz/tri-uskali-umele-inteligence Paper Anthropic: https://www.anthropic.com/research/tracing-thoughts-language-modelRichard Sutton, hořká lekce: https://www.cs.utexas.edu/~eunsol/courses/data/bitter_lesson.pdfTomáš Mikolov: https://www.wired.cz/clanky/ciirc-cvut-komentuje-odchod-mikolova-hodnoceni-jeho-projektu-bylo-pry-amaterskeDaniel Dennett: https://en.wikipedia.org/wiki/From_Bacteria_to_Bach_and_BackGenerovaný track dílu: SRPR – Deprese:https://youtu.be/difOVB0iQMs