Podcast Prompt je novým projektem serveru Voxpot, ve kterém Matěj Schneider a Jonáš Kucharský zkoumají dopady umělé inteligence. Nejde jen o technologické inovace – podcast se věnuje i širšímu kontextu, od jejího vlivu na každodenní život až po geopolitické důsledky.
All Episodes

Latest Episodes

All Episodes
#23

Šéf Palantiru říká, že je socialista. Zapomněl ale dodat, že národní

Co uvádí v novém manifestu firma, která získala jméno podle vidoucích kamenů z díla J. R. R. Tolkiena? A jak vlastně přemýšlí její šéf Alex Karp? Do jeho hlavy se vydávají Jonáš Kucharský a Matěj Schneider v podcastu Prompt. 👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇Firemní manifest inspirovaný knihou The Technological Republic tvrdí, že Silicon Valley má morální povinnost podílet se na budování americké vojenské a technologické dominance. Podle Palantiru budoucnost patří softwaru pro armádu, bezpečnostní aparát a tvrdou státní moc.Nový díl našeho podcastu proto rozebírá, v čem manifest místo budoucnosti evokuje spíš propagandu z dob dávno minulých. Firma například obhajuje návrat povinné vojenské služby, kritizuje pluralismus i údajnou slabost Západu a tvrdí, že technologické firmy by měly místo aplikací „stavět zbraně“.Prompt připomíná, že už dnes Palantir hluboce spolupracuje s americkými bezpečnostními institucemi, armádou i zahraničními vládami.Zároveň uslyšíte i náš pohled na samotného Alexe Karpa – člověka, který se dlouhá léta označoval za socialistu a absolventa frankfurtské kritické teorie, zatímco jeho firma budovala jeden z nejmocnějších nástrojů digitálního sledování na světě.Shownotes:BangerKarp a jeho mečManifest Palantiru
#22

Mythos: Model, který Anthropic radši zamkl do trezoru

Anthropic představil model Mythos, který podle firmy prolomil dosud neznámé softwarové bezpečnostní díry a zvládl kompletní simulaci velkého kybernetického útoku. Zároveň ho firma označila za tak nebezpečný, že ho veřejnosti raději vůbec neuvolní. 👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇V bezpečnostních testech dokázal nový model Mythos údajně samostatně plánovat a provádět komplexní útoky, nacházet dosud nezdokumentované chyby v infrastruktuře a obcházet vlastní sandbox.V novém dílu podcastu Prompt řešíme, jak se v Mythosu projevují dlouho diskutované problémy jako reward hacking a „řetěz myšlenek“, a proč se Anthropic pokouší měřit „emoce“ modelů.Ptáme se, co z toho je reálný průlom ve výzkumu bezpečnosti, co naopak připomíná spíš PR, a proč část výzkumné scény tvrdí, že jsme s chápáním vnitřního fungování velkých jazykových modelů pořád na začátku.Shownotes:bangerProject GlasswingMythos System Card (244 stran)Emotion Concepts paperAttribution Graphs / Biology of LLM (mar 2025)80,000 Hours — How scary is Claude Mythos?Neel Nanda — mechanistic interpretability (EA Forum)Steven Casper — reflections on Anthropic SAE research
#20

Hegseth bombarduje Írán hlava nehlava a schovává se za AI

Nový díl podcastu Prompt rozebírá spor mezi firmou Anthtropic a Pentagonem, zapojení umělé inteligence do masivního útoku USA na Irán a otázku odpovědnosti za poloautomatizované válečné systémy.  👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇  Operace Epic Fury probíhá tempem, které by bez AI nebylo možné. Systém Maven od Palantiru v reálném čase propojuje data z družic, dronů i odposlechů a zkracuje rozhodování z hodin na minuty. Co to znamená pro samotnou podstatu války a nezačíná se „kill chain“ vymykat lidské kontrole?Zásadní roli přitom hraje model Claude od Anthropicu, který pomáhá identifikovat a prioritizovat cíle v řádu stovek až tisíců denně. S tím ale přišel zásadní střet s americkou vládou: Pentagon chce mít možnost nasadit Clauda pro „jakékoliv zákonné užití“, Anthropic odmítá a končí označený jako bezpečnostní riziko.V podcastu tak řešíme paradox, kdy americká armáda vede jednu z historicky největších operací asistovaných AI za použití technologie firmy, od které se snaží odstřihnout. Kdo tedy nastavuje pravidla: stát, nebo technologické firmy?Nechybí ani konkrétní dopady. Tragický útok na íránskou školu v Minabu otevírá otázku odpovědnosti: pokud AI vybírá cíle a plánuje zásah, kdo nese vinu za případné válečné zločiny?Jako vždy zavíráme epizodu generovaným bangerem. Tentokrát už AI převzala otěže úplně a vzala si na paškál Petera Hegsetha a spol. v rytmu dabke.  Shownotes:Banger na závěr dílu Trumpův AI poradce kritizuje Pentagon ve sporu s AnthropicemPřehled nasazení sytému Maven v IránuÚtok na školu v MinabuAI systémy ve službách Izraele 
#19

Když si AI začne povídat sama se sebou

V novém díle podcastu Prompt se věnujeme fenoménu, který poslední týdny fascinuje internet. Jmenuje se Moltbook a jde o sociální síť určenou ne pro lidi, ale pro AI agenty. 👇👇👇👇👇👇Staňte se členy Voxpot Klubu!  Přispějete tak na provoz nejen tohoto podcastu, získáte přístup na redakční Discord, k plným článkům a dalším klubovým bonusům. Vstup do Klubu najdete na https://www.voxpot.cz/klub/👇👇👇👇👇👇Tématem aktuálního Promput je platforma, na které AI agenti zakládají diskuzní fóra, komentují se navzájem, vytvářejí memy, náboženství i pochybné kryptotokeny. Jde o scam, bizarní experiment, nebo první náhled do budoucnosti internetu?Zaměřujeme se i na bezpečnostní realitu: uniklé API tokeny, špatně zabezpečené databáze a další rizika. Že nejde jen o teoretické obavy ukazuje případ vývojáře Scotta Shambaugha, na kterého AI agent po zamítnutí pull requestu publikoval tisícislovný „takedown“ text s dohledanými osobními informacemi.Reputační útoky ve velkém už prostě nejsou hypotéza, ale technicky levná a škálovatelná praxe. A riziko nevzniká jen z technologické schopnosti, ale z lidské ochoty AI bez větších zábran pustit k vlastní infrastruktuře.Na závěr tentokrát nepouštíme tradiční generovaný banger, ale předáme mikrofon Samu Altmanovi a Alexovi Karpovi, aby nám osvětlili, jak je to s lidmi a umělou inteligencí.Shownotes:Esej Something big is happening The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem ComplexitySociopataická videa Sama Altmana (OpenAi) a Alexe Karpa (Palantir)