<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web01.fireside.fm</fireside:hostname>
    <fireside:genDate>Tue, 14 Apr 2026 16:55:00 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Iwo Zmyślony”</title>
    <link>https://mitpolska.fireside.fm/tags/iwo%20zmy%C5%9Blony</link>
    <pubDate>Wed, 12 Nov 2025 17:00:00 +0100</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: #14 Kicz technologiczny – co nam się wmawia o AI?</title>
  <link>https://mitpolska.fireside.fm/co-nam-sie-wmawia-o-ai</link>
  <guid isPermaLink="false">70f1e8b4-3eed-40a2-a6d5-109db365963c</guid>
  <pubDate>Wed, 12 Nov 2025 17:00:00 +0100</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/70f1e8b4-3eed-40a2-a6d5-109db365963c.mp3" length="104209105" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Co nam się wmawia o AI? Jakie narracje słyszymy i co one z nami robią? Jakie wywołują skutki? Jakie kształtują w nas wyobrażenia, oczekiwania, emocje, obawy i pragnienia? Do jakich zachowań nas mobilizują? Które z tych zachowań są dla nas ryzykowne? A kto na nich wymiernie korzysta? Które z najbardziej zasięgowych opowieści mogą być dla nas źródłem rzetelnej, popartej naukowo wiedzy? Które z nich to tylko rozrywka, niewinne spekulacje, akademickie rozważania, a które to wyrachowany marketing służący interesom dostawców tych technologii oraz ich inwestorów?</itunes:subtitle>
  <itunes:duration>1:48:27</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/7/70f1e8b4-3eed-40a2-a6d5-109db365963c/cover.jpg?v=1"/>
  <description>W 14 odcinku "Limitów AI" rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.
Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz? Special Guests: Edyta Sadowska and Kasia Zaniewska.
</description>
  <itunes:keywords>AI, dezinformacja, kicz, technologie</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W 14 odcinku &quot;Limitów AI&quot; rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.</p>

<p>Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz?</p><p>Special Guests: Edyta Sadowska and Kasia Zaniewska.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W 14 odcinku &quot;Limitów AI&quot; rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.</p>

<p>Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz?</p><p>Special Guests: Edyta Sadowska and Kasia Zaniewska.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja</title>
  <link>https://mitpolska.fireside.fm/komputacyjnosc-a-inteligencja</link>
  <guid isPermaLink="false">5c34d784-4d55-4a78-9bcb-351df990fa2b</guid>
  <pubDate>Thu, 23 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/5c34d784-4d55-4a78-9bcb-351df990fa2b.mp3" length="91213572" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W drugiej części rozmowy z profesorem Michałem Karpowiczem omawiamy praktyczne konsekwencje przeprowadzonego przezeń dowodu na nieusuwalność tzw. halucynacji oraz proponowane przezeń strategie jak niwelować ryzyka z tym związane. Na marginesie rozmawiamy o twierdzeniu Goedla i jego praktycznych skutkach dla inżynierii AI oraz interpretacjach proponowanych m.in. przez Turinga i Penrose'a.</itunes:subtitle>
  <itunes:duration>2:05:09</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/5c34d784-4d55-4a78-9bcb-351df990fa2b/cover.jpg?v=3"/>
  <description> Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.
Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji. Special Guest: prof. Michał Karpowicz.
</description>
  <itunes:keywords>AI, LLM, LRM, AGI, halucynacje</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #10 Wojny kognitywne i suwerenność poznawcza. Czy AI to narzędzie psychomanipulacji? </title>
  <link>https://mitpolska.fireside.fm/czy-ai-to-narzedzie-psychomanipulacji</link>
  <guid isPermaLink="false">e6ea606f-0464-4e61-af3b-d944823c44ba</guid>
  <pubDate>Thu, 07 Aug 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/e6ea606f-0464-4e61-af3b-d944823c44ba.mp3" length="153463144" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą.</itunes:subtitle>
  <itunes:duration>1:46:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/e/e6ea606f-0464-4e61-af3b-d944823c44ba/cover.jpg?v=1"/>
  <description>W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych? Special Guest: Marta Chalimoniuk-Nowak.
</description>
  <itunes:keywords>AI, GenAI, LLM, LRM, cyberbezpieczeństwo, wojna kognitywna, psychomanipulacja, dezinformacja</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
