<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web02.fireside.fm</fireside:hostname>
    <fireside:genDate>Thu, 07 May 2026 08:56:10 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Limityai”</title>
    <link>https://mitpolska.fireside.fm/tags/limityai</link>
    <pubDate>Thu, 16 Apr 2026 17:45:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: 2026 #2 Przepis na porażkę: Jak nie wdrażać AI</title>
  <link>https://mitpolska.fireside.fm/jak-nie-wdrazac-ai</link>
  <guid isPermaLink="false">9a9206d8-6e50-4cf7-8b01-3a76f4d860d2</guid>
  <pubDate>Thu, 16 Apr 2026 17:45:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/9a9206d8-6e50-4cf7-8b01-3a76f4d860d2.mp3" length="73753491" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Czy jesteśmy w przełomowym momencie, w którym maszyny stają się świadome? W najnowszym odcinku podcastu "Limity AI" konsekwentnie dehype'ujemy technologię i oddzielamy naukowe fakty od marketingowego szumu.</itunes:subtitle>
  <itunes:duration>1:42:23</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/9/9a9206d8-6e50-4cf7-8b01-3a76f4d860d2/cover.jpg?v=1"/>
  <description>&lt;p&gt;Czy jesteśmy w przełomowym momencie, w którym maszyny stają się świadome? Rafał Bałdys-Rembowski, inżynier z 25-letnim doświadczeniem, odpowiada krótko: to kompletna bzdura.&lt;br&gt;
🔔 W najnowszym odcinku podcastu "Limity AI" konsekwentnie dehype'ujemy technologię i oddzielamy naukowe fakty od marketingowego szumu. Nasz gość bezlitośnie obnaża powody, dla których większość projektów wdrożeniowych AI w firmach kończy się porażką. Rozmawiamy o realnych zagrożeniach: zjawisku "Shadow AI" (gdy pracownicy po cichu wykorzystują AI na prywatnych telefonach) oraz o tzw. "syntetycznym klapsie" – ryzyku utraty ludzkich zdolności poznawczych przez całkowite wydelegowanie myślenia maszynom.&lt;br&gt;
Zaglądamy również za kulisy branży budowlanej, która wbrew pozorom opiera się na gigantycznym zarządzaniu informacją... i Excelu. Zastanawiamy się, jak agenty AI (takie jak Claude Work) mogą zrewolucjonizować pracę z dokumentami i dlaczego wielkie obietnice technologii BIM zderzyły się z brutalną rzeczywistością.&lt;br&gt;
➡️ Rafał Bałdys-Rembowski – Inżynier elektronik, ekspert na styku budownictwa, prawa i technologii. Architekt rozwiązań AI, twórca narzędzi LegalTech oraz wykładowca Uczelni Łazarskiego.&lt;br&gt;
📌 Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 - &lt;a href="https://businessprogramme.ai/" target="_blank" rel="nofollow noopener"&gt;https://businessprogramme.ai/&lt;/a&gt; Special Guest:  Rafał Bałdys-Rembowski.&lt;/p&gt;
</description>
  <itunes:keywords>SztucznaInteligencja, AIwBiznesie, limityai </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Czy jesteśmy w przełomowym momencie, w którym maszyny stają się świadome? Rafał Bałdys-Rembowski, inżynier z 25-letnim doświadczeniem, odpowiada krótko: to kompletna bzdura.<br>
🔔 W najnowszym odcinku podcastu &quot;Limity AI&quot; konsekwentnie dehype&#39;ujemy technologię i oddzielamy naukowe fakty od marketingowego szumu. Nasz gość bezlitośnie obnaża powody, dla których większość projektów wdrożeniowych AI w firmach kończy się porażką. Rozmawiamy o realnych zagrożeniach: zjawisku &quot;Shadow AI&quot; (gdy pracownicy po cichu wykorzystują AI na prywatnych telefonach) oraz o tzw. &quot;syntetycznym klapsie&quot; – ryzyku utraty ludzkich zdolności poznawczych przez całkowite wydelegowanie myślenia maszynom.<br>
Zaglądamy również za kulisy branży budowlanej, która wbrew pozorom opiera się na gigantycznym zarządzaniu informacją... i Excelu. Zastanawiamy się, jak agenty AI (takie jak Claude Work) mogą zrewolucjonizować pracę z dokumentami i dlaczego wielkie obietnice technologii BIM zderzyły się z brutalną rzeczywistością.<br>
➡️ Rafał Bałdys-Rembowski – Inżynier elektronik, ekspert na styku budownictwa, prawa i technologii. Architekt rozwiązań AI, twórca narzędzi LegalTech oraz wykładowca Uczelni Łazarskiego.<br>
📌 Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 - <a href="https://businessprogramme.ai/" rel="nofollow">https://businessprogramme.ai/</a></p><p>Special Guest:  Rafał Bałdys-Rembowski.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026" rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026</a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://www.mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Czy jesteśmy w przełomowym momencie, w którym maszyny stają się świadome? Rafał Bałdys-Rembowski, inżynier z 25-letnim doświadczeniem, odpowiada krótko: to kompletna bzdura.<br>
🔔 W najnowszym odcinku podcastu &quot;Limity AI&quot; konsekwentnie dehype&#39;ujemy technologię i oddzielamy naukowe fakty od marketingowego szumu. Nasz gość bezlitośnie obnaża powody, dla których większość projektów wdrożeniowych AI w firmach kończy się porażką. Rozmawiamy o realnych zagrożeniach: zjawisku &quot;Shadow AI&quot; (gdy pracownicy po cichu wykorzystują AI na prywatnych telefonach) oraz o tzw. &quot;syntetycznym klapsie&quot; – ryzyku utraty ludzkich zdolności poznawczych przez całkowite wydelegowanie myślenia maszynom.<br>
Zaglądamy również za kulisy branży budowlanej, która wbrew pozorom opiera się na gigantycznym zarządzaniu informacją... i Excelu. Zastanawiamy się, jak agenty AI (takie jak Claude Work) mogą zrewolucjonizować pracę z dokumentami i dlaczego wielkie obietnice technologii BIM zderzyły się z brutalną rzeczywistością.<br>
➡️ Rafał Bałdys-Rembowski – Inżynier elektronik, ekspert na styku budownictwa, prawa i technologii. Architekt rozwiązań AI, twórca narzędzi LegalTech oraz wykładowca Uczelni Łazarskiego.<br>
📌 Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 - <a href="https://businessprogramme.ai/" rel="nofollow">https://businessprogramme.ai/</a></p><p>Special Guest:  Rafał Bałdys-Rembowski.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026" rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026</a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://www.mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?</title>
  <link>https://mitpolska.fireside.fm/hype-ai-kto-zarabia</link>
  <guid isPermaLink="false">1ae93851-3aee-4e7d-a54f-7c52d781a0dc</guid>
  <pubDate>Thu, 02 Apr 2026 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/1ae93851-3aee-4e7d-a54f-7c52d781a0dc.mp3" length="72863326" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>"Limity AI" wracają po zimowej przerwie z nowym cyklem rozmów wokół ryzyk i ograniczeń dostępnych technologii AI.</itunes:subtitle>
  <itunes:duration>1:40:05</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/1/1ae93851-3aee-4e7d-a54f-7c52d781a0dc/cover.jpg?v=2"/>
  <description>&lt;p&gt;🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.&lt;br&gt;
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji. Special Guest: Jacek Mańko.&lt;/p&gt;
</description>
  <itunes:keywords>AI, AGI, ASI, hypeai, LimityAI, IwoZmyślony, JacekManko, Tescreal, bpai, mitsmrpl, sztucznainteligencja, podcast, LimityAI, openai, SamAltman </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #7 Kiedy (nie) ufać AI?</title>
  <link>https://mitpolska.fireside.fm/kiedy-nie-ufac-ai</link>
  <guid isPermaLink="false">6fea7e1a-148c-4898-99ad-9b13c08eedb4</guid>
  <pubDate>Thu, 29 May 2025 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/6fea7e1a-148c-4898-99ad-9b13c08eedb4.mp3" length="65305857" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn.</itunes:subtitle>
  <itunes:duration>1:30:37</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/6/6fea7e1a-148c-4898-99ad-9b13c08eedb4/cover.jpg?v=1"/>
  <description>&lt;p&gt;W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega "automation bias"? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?&lt;/p&gt;

&lt;p&gt;A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji? Special Guest: dr Marta Matylda Kania.&lt;/p&gt;
</description>
  <itunes:keywords>AI, GenAI, LLM, podcast, LimityAI, sykofancja, dezinformacja, misinformacja, deepfakes, myslenie, krytyczne, filozofia</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #4 Studzenie hajpu – komu służy obskurantyzm AI?</title>
  <link>https://mitpolska.fireside.fm/obskurantyzm-ai</link>
  <guid isPermaLink="false">012fece7-0bef-4e8a-b804-6e45d6da7815</guid>
  <pubDate>Thu, 17 Apr 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/012fece7-0bef-4e8a-b804-6e45d6da7815.mp3" length="81077491" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</itunes:subtitle>
  <itunes:duration>1:52:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/0/012fece7-0bef-4e8a-b804-6e45d6da7815/cover.jpg?v=1"/>
  <description>&lt;p&gt;W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?&lt;/li&gt;
&lt;li&gt;Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?&lt;/li&gt;
&lt;li&gt;Czym są tzw. głębokie sieci neuronowe? Jak sztuczne "neurony" mają się do prawdziwych?&lt;/li&gt;
&lt;li&gt;Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?&lt;/li&gt;
&lt;li&gt;Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?&lt;/li&gt;
&lt;li&gt;Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Special Guest: Gniewosz Leliwa.&lt;/p&gt;
</description>
  <itunes:keywords>LimityAI, GenAI, AGI, DeepLearning, UczenieMaszynowe, ML, DML, DNN, LLM, CNN, RNN, AIbubble,</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
