<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web02.fireside.fm</fireside:hostname>
    <fireside:genDate>Wed, 06 May 2026 08:07:39 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Sykofancja”</title>
    <link>https://mitpolska.fireside.fm/tags/sykofancja</link>
    <pubDate>Fri, 11 Jul 2025 17:30:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów</title>
  <link>https://mitpolska.fireside.fm/czym-jest-niestabilnosc-llm-lrm</link>
  <guid isPermaLink="false">c0c978df-1af4-4f7c-9b3d-9f01889339cf</guid>
  <pubDate>Fri, 11 Jul 2025 17:30:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/c0c978df-1af4-4f7c-9b3d-9f01889339cf.mp3" length="83032815" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. </itunes:subtitle>
  <itunes:duration>1:54:56</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/c/c0c978df-1af4-4f7c-9b3d-9f01889339cf/cover.jpg?v=1"/>
  <description>&lt;p&gt;W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.&lt;/p&gt;
</description>
  <itunes:keywords>LLM, LRM, GenAI, AGI, sykofancja, prompt, engineering</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #7 Kiedy (nie) ufać AI?</title>
  <link>https://mitpolska.fireside.fm/kiedy-nie-ufac-ai</link>
  <guid isPermaLink="false">6fea7e1a-148c-4898-99ad-9b13c08eedb4</guid>
  <pubDate>Thu, 29 May 2025 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/6fea7e1a-148c-4898-99ad-9b13c08eedb4.mp3" length="65305857" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn.</itunes:subtitle>
  <itunes:duration>1:30:37</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/6/6fea7e1a-148c-4898-99ad-9b13c08eedb4/cover.jpg?v=1"/>
  <description>&lt;p&gt;W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega "automation bias"? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?&lt;/p&gt;

&lt;p&gt;A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji? Special Guest: dr Marta Matylda Kania.&lt;/p&gt;
</description>
  <itunes:keywords>AI, GenAI, LLM, podcast, LimityAI, sykofancja, dezinformacja, misinformacja, deepfakes, myslenie, krytyczne, filozofia</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
