<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web02.fireside.fm</fireside:hostname>
    <fireside:genDate>Tue, 14 Apr 2026 16:50:17 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Ai”</title>
    <link>https://mitpolska.fireside.fm/tags/ai</link>
    <pubDate>Thu, 02 Apr 2026 18:00:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?</title>
  <link>https://mitpolska.fireside.fm/hype-ai-kto-zarabia</link>
  <guid isPermaLink="false">1ae93851-3aee-4e7d-a54f-7c52d781a0dc</guid>
  <pubDate>Thu, 02 Apr 2026 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/1ae93851-3aee-4e7d-a54f-7c52d781a0dc.mp3" length="72863326" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>"Limity AI" wracają po zimowej przerwie z nowym cyklem rozmów wokół ryzyk i ograniczeń dostępnych technologii AI.</itunes:subtitle>
  <itunes:duration>1:40:05</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/1/1ae93851-3aee-4e7d-a54f-7c52d781a0dc/cover.jpg?v=2"/>
  <description>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji. Special Guest: Jacek Mańko.
</description>
  <itunes:keywords>AI, AGI, ASI, hypeai, LimityAI, IwoZmyślony, JacekManko, Tescreal, bpai, mitsmrpl, sztucznainteligencja, podcast, LimityAI, openai, SamAltman </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Wyzwania HR 2026: AI wygryza juniorów, presja na powrót do biur i kryzys zaangażowania</title>
  <link>https://mitpolska.fireside.fm/wyzwania-hr</link>
  <guid isPermaLink="false">48f48abc-21c6-45c7-b270-22374fa533b2</guid>
  <pubDate>Thu, 26 Feb 2026 10:15:00 +0100</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/48f48abc-21c6-45c7-b270-22374fa533b2.mp3" length="38375133" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Czy HR w 2026 roku to wciąż „miękkie kompetencje”, czy już twarde zarządzanie kryzysem?</itunes:subtitle>
  <itunes:duration>53:00</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/4/48f48abc-21c6-45c7-b270-22374fa533b2/cover.jpg?v=1"/>
  <description>W tym odcinku podcastu MIT Sloan Management Review Polska, Paweł Kubisiak rozmawia z Dominiką Krysińską – ekspertką, która łączy cele biznesowe z wyzwaniami kapitału ludzkiego. Odkrywamy niewygodną prawdę o polskich firmach: choć jesteśmy wydajni, nasze zaangażowanie „szoruje po dnie”.
Z tego podcastu dowiesz się:
• HR jako partner strategiczny czy „dział rachuby”? Dlaczego wciąż tak mało dyrektorów personalnych ma realny wpływ na model biznesowy firmy?
• Paradoks kompetencyjny: 82% Polaków chce się uczyć, ale tylko co dziesiąty czuje realne wsparcie od pracodawcy. Jak nie zmarnować budżetu szkoleniowego w czwartym kwartale?
• Motywacja vs Zaangażowanie: Dlaczego świetnie opłacony i zmotywowany pracownik może wciąż być „biernie niezaangażowany”?
• Widmo AI i kryzys juniorów: Czy sztuczna inteligencja zabierze pracę najmłodszym i kto w takim razie zostanie seniorami za kilka lat?
• Wielki powrót do biur: 84% prezesów planuje koniec pracy zdalnej do 2027 roku. Czy to błąd strategiczny, czy konieczność budowania relacji?
„Najlepsze rozwiązania to te najprostsze” – Dominika Krysińska dzieli się konkretną radą dla liderów, jak odzyskać serca i umysły zespołów poprzez autentyczny dialog i odrzucenie błędnych przekonań. Special Guest: Dominika Krysińska.
</description>
  <itunes:keywords>hr, dominikakrysinska, ICAN, </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W tym odcinku podcastu MIT Sloan Management Review Polska, Paweł Kubisiak rozmawia z Dominiką Krysińską – ekspertką, która łączy cele biznesowe z wyzwaniami kapitału ludzkiego. Odkrywamy niewygodną prawdę o polskich firmach: choć jesteśmy wydajni, nasze zaangażowanie „szoruje po dnie”.<br>
Z tego podcastu dowiesz się:<br>
• HR jako partner strategiczny czy „dział rachuby”? Dlaczego wciąż tak mało dyrektorów personalnych ma realny wpływ na model biznesowy firmy?<br>
• Paradoks kompetencyjny: 82% Polaków chce się uczyć, ale tylko co dziesiąty czuje realne wsparcie od pracodawcy. Jak nie zmarnować budżetu szkoleniowego w czwartym kwartale?<br>
• Motywacja vs Zaangażowanie: Dlaczego świetnie opłacony i zmotywowany pracownik może wciąż być „biernie niezaangażowany”?<br>
• Widmo AI i kryzys juniorów: Czy sztuczna inteligencja zabierze pracę najmłodszym i kto w takim razie zostanie seniorami za kilka lat?<br>
• Wielki powrót do biur: 84% prezesów planuje koniec pracy zdalnej do 2027 roku. Czy to błąd strategiczny, czy konieczność budowania relacji?<br>
„Najlepsze rozwiązania to te najprostsze” – Dominika Krysińska dzieli się konkretną radą dla liderów, jak odzyskać serca i umysły zespołów poprzez autentyczny dialog i odrzucenie błędnych przekonań.</p><p>Special Guest: Dominika Krysińska.</p><p>Links:</p><ul><li><a title="Czytaj najnowszy magazyn MIT" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqa1JMc3pkMWZpWVNWdW5vZXRVQ0ptUmtUMUxFZ3xBQ3Jtc0tueXhoSGNrQ1VvWjhzVU1hRXU1WkR1cFRmcGhrZXNCemM5RFgyYzA1WU9GXzllNDFudEFEaVpxeERwSXc4VjlTLVJfM3gzUXVEUlFLaXpBdnpGLW9QRGt3S3FzT2ZXRzNKWVBxUWRVOGRuN1dhdEFBUQ&amp;q=https%3A%2F%2Fmitsmr.pl%2Fstrategia-rozwoju%2Fplanowanie-scenariuszowe%2F&amp;v=0FCjRwvCpZ8">Czytaj najnowszy magazyn MIT</a></li><li><a title="Pobierz broszurę i dowiedz się więcej" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbGtQQUd2YUtIS3NXSUJTRVRKS0lWRXduY0NaZ3xBQ3Jtc0trSHhNZjgxMDh4OFplVDJHNzNaVVdBYy15bThQVXcwUDhsQ1M4UExXTUJJaF9id1BWenhCLUEtYXE1VkZrY2tPbEdKUTlTVG1fYW9zMm9uRFNNZDVrRms0YnRQaFJnOWdVU2xZd05FeDVZeUZELVFVOA&amp;q=https%3A%2F%2Fwww.ican.pl%2Fsubskrypcja%2Fmit%2Fbroszura%3Futm_campaign%3Dsocial_media_posty%26utm_medium%3Dpost%26utm_source%3Dyoutube&amp;v=0FCjRwvCpZ8">Pobierz broszurę i dowiedz się więcej</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W tym odcinku podcastu MIT Sloan Management Review Polska, Paweł Kubisiak rozmawia z Dominiką Krysińską – ekspertką, która łączy cele biznesowe z wyzwaniami kapitału ludzkiego. Odkrywamy niewygodną prawdę o polskich firmach: choć jesteśmy wydajni, nasze zaangażowanie „szoruje po dnie”.<br>
Z tego podcastu dowiesz się:<br>
• HR jako partner strategiczny czy „dział rachuby”? Dlaczego wciąż tak mało dyrektorów personalnych ma realny wpływ na model biznesowy firmy?<br>
• Paradoks kompetencyjny: 82% Polaków chce się uczyć, ale tylko co dziesiąty czuje realne wsparcie od pracodawcy. Jak nie zmarnować budżetu szkoleniowego w czwartym kwartale?<br>
• Motywacja vs Zaangażowanie: Dlaczego świetnie opłacony i zmotywowany pracownik może wciąż być „biernie niezaangażowany”?<br>
• Widmo AI i kryzys juniorów: Czy sztuczna inteligencja zabierze pracę najmłodszym i kto w takim razie zostanie seniorami za kilka lat?<br>
• Wielki powrót do biur: 84% prezesów planuje koniec pracy zdalnej do 2027 roku. Czy to błąd strategiczny, czy konieczność budowania relacji?<br>
„Najlepsze rozwiązania to te najprostsze” – Dominika Krysińska dzieli się konkretną radą dla liderów, jak odzyskać serca i umysły zespołów poprzez autentyczny dialog i odrzucenie błędnych przekonań.</p><p>Special Guest: Dominika Krysińska.</p><p>Links:</p><ul><li><a title="Czytaj najnowszy magazyn MIT" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqa1JMc3pkMWZpWVNWdW5vZXRVQ0ptUmtUMUxFZ3xBQ3Jtc0tueXhoSGNrQ1VvWjhzVU1hRXU1WkR1cFRmcGhrZXNCemM5RFgyYzA1WU9GXzllNDFudEFEaVpxeERwSXc4VjlTLVJfM3gzUXVEUlFLaXpBdnpGLW9QRGt3S3FzT2ZXRzNKWVBxUWRVOGRuN1dhdEFBUQ&amp;q=https%3A%2F%2Fmitsmr.pl%2Fstrategia-rozwoju%2Fplanowanie-scenariuszowe%2F&amp;v=0FCjRwvCpZ8">Czytaj najnowszy magazyn MIT</a></li><li><a title="Pobierz broszurę i dowiedz się więcej" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbGtQQUd2YUtIS3NXSUJTRVRKS0lWRXduY0NaZ3xBQ3Jtc0trSHhNZjgxMDh4OFplVDJHNzNaVVdBYy15bThQVXcwUDhsQ1M4UExXTUJJaF9id1BWenhCLUEtYXE1VkZrY2tPbEdKUTlTVG1fYW9zMm9uRFNNZDVrRms0YnRQaFJnOWdVU2xZd05FeDVZeUZELVFVOA&amp;q=https%3A%2F%2Fwww.ican.pl%2Fsubskrypcja%2Fmit%2Fbroszura%3Futm_campaign%3Dsocial_media_posty%26utm_medium%3Dpost%26utm_source%3Dyoutube&amp;v=0FCjRwvCpZ8">Pobierz broszurę i dowiedz się więcej</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #14 Kicz technologiczny – co nam się wmawia o AI?</title>
  <link>https://mitpolska.fireside.fm/co-nam-sie-wmawia-o-ai</link>
  <guid isPermaLink="false">70f1e8b4-3eed-40a2-a6d5-109db365963c</guid>
  <pubDate>Wed, 12 Nov 2025 17:00:00 +0100</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/70f1e8b4-3eed-40a2-a6d5-109db365963c.mp3" length="104209105" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Co nam się wmawia o AI? Jakie narracje słyszymy i co one z nami robią? Jakie wywołują skutki? Jakie kształtują w nas wyobrażenia, oczekiwania, emocje, obawy i pragnienia? Do jakich zachowań nas mobilizują? Które z tych zachowań są dla nas ryzykowne? A kto na nich wymiernie korzysta? Które z najbardziej zasięgowych opowieści mogą być dla nas źródłem rzetelnej, popartej naukowo wiedzy? Które z nich to tylko rozrywka, niewinne spekulacje, akademickie rozważania, a które to wyrachowany marketing służący interesom dostawców tych technologii oraz ich inwestorów?</itunes:subtitle>
  <itunes:duration>1:48:27</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/7/70f1e8b4-3eed-40a2-a6d5-109db365963c/cover.jpg?v=1"/>
  <description>W 14 odcinku "Limitów AI" rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.
Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz? Special Guests: Edyta Sadowska and Kasia Zaniewska.
</description>
  <itunes:keywords>AI, dezinformacja, kicz, technologie</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W 14 odcinku &quot;Limitów AI&quot; rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.</p>

<p>Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz?</p><p>Special Guests: Edyta Sadowska and Kasia Zaniewska.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W 14 odcinku &quot;Limitów AI&quot; rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.</p>

<p>Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz?</p><p>Special Guests: Edyta Sadowska and Kasia Zaniewska.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja</title>
  <link>https://mitpolska.fireside.fm/komputacyjnosc-a-inteligencja</link>
  <guid isPermaLink="false">5c34d784-4d55-4a78-9bcb-351df990fa2b</guid>
  <pubDate>Thu, 23 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/5c34d784-4d55-4a78-9bcb-351df990fa2b.mp3" length="91213572" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W drugiej części rozmowy z profesorem Michałem Karpowiczem omawiamy praktyczne konsekwencje przeprowadzonego przezeń dowodu na nieusuwalność tzw. halucynacji oraz proponowane przezeń strategie jak niwelować ryzyka z tym związane. Na marginesie rozmawiamy o twierdzeniu Goedla i jego praktycznych skutkach dla inżynierii AI oraz interpretacjach proponowanych m.in. przez Turinga i Penrose'a.</itunes:subtitle>
  <itunes:duration>2:05:09</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/5c34d784-4d55-4a78-9bcb-351df990fa2b/cover.jpg?v=3"/>
  <description> Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.
Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji. Special Guest: prof. Michał Karpowicz.
</description>
  <itunes:keywords>AI, LLM, LRM, AGI, halucynacje</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Mentoring dla Liderów C-Level: Rozwój, Samotność i Transformacja Kariery</title>
  <link>https://mitpolska.fireside.fm/mentoring-dla-liderow</link>
  <guid isPermaLink="false">e4e6adf4-ae0b-4276-95ce-8f62b9df6ccf</guid>
  <pubDate>Fri, 17 Oct 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/e4e6adf4-ae0b-4276-95ce-8f62b9df6ccf.mp3" length="48478316" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Profesjonalny mentoring dla liderów najwyższego szczebla to temat, który coraz częściej pojawia się w firmach. W najnowszym odcinku podcastu SMRP Agata Rybarska – doświadczona mentorka biznesowa – odsłania kulisy mentoringu na poziomie C-level: od radzenia sobie z samotnością lidera i syndromem oszusta, po różnice między mentoringiem a coachingiem oraz wpływ AI na rozwój przywództwa.</itunes:subtitle>
  <itunes:duration>1:07:13</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/e/e4e6adf4-ae0b-4276-95ce-8f62b9df6ccf/cover.jpg?v=1"/>
  <description>Coraz więcej menedżerów najwyższego szczebla sięga po profesjonalny mentoring, by skuteczniej stawić czoła wyzwaniom współczesnego biznesu. Badania pokazują, że ok. 30% organizacji zwiększyło inwestycje w programy mentoringowe po pandemii, a eksperci tacy jak prof. David Clutterbeck określają mentoring jako najskuteczniejsze narzędzie rozwoju liderów. Mentoring przekłada się też na konkretne rezultaty: m.in. efektywność pracowników może wzrosnąć o 29%, a satysfakcja z pracy o 35%.
W tym odcinku podcastu zaglądamy za kulisy mentoringu na poziomie C-level – czym naprawdę jest mentoring dla top managerów, czym różni się od coachingu i dlaczego nie każdy doświadczony menedżer może być mentorem. Nasz gość, Agata Rybarska, dzieli się doświadczeniami ze swojej 20-letniej kariery liderskiej, aby pokazać, jak świadomie korzystać z mentoringu w rozwoju kompetencji przywódczych. Rozmawiamy o typowych wyzwaniach, z jakimi mierzą się liderzy na szczycie: od samotności lidera i syndromu oszusta po potrzebę transformacji kariery w okolicach czterdziestki. Ważnym wątkiem jest także rozwój inteligencji emocjonalnej – dlaczego umiejętność rozumienia emocji własnych i zespołu staje się kluczowa w skutecznym przywództwie.
Nie zabrakło również tematu nowych technologii. Zastanawiamy się, jak sztuczna inteligencja wpływa na mentoring i rozwój liderów. Agata Rybarska opowiada m.in. o narzędziach AI, które mogą wspierać proces mentorski (np. analiza transkryptów sesji czy zastosowanie chatbota do symulacji trudnych rozmów). Dyskutujemy też o granicach takich rozwiązań – czy wirtualny AI coach może kiedyś zastąpić prawdziwego mentora, czy jednak ludzka relacja pozostaje niezastąpiona w kształtowaniu przyszłych liderów.
 Special Guest: Agata Rybarska.
</description>
  <itunes:keywords>mentoring, c-level, Agata_Rybarska, profesjonalny mentoring</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Coraz więcej menedżerów najwyższego szczebla sięga po profesjonalny mentoring, by skuteczniej stawić czoła wyzwaniom współczesnego biznesu. Badania pokazują, że ok. 30% organizacji zwiększyło inwestycje w programy mentoringowe po pandemii, a eksperci tacy jak prof. David Clutterbeck określają mentoring jako najskuteczniejsze narzędzie rozwoju liderów. Mentoring przekłada się też na konkretne rezultaty: m.in. efektywność pracowników może wzrosnąć o 29%, a satysfakcja z pracy o 35%.<br>
W tym odcinku podcastu zaglądamy za kulisy mentoringu na poziomie C-level – czym naprawdę jest mentoring dla top managerów, czym różni się od coachingu i dlaczego nie każdy doświadczony menedżer może być mentorem. Nasz gość, Agata Rybarska, dzieli się doświadczeniami ze swojej 20-letniej kariery liderskiej, aby pokazać, jak świadomie korzystać z mentoringu w rozwoju kompetencji przywódczych. Rozmawiamy o typowych wyzwaniach, z jakimi mierzą się liderzy na szczycie: od samotności lidera i syndromu oszusta po potrzebę transformacji kariery w okolicach czterdziestki. Ważnym wątkiem jest także rozwój inteligencji emocjonalnej – dlaczego umiejętność rozumienia emocji własnych i zespołu staje się kluczowa w skutecznym przywództwie.<br>
Nie zabrakło również tematu nowych technologii. Zastanawiamy się, jak sztuczna inteligencja wpływa na mentoring i rozwój liderów. Agata Rybarska opowiada m.in. o narzędziach AI, które mogą wspierać proces mentorski (np. analiza transkryptów sesji czy zastosowanie chatbota do symulacji trudnych rozmów). Dyskutujemy też o granicach takich rozwiązań – czy wirtualny AI coach może kiedyś zastąpić prawdziwego mentora, czy jednak ludzka relacja pozostaje niezastąpiona w kształtowaniu przyszłych liderów.</p><p>Special Guest: Agata Rybarska.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Coraz więcej menedżerów najwyższego szczebla sięga po profesjonalny mentoring, by skuteczniej stawić czoła wyzwaniom współczesnego biznesu. Badania pokazują, że ok. 30% organizacji zwiększyło inwestycje w programy mentoringowe po pandemii, a eksperci tacy jak prof. David Clutterbeck określają mentoring jako najskuteczniejsze narzędzie rozwoju liderów. Mentoring przekłada się też na konkretne rezultaty: m.in. efektywność pracowników może wzrosnąć o 29%, a satysfakcja z pracy o 35%.<br>
W tym odcinku podcastu zaglądamy za kulisy mentoringu na poziomie C-level – czym naprawdę jest mentoring dla top managerów, czym różni się od coachingu i dlaczego nie każdy doświadczony menedżer może być mentorem. Nasz gość, Agata Rybarska, dzieli się doświadczeniami ze swojej 20-letniej kariery liderskiej, aby pokazać, jak świadomie korzystać z mentoringu w rozwoju kompetencji przywódczych. Rozmawiamy o typowych wyzwaniach, z jakimi mierzą się liderzy na szczycie: od samotności lidera i syndromu oszusta po potrzebę transformacji kariery w okolicach czterdziestki. Ważnym wątkiem jest także rozwój inteligencji emocjonalnej – dlaczego umiejętność rozumienia emocji własnych i zespołu staje się kluczowa w skutecznym przywództwie.<br>
Nie zabrakło również tematu nowych technologii. Zastanawiamy się, jak sztuczna inteligencja wpływa na mentoring i rozwój liderów. Agata Rybarska opowiada m.in. o narzędziach AI, które mogą wspierać proces mentorski (np. analiza transkryptów sesji czy zastosowanie chatbota do symulacji trudnych rozmów). Dyskutujemy też o granicach takich rozwiązań – czy wirtualny AI coach może kiedyś zastąpić prawdziwego mentora, czy jednak ludzka relacja pozostaje niezastąpiona w kształtowaniu przyszłych liderów.</p><p>Special Guest: Agata Rybarska.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Jak dzięki AI zwiększyć sprzedaż i poprawić obsługę klienta?</title>
  <link>https://mitpolska.fireside.fm/jak-dzieki-ai-zwiekszyc-sprzedaz-i-poprawic-obsluge-klienta</link>
  <guid isPermaLink="false">6081072b-935e-4861-ac21-d9675befcc17</guid>
  <pubDate>Thu, 16 Oct 2025 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/6081072b-935e-4861-ac21-d9675befcc17.mp3" length="55578896" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Magdalena Kasiewicz, dyrektorka ds. sprzedaży usług chmurowych w HPE Polska, opowiada o tym, jak sztuczna inteligencja zmienia relacje z klientem, wspiera sprzedaż i pomaga budować przewagę konkurencyjną. Rozmawia Paulina Kostro, redaktorka „MIT Sloan Management Review Polska”.</itunes:subtitle>
  <itunes:duration>57:49</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/6/6081072b-935e-4861-ac21-d9675befcc17/cover.jpg?v=1"/>
  <description>Jak firmy mogą dziś wykorzystać potencjał sztucznej inteligencji, by lepiej rozumieć klientów, zwiększać skuteczność sprzedaży i budować trwałe zaufanie? W erze generatywnej AI rośnie rola danych i personalizacji, ale równie ważne staje się etyczne podejście do technologii oraz zachowanie ludzkiego wymiaru kontaktu.
Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Magdalena Kasiewicz wyjaśnia m.in.: • Jak AI wspiera rozwój biznesu i przewagę konkurencyjną? • Dlaczego dane są kluczowym zasobem we współczesnej sprzedaży? • Jak zrównoważyć automatyzację procesów z ludzkim podejściem do klienta? • Jakie kompetencje powinni rozwijać sprzedawcy, by efektywnie pracować z AI? • Dlaczego człowiek – nie algorytm – powinien pozostać w centrum technologii? Special Guest: Magdalena Kasiewicz.
</description>
  <itunes:keywords>Magdalena Kasiewicz, HPE Polska, AI, sztuczna inteligencja, MIT Sloan</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Jak firmy mogą dziś wykorzystać potencjał sztucznej inteligencji, by lepiej rozumieć klientów, zwiększać skuteczność sprzedaży i budować trwałe zaufanie? W erze generatywnej AI rośnie rola danych i personalizacji, ale równie ważne staje się etyczne podejście do technologii oraz zachowanie ludzkiego wymiaru kontaktu.</p>

<p>Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Magdalena Kasiewicz wyjaśnia m.in.: • Jak AI wspiera rozwój biznesu i przewagę konkurencyjną? • Dlaczego dane są kluczowym zasobem we współczesnej sprzedaży? • Jak zrównoważyć automatyzację procesów z ludzkim podejściem do klienta? • Jakie kompetencje powinni rozwijać sprzedawcy, by efektywnie pracować z AI? • Dlaczego człowiek – nie algorytm – powinien pozostać w centrum technologii?</p><p>Special Guest: Magdalena Kasiewicz.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Jak firmy mogą dziś wykorzystać potencjał sztucznej inteligencji, by lepiej rozumieć klientów, zwiększać skuteczność sprzedaży i budować trwałe zaufanie? W erze generatywnej AI rośnie rola danych i personalizacji, ale równie ważne staje się etyczne podejście do technologii oraz zachowanie ludzkiego wymiaru kontaktu.</p>

<p>Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Magdalena Kasiewicz wyjaśnia m.in.: • Jak AI wspiera rozwój biznesu i przewagę konkurencyjną? • Dlaczego dane są kluczowym zasobem we współczesnej sprzedaży? • Jak zrównoważyć automatyzację procesów z ludzkim podejściem do klienta? • Jakie kompetencje powinni rozwijać sprzedawcy, by efektywnie pracować z AI? • Dlaczego człowiek – nie algorytm – powinien pozostać w centrum technologii?</p><p>Special Guest: Magdalena Kasiewicz.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #12 Dlaczego LLMy nie mogą przestać kłamać?</title>
  <link>https://mitpolska.fireside.fm/dlaczego-llmy-nie-moga-przestac-klamac</link>
  <guid isPermaLink="false">dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8</guid>
  <pubDate>Thu, 09 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8.mp3" length="120511355" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</itunes:subtitle>
  <itunes:duration>2:04:29</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/d/dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8/cover.jpg?v=2"/>
  <description>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i "rozproszonego" przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.
Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. 
Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. "man in the loop").
A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów? Special Guest: prof. Michał Karpowicz.
</description>
  <itunes:keywords>halucynacje, konfabulacje, LLM, LRM, AI, MIT</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i &quot;rozproszonego&quot; przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.</p>

<p>Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. </p>

<p>Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. &quot;man in the loop&quot;).</p>

<p>A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</p><p>Special Guest: prof. Michał Karpowicz.</p><p>Links:</p><ul><li><a title="On the Fundamental Impossibility of Hallucination Control in Large Language Models" rel="nofollow" href="https://arxiv.org/abs/2506.06382">On the Fundamental Impossibility of Hallucination Control in Large Language Models</a></li><li><a title="Dlaczego modele językowe halucynują?" rel="nofollow" href="https://openai.com/pl-PL/index/why-language-models-hallucinate/">Dlaczego modele językowe halucynują?</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i &quot;rozproszonego&quot; przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.</p>

<p>Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. </p>

<p>Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. &quot;man in the loop&quot;).</p>

<p>A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</p><p>Special Guest: prof. Michał Karpowicz.</p><p>Links:</p><ul><li><a title="On the Fundamental Impossibility of Hallucination Control in Large Language Models" rel="nofollow" href="https://arxiv.org/abs/2506.06382">On the Fundamental Impossibility of Hallucination Control in Large Language Models</a></li><li><a title="Dlaczego modele językowe halucynują?" rel="nofollow" href="https://openai.com/pl-PL/index/why-language-models-hallucinate/">Dlaczego modele językowe halucynują?</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #11 AI w e-commerce – jak się za to zabrać?</title>
  <link>https://mitpolska.fireside.fm/ai-w-ecommerce</link>
  <guid isPermaLink="false">76b71725-9f78-439a-8298-e342f8fecb1e</guid>
  <pubDate>Thu, 18 Sep 2025 14:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/76b71725-9f78-439a-8298-e342f8fecb1e.mp3" length="96477866" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W jedenastym odcinku "Limitów AI" rozmawiamy o tym jak wdrażać AI do ecommerce, od czego zacząć i jak tego nie robić</itunes:subtitle>
  <itunes:duration>1:40:12</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/7/76b71725-9f78-439a-8298-e342f8fecb1e/cover.jpg?v=1"/>
  <description>Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?
Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września
Dołącz już dziś: https://www.ican.pl/wydarzenia/konferencje/e-commerce Special Guest: Konrad Bujak.
</description>
  <itunes:keywords>AI, ecommerce</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?</p>

<p>Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września<br>
Dołącz już dziś: <a href="https://www.ican.pl/wydarzenia/konferencje/e-commerce" rel="nofollow">https://www.ican.pl/wydarzenia/konferencje/e-commerce</a></p><p>Special Guest: Konrad Bujak.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?</p>

<p>Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września<br>
Dołącz już dziś: <a href="https://www.ican.pl/wydarzenia/konferencje/e-commerce" rel="nofollow">https://www.ican.pl/wydarzenia/konferencje/e-commerce</a></p><p>Special Guest: Konrad Bujak.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Podcast MIT SMRP. Prawdziwa rewolucja: sztuczne dane dla sztucznej inteligencji</title>
  <link>https://mitpolska.fireside.fm/sztuczne-dane-dla-ai</link>
  <guid isPermaLink="false">3dc58882-7672-4628-8558-9d7aabdfd0f1</guid>
  <pubDate>Thu, 11 Sep 2025 15:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/3dc58882-7672-4628-8558-9d7aabdfd0f1.mp3" length="49683440" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Artur Skalski, lider obszaru doradztwa strategicznego dla klientów SAS Polska – opowiada o tym, w jaki sposób dane syntetyczne wspierają biznes, chronią prywatność i umożliwiają tworzenie innowacyjnych rozwiązań. Rozmawia Paulina Kostro, redkatorka„MIT Sloan Management Review Polska”.</itunes:subtitle>
  <itunes:duration>51:38</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/3/3dc58882-7672-4628-8558-9d7aabdfd0f1/cover.jpg?v=1"/>
  <description>Firmy od lat zmagają się z problemem niedoboru danych lub ich niskiej jakości. Jednocześnie rosną wymagania dotyczące ochrony prywatności oraz konieczność testowania rzadkich, trudnych do przewidzenia zjawisk. Odpowiedzią na te wyzwania stają się dane syntetyczne – sztucznie generowane zbiory, które wiernie odzwierciedlają statystyczne zależności w danych rzeczywistych, ale nie zawierają wrażliwych rekordów.
Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Artur Skalski wyjaśnia m.in.:
• Dlaczego dane syntetyczne mogą być kluczowym zasobem dla firm w erze cyfrowej?
• Jak wspierają ochronę prywatności i ograniczają ryzyka prawne?
• W jaki sposób umożliwiają testowanie rzadkich zjawisk, takich jak fraudy?
• Czym są cyfrowe bliźniaki i jak dane syntetyczne pomagają w ich tworzeniu?
 Special Guest: Artur Skalski.
</description>
  <itunes:keywords>Artur Skalski, SAS Polska, dane syntetyczne, MIT Sloan</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Firmy od lat zmagają się z problemem niedoboru danych lub ich niskiej jakości. Jednocześnie rosną wymagania dotyczące ochrony prywatności oraz konieczność testowania rzadkich, trudnych do przewidzenia zjawisk. Odpowiedzią na te wyzwania stają się dane syntetyczne – sztucznie generowane zbiory, które wiernie odzwierciedlają statystyczne zależności w danych rzeczywistych, ale nie zawierają wrażliwych rekordów.<br>
Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Artur Skalski wyjaśnia m.in.:<br>
• Dlaczego dane syntetyczne mogą być kluczowym zasobem dla firm w erze cyfrowej?<br>
• Jak wspierają ochronę prywatności i ograniczają ryzyka prawne?<br>
• W jaki sposób umożliwiają testowanie rzadkich zjawisk, takich jak fraudy?<br>
• Czym są cyfrowe bliźniaki i jak dane syntetyczne pomagają w ich tworzeniu?</p><p>Special Guest: Artur Skalski.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Firmy od lat zmagają się z problemem niedoboru danych lub ich niskiej jakości. Jednocześnie rosną wymagania dotyczące ochrony prywatności oraz konieczność testowania rzadkich, trudnych do przewidzenia zjawisk. Odpowiedzią na te wyzwania stają się dane syntetyczne – sztucznie generowane zbiory, które wiernie odzwierciedlają statystyczne zależności w danych rzeczywistych, ale nie zawierają wrażliwych rekordów.<br>
Wysłuchaj podcastu MIT Sloan Management Review Polska, w którym Artur Skalski wyjaśnia m.in.:<br>
• Dlaczego dane syntetyczne mogą być kluczowym zasobem dla firm w erze cyfrowej?<br>
• Jak wspierają ochronę prywatności i ograniczają ryzyka prawne?<br>
• W jaki sposób umożliwiają testowanie rzadkich zjawisk, takich jak fraudy?<br>
• Czym są cyfrowe bliźniaki i jak dane syntetyczne pomagają w ich tworzeniu?</p><p>Special Guest: Artur Skalski.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Jak budować zaangażowanie, jak rozwijać zespoły i jak budować kolektywną inteligencję</title>
  <link>https://mitpolska.fireside.fm/kolektywna-inteligencja</link>
  <guid isPermaLink="false">3af13819-d2ad-4d74-9bde-0fc9e9307215</guid>
  <pubDate>Mon, 18 Aug 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/3af13819-d2ad-4d74-9bde-0fc9e9307215.mp3" length="45908890" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>DLA KOGO TEN ODCINEK:
Liderzy i menedżerowie zespołów Specjaliści HR i L&amp;D Przedsiębiorcy i założyciele startupów Osoby odpowiedzialne za strategie motywacyjne Entuzjaści psychologii biznesu i AI</itunes:subtitle>
  <itunes:duration>1:03:28</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/3/3af13819-d2ad-4d74-9bde-0fc9e9307215/cover.jpg?v=1"/>
  <description>NAJWAŻNIEJSZE INSIGHTS:
70% pracowników jest niezaangażowanych - oto prawdziwe przyczyny. Jak personalizować zadania dla tysięcy pracowników dzięki AI? Dlaczego nagradzanie najlepszych może szkodzić zespołowi? Model przepływu (flow) jako fundament skutecznej gamifikacji. Jak łączyć naukę z pracą w czasie rzeczywistym? Różnica między AI a Intelligence Augmentation w praktyce.
W najnowszym odcinku MIT SMRP rozmawiamy z Wojciechem Ozimkiem, założycielem i CEO firmy One2Tribe, o rewolucji w zarządzaniu zespołami. Odkryj, jak połączenie psychologii behawioralnej, sztucznej inteligencji i mądrej grywalizacji może zwiększyć zaangażowanie pracowników i budować kolektywną inteligencję organizacji. Special Guest: Wojciech Ozimek.
</description>
  <itunes:keywords>Gamifikacja, AI, ZarządzanieZespołem, Motywacja, PsychologiaBiznesu, HR, Grywalizacja</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>NAJWAŻNIEJSZE INSIGHTS:<br>
70% pracowników jest niezaangażowanych - oto prawdziwe przyczyny. Jak personalizować zadania dla tysięcy pracowników dzięki AI? Dlaczego nagradzanie najlepszych może szkodzić zespołowi? Model przepływu (flow) jako fundament skutecznej gamifikacji. Jak łączyć naukę z pracą w czasie rzeczywistym? Różnica między AI a Intelligence Augmentation w praktyce.<br>
W najnowszym odcinku MIT SMRP rozmawiamy z Wojciechem Ozimkiem, założycielem i CEO firmy One2Tribe, o rewolucji w zarządzaniu zespołami. Odkryj, jak połączenie psychologii behawioralnej, sztucznej inteligencji i mądrej grywalizacji może zwiększyć zaangażowanie pracowników i budować kolektywną inteligencję organizacji.</p><p>Special Guest: Wojciech Ozimek.</p><p>Links:</p><ul><li><a title="Firma One2Tribe" rel="nofollow" href="https://www.one2tribe.pl/pl/home">Firma One2Tribe</a></li><li><a title="Platforma TribeWare" rel="nofollow" href="https://www.one2tribe.pl/solutions/tribeware-narzedzie-do-wprowadzania-procesow-w-firmie">Platforma TribeWare</a></li><li><a title="Artykuł „Kolektywna inteligencja: małymi krokami do dużej zmiany”, W. Ozimek, MIT SMRP" rel="nofollow" href="https://mitsmr.pl/innowacja/kolektywna-inteligencja-malymi-krokami-do-duzej-zmiany/">Artykuł „Kolektywna inteligencja: małymi krokami do dużej zmiany”, W. Ozimek, MIT SMRP</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>NAJWAŻNIEJSZE INSIGHTS:<br>
70% pracowników jest niezaangażowanych - oto prawdziwe przyczyny. Jak personalizować zadania dla tysięcy pracowników dzięki AI? Dlaczego nagradzanie najlepszych może szkodzić zespołowi? Model przepływu (flow) jako fundament skutecznej gamifikacji. Jak łączyć naukę z pracą w czasie rzeczywistym? Różnica między AI a Intelligence Augmentation w praktyce.<br>
W najnowszym odcinku MIT SMRP rozmawiamy z Wojciechem Ozimkiem, założycielem i CEO firmy One2Tribe, o rewolucji w zarządzaniu zespołami. Odkryj, jak połączenie psychologii behawioralnej, sztucznej inteligencji i mądrej grywalizacji może zwiększyć zaangażowanie pracowników i budować kolektywną inteligencję organizacji.</p><p>Special Guest: Wojciech Ozimek.</p><p>Links:</p><ul><li><a title="Firma One2Tribe" rel="nofollow" href="https://www.one2tribe.pl/pl/home">Firma One2Tribe</a></li><li><a title="Platforma TribeWare" rel="nofollow" href="https://www.one2tribe.pl/solutions/tribeware-narzedzie-do-wprowadzania-procesow-w-firmie">Platforma TribeWare</a></li><li><a title="Artykuł „Kolektywna inteligencja: małymi krokami do dużej zmiany”, W. Ozimek, MIT SMRP" rel="nofollow" href="https://mitsmr.pl/innowacja/kolektywna-inteligencja-malymi-krokami-do-duzej-zmiany/">Artykuł „Kolektywna inteligencja: małymi krokami do dużej zmiany”, W. Ozimek, MIT SMRP</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #10 Wojny kognitywne i suwerenność poznawcza. Czy AI to narzędzie psychomanipulacji? </title>
  <link>https://mitpolska.fireside.fm/czy-ai-to-narzedzie-psychomanipulacji</link>
  <guid isPermaLink="false">e6ea606f-0464-4e61-af3b-d944823c44ba</guid>
  <pubDate>Thu, 07 Aug 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/e6ea606f-0464-4e61-af3b-d944823c44ba.mp3" length="153463144" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą.</itunes:subtitle>
  <itunes:duration>1:46:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/e/e6ea606f-0464-4e61-af3b-d944823c44ba/cover.jpg?v=1"/>
  <description>W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych? Special Guest: Marta Chalimoniuk-Nowak.
</description>
  <itunes:keywords>AI, GenAI, LLM, LRM, cyberbezpieczeństwo, wojna kognitywna, psychomanipulacja, dezinformacja</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów</title>
  <link>https://mitpolska.fireside.fm/czym-jest-niestabilnosc-llm-lrm</link>
  <guid isPermaLink="false">c0c978df-1af4-4f7c-9b3d-9f01889339cf</guid>
  <pubDate>Fri, 11 Jul 2025 17:30:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/c0c978df-1af4-4f7c-9b3d-9f01889339cf.mp3" length="83032815" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. </itunes:subtitle>
  <itunes:duration>1:54:56</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/c/c0c978df-1af4-4f7c-9b3d-9f01889339cf/cover.jpg?v=1"/>
  <description>W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.
</description>
  <itunes:keywords>LLM, LRM, GenAI, AGI, sykofancja, prompt, engineering</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #8 Co AI robi z mózgami? Overreliance, deskilling i cyfrowa demencja</title>
  <link>https://mitpolska.fireside.fm/co-ai-robi-z-mozgami</link>
  <guid isPermaLink="false">568eac83-a222-40d2-b5e6-d93a742b2c17</guid>
  <pubDate>Thu, 26 Jun 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/568eac83-a222-40d2-b5e6-d93a742b2c17.mp3" length="72566263" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W ósmym odcinku "Limitów AI" rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe.</itunes:subtitle>
  <itunes:duration>1:40:36</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/568eac83-a222-40d2-b5e6-d93a742b2c17/cover.jpg?v=1"/>
  <description>W ósmym odcinku "Limitów AI" rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest "myślenie wolne" wg Kahnemana? Jak ma się do "growth mindset" i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać? Special Guest: dr Ewa Hartman.
</description>
  <itunes:keywords>neuroleadership, AI, GenAI, LLM, LRM, overreliance, deskilling, DigitalDementia, dopamina, DopamineDetox, GrowthMindset, FrancoisChollet, Kahneman</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W ósmym odcinku &quot;Limitów AI&quot; rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest &quot;myślenie wolne&quot; wg Kahnemana? Jak ma się do &quot;growth mindset&quot; i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać?</p><p>Special Guest: dr Ewa Hartman.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI" rel="nofollow" href="https://www.arxiv.org/abs/2506.11015">The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI</a></li><li><a title="AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking" rel="nofollow" href="https://www.mdpi.com/2075-4698/15/1/6">AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking</a></li><li><a title="The Impact of Generative AI on Critical Thinking" rel="nofollow" href="https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf">The Impact of Generative AI on Critical Thinking</a></li><li><a title="Francois Chollet o Systemie 1 i 2 Kahnemana" rel="nofollow" href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5250447">Francois Chollet o Systemie 1 i 2 Kahnemana</a></li><li><a title="Wprowadzenie do poglądów Francois Cholleta" rel="nofollow" href="https://www.linkedin.com/pulse/fran%C3%A7ois-chollet-wie-co-m%C3%B3wi-iwo-zmy%C5%9Blony-hvx8f/">Wprowadzenie do poglądów Francois Cholleta</a></li><li><a title="Growth mindset" rel="nofollow" href="https://www.linkedin.com/pulse/mindset-nie-jest-tym-czym-my%C5%9Blisz-iwo-zmy%C5%9Blony-lz2if/">Growth mindset</a></li><li><a title="Andrew Huberman o dopaminie" rel="nofollow" href="https://www.hubermanlab.com/episode/leverage-dopamine-to-overcome-procrastination-and-optimize-effort">Andrew Huberman o dopaminie</a></li><li><a title="Stresolubny mindset" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-alia-crum-science-of-mindsets-for-health-performance">Stresolubny mindset</a></li><li><a title="Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu" rel="nofollow" href="https://www.bee.pl/dobrostan-mozna-wycwiczyc-workbook-z-cwiczeniami-na-poprawe-dobrostanu_p2379193.html">Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W ósmym odcinku &quot;Limitów AI&quot; rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest &quot;myślenie wolne&quot; wg Kahnemana? Jak ma się do &quot;growth mindset&quot; i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać?</p><p>Special Guest: dr Ewa Hartman.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI" rel="nofollow" href="https://www.arxiv.org/abs/2506.11015">The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI</a></li><li><a title="AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking" rel="nofollow" href="https://www.mdpi.com/2075-4698/15/1/6">AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking</a></li><li><a title="The Impact of Generative AI on Critical Thinking" rel="nofollow" href="https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf">The Impact of Generative AI on Critical Thinking</a></li><li><a title="Francois Chollet o Systemie 1 i 2 Kahnemana" rel="nofollow" href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5250447">Francois Chollet o Systemie 1 i 2 Kahnemana</a></li><li><a title="Wprowadzenie do poglądów Francois Cholleta" rel="nofollow" href="https://www.linkedin.com/pulse/fran%C3%A7ois-chollet-wie-co-m%C3%B3wi-iwo-zmy%C5%9Blony-hvx8f/">Wprowadzenie do poglądów Francois Cholleta</a></li><li><a title="Growth mindset" rel="nofollow" href="https://www.linkedin.com/pulse/mindset-nie-jest-tym-czym-my%C5%9Blisz-iwo-zmy%C5%9Blony-lz2if/">Growth mindset</a></li><li><a title="Andrew Huberman o dopaminie" rel="nofollow" href="https://www.hubermanlab.com/episode/leverage-dopamine-to-overcome-procrastination-and-optimize-effort">Andrew Huberman o dopaminie</a></li><li><a title="Stresolubny mindset" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-alia-crum-science-of-mindsets-for-health-performance">Stresolubny mindset</a></li><li><a title="Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu" rel="nofollow" href="https://www.bee.pl/dobrostan-mozna-wycwiczyc-workbook-z-cwiczeniami-na-poprawe-dobrostanu_p2379193.html">Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #7 Kiedy (nie) ufać AI?</title>
  <link>https://mitpolska.fireside.fm/kiedy-nie-ufac-ai</link>
  <guid isPermaLink="false">6fea7e1a-148c-4898-99ad-9b13c08eedb4</guid>
  <pubDate>Thu, 29 May 2025 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/6fea7e1a-148c-4898-99ad-9b13c08eedb4.mp3" length="65305857" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn.</itunes:subtitle>
  <itunes:duration>1:30:37</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/6/6fea7e1a-148c-4898-99ad-9b13c08eedb4/cover.jpg?v=1"/>
  <description>W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega "automation bias"? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?
A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji? Special Guest: dr Marta Matylda Kania.
</description>
  <itunes:keywords>AI, GenAI, LLM, podcast, LimityAI, sykofancja, dezinformacja, misinformacja, deepfakes, myslenie, krytyczne, filozofia</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #6 Czy AI zabiera pracę programistom? Anatomia kryzysu w polskim IT</title>
  <link>https://mitpolska.fireside.fm/czy-ai-zabiera-prace-programistom</link>
  <guid isPermaLink="false">499b1dda-1783-4026-a4b6-aa693736e5a3</guid>
  <pubDate>Wed, 14 May 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/499b1dda-1783-4026-a4b6-aa693736e5a3.mp3" length="85618254" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W szóstym odcinku "Limitów AI" rozmawiamy o kryzysie na polskim rynku IT.</itunes:subtitle>
  <itunes:duration>1:58:49</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/4/499b1dda-1783-4026-a4b6-aa693736e5a3/cover.jpg?v=1"/>
  <description>W szóstym odcinku "Limitów AI" rozmawiamy o kryzysie na polskim rynku IT – czy mamy już do czynienia z krachem, czy jedynie z korektą? Z czego to się bierze i na czym właściwie polega? Dlaczego polskie firmy zwalniają programistów? Jakiego typu firmy? Jakich programistów? Czy ten trend się utrzyma? Co można przewidywać? Do jakiego stopnia to zasługa AI, a do jakiego tańszej siły roboczej z Wietnamu, Meksyku, Egiptu, Argentyny czy Indii?
Jak te zmiany wpływają na pracę programisty? Ile jest warta ta praca? Jakiej pracy biznes przestaje potrzebować, a jakiej poszukuje i nie może znaleźć? Co dziś musi umieć robić programista, aby wnosić wartość, której nie daje AI? Jak używać rozwiązań typu Cursor, Windsurf czy Replit? Jakie zadania i procesy warto augmentować?
Naszym gościem jest Wiktor Żołnowski – Co-CEO i Co-Founder Pragmatic Coders (zał. 2014), wcześniej Co-Founder Code Sprinters (zał. 2007). Doświadczony przedsiębiorca, menadżer, agile coach i programista. Inwestor i twórca startupów (m.in. Health Folder / Teczka Pacjenta). Pasjonat efektywności.
link do postu Wiktora na LinkedIn, który omawiamy:
https://www.linkedin.com/posts/wiktorzolnowskiczytam-tutaj-ostatnio-sporo-post%C3%B3w-programist%C3%B3w-activity-7322240527582539776-wwd
 Special Guest: Wiktor Żołnowski.
</description>
  <itunes:keywords>AI, IT, no code,</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W szóstym odcinku &quot;Limitów AI&quot; rozmawiamy o kryzysie na polskim rynku IT – czy mamy już do czynienia z krachem, czy jedynie z korektą? Z czego to się bierze i na czym właściwie polega? Dlaczego polskie firmy zwalniają programistów? Jakiego typu firmy? Jakich programistów? Czy ten trend się utrzyma? Co można przewidywać? Do jakiego stopnia to zasługa AI, a do jakiego tańszej siły roboczej z Wietnamu, Meksyku, Egiptu, Argentyny czy Indii?</p>

<p>Jak te zmiany wpływają na pracę programisty? Ile jest warta ta praca? Jakiej pracy biznes przestaje potrzebować, a jakiej poszukuje i nie może znaleźć? Co dziś musi umieć robić programista, aby wnosić wartość, której nie daje AI? Jak używać rozwiązań typu Cursor, Windsurf czy Replit? Jakie zadania i procesy warto augmentować?</p>

<p>Naszym gościem jest Wiktor Żołnowski – Co-CEO i Co-Founder Pragmatic Coders (zał. 2014), wcześniej Co-Founder Code Sprinters (zał. 2007). Doświadczony przedsiębiorca, menadżer, agile coach i programista. Inwestor i twórca startupów (m.in. Health Folder / Teczka Pacjenta). Pasjonat efektywności.</p>

<p>link do postu Wiktora na LinkedIn, który omawiamy:<br>
<a href="https://www.linkedin.com/posts/wiktorzolnowski_czytam-tutaj-ostatnio-sporo-post%C3%B3w-programist%C3%B3w-activity-7322240527582539776-w_wd" rel="nofollow">https://www.linkedin.com/posts/wiktorzolnowski_czytam-tutaj-ostatnio-sporo-post%C3%B3w-programist%C3%B3w-activity-7322240527582539776-w_wd</a></p><p>Special Guest: Wiktor Żołnowski.</p><p>Links:</p><ul><li><a title="Automatyzacja powodem co drugiego zwolnienia pracownika w IT" rel="nofollow" href="https://biuroprasowe.manpowergroup.pl/393180-automatyzacja-powodem-co-drugiego-zwolnienia-pracownika-w-it">Automatyzacja powodem co drugiego zwolnienia pracownika w IT</a></li><li><a title="Turbulencje na rynku pracy w Krakowie" rel="nofollow" href="https://wiadomosci.onet.pl/tylko-w-onecie/turbulencje-na-rynku-pracy-w-krakowie-trend-bedzie-sie-utrzymywal/x2gp15n">Turbulencje na rynku pracy w Krakowie</a></li><li><a title="Nie krach a korekta, co czeka polski rynek IT" rel="nofollow" href="https://businessinsider.com.pl/praca/nie-krach-a-korekta-co-czeka-polski-rynek-it-w-najblizszych-latach/rpj0tyz">Nie krach a korekta, co czeka polski rynek IT</a></li><li><a title="Koniec ery pobłażliwości, branża IT zmienia zasady" rel="nofollow" href="https://businessinsider.com.pl/praca/koniec-ery-poblazliwosci-branza-it-zmienia-zasady/mfnvwn5">Koniec ery pobłażliwości, branża IT zmienia zasady</a></li><li><a title="Multiagentowy system dla marketingu" rel="nofollow" href="https://www.circmodel.com/">Multiagentowy system dla marketingu</a></li><li><a title=" Inteligencja kolektywna (mrówki a ludzie):" rel="nofollow" href="https://www.pnas.org/doi/10.1073/pnas.2414274121"> Inteligencja kolektywna (mrówki a ludzie):</a></li><li><a title="Alan Schore o synchronii neurologicznej" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-allan-schore-how-relationships-shape-your-brain">Alan Schore o synchronii neurologicznej</a></li><li><a title="Cynefin Framework:" rel="nofollow" href="https://youtu.be/N7oz366X0-8?si=6T8aecuXZSCElEBp&amp;t=85">Cynefin Framework:</a></li><li><a title="Agile manifesto" rel="nofollow" href="https://agilemanifesto.org/">Agile manifesto</a></li><li><a title="Mathew Walker o śnie" rel="nofollow" href="https://www.hubermanlab.com/episode/guest-series-dr-matthew-walker-the-biology-of-sleep-your-unique-sleep-needs">Mathew Walker o śnie</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W szóstym odcinku &quot;Limitów AI&quot; rozmawiamy o kryzysie na polskim rynku IT – czy mamy już do czynienia z krachem, czy jedynie z korektą? Z czego to się bierze i na czym właściwie polega? Dlaczego polskie firmy zwalniają programistów? Jakiego typu firmy? Jakich programistów? Czy ten trend się utrzyma? Co można przewidywać? Do jakiego stopnia to zasługa AI, a do jakiego tańszej siły roboczej z Wietnamu, Meksyku, Egiptu, Argentyny czy Indii?</p>

<p>Jak te zmiany wpływają na pracę programisty? Ile jest warta ta praca? Jakiej pracy biznes przestaje potrzebować, a jakiej poszukuje i nie może znaleźć? Co dziś musi umieć robić programista, aby wnosić wartość, której nie daje AI? Jak używać rozwiązań typu Cursor, Windsurf czy Replit? Jakie zadania i procesy warto augmentować?</p>

<p>Naszym gościem jest Wiktor Żołnowski – Co-CEO i Co-Founder Pragmatic Coders (zał. 2014), wcześniej Co-Founder Code Sprinters (zał. 2007). Doświadczony przedsiębiorca, menadżer, agile coach i programista. Inwestor i twórca startupów (m.in. Health Folder / Teczka Pacjenta). Pasjonat efektywności.</p>

<p>link do postu Wiktora na LinkedIn, który omawiamy:<br>
<a href="https://www.linkedin.com/posts/wiktorzolnowski_czytam-tutaj-ostatnio-sporo-post%C3%B3w-programist%C3%B3w-activity-7322240527582539776-w_wd" rel="nofollow">https://www.linkedin.com/posts/wiktorzolnowski_czytam-tutaj-ostatnio-sporo-post%C3%B3w-programist%C3%B3w-activity-7322240527582539776-w_wd</a></p><p>Special Guest: Wiktor Żołnowski.</p><p>Links:</p><ul><li><a title="Automatyzacja powodem co drugiego zwolnienia pracownika w IT" rel="nofollow" href="https://biuroprasowe.manpowergroup.pl/393180-automatyzacja-powodem-co-drugiego-zwolnienia-pracownika-w-it">Automatyzacja powodem co drugiego zwolnienia pracownika w IT</a></li><li><a title="Turbulencje na rynku pracy w Krakowie" rel="nofollow" href="https://wiadomosci.onet.pl/tylko-w-onecie/turbulencje-na-rynku-pracy-w-krakowie-trend-bedzie-sie-utrzymywal/x2gp15n">Turbulencje na rynku pracy w Krakowie</a></li><li><a title="Nie krach a korekta, co czeka polski rynek IT" rel="nofollow" href="https://businessinsider.com.pl/praca/nie-krach-a-korekta-co-czeka-polski-rynek-it-w-najblizszych-latach/rpj0tyz">Nie krach a korekta, co czeka polski rynek IT</a></li><li><a title="Koniec ery pobłażliwości, branża IT zmienia zasady" rel="nofollow" href="https://businessinsider.com.pl/praca/koniec-ery-poblazliwosci-branza-it-zmienia-zasady/mfnvwn5">Koniec ery pobłażliwości, branża IT zmienia zasady</a></li><li><a title="Multiagentowy system dla marketingu" rel="nofollow" href="https://www.circmodel.com/">Multiagentowy system dla marketingu</a></li><li><a title=" Inteligencja kolektywna (mrówki a ludzie):" rel="nofollow" href="https://www.pnas.org/doi/10.1073/pnas.2414274121"> Inteligencja kolektywna (mrówki a ludzie):</a></li><li><a title="Alan Schore o synchronii neurologicznej" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-allan-schore-how-relationships-shape-your-brain">Alan Schore o synchronii neurologicznej</a></li><li><a title="Cynefin Framework:" rel="nofollow" href="https://youtu.be/N7oz366X0-8?si=6T8aecuXZSCElEBp&amp;t=85">Cynefin Framework:</a></li><li><a title="Agile manifesto" rel="nofollow" href="https://agilemanifesto.org/">Agile manifesto</a></li><li><a title="Mathew Walker o śnie" rel="nofollow" href="https://www.hubermanlab.com/episode/guest-series-dr-matthew-walker-the-biology-of-sleep-your-unique-sleep-needs">Mathew Walker o śnie</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #5 Wpływ AI na gospodarkę — co przewidywać? Jak mierzyć?</title>
  <link>https://mitpolska.fireside.fm/andrzej-kubisiak-wpyw-ai-na-gospodarke</link>
  <guid isPermaLink="false">73740972-c8b5-4de3-bc65-570e44a6fa28</guid>
  <pubDate>Wed, 30 Apr 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/73740972-c8b5-4de3-bc65-570e44a6fa28.mp3" length="75642491" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Rozmawiamy o kontrowersjach wokół wpływu AI na gospodarkę oraz rynek pracy.</itunes:subtitle>
  <itunes:duration>1:44:58</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/7/73740972-c8b5-4de3-bc65-570e44a6fa28/cover.jpg?v=1"/>
  <description>W piątym odcinku "Limitów AI" rozmawiamy o kontrowersjach wokół wpływu AI na gospodarkę oraz rynek pracy. Czy ten wpływ jest już dzisiaj ekonomicznie zauważalny? Jak go w ogóle mierzyć? Czy PKB jest adekwatnym wskaźnikiem tego wpływu? Skąd skrajnie rozbieżne szacunki w jego wyliczeniach -- od 1,5-3% RdR (Goldman Sachs), aż do znikomych 0,1% RdR (Daron Acemoglu)? Jakie sektory skorzystają najbardziej? Jakie sektory stracą? Stracą w jakim sensie? Jak traktować scenariusze całkowitej automatyzacji gospodarki? Co z nami, gdy nasza praca przestanie być potrzebna?
 Special Guest: Andrzej Kubisiak.
</description>
  <itunes:keywords>AI, nowe technologie, cyfryzacja</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W piątym odcinku &quot;Limitów AI&quot; rozmawiamy o kontrowersjach wokół wpływu AI na gospodarkę oraz rynek pracy. Czy ten wpływ jest już dzisiaj ekonomicznie zauważalny? Jak go w ogóle mierzyć? Czy PKB jest adekwatnym wskaźnikiem tego wpływu? Skąd skrajnie rozbieżne szacunki w jego wyliczeniach -- od 1,5-3% RdR (Goldman Sachs), aż do znikomych 0,1% RdR (Daron Acemoglu)? Jakie sektory skorzystają najbardziej? Jakie sektory stracą? Stracą w jakim sensie? Jak traktować scenariusze całkowitej automatyzacji gospodarki? Co z nami, gdy nasza praca przestanie być potrzebna?</p><p>Special Guest: Andrzej Kubisiak.</p><p>Links:</p><ul><li><a title="Jakub Borowiec, &quot;AI hype -- kto ma w tym interes&quot; (luty 2025)" rel="nofollow" href="https://www.linkedin.com/pulse/ai-hype-czyli-kto-ma-w-tym-interes-jakub-borowiec-spizf/">Jakub Borowiec, "AI hype -- kto ma w tym interes" (luty 2025)</a></li><li><a title="Jan Kulveit (i in.), &quot;Gradual Disempowerment: Systemic Existential Risks (styczeń 2025)" rel="nofollow" href="https://arxiv.org/abs/2501.16946">Jan Kulveit (i in.), "Gradual Disempowerment: Systemic Existential Risks (styczeń 2025)</a></li><li><a title="McKinsey, &quot;The State of AI&quot; (marzec 2025)" rel="nofollow" href="https://www.mckinsey.org/our-insights/the-state-of-ai">McKinsey, "The State of AI" (marzec 2025)</a></li><li><a title="Daron Acemoglu, &quot;The Simple Macroeconomics of AI&quot; (kwiecień 2024)" rel="nofollow" href="https://shapingwork.mit.edu/research/the-simple-macroeconomics-of-ai/">Daron Acemoglu, "The Simple Macroeconomics of AI" (kwiecień 2024)</a></li><li><a title="Goldman Sachs, &quot;Generative AI could raise global GDP by 7%&quot; (kwiecień 2023)" rel="nofollow" href="https://www.goldmansachs.com/insights/articles/generative-ai-could-raise-global-gdp-by-7-percent">Goldman Sachs, "Generative AI could raise global GDP by 7%" (kwiecień 2023)</a></li><li><a title="EY Polska, &quot;Jak AI wpłynie na gospodarkę Polski w najbliższej dekadzie? I jak wypadamy na tle innych?&quot; (luty 2025)" rel="nofollow" href="https://www.ey.com/pl_pl/newsroom/2025/01/ey-wplyw-ai-gospodarka-polska">EY Polska, "Jak AI wpłynie na gospodarkę Polski w najbliższej dekadzie? I jak wypadamy na tle innych?" (luty 2025)</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W piątym odcinku &quot;Limitów AI&quot; rozmawiamy o kontrowersjach wokół wpływu AI na gospodarkę oraz rynek pracy. Czy ten wpływ jest już dzisiaj ekonomicznie zauważalny? Jak go w ogóle mierzyć? Czy PKB jest adekwatnym wskaźnikiem tego wpływu? Skąd skrajnie rozbieżne szacunki w jego wyliczeniach -- od 1,5-3% RdR (Goldman Sachs), aż do znikomych 0,1% RdR (Daron Acemoglu)? Jakie sektory skorzystają najbardziej? Jakie sektory stracą? Stracą w jakim sensie? Jak traktować scenariusze całkowitej automatyzacji gospodarki? Co z nami, gdy nasza praca przestanie być potrzebna?</p><p>Special Guest: Andrzej Kubisiak.</p><p>Links:</p><ul><li><a title="Jakub Borowiec, &quot;AI hype -- kto ma w tym interes&quot; (luty 2025)" rel="nofollow" href="https://www.linkedin.com/pulse/ai-hype-czyli-kto-ma-w-tym-interes-jakub-borowiec-spizf/">Jakub Borowiec, "AI hype -- kto ma w tym interes" (luty 2025)</a></li><li><a title="Jan Kulveit (i in.), &quot;Gradual Disempowerment: Systemic Existential Risks (styczeń 2025)" rel="nofollow" href="https://arxiv.org/abs/2501.16946">Jan Kulveit (i in.), "Gradual Disempowerment: Systemic Existential Risks (styczeń 2025)</a></li><li><a title="McKinsey, &quot;The State of AI&quot; (marzec 2025)" rel="nofollow" href="https://www.mckinsey.org/our-insights/the-state-of-ai">McKinsey, "The State of AI" (marzec 2025)</a></li><li><a title="Daron Acemoglu, &quot;The Simple Macroeconomics of AI&quot; (kwiecień 2024)" rel="nofollow" href="https://shapingwork.mit.edu/research/the-simple-macroeconomics-of-ai/">Daron Acemoglu, "The Simple Macroeconomics of AI" (kwiecień 2024)</a></li><li><a title="Goldman Sachs, &quot;Generative AI could raise global GDP by 7%&quot; (kwiecień 2023)" rel="nofollow" href="https://www.goldmansachs.com/insights/articles/generative-ai-could-raise-global-gdp-by-7-percent">Goldman Sachs, "Generative AI could raise global GDP by 7%" (kwiecień 2023)</a></li><li><a title="EY Polska, &quot;Jak AI wpłynie na gospodarkę Polski w najbliższej dekadzie? I jak wypadamy na tle innych?&quot; (luty 2025)" rel="nofollow" href="https://www.ey.com/pl_pl/newsroom/2025/01/ey-wplyw-ai-gospodarka-polska">EY Polska, "Jak AI wpłynie na gospodarkę Polski w najbliższej dekadzie? I jak wypadamy na tle innych?" (luty 2025)</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #3 Agenty AI – kiedy (nie) wdrażać?</title>
  <link>https://mitpolska.fireside.fm/kamilstanuch</link>
  <guid isPermaLink="false">9ef7ed92-3cc5-4475-9fd0-4279ee001ddc</guid>
  <pubDate>Thu, 03 Apr 2025 17:45:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/9ef7ed92-3cc5-4475-9fd0-4279ee001ddc.mp3" length="59255428" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Jak nie wdrażać? Jakie błędy najczęściej popełniamy?</itunes:subtitle>
  <itunes:duration>1:22:05</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/9/9ef7ed92-3cc5-4475-9fd0-4279ee001ddc/cover.jpg?v=1"/>
  <description>Z rozmowy dowiesz się m.in.
— Co to są Agenty AI? Jak mają się do LLM?
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?
— Jak wdrażać agentów do biznesu? Od czego zacząć?
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?
1) Newsletter Kamila: https://kamilstanuch.substack.com/
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: https://jobforagent.com/
3) Wywiad z twórcami JobForAgent.com: https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T
 Special Guest: Kamil Stanuch.
</description>
  <itunes:keywords>ai, agent, LLM, halucynacje, </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiesz się m.in.</p>

<p>— Co to są Agenty AI? Jak mają się do LLM?<br>
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?<br>
— Jak wdrażać agentów do biznesu? Od czego zacząć?<br>
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?<br>
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?</p>

<p>1) Newsletter Kamila: <a href="https://kamilstanuch.substack.com/" rel="nofollow">https://kamilstanuch.substack.com/</a><br>
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: <a href="https://jobforagent.com/" rel="nofollow">https://jobforagent.com/</a><br>
3) Wywiad z twórcami JobForAgent.com: <a href="https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T" rel="nofollow">https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T</a></p><p>Special Guest: Kamil Stanuch.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiesz się m.in.</p>

<p>— Co to są Agenty AI? Jak mają się do LLM?<br>
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?<br>
— Jak wdrażać agentów do biznesu? Od czego zacząć?<br>
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?<br>
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?</p>

<p>1) Newsletter Kamila: <a href="https://kamilstanuch.substack.com/" rel="nofollow">https://kamilstanuch.substack.com/</a><br>
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: <a href="https://jobforagent.com/" rel="nofollow">https://jobforagent.com/</a><br>
3) Wywiad z twórcami JobForAgent.com: <a href="https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T" rel="nofollow">https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T</a></p><p>Special Guest: Kamil Stanuch.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #2 Jak higienicznie korzystać z AI?</title>
  <link>https://mitpolska.fireside.fm/jak-higienicznie-korzystac-z-ai</link>
  <guid isPermaLink="false">21dc923a-485a-4c02-a11d-bab5e14f9bf0</guid>
  <pubDate>Fri, 21 Mar 2025 09:15:00 +0100</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/21dc923a-485a-4c02-a11d-bab5e14f9bf0.mp3" length="62429928" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Z Filipem rozmawiamy jak higienicznie korzystać z AI</itunes:subtitle>
  <itunes:duration>1:26:21</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/2/21dc923a-485a-4c02-a11d-bab5e14f9bf0/cover.jpg?v=1"/>
  <description>Czym jest technohumanizm?
Co znaczy być dziś dobrym przodkiem?
Kiedy korzystanie z AI może nam zaszkodzić? Jak się przed tym chronić?
Które nasze zadania i procesy będą automatyzowane w pierwszej kolejności?
Komu będzie potrzebna ludzka kreatywność i do jakiego stopnia ją można zautomatyzować?
Jakie ryzyka, napięcia i potencjalne koszty generuje wdrażanie AI do organizacji?
Jakie wyzwania dla HR generuje AI?
Przywoływane źródła:
Ben Affleck o AI: https://www.youtube.com/watch?v=O9o1YYjbjb0
GPT4 przechodzi test Turinga: https://arxiv.org/html/2405.08007v1
Magda Bigaj -- "Wychowanie przy ekranie": https://cyfroweobywatelstwo.pl/bigaj-wychowanie-przy-ekranie/
Jonathan Haidt -- "The Anxious Generation": https://www.anxiousgeneration.com/ Special Guest: Filip Dębowski.
</description>
  <itunes:keywords>ai, technohumanizm, humanizm, genz, higiena, cyfrowa, kompetencje, cyfrowe, przyszłości, HR, kultura organizacyjna</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Czym jest technohumanizm?<br>
Co znaczy być dziś dobrym przodkiem?<br>
Kiedy korzystanie z AI może nam zaszkodzić? Jak się przed tym chronić?<br>
Które nasze zadania i procesy będą automatyzowane w pierwszej kolejności?<br>
Komu będzie potrzebna ludzka kreatywność i do jakiego stopnia ją można zautomatyzować?<br>
Jakie ryzyka, napięcia i potencjalne koszty generuje wdrażanie AI do organizacji?<br>
Jakie wyzwania dla HR generuje AI?</p>

<p>Przywoływane źródła:</p>

<p>Ben Affleck o AI: <a href="https://www.youtube.com/watch?v=O9o1YYjbjb0" rel="nofollow">https://www.youtube.com/watch?v=O9o1YYjbjb0</a></p>

<p>GPT4 przechodzi test Turinga: <a href="https://arxiv.org/html/2405.08007v1" rel="nofollow">https://arxiv.org/html/2405.08007v1</a></p>

<p>Magda Bigaj -- &quot;Wychowanie przy ekranie&quot;: <a href="https://cyfroweobywatelstwo.pl/bigaj-wychowanie-przy-ekranie/" rel="nofollow">https://cyfroweobywatelstwo.pl/bigaj-wychowanie-przy-ekranie/</a></p>

<p>Jonathan Haidt -- &quot;The Anxious Generation&quot;: <a href="https://www.anxiousgeneration.com/" rel="nofollow">https://www.anxiousgeneration.com/</a></p><p>Special Guest: Filip Dębowski.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Czym jest technohumanizm?<br>
Co znaczy być dziś dobrym przodkiem?<br>
Kiedy korzystanie z AI może nam zaszkodzić? Jak się przed tym chronić?<br>
Które nasze zadania i procesy będą automatyzowane w pierwszej kolejności?<br>
Komu będzie potrzebna ludzka kreatywność i do jakiego stopnia ją można zautomatyzować?<br>
Jakie ryzyka, napięcia i potencjalne koszty generuje wdrażanie AI do organizacji?<br>
Jakie wyzwania dla HR generuje AI?</p>

<p>Przywoływane źródła:</p>

<p>Ben Affleck o AI: <a href="https://www.youtube.com/watch?v=O9o1YYjbjb0" rel="nofollow">https://www.youtube.com/watch?v=O9o1YYjbjb0</a></p>

<p>GPT4 przechodzi test Turinga: <a href="https://arxiv.org/html/2405.08007v1" rel="nofollow">https://arxiv.org/html/2405.08007v1</a></p>

<p>Magda Bigaj -- &quot;Wychowanie przy ekranie&quot;: <a href="https://cyfroweobywatelstwo.pl/bigaj-wychowanie-przy-ekranie/" rel="nofollow">https://cyfroweobywatelstwo.pl/bigaj-wychowanie-przy-ekranie/</a></p>

<p>Jonathan Haidt -- &quot;The Anxious Generation&quot;: <a href="https://www.anxiousgeneration.com/" rel="nofollow">https://www.anxiousgeneration.com/</a></p><p>Special Guest: Filip Dębowski.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #1 Na co powinien biznes uważać przy wdrażaniu AI</title>
  <link>https://mitpolska.fireside.fm/jakich-bledow-unikac-przy-wdrazaniu-ai</link>
  <guid isPermaLink="false">0704e155-ec27-4468-a06e-07ae84cb7e01</guid>
  <pubDate>Thu, 06 Mar 2025 07:30:00 +0100</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/0704e155-ec27-4468-a06e-07ae84cb7e01.mp3" length="58402357" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Z Markiem Adamskim z Uczelni Łazarskiego rozmawiamy o tym jakich błędów unikać przy wdrażaniu AI do organizacji</itunes:subtitle>
  <itunes:duration>1:20:58</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/0/0704e155-ec27-4468-a06e-07ae84cb7e01/cover.jpg?v=1"/>
  <description>Czego się dowiecie?
* Jak wdrażać AI i jak tego nie robić?
* Od czego zacząć? Jakich błędów unikać?
* Czego nas uczą historie sukcesów i porażek wdrożeniowych?
* Jakie wyzwania, ryzyka i ograniczenia warto wziąć pod uwagę?
* Dlaczego polski biznes jest na szarym końcu pod względem zakresu wdrożeń w skali Europy? Special Guest: Marek Adamski.
</description>
  <itunes:keywords>AI, strategia, zarządzanie, zmiana, transformacja, lider, przywództwo, MBA, kompetencje przyszłości, kompetencje miękkie</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Czego się dowiecie?</p>

<ul>
<li>Jak wdrażać AI i jak tego nie robić?</li>
<li>Od czego zacząć? Jakich błędów unikać?</li>
<li>Czego nas uczą historie sukcesów i porażek wdrożeniowych?</li>
<li>Jakie wyzwania, ryzyka i ograniczenia warto wziąć pod uwagę?</li>
<li>Dlaczego polski biznes jest na szarym końcu pod względem zakresu wdrożeń w skali Europy?</li>
</ul><p>Special Guest: Marek Adamski.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Czego się dowiecie?</p>

<ul>
<li>Jak wdrażać AI i jak tego nie robić?</li>
<li>Od czego zacząć? Jakich błędów unikać?</li>
<li>Czego nas uczą historie sukcesów i porażek wdrożeniowych?</li>
<li>Jakie wyzwania, ryzyka i ograniczenia warto wziąć pod uwagę?</li>
<li>Dlaczego polski biznes jest na szarym końcu pod względem zakresu wdrożeń w skali Europy?</li>
</ul><p>Special Guest: Marek Adamski.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Women in the tech business</title>
  <link>https://mitpolska.fireside.fm/women-in-the-tech-business</link>
  <guid isPermaLink="false">534f41ea-9ba2-41a4-9e95-598739c51686</guid>
  <pubDate>Fri, 16 Sep 2022 15:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/534f41ea-9ba2-41a4-9e95-598739c51686.mp3" length="20266623" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Ulrika Jägare opracowała pierwszą strategię sztucznej inteligencji (AI) dla międzynarodowej firmy telekomunikacyjnej Ericsson, a aktualnie kieruje globalną inicjatywą AI i automatyzacji w obszarze Internetu Rzeczy. Marie Hogan kierowała natomiast w Ericsson zespołami odpowiedzialnymi za rozwój sieci 4G i 5G, a dziś koncentruje się na wprowadzeniu sieci 6G. W podcaście "MIT Sloan Management Review Polska" opowiedziały o technologiach, nad którymi pracują oraz o sytuacji kobiet w technologicznym biznesie. Rozmawia Maria Korcz.</itunes:subtitle>
  <itunes:duration>28:07</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/534f41ea-9ba2-41a4-9e95-598739c51686/cover.jpg?v=1"/>
  <description>Ulrika Jägare opracowała pierwszą strategię sztucznej inteligencji (AI) dla międzynarodowej firmy telekomunikacyjnej Ericsson, a aktualnie kieruje globalną inicjatywą AI i automatyzacji w obszarze Internetu Rzeczy. Marie Hogan kierowała natomiast w Ericsson zespołami odpowiedzialnymi za rozwój sieci 4G i 5G, a dziś koncentruje się na wprowadzeniu sieci 6G. W podcaście "MIT Sloan Management Review Polska" opowiedziały o technologiach, nad którymi pracują oraz o sytuacji kobiet w technologicznym biznesie. Rozmawia Maria Korcz.
Z podcastu dowiesz się m.in.:
* Czym technologia 6G będzie różnić się od dotychczasowych technologii komunikacyjnych
* Jak sztuczna inteligencja zmieni biznes w nadchodzących latach
* Czy stereotyp o tym, że branża technologiczna to działka mężczyzn jest wciąż aktualny
* Dlaczego obecność kobiet w biznesie technologicznym jest ważna
 Special Guests: Marie Hogan and Ulrika Jägare.
</description>
  <itunes:keywords>AI,6G, Ericsson</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Ulrika Jägare opracowała pierwszą strategię sztucznej inteligencji (AI) dla międzynarodowej firmy telekomunikacyjnej Ericsson, a aktualnie kieruje globalną inicjatywą AI i automatyzacji w obszarze Internetu Rzeczy. Marie Hogan kierowała natomiast w Ericsson zespołami odpowiedzialnymi za rozwój sieci 4G i 5G, a dziś koncentruje się na wprowadzeniu sieci 6G. W podcaście &quot;MIT Sloan Management Review Polska&quot; opowiedziały o technologiach, nad którymi pracują oraz o sytuacji kobiet w technologicznym biznesie. Rozmawia Maria Korcz.</p>

<p>Z podcastu dowiesz się m.in.:</p>

<ul>
<li>Czym technologia 6G będzie różnić się od dotychczasowych technologii komunikacyjnych</li>
<li>Jak sztuczna inteligencja zmieni biznes w nadchodzących latach</li>
<li>Czy stereotyp o tym, że branża technologiczna to działka mężczyzn jest wciąż aktualny</li>
<li>Dlaczego obecność kobiet w biznesie technologicznym jest ważna</li>
</ul><p>Special Guests: Marie Hogan and Ulrika Jägare.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Ulrika Jägare opracowała pierwszą strategię sztucznej inteligencji (AI) dla międzynarodowej firmy telekomunikacyjnej Ericsson, a aktualnie kieruje globalną inicjatywą AI i automatyzacji w obszarze Internetu Rzeczy. Marie Hogan kierowała natomiast w Ericsson zespołami odpowiedzialnymi za rozwój sieci 4G i 5G, a dziś koncentruje się na wprowadzeniu sieci 6G. W podcaście &quot;MIT Sloan Management Review Polska&quot; opowiedziały o technologiach, nad którymi pracują oraz o sytuacji kobiet w technologicznym biznesie. Rozmawia Maria Korcz.</p>

<p>Z podcastu dowiesz się m.in.:</p>

<ul>
<li>Czym technologia 6G będzie różnić się od dotychczasowych technologii komunikacyjnych</li>
<li>Jak sztuczna inteligencja zmieni biznes w nadchodzących latach</li>
<li>Czy stereotyp o tym, że branża technologiczna to działka mężczyzn jest wciąż aktualny</li>
<li>Dlaczego obecność kobiet w biznesie technologicznym jest ważna</li>
</ul><p>Special Guests: Marie Hogan and Ulrika Jägare.</p>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
