<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web02.fireside.fm</fireside:hostname>
    <fireside:genDate>Sun, 12 Apr 2026 09:08:22 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Halucynacje”</title>
    <link>https://mitpolska.fireside.fm/tags/halucynacje</link>
    <pubDate>Thu, 23 Oct 2025 17:00:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja</title>
  <link>https://mitpolska.fireside.fm/komputacyjnosc-a-inteligencja</link>
  <guid isPermaLink="false">5c34d784-4d55-4a78-9bcb-351df990fa2b</guid>
  <pubDate>Thu, 23 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/5c34d784-4d55-4a78-9bcb-351df990fa2b.mp3" length="91213572" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W drugiej części rozmowy z profesorem Michałem Karpowiczem omawiamy praktyczne konsekwencje przeprowadzonego przezeń dowodu na nieusuwalność tzw. halucynacji oraz proponowane przezeń strategie jak niwelować ryzyka z tym związane. Na marginesie rozmawiamy o twierdzeniu Goedla i jego praktycznych skutkach dla inżynierii AI oraz interpretacjach proponowanych m.in. przez Turinga i Penrose'a.</itunes:subtitle>
  <itunes:duration>2:05:09</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/5c34d784-4d55-4a78-9bcb-351df990fa2b/cover.jpg?v=3"/>
  <description> Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.
Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji. Special Guest: prof. Michał Karpowicz.
</description>
  <itunes:keywords>AI, LLM, LRM, AGI, halucynacje</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #12 Dlaczego LLMy nie mogą przestać kłamać?</title>
  <link>https://mitpolska.fireside.fm/dlaczego-llmy-nie-moga-przestac-klamac</link>
  <guid isPermaLink="false">dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8</guid>
  <pubDate>Thu, 09 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8.mp3" length="120511355" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</itunes:subtitle>
  <itunes:duration>2:04:29</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/d/dce1b00e-c1b4-4cdb-90f3-d02567c2d0e8/cover.jpg?v=2"/>
  <description>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i "rozproszonego" przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.
Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. 
Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. "man in the loop").
A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów? Special Guest: prof. Michał Karpowicz.
</description>
  <itunes:keywords>halucynacje, konfabulacje, LLM, LRM, AI, MIT</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i &quot;rozproszonego&quot; przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.</p>

<p>Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. </p>

<p>Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. &quot;man in the loop&quot;).</p>

<p>A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</p><p>Special Guest: prof. Michał Karpowicz.</p><p>Links:</p><ul><li><a title="On the Fundamental Impossibility of Hallucination Control in Large Language Models" rel="nofollow" href="https://arxiv.org/abs/2506.06382">On the Fundamental Impossibility of Hallucination Control in Large Language Models</a></li><li><a title="Dlaczego modele językowe halucynują?" rel="nofollow" href="https://openai.com/pl-PL/index/why-language-models-hallucinate/">Dlaczego modele językowe halucynują?</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i &quot;rozproszonego&quot; przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem.</p>

<p>Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. </p>

<p>Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. &quot;man in the loop&quot;).</p>

<p>A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów?</p><p>Special Guest: prof. Michał Karpowicz.</p><p>Links:</p><ul><li><a title="On the Fundamental Impossibility of Hallucination Control in Large Language Models" rel="nofollow" href="https://arxiv.org/abs/2506.06382">On the Fundamental Impossibility of Hallucination Control in Large Language Models</a></li><li><a title="Dlaczego modele językowe halucynują?" rel="nofollow" href="https://openai.com/pl-PL/index/why-language-models-hallucinate/">Dlaczego modele językowe halucynują?</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #3 Agenty AI – kiedy (nie) wdrażać?</title>
  <link>https://mitpolska.fireside.fm/kamilstanuch</link>
  <guid isPermaLink="false">9ef7ed92-3cc5-4475-9fd0-4279ee001ddc</guid>
  <pubDate>Thu, 03 Apr 2025 17:45:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/9ef7ed92-3cc5-4475-9fd0-4279ee001ddc.mp3" length="59255428" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Jak nie wdrażać? Jakie błędy najczęściej popełniamy?</itunes:subtitle>
  <itunes:duration>1:22:05</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/9/9ef7ed92-3cc5-4475-9fd0-4279ee001ddc/cover.jpg?v=1"/>
  <description>Z rozmowy dowiesz się m.in.
— Co to są Agenty AI? Jak mają się do LLM?
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?
— Jak wdrażać agentów do biznesu? Od czego zacząć?
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?
1) Newsletter Kamila: https://kamilstanuch.substack.com/
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: https://jobforagent.com/
3) Wywiad z twórcami JobForAgent.com: https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T
 Special Guest: Kamil Stanuch.
</description>
  <itunes:keywords>ai, agent, LLM, halucynacje, </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiesz się m.in.</p>

<p>— Co to są Agenty AI? Jak mają się do LLM?<br>
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?<br>
— Jak wdrażać agentów do biznesu? Od czego zacząć?<br>
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?<br>
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?</p>

<p>1) Newsletter Kamila: <a href="https://kamilstanuch.substack.com/" rel="nofollow">https://kamilstanuch.substack.com/</a><br>
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: <a href="https://jobforagent.com/" rel="nofollow">https://jobforagent.com/</a><br>
3) Wywiad z twórcami JobForAgent.com: <a href="https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T" rel="nofollow">https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T</a></p><p>Special Guest: Kamil Stanuch.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiesz się m.in.</p>

<p>— Co to są Agenty AI? Jak mają się do LLM?<br>
— Kiedy z nich korzystać? Do jakich zadań ich potrzebujemy?<br>
— Jak wdrażać agentów do biznesu? Od czego zacząć?<br>
— Jak nie wdrażać? Jakie błędy najczęściej popełniamy?<br>
— Czy agenty mogą halucynować? Czy mogą wymknąć się spod kontroli?</p>

<p>1) Newsletter Kamila: <a href="https://kamilstanuch.substack.com/" rel="nofollow">https://kamilstanuch.substack.com/</a><br>
2) Pierwsze na świecie pośrednictwo pracy dla agentów AI: <a href="https://jobforagent.com/" rel="nofollow">https://jobforagent.com/</a><br>
3) Wywiad z twórcami JobForAgent.com: <a href="https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T" rel="nofollow">https://www.businessinsider.com/ai-agents-jobs-board-ad-replacing-human-skills-2025-2?IR=T</a></p><p>Special Guest: Kamil Stanuch.</p>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
