<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web01.fireside.fm</fireside:hostname>
    <fireside:genDate>Thu, 07 May 2026 09:49:59 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Agi”</title>
    <link>https://mitpolska.fireside.fm/tags/agi</link>
    <pubDate>Thu, 02 Apr 2026 18:00:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?</title>
  <link>https://mitpolska.fireside.fm/hype-ai-kto-zarabia</link>
  <guid isPermaLink="false">1ae93851-3aee-4e7d-a54f-7c52d781a0dc</guid>
  <pubDate>Thu, 02 Apr 2026 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/1ae93851-3aee-4e7d-a54f-7c52d781a0dc.mp3" length="72863326" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>"Limity AI" wracają po zimowej przerwie z nowym cyklem rozmów wokół ryzyk i ograniczeń dostępnych technologii AI.</itunes:subtitle>
  <itunes:duration>1:40:05</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/1/1ae93851-3aee-4e7d-a54f-7c52d781a0dc/cover.jpg?v=2"/>
  <description>&lt;p&gt;🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.&lt;br&gt;
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji. Special Guest: Jacek Mańko.&lt;/p&gt;
</description>
  <itunes:keywords>AI, AGI, ASI, hypeai, LimityAI, IwoZmyślony, JacekManko, Tescreal, bpai, mitsmrpl, sztucznainteligencja, podcast, LimityAI, openai, SamAltman </itunes:keywords>
  <content:encoded>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.<br>
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.</p><p>Special Guest: Jacek Mańko.</p><p>Links:</p><ul><li><a title="Partnerem strategicznym kanału &quot;Limity AI&quot; jest: Business Programme AI 2026 " rel="nofollow" href="https://businessprogramme.ai/">Partnerem strategicznym kanału "Limity AI" jest: Business Programme AI 2026 </a></li><li><a title="Czytaj najnowszy magazyn MIT Sloan Management Review Polska" rel="nofollow" href="https://mitsmr.pl/strategia-rozwoju/planowanie-scenariuszowe/">Czytaj najnowszy magazyn MIT Sloan Management Review Polska</a></li><li><a title="Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania" rel="nofollow" href="https://mitsmr.pl/subskrypcje/">Subskrybuj MIT Sloan Management Review Polska i dołącz do społeczności liderów, którzy chcą lepiej rozumieć biznes, ludzi i przyszłość zarządzania</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #13 A co jeżeli Turing prowadzi na manowce? Komputacyjność a inteligencja</title>
  <link>https://mitpolska.fireside.fm/komputacyjnosc-a-inteligencja</link>
  <guid isPermaLink="false">5c34d784-4d55-4a78-9bcb-351df990fa2b</guid>
  <pubDate>Thu, 23 Oct 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/5c34d784-4d55-4a78-9bcb-351df990fa2b.mp3" length="91213572" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W drugiej części rozmowy z profesorem Michałem Karpowiczem omawiamy praktyczne konsekwencje przeprowadzonego przezeń dowodu na nieusuwalność tzw. halucynacji oraz proponowane przezeń strategie jak niwelować ryzyka z tym związane. Na marginesie rozmawiamy o twierdzeniu Goedla i jego praktycznych skutkach dla inżynierii AI oraz interpretacjach proponowanych m.in. przez Turinga i Penrose'a.</itunes:subtitle>
  <itunes:duration>2:05:09</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/5c34d784-4d55-4a78-9bcb-351df990fa2b/cover.jpg?v=3"/>
  <description>&lt;p&gt;Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.&lt;/p&gt;

&lt;p&gt;Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji. Special Guest: prof. Michał Karpowicz.&lt;/p&gt;
</description>
  <itunes:keywords>AI, LLM, LRM, AGI, halucynacje</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Z rozmowy dowiecie się także jak można kwestionować argument &quot;chińskiego pokoju&quot; stawiany przez Johna Searle&#39;a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway.</p>

<p>Gościem 13 odcinka &quot;Limitów AI&quot; jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji.</p><p>Special Guest: prof. Michał Karpowicz.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów</title>
  <link>https://mitpolska.fireside.fm/czym-jest-niestabilnosc-llm-lrm</link>
  <guid isPermaLink="false">c0c978df-1af4-4f7c-9b3d-9f01889339cf</guid>
  <pubDate>Fri, 11 Jul 2025 17:30:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/c0c978df-1af4-4f7c-9b3d-9f01889339cf.mp3" length="83032815" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. </itunes:subtitle>
  <itunes:duration>1:54:56</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/c/c0c978df-1af4-4f7c-9b3d-9f01889339cf/cover.jpg?v=1"/>
  <description>&lt;p&gt;W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.&lt;/p&gt;
</description>
  <itunes:keywords>LLM, LRM, GenAI, AGI, sykofancja, prompt, engineering</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #4 Studzenie hajpu – komu służy obskurantyzm AI?</title>
  <link>https://mitpolska.fireside.fm/obskurantyzm-ai</link>
  <guid isPermaLink="false">012fece7-0bef-4e8a-b804-6e45d6da7815</guid>
  <pubDate>Thu, 17 Apr 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/012fece7-0bef-4e8a-b804-6e45d6da7815.mp3" length="81077491" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</itunes:subtitle>
  <itunes:duration>1:52:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/0/012fece7-0bef-4e8a-b804-6e45d6da7815/cover.jpg?v=1"/>
  <description>&lt;p&gt;W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?&lt;/li&gt;
&lt;li&gt;Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?&lt;/li&gt;
&lt;li&gt;Czym są tzw. głębokie sieci neuronowe? Jak sztuczne "neurony" mają się do prawdziwych?&lt;/li&gt;
&lt;li&gt;Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?&lt;/li&gt;
&lt;li&gt;Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?&lt;/li&gt;
&lt;li&gt;Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Special Guest: Gniewosz Leliwa.&lt;/p&gt;
</description>
  <itunes:keywords>LimityAI, GenAI, AGI, DeepLearning, UczenieMaszynowe, ML, DML, DNN, LLM, CNN, RNN, AIbubble,</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
