<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" encoding="UTF-8" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:admin="http://webns.net/mvcb/" xmlns:atom="http://www.w3.org/2005/Atom/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:fireside="http://fireside.fm/modules/rss/fireside">
  <channel>
    <fireside:hostname>web02.fireside.fm</fireside:hostname>
    <fireside:genDate>Thu, 07 May 2026 08:56:10 -0500</fireside:genDate>
    <generator>Fireside (https://fireside.fm)</generator>
    <title>MIT Sloan Management Review Polska - Episodes Tagged with “Genai”</title>
    <link>https://mitpolska.fireside.fm/tags/genai</link>
    <pubDate>Thu, 18 Sep 2025 14:00:00 +0200</pubDate>
    <description>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</description>
    <language>pl</language>
    <itunes:type>episodic</itunes:type>
    <itunes:subtitle>Mówimy o technologiach językiem biznesu.</itunes:subtitle>
    <itunes:author>MIT Sloan Management Review Polska</itunes:author>
    <itunes:summary>Jako wydawców i redaktorów MIT Sloan Management Review Polska fascynują nas zagadnienia łączące dwa obszary: biznes i najnowsze technologie. Nie obce są nam tematy AI, VR, blockchain, uczenie maszynowe, które decydują dziś o efektywnym i innowacyjnym podejściu do prowadzenia firmy. Rozmawiamy z czołowymi liderami cyfrowej transformacji, oferując solidną dawkę praktycznych wskazówek. Wśród występujących znaleźli się m.in.: Patty McCord, Horace Dediu, Michael Schrage czy Jason Pontin. 
</itunes:summary>
    <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/cover.jpg?v=2"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:keywords>mit, biznes, technologia, digital, strategia, innowacje</itunes:keywords>
    <itunes:owner>
      <itunes:name>MIT Sloan Management Review Polska</itunes:name>
      <itunes:email>d.wisniewski@ican.pl</itunes:email>
    </itunes:owner>
<itunes:category text="Business">
  <itunes:category text="Marketing"/>
</itunes:category>
<itunes:category text="Business"/>
<itunes:category text="Education"/>
<item>
  <title>Limity AI: #11 AI w e-commerce – jak się za to zabrać?</title>
  <link>https://mitpolska.fireside.fm/ai-w-ecommerce</link>
  <guid isPermaLink="false">76b71725-9f78-439a-8298-e342f8fecb1e</guid>
  <pubDate>Thu, 18 Sep 2025 14:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/76b71725-9f78-439a-8298-e342f8fecb1e.mp3" length="96477866" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W jedenastym odcinku "Limitów AI" rozmawiamy o tym jak wdrażać AI do ecommerce, od czego zacząć i jak tego nie robić</itunes:subtitle>
  <itunes:duration>1:40:12</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/7/76b71725-9f78-439a-8298-e342f8fecb1e/cover.jpg?v=1"/>
  <description>&lt;p&gt;Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?&lt;/p&gt;

&lt;p&gt;Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września&lt;br&gt;
Dołącz już dziś: &lt;a href="https://www.ican.pl/wydarzenia/konferencje/e-commerce" target="_blank" rel="nofollow noopener"&gt;https://www.ican.pl/wydarzenia/konferencje/e-commerce&lt;/a&gt; Special Guest: Konrad Bujak.&lt;/p&gt;
</description>
  <itunes:keywords>AI, ecommerce</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?</p>

<p>Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września<br>
Dołącz już dziś: <a href="https://www.ican.pl/wydarzenia/konferencje/e-commerce" rel="nofollow">https://www.ican.pl/wydarzenia/konferencje/e-commerce</a></p><p>Special Guest: Konrad Bujak.</p>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>Porozmawiamy m.in. o wdrożeniach tzw. internetu rzeczy, w tym logistyce smart stores i dark stores, wirtualnych asystentach (m.in. Rufus i Sidekick) oraz perspektywach i ograniczeniach interaktywnych interfejsów głosowych. Dowiecie się m.in. na czym polega hiperpersonalizacja przy wykorzystaniu AI i jakie są jej ograniczenia – np. jak z perspektywy inżynierii ecommerce wygląda taki „minimalny zestaw danych”, który pozwala maksymalnie dobrze poznać klientów, ale jednocześnie nie narusza ich prywatności ani przepisów prawa? Czy ja jako konsument albo mała firma mogę już dziś sobie zrobić własnego agenta, który z jednej strony będzie firewallem na cały spam marketingowy jaki płynie z sieci, a z drugiej będzie aktywnie wyszukiwał oferty ściśle spersonalizowane pode mnie? Co jako MŚP czy sklep internetowy już dziś powinienem robić, aby być widocznym dla rosnącego sektora generatywnych wyszukiwarek (GSE)? I jak się zabezpieczyć przed scenariuszem, w którym najpopularniejsze GSE mogą niebawem kupczyć widocznością, rekomendując swoim użytkownikom gorsze od moich produktów produkty konkurencji?</p>

<p>Rozmowa towarzyszy 6. edycji konferencji “E-commerce Trends Summit” organizowanej przez ICAN Institute online 30 września<br>
Dołącz już dziś: <a href="https://www.ican.pl/wydarzenia/konferencje/e-commerce" rel="nofollow">https://www.ican.pl/wydarzenia/konferencje/e-commerce</a></p><p>Special Guest: Konrad Bujak.</p>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #10 Wojny kognitywne i suwerenność poznawcza. Czy AI to narzędzie psychomanipulacji? </title>
  <link>https://mitpolska.fireside.fm/czy-ai-to-narzedzie-psychomanipulacji</link>
  <guid isPermaLink="false">e6ea606f-0464-4e61-af3b-d944823c44ba</guid>
  <pubDate>Thu, 07 Aug 2025 17:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/e6ea606f-0464-4e61-af3b-d944823c44ba.mp3" length="153463144" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą.</itunes:subtitle>
  <itunes:duration>1:46:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/e/e6ea606f-0464-4e61-af3b-d944823c44ba/cover.jpg?v=1"/>
  <description>&lt;p&gt;W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych? Special Guest: Marta Chalimoniuk-Nowak.&lt;/p&gt;
</description>
  <itunes:keywords>AI, GenAI, LLM, LRM, cyberbezpieczeństwo, wojna kognitywna, psychomanipulacja, dezinformacja</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziesiątym odcinku &quot;Limitów AI&quot; rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych?</p><p>Special Guest: Marta Chalimoniuk-Nowak.</p><p>Links:</p><ul><li><a title="Jakie ryzyka gospodarcze generuje AI" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Jakie ryzyka gospodarcze generuje AI</a></li><li><a title="Skala &quot;zanieczyszczania źródeł&quot;" rel="nofollow" href="https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models">Skala "zanieczyszczania źródeł"</a></li><li><a title="Rosyjskie taktyki wojny kognitywnej" rel="nofollow" href="https://www.rusi.org/explore-our-research/publications/emerging-insights/russia-ai-and-future-disinformation-warfare">Rosyjskie taktyki wojny kognitywnej</a></li><li><a title="Dlaczego chatboty kłamią?" rel="nofollow" href="https://www.science.org/doi/10.1126/science.aea3922?utm_source=substack&amp;utm_medium=email">Dlaczego chatboty kłamią?</a></li><li><a title="Dlaczego halucynacje są matematycznie konieczne?" rel="nofollow" href="https://arxiv.org/pdf/2506.06382">Dlaczego halucynacje są matematycznie konieczne?</a></li><li><a title="Jak LLMy nami manipulują?" rel="nofollow" href="https://hdsr.mitpress.mit.edu/pub/ujvharkk/release/1">Jak LLMy nami manipulują?</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #9 Czego AI nie umie i nie będzie umieć? Prekursorskie badania w obszarze inżynierii promptów</title>
  <link>https://mitpolska.fireside.fm/czym-jest-niestabilnosc-llm-lrm</link>
  <guid isPermaLink="false">c0c978df-1af4-4f7c-9b3d-9f01889339cf</guid>
  <pubDate>Fri, 11 Jul 2025 17:30:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/c0c978df-1af4-4f7c-9b3d-9f01889339cf.mp3" length="83032815" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. </itunes:subtitle>
  <itunes:duration>1:54:56</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/c/c0c978df-1af4-4f7c-9b3d-9f01889339cf/cover.jpg?v=1"/>
  <description>&lt;p&gt;W dziewiątym odcinku "Limitów AI" rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast "AI" warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać. Special Guest: dr Paweł Szczęsny.&lt;/p&gt;
</description>
  <itunes:keywords>LLM, LRM, GenAI, AGI, sykofancja, prompt, engineering</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W dziewiątym odcinku &quot;Limitów AI&quot; rozmawiamy o tym, co przemilczane w marketingowej narracji bigtechów – obiektywnych ograniczeniach rozwijanej obecnie architektury LLM / LRM. Czym ludzkie rozumowanie i ludzka inteligencja różnią się od działania modeli językowych? Na czym właściwie polega inteligencja ogólna? Jak traktować deklaracje na temat prac nad konstrukcją jej syntetycznych odpowiedników? Czemu zamiast &quot;AI&quot; warto by mówić raczej o symulatorach obliczeniowych? Jakie są praktyczne, biznesowe ryzyka ich bezkrytycznej antropomorfizacji? A także: na czym polega niestabilność LLM / LRM, od czego zależy efektywność promptów i jak tę efektywność poprawiać.</p><p>Special Guest: dr Paweł Szczęsny.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="Illusion of Thinking" rel="nofollow" href="https://machinelearning.apple.com/research/illusion-of-thinking">Illusion of Thinking</a></li><li><a title="Limitations of Mathematical Reasoning in LLM" rel="nofollow" href="https://arxiv.org/abs/2410.05229">Limitations of Mathematical Reasoning in LLM</a></li><li><a title="Artificial Power" rel="nofollow" href="https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report">Artificial Power</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #8 Co AI robi z mózgami? Overreliance, deskilling i cyfrowa demencja</title>
  <link>https://mitpolska.fireside.fm/co-ai-robi-z-mozgami</link>
  <guid isPermaLink="false">568eac83-a222-40d2-b5e6-d93a742b2c17</guid>
  <pubDate>Thu, 26 Jun 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/568eac83-a222-40d2-b5e6-d93a742b2c17.mp3" length="72566263" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W ósmym odcinku "Limitów AI" rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe.</itunes:subtitle>
  <itunes:duration>1:40:36</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/5/568eac83-a222-40d2-b5e6-d93a742b2c17/cover.jpg?v=1"/>
  <description>&lt;p&gt;W ósmym odcinku "Limitów AI" rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest "myślenie wolne" wg Kahnemana? Jak ma się do "growth mindset" i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać? Special Guest: dr Ewa Hartman.&lt;/p&gt;
</description>
  <itunes:keywords>neuroleadership, AI, GenAI, LLM, LRM, overreliance, deskilling, DigitalDementia, dopamina, DopamineDetox, GrowthMindset, FrancoisChollet, Kahneman</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W ósmym odcinku &quot;Limitów AI&quot; rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest &quot;myślenie wolne&quot; wg Kahnemana? Jak ma się do &quot;growth mindset&quot; i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać?</p><p>Special Guest: dr Ewa Hartman.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI" rel="nofollow" href="https://www.arxiv.org/abs/2506.11015">The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI</a></li><li><a title="AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking" rel="nofollow" href="https://www.mdpi.com/2075-4698/15/1/6">AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking</a></li><li><a title="The Impact of Generative AI on Critical Thinking" rel="nofollow" href="https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf">The Impact of Generative AI on Critical Thinking</a></li><li><a title="Francois Chollet o Systemie 1 i 2 Kahnemana" rel="nofollow" href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5250447">Francois Chollet o Systemie 1 i 2 Kahnemana</a></li><li><a title="Wprowadzenie do poglądów Francois Cholleta" rel="nofollow" href="https://www.linkedin.com/pulse/fran%C3%A7ois-chollet-wie-co-m%C3%B3wi-iwo-zmy%C5%9Blony-hvx8f/">Wprowadzenie do poglądów Francois Cholleta</a></li><li><a title="Growth mindset" rel="nofollow" href="https://www.linkedin.com/pulse/mindset-nie-jest-tym-czym-my%C5%9Blisz-iwo-zmy%C5%9Blony-lz2if/">Growth mindset</a></li><li><a title="Andrew Huberman o dopaminie" rel="nofollow" href="https://www.hubermanlab.com/episode/leverage-dopamine-to-overcome-procrastination-and-optimize-effort">Andrew Huberman o dopaminie</a></li><li><a title="Stresolubny mindset" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-alia-crum-science-of-mindsets-for-health-performance">Stresolubny mindset</a></li><li><a title="Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu" rel="nofollow" href="https://www.bee.pl/dobrostan-mozna-wycwiczyc-workbook-z-cwiczeniami-na-poprawe-dobrostanu_p2379193.html">Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W ósmym odcinku &quot;Limitów AI&quot; rozmawiamy o mózgu, neuroplastyczności oraz o wpływie AI na systemy nerwowe – co robi z naszą psychiką, pamięcią proceduralną i deklaratywną, emocjami, uwagą, układem motywacji i nagrody, zdolnością do koncentracji, nastrojem, dobrostanem, relacjami społecznymi? Czym jest &quot;myślenie wolne&quot; wg Kahnemana? Jak ma się do &quot;growth mindset&quot; i myślenia szybkiego? Na czym polega cognitive overloading, deskilling i demencja cyfrowa? Dlaczego korzystanie z AI może prowadzić do neurodegeneracji? Co wyróżnia organizacje, które świadomie podchodzą do wdrażania AI? Dlaczego dyskutując o AGI, zaniedbujemy tę inteligencję ogólną, którą już dziś znamy i wiemy jak rozwijać?</p><p>Special Guest: dr Ewa Hartman.</p><p>Links:</p><ul><li><a title="Your Brain on ChatGPT" rel="nofollow" href="https://arxiv.org/abs/2506.08872">Your Brain on ChatGPT</a></li><li><a title="The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI" rel="nofollow" href="https://www.arxiv.org/abs/2506.11015">The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI</a></li><li><a title="AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking" rel="nofollow" href="https://www.mdpi.com/2075-4698/15/1/6">AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking</a></li><li><a title="The Impact of Generative AI on Critical Thinking" rel="nofollow" href="https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf">The Impact of Generative AI on Critical Thinking</a></li><li><a title="Francois Chollet o Systemie 1 i 2 Kahnemana" rel="nofollow" href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5250447">Francois Chollet o Systemie 1 i 2 Kahnemana</a></li><li><a title="Wprowadzenie do poglądów Francois Cholleta" rel="nofollow" href="https://www.linkedin.com/pulse/fran%C3%A7ois-chollet-wie-co-m%C3%B3wi-iwo-zmy%C5%9Blony-hvx8f/">Wprowadzenie do poglądów Francois Cholleta</a></li><li><a title="Growth mindset" rel="nofollow" href="https://www.linkedin.com/pulse/mindset-nie-jest-tym-czym-my%C5%9Blisz-iwo-zmy%C5%9Blony-lz2if/">Growth mindset</a></li><li><a title="Andrew Huberman o dopaminie" rel="nofollow" href="https://www.hubermanlab.com/episode/leverage-dopamine-to-overcome-procrastination-and-optimize-effort">Andrew Huberman o dopaminie</a></li><li><a title="Stresolubny mindset" rel="nofollow" href="https://www.hubermanlab.com/episode/dr-alia-crum-science-of-mindsets-for-health-performance">Stresolubny mindset</a></li><li><a title="Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu" rel="nofollow" href="https://www.bee.pl/dobrostan-mozna-wycwiczyc-workbook-z-cwiczeniami-na-poprawe-dobrostanu_p2379193.html">Polecamy workbook Ewy Hartman i Joanny Rek-Haber nt. dobrostanu</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>Limity AI: #7 Kiedy (nie) ufać AI?</title>
  <link>https://mitpolska.fireside.fm/kiedy-nie-ufac-ai</link>
  <guid isPermaLink="false">6fea7e1a-148c-4898-99ad-9b13c08eedb4</guid>
  <pubDate>Thu, 29 May 2025 18:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/6fea7e1a-148c-4898-99ad-9b13c08eedb4.mp3" length="65305857" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn.</itunes:subtitle>
  <itunes:duration>1:30:37</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/6/6fea7e1a-148c-4898-99ad-9b13c08eedb4/cover.jpg?v=1"/>
  <description>&lt;p&gt;W siódmym odcinku "Limitów AI" rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega "automation bias"? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?&lt;/p&gt;

&lt;p&gt;A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji? Special Guest: dr Marta Matylda Kania.&lt;/p&gt;
</description>
  <itunes:keywords>AI, GenAI, LLM, podcast, LimityAI, sykofancja, dezinformacja, misinformacja, deepfakes, myslenie, krytyczne, filozofia</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W siódmym odcinku &quot;Limitów AI&quot; rozmawiamy o zaufaniu do maszyn – jak pracować z Gen AI? Kiedy ufać treściom z LLMa, a kiedy im nie ufać? Czym są tzw. halucynacje? Z czego się biorą i czemu nie umiemy ich wyeliminować? Czy dezinformacja jest zawsze cyniczną manipulacją? Jak ma się do misinformacji? Jak się połapać w deepfejkach? Czym jest sykofancja? Dlaczego maszyny nam się podlizują i jak się nie dać nabrać? Na czym polega &quot;automation bias&quot;? Czemu tak łatwo dajemy wiarę maszynom, a nierzadko nawet cenimy ich diagnozy i rekomendacje wyżej od takich formułowanych przez ludzi?</p>

<p>A także: dlaczego studia z filozofii są dziś więcej warte od studiów z informatyki? W jakim sensie AI zagraża myśleniu krytycznemu i jak się przed tym chronić? Jak mądrze pracować z AI, by nie hamowała rozwoju naszej kreatywności, ale ten rozwój wspierała? Czym jest augmentacja? Jak ma się do automatyzacji?</p><p>Special Guest: dr Marta Matylda Kania.</p><p>Links:</p><ul><li><a title="Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)" rel="nofollow" href="https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php">Badania Szkoły Dziennikarstwa na Uniwersytecie Columbia nt. zawodności wyszukiwarek generatywnych (GSE)</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: Zapier" rel="nofollow" href="https://zapier.com/">Podstawowe narzędzia do automatyzacji procesów: Zapier</a></li><li><a title="Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych." rel="nofollow" href="https://n8n.io/">Podstawowe narzędzia do automatyzacji procesów: N8N - dla zaawansowanych.</a></li></ul>]]>
  </itunes:summary>
</item>
<item>
  <title>LIMITY AI: #4 Studzenie hajpu – komu służy obskurantyzm AI?</title>
  <link>https://mitpolska.fireside.fm/obskurantyzm-ai</link>
  <guid isPermaLink="false">012fece7-0bef-4e8a-b804-6e45d6da7815</guid>
  <pubDate>Thu, 17 Apr 2025 16:00:00 +0200</pubDate>
  <author>MIT Sloan Management Review Polska</author>
  <enclosure url="https://aphid.fireside.fm/d/1437767933/4a678198-9c95-4228-883f-27410aca1ede/012fece7-0bef-4e8a-b804-6e45d6da7815.mp3" length="81077491" type="audio/mpeg"/>
  <itunes:episodeType>full</itunes:episodeType>
  <itunes:author>MIT Sloan Management Review Polska</itunes:author>
  <itunes:subtitle>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</itunes:subtitle>
  <itunes:duration>1:52:30</itunes:duration>
  <itunes:explicit>no</itunes:explicit>
  <itunes:image href="https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/4/4a678198-9c95-4228-883f-27410aca1ede/episodes/0/012fece7-0bef-4e8a-b804-6e45d6da7815/cover.jpg?v=1"/>
  <description>&lt;p&gt;W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?&lt;/li&gt;
&lt;li&gt;Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?&lt;/li&gt;
&lt;li&gt;Czym są tzw. głębokie sieci neuronowe? Jak sztuczne "neurony" mają się do prawdziwych?&lt;/li&gt;
&lt;li&gt;Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?&lt;/li&gt;
&lt;li&gt;Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?&lt;/li&gt;
&lt;li&gt;Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Special Guest: Gniewosz Leliwa.&lt;/p&gt;
</description>
  <itunes:keywords>LimityAI, GenAI, AGI, DeepLearning, UczenieMaszynowe, ML, DML, DNN, LLM, CNN, RNN, AIbubble,</itunes:keywords>
  <content:encoded>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </content:encoded>
  <itunes:summary>
    <![CDATA[<p>W czwartym odcinku podcastu odpowiadamy m.in. na poniższe pytania:</p>

<ul>
<li>Jakie największe, najbardziej szkodliwe bzdury słyszymy na temat AI?</li>
<li>Na czym polega tzw. uczenie maszynowe? Czym uczenie maszyn różni się od uczenia ludzi?</li>
<li>Czym są tzw. głębokie sieci neuronowe? Jak sztuczne &quot;neurony&quot; mają się do prawdziwych?</li>
<li>Czym są sieci konwolucyjne (CNN)? Jak mają się do rekurencyjnych (RNN)? Jak działa architektura transformer?</li>
<li>Czym są halucynacje? Z czego wynikają? Dlaczego nie umiemy ich wyeliminować?</li>
<li>Czym jest właściwie AGI? Dlaczego nie wiadomo o czym rozmawiamy?</li>
</ul><p>Special Guest: Gniewosz Leliwa.</p><p>Links:</p><ul><li><a title="Eric Larson o &quot;Imitation Game&quot; w &quot;The Myth of AI&quot;" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbHNMZFVEWXF1WGhqc19lRllDSEQ1bEJjTW9aQXxBQ3Jtc0ttRlUwaERuR1dxd2Y3Uml3TUZuN2FtejNNcDFVZ2haREUwNnFJaF9neU93d2o5eE1QWV9KTHQ1Umx0amlzY1R0c2ZVY1JSSEpyOVlaMktmdVFvcGxLSlk2X1hHdnoyRjhLZmQxYmdOT3ktLXlGaFVsbw&amp;q=https%3A%2F%2Fwww.jstor.org%2Fstable%2Fj.ctv322v43j&amp;v=v12rAnf1FMI">Eric Larson o "Imitation Game" w "The Myth of AI"</a></li><li><a title="Satya Nadella o deeskalacji oczekiwań wobec AI" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbmlLZnVibjViR01qZ0VGWjJRVkNCdGl0c1hUZ3xBQ3Jtc0tud3p0WC1xaENvNzJZNW84Qi1DNU53eG5sSFU2YW8yY2VIS21aNnpLWTk0MHJiNW1JVXE3V0xBQmh4TUp0dDd0UE84TVlYNFFVTm12YnlyNmczc1U0MnhqVURlT1dPcDliMy1SaG9MT2ZvVjBEdW1EMA&amp;q=https%3A%2F%2Fwww.dwarkesh.com%2Fp%2Fsatya-nadella&amp;v=v12rAnf1FMI">Satya Nadella o deeskalacji oczekiwań wobec AI</a></li><li><a title="Japoński program rozwoju komputerów piątek generacji" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWdkTWxPMjNQSzBfajh4bEQ4d2JremVqOUpNUXxBQ3Jtc0ttR3VtVHRsLVFjcVpRRllmYUREY3ZoX1Z6S1l3R3lvZ3hhZVJlV1UtY1hqYXNnWExXMXNtR0pic2VvWGpoSkhmWm1jYml3SW5aenNUZEZFazNCdkxVUzZvRURtRExVVXkyLWUyQnhfSUlSNHNpNzBpMA&amp;q=https%3A%2F%2Fwww.sciencedirect.com%2Fscience%2Farticle%2Fpii%2F0167739X93900038&amp;v=v12rAnf1FMI">Japoński program rozwoju komputerów piątek generacji</a></li><li><a title="Wizualizacja działania DNN" rel="nofollow" href="https://www.youtube.com/watch?v=3JQ3hYko51Y&amp;t=14s">Wizualizacja działania DNN</a></li><li><a title="Wizualizacja działania LLM" rel="nofollow" href="https://www.youtube.com/watch?v=wjZofJX0v4M&amp;t=815s">Wizualizacja działania LLM</a></li><li><a title="O halucynacjach generatywnych wyszukiwarek" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbWh5UzJvV1lIekctUFo5bENycWJ4ajZ3cUlRQXxBQ3Jtc0tuT0xTeXdqblYyQUZ4Y0Y0RFpMNXpMRnZPWDRmb3hldFYxZ1RxYzQwNFE2bDZBZktwMmx0bUJUXzJPSW1IU0lEQUpZZVdHamk1NTdqdVQyMXZlTFJEQzZkQkNEM19LRURQU0hQR2ZhbkdFQXY5M0lxbw&amp;q=https%3A%2F%2Fwww.cjr.org%2Ftow_center%2Fwe-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php&amp;v=v12rAnf1FMI">O halucynacjach generatywnych wyszukiwarek</a></li><li><a title="Goeffrey Hinton o świadomości maszyn" rel="nofollow" href="https://www.youtube.com/watch?v=vxkBE23zDmQ&amp;t=145s">Goeffrey Hinton o świadomości maszyn</a></li><li><a title="Poglądy Francois Cholleta" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbW1SVlVGRlZqaUl4cmVTSTdEUmFQLUJGOE9GZ3xBQ3Jtc0tscUd5aC0tV2N1eTBlSWlMQ1lKeEZOOFUtSE9oVUJ0TnlyV0lGVEtRYmNFQzJnMmlhY2FhWkp0TkFpaTlkdzVEY2RZQW9aaVlWdVB2LWdIb3NfUnFoLVdJZjNCbXlDc0lPUEJpRDUxSUpqbVpPYU05OA&amp;q=https%3A%2F%2Fwww.linkedin.com%2Fpulse%2Ffran%2525C3%2525A7ois-chollet-wie-co-m%2525C3%2525B3wi-iwo-zmy%2525C5%25259Blony-hvx8f%2F&amp;v=v12rAnf1FMI">Poglądy Francois Cholleta</a></li><li><a title="Roger Penrose o niekomputacyjności umysłu" rel="nofollow" href="https://www.youtube.com/watch?v=Qi9ys2j1ncg&amp;t=69s&amp;pp=0gcJCR0AztywvtLA">Roger Penrose o niekomputacyjności umysłu</a></li><li><a title="Ostatni test ludzkości" rel="nofollow" href="https://www.youtube.com/redirect?event=video_description&amp;redir_token=QUFFLUhqbDUxRUhJSjRwSzc2QktkTnBmS0pmckJ3MnVuQXxBQ3Jtc0tud3hITERfWFFLWl82d2ZjQm5leUt2a1ZhYXRWZnVDZFVCdVhjV3hVSTVYZEMtdi12Mk82cWlsOWZkSWRRdUZ3dVNiVjA2LVdYc2ZYcklBWWdjSVBVVnVmUkdFMDYwOHpRQ1RSUVpBa19aMWk4LVZPYw&amp;q=https%3A%2F%2Fagi.safe.ai%2F&amp;v=v12rAnf1FMI">Ostatni test ludzkości</a></li></ul>]]>
  </itunes:summary>
</item>
  </channel>
</rss>
