Photo of Jakub Growiec

Jakub Growiec

Professor

SGH Warsaw School of Economics
Quantitative Economics Department (Q.E.D.)
Al. Niepodległości 162
02-554 Warszawa, Poland

Economic Advisor

Narodowy Bank Polski
Economic Analysis Department
ul. Świętokrzyska 11/21
00-919 Warszawa, Poland

EN Polski
About me
Publications
Teaching
Other information
AI Doom

Artificial intelligence is a source of existential risk for humanity

  • My p(doom)=85%, p(doom|TAI)>90%
  • This is our last chance to stop development of transformative AI. Join PauseAI
AIpokalipsa
    Wersja polska:
  1. "Apokalipsa jest blisko. Czy ludzkość może współistnieć ze sztuczną superinteligencją?" (PL, 27/03/2025)
  2. "O wizjach 'dobrej przyszłości' ludzkości w świecie ze sztuczną superinteligencją" (PL, 14/01/2026)
  3. "Najlepszy z możliwych światów" (PL, 23/02/2025) - opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
  4. "Agent 002" (PL, 22/07/2025) - druga opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
  5. "Bal na koniec świata" (PL, 15/09/2025) - trzecia opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
    English version:
  1. "The Apocalypse is Near. Can Humanity Coexist with Artificial Superintelligence?" (EN, 31/03/2025)
  2. "On Visions of a 'Good Future' for Humanity in a World with Artificial Superintelligence" (EN, 16/01/2026)
  3. "The Best of All Possible Worlds" (EN, 27/02/2025) - a story about how artificial intelligence might soon destroy humanity
  4. "Agent 002" (EN, 23/07/2025) - the second story about how artificial intelligence might soon destroy humanity
  5. "The End-of-the-World Party" (EN, 18/09/2025) - the third story about how artificial intelligence might soon destroy humanity

Media appearances on AI risks

  1. Podcast Instytutu Spraw Obywatelskich "AI: zagłada ludzkości?" [AI: doom for humanity?], in Polish (12/2025): click here.
  2. Studio SGH & DGP during EFNI 2025 in Sopot "Hodujemy konkurenta: czy AI prowadzi do zagłady ludzkości", in Polish (10/2025): click here.
  3. Podcast Projekt Pulsar "Przyszłość z AI nie musi być dystopią", in Polish (09/2025): click here.
  4. Video podcast SOF/HomoDigital "Kiedy sztuczna inteligencja przejmie nad nami władzę?", in Polish (01/2025): click here.
  5. Video podcast Wprost "People of Science" "Profesor z SGH zajmuje się wzrostem gospodarczym. Ostrzega przed rozwojem sztucznej inteligencji", in Polish (07/2024): click here.

Popular science publications on AI risks

  1. "Growiec: AI może nas zabić, a co najmniej zabrać nam pracę. To, jak mało debaty na ten temat pojawia się w mediach, jest szokujące" [Growiec: AI may kill us, and at least take our jobs. There is shockingly little media debate about this] (03/03/2026), Instytut Spraw Obywatelskich (PL)
  2. "Dojrzewanie Claude'a – co mówią o rozwoju AI najnowsze dokumenty publikowane przez Anthropic?" [The Adolescence of Claude - what do the new documents published by Anthropic tell us about AI development?] (05/02/2026), Homo Digital (PL)
  3. "Świat ery AGI: cyfrowa utopia czy technologiczna dyktatura" [AGI-era world: digital utopia or technological dictatorship] (06/2025), interview with Anna Słabosz-Pawłowska, Obserwator Finansowy (PL)
  4. "Na końcu tej drogi nie ma człowieka. Ceniony naukowiec przestrzega przed AI" [There is no human at the end of this road. Valued researcher warns against AI] (3/05/2025), interview with Grzegorz Siemonczyk, Money.pl (PL) - interview
  5. "Zwycięzcą technologicznego wyścigu zbrojeń będzie AGI" [The winner of the technological arms race will be the AGI] (8/04/2025), interview with Anna Słabosz-Pawłowska, Obserwator Finansowy (PL) - interview
  6. "Chęć stworzenia AI, która wykonywałaby niebanalne zadania i nie byłaby żądna władzy, jest mrzonką. Profesor ostrzega przed AI doom" [The will to create AI that would perform sophisticated tasks and would not be power-seeking, is a fantasy. Professor warns against AI doom] (22/03/2025), interview with Patrycja Maciejewicz, Gazeta Wyborcza (PL)
  7. ">Jakie jest Twoje p(doom)?< Samobójczy wyścig w kierunku AGI trwa" [>What is your p(doom)?< The suicide race to AGI is on] (03/02/2025), Homo Digital (PL)
  8. "Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?" [A new weapon of global destruction is getting nearer. Will there be a Manhattan Project for AI?] (27/06/2024), Homo Digital (PL)
  9. "Problem zgodności celów (alignment problem): czy możliwa jest AGI przyjazna ludziom?" [The alignment problem: is friendly AGI possible?] (13/11/2023), Homo Digital (PL)
  10. "Czy ogólna sztuczna inteligencja (AGI) nas zabije? Mocne argumenty wskazują, że tak" [Will Artificial General Intelligence (AGI) kill us? Strong arguments suggest it will] (6/11/2023), Homo Digital (PL)
  11. "Kiedy sztuczna inteligencja osiągnie poziom człowieka? I co to będzie dla nas oznaczać?" [When will AI reach the human level? And what will this mean for us?] (30/10/2023), Homo Digital (PL)

Scientific publications on AI risks

  1. "The Paradox of Doom: Acknowledging Extinction Risk Reduces the Incentive to Prevent It" (2025), joint work with Klaus Prettner, pdf available (arXiv)
  2. "The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI" (2025), joint work with Klaus Prettner, pdf available (arXiv)
  3. "Existential Risk from Transformative AI: An Economic Perspective" (2024), Technological and Economic Development of Economy 30(6), pp. 1682–1708; open access