About me
Publications
Teaching
Other information
AI Doom
|
|
Artificial intelligence is a source of existential risk for humanity

- "The Best of All Possible Worlds" (EN, 27/02/2025) - a story about how artificial intelligence might soon destroy humanity
- "Najlepszy z możliwych światów" (PL, 23/02/2025) - opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
- "Agent 002" (EN, 23/07/2025) - the second story about how artificial intelligence might soon destroy humanity
- "Agent 002" (PL, 22/07/2025) - druga opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
- "The End-of-the-World Party" (EN, 18/09/2025) - the third story about how artificial intelligence might soon destroy humanity
- "Bal na koniec świata" (PL, 15/09/2025) - trzecia opowieść o tym, jak sztuczna inteligencja może wkrótce zniszczyć ludzkość
- "The Apocalypse is Near. Can Humanity Coexist with Artificial Superintelligence?" (EN, 31/03/2025)
- "Apokalipsa jest blisko. Czy ludzkość może współistnieć ze sztuczną superinteligencją?" (PL, 27/03/2025)
- Survey results: AGI is coming and it won't be friendly
- My private p(doom)=85%, p(doom|AGI)>90%
- This is our last chance to stop development of unsafe AI. Join PauseAI
Key popular science publications
- "Świat ery AGI: cyfrowa utopia czy technologiczna dyktatura"
[AGI-era world: digital utopia or technological dictatorship] (06/2025), interview with Anna Słabosz-Pawłowska, Obserwator Finansowy (PL)
- "Na końcu tej drogi nie ma człowieka. Ceniony naukowiec przestrzega przed AI"
[There is no human at the end of this road. Valued researcher warns against AI] (3/05/2025), interview with Grzegorz Siemonczyk,
Money.pl (PL) - interview
- "Zwycięzcą technologicznego wyścigu zbrojeń będzie AGI"
[The winner of the technological arms race will be the AGI] (8/04/2025), interview with Anna Słabosz-Pawłowska,
Obserwator Finansowy (PL) - interview
- "Chęć stworzenia AI, która wykonywałaby niebanalne zadania i nie byłaby żądna władzy, jest mrzonką. Profesor ostrzega przed AI doom"
[The will to create AI that would perform sophisticated tasks and would not be power-seeking, is a fantasy. Professor warns against AI doom] (22/03/2025), interview with Patrycja Maciejewicz,
Gazeta Wyborcza (PL)
- ">Jakie jest Twoje p(doom)?< Samobójczy wyścig w kierunku AGI trwa" [>What is your p(doom)?< The suicide race to AGI is on] (03/02/2025), Homo Digital (PL)
- "Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?" [A new weapon of global destruction is getting nearer. Will there be a Manhattan Project for AI?] (27/06/2024), Homo Digital (PL)
- "Problem zgodności celów (alignment problem): czy możliwa jest AGI przyjazna ludziom?" [The alignment problem: is friendly AGI possible?] (13/11/2023), Homo Digital (PL)
- "Czy ogólna sztuczna inteligencja (AGI) nas zabije? Mocne argumenty wskazują, że tak" [Will Artificial General Intelligence (AGI) kill us? Strong arguments suggest it will] (6/11/2023), Homo Digital (PL)
- "Kiedy sztuczna inteligencja osiągnie poziom człowieka? I co to będzie dla nas oznaczać?" [When will AI reach the human level? And what will this mean for us?] (30/10/2023), Homo Digital (PL)
Scientific publications
- "The Paradox of Doom: Acknowledging Extinction Risk Reduces the Incentive to Prevent It" (2025), joint work with Klaus Prettner, pdf available (arXiv)
- "The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI" (2025), joint work with Klaus Prettner, pdf available (arXiv)
- "Existential Risk from Transformative AI: An Economic Perspective" (2024), Technological and Economic Development of Economy 30(6), pp. 1682–1708; open access
|