About me
Publications
Teaching
Other information
AI Doom
|
|
Artificial intelligence is a source of existential risk for humanity
Key popular science publications
- "Chęć stworzenia AI, która wykonywałaby niebanalne zadania i nie byłaby żądna władzy, jest mrzonką. Profesor ostrzega przed AI doom"
[The will to create AI that would perform sophisticated tasks and would not be power-seeking, is a fantasy. Professor warns against AI doom] (22/03/2025), interview with Patrycja Maciejewicz,
Gazeta Wyborcza (PL)
- ">Jakie jest Twoje p(doom)?< Samobójczy wyścig w kierunku AGI trwa" [>What is your p(doom)?< The suicide race to AGI is on] (03/02/2025), Homo Digital (PL)
- "Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?" [A new weapon of global destruction is getting nearer. Will there be a Manhattan Project for AI?] (27/06/2024), Homo Digital (PL)
- "Problem zgodności celów (alignment problem): czy możliwa jest AGI przyjazna ludziom?" [The alignment problem: is friendly AGI possible?] (13/11/2023), Homo Digital (PL)
- "Czy ogólna sztuczna inteligencja (AGI) nas zabije? Mocne argumenty wskazują, że tak" [Will Artificial General Intelligence (AGI) kill us? Strong arguments suggest it will] (6/11/2023), Homo Digital (PL)
- "Kiedy sztuczna inteligencja osiągnie poziom człowieka? I co to będzie dla nas oznaczać?" [When will AI reach the human level? And what will this mean for us?] (30/10/2023), Homo Digital (PL)
Scientific publications
- "The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI" (2025), joint work with Klaus Prettner, pdf available (arXiv)
- "Existential Risk from Transformative AI: An Economic Perspective" (2024), Technological and Economic Development of Economy 30(6), pp. 1682–1708; open access
|