O mnie
Publikacje
Dydaktyka
Inne informacje
AI Doom
|
|
Sztuczna inteligencja stanowi zagrożenie egzystencjalne dla ludzkości
Kluczowe publikacje popularnonaukowe
- "Chęć stworzenia AI, która wykonywałaby niebanalne zadania i nie byłaby żądna władzy, jest mrzonką. Profesor ostrzega przed AI doom" (22/03/2025), rozmowa z Patrycją Maciejewicz,
Gazeta Wyborcza (PL)
- ">Jakie jest Twoje p(doom)?< Samobójczy wyścig w kierunku AGI trwa" (03/02/2025), Homo Digital (PL)
- "Nowa broń globalnej zagłady jest coraz bliżej. Czy powstanie Projekt Manhattan dla sztucznej inteligencji?" (27/06/2024), Homo Digital (PL)
- "Problem zgodności celów (alignment problem): czy możliwa jest AGI przyjazna ludziom?" (13/11/2023), Homo Digital (PL)
- "Czy ogólna sztuczna inteligencja (AGI) nas zabije? Mocne argumenty wskazują, że tak" (6/11/2023), Homo Digital (PL)
- "Kiedy sztuczna inteligencja osiągnie poziom człowieka? I co to będzie dla nas oznaczać?" (30/10/2023), Homo Digital (PL)
Publikacje naukowe
- "The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI" (2025), joint work with Klaus Prettner, pdf available (arXiv)
- "Existential Risk from Transformative AI: An Economic Perspective" (2024), Technological and Economic Development of Economy 30(6), pp. 1682–1708; open access
|