Abstract
Artificial intelligence-based technologies are used in finance, insurance, and medicine, and are also accessible to individuals. However, new risks are emerging with the development of artificial intelligence (AI). Evidence shows that AI systems can, in fact, persuade a potentially suicidal person to attempt to take his or her own life. This is a new threat in the field of cybersuicidology. This article aims to examine the attribution of liability under current law, either for the autonomous action of an AI (inciting or assisting suicide) or for its use for this purpose by a human user. The cases analysed illustrate the possibility of using AI as a tool in the hands of the user, or of its autonomous actions posing a threat to potentially suicidal persons. In the first case, the user may incur liability under the Criminal Code. In the second case, where the danger arises from the autonomous peration of AI, the criminal law proves inadequate and does not take into account the rapid development of the technology and the risks arising from it, making it impossible to identify the entity responsible for the actual operation of AI. At present, in most cases, the responsibility for the autonomous operation of AI should be attributed to the manufacturer, particularly when there is a failure to provide adequate oversight of the system, or when the system is released without adequate safety filters. The AI manufacturer would then be liable under Article 415 of the Polish Civil Code.
References
Adarlo, S. (2024, 3 lutego). Microsoft Copilot tells user suicide is an option. The Byte. Pobrane 10 sierpnia 2024 r., z: https://futurism.com/the-byte/microsoft-copilot-user-suicide
Bączyk-Rozwadowska, K. (2021). Odpowiedzialność cywilna za szkody wyrządzone w związku z zastosowaniem sztucznej inteligencji w medycynie. Przegląd Prawa Medycznego, 3–4, 5–35. DOI: https://doi.org/10.70537/z7xnk378
Bharade, A. (2023, 4 kwietnia). A widow is accusing an AI chat bot of being a reason her husband killed himself. Business Insider. https://www.businessinsider.com/widow-accuses-ai-chatbotreason-husband-kill-himself-2023-4?IR=T
Blandyna-Lewkowicz, M. (2024, 24 października). 14-latek zakochał się w chatbocie i popełnił samobójstwo. Jest pozew. CyberDefence24. https://cyberdefence24.pl/social-media/14-latek-zakochal-sie-w-chatbocie-i-popelnil-samobojstwo-jest-pozew
Brzezińska, D. (2024). Przekazywanie informacji o samobójstwie w przestrzeni publicznej. Analiza na wybranych przykładach. Media i Społeczeństwo, 20, 186–201. DOI: https://doi.org/10.5604/01.3001.0054.6906
Burdziak, K. (2019). Samobójstwo w polskim prawie. Wolters Kluwer.
Chabasiński, R. (2019, 25 grudnia). Alexa namawia do samobójstwa. Produkt Amazona radzi: „zabij się, dźgając w serce dla większego dobra”. Bezprawnik. https://bezprawnik.pl/alexa-namawia-do-samobojstwa/
Chłopecki, A. (2021). Sztuczna inteligencja – szkice prawnicze i futurologiczne. C. H. Beck; Legalis.
Cost, B. (2023, 30 marca). Married father commits suicide after encouragement by AI chatbot: Widow. New York Post. https://nypost.com/2023/03/30/married-father-commits-suicide-afterencouragement-by-ai-chatbot-widow/
Długoszewska-Kruk, I. (2024). Komentarz do art. 415. W: M. Załucki, Kodeks Cywilny. Komentarz. C. H. Beck; Legalis.
Drzewiecki, P. (2011). Samobójstwa nastolatków w Internecie w perspektywie pedagogiki mediów. Kultura Media Teologia, 5, 61–72.
Dubis, W. (2023). Komentarz do art. 415. W: E. Gniewek i P. Machnikowski (red.), Kodeks cywilny. C. H. Beck; Legalis.
El Atillah, I. (2023, 31 marca). Man ends his life after an AI chatbot „encouraged” him to sacrifice himself to stop climate change. Euronews. https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
Fijałek, K. (2023, 29 marca). Samobójstwo z chatbota. Nie żyje mężczyzna, który „poświęcił się” dla planety. RMF24. https://www.rmf24.pl/fakty/swiat/news-samobojstwo-z-chatbota-niezyje-mezczyzna-ktory-poswiecil-si,nId,6685443#crp_state=1
Filipowski, W. (2020). Prawo karne wobec sztucznej inteligencji. W: L. Lai i M. Świerczyński (red.), Prawo sztucznej inteligencji. Legalis.
Gawliński, A. (2022). Namowa, pomoc czy upozorowanie samobójstwa (tom 4). Wydawnictwo Kryminalistyczne.
Grodecka, M. (2019, 23 grudnia). „Popełnij samobójstwo dla dobra planety” – taką poradę dał asystent głosowy. Spider’s Web. https://spidersweb.pl/2019/12/amazon-alexa-proponuje-samobojstwo.html
Grudecki, M. (2019). Wybrane prawnokarne aspekty prób samobójczych, nakłaniania do samobójstwa oraz pomocy w samobójstwie. Wojskowy Przegląd Prawniczy, 2, 60–80.
Hernacka-Janikowska, A. (2022). Zamachy samobójcze z wykorzystaniem sieci internetowej – analiza kryminologiczna i prawnokarna. Studia Prawnoustrojowe, 58, 145–161. DOI: https://doi.org/10.31648/sp.8083
Kielak, E. (2023, 30 marca). Mroczna strona sztucznej inteligencji. Chatbot miał namówić mężczyznę do samobójstwa. Gazeta.pl. https://next.gazeta.pl/next/7,151243,29612614,mroczna-strona-sztucznej-inteligencji-chatbot-namowil-mezczyzne.html
Komenda Główna Policji. (2023). Statystyka. Doprowadzenie do samobójstwa (art. 151). Pobrane 29 sierpnia 2024, z: https://statystyka.policja.pl/st/kodeks-karny/przestepstwa-przeciwko/63420,Namowa-lub-pomoc-do-samobojstwa-art-151.html
Krasuski, A. (2021). Status prawny sztucznego agenta. Podstawy prawne zastosowania sztucznej inteligencji. C. H. Beck; Legalis.
Królikowski, M. (2023). Komentarz do art. 155. W: M. Królikowski i R. Zawłocki (red.), Kodeks karny. Część szczególna. Komentarz do artykułów 117–221 (tom 1). Legalis.
Kwiatkowski, A. (2019). Między Werterem a Papageno, czyli jak informować o samobójstwie, aby nie zaszkodzić. Dyskurs & Dialog, 2, 21–29.
Lai, L., i Świerczyński, M. (2020). Prawo sztucznej inteligencji. C. H. Beck; Legalis.
Mamak, K. (2017). Prawo karne przyszłości. Wolters Kluwer.
Michalak, A. (2023, 30 marca). Odebrał sobie życie po rozmowie z AI. „Poświęcił się dla planety”. Rzeczpospolita. https://klimat.rp.pl/klimat-i-ludzie/art38235681-odebral-sobie-zycie-po-rozmowiez-ai-poswiecil-sie-dla-planety
Montgomery, B. (2024, 23 października). Mother says AI chatbot led her son to kill himself in lawsuit against its maker. The Guardian. https://www.theguardian.com/technology/2024/oct/23/character-ai-chatbot-sewell-setzer-death
Mozgawa, M., i Bachmat, P. (2016). Przestępstwo doprowadzenia człowieka do targnięcia się na własne życie (art. 151 k.k.) – analiza akt sądowych. Instytut Wymiaru Sprawiedliwości.
Olechowski, P. (2024). Wybrane wyzwania prawne InsurTech na przykładzie robo-doradztwa. Ruch Prawniczy, Ekonomiczny i Socjologiczny, 86(1), 83–96. DOI: https://doi.org/10.14746/rpeis.2024.86.1.05
Oleksiewicz, I. (2022). Artificial intelligence versus human – a threat or a necessity of evolution. Przegląd Europejski, 3, 55–69. DOI: https://doi.org/10.31338/1641-2478pe.3.22.4
Pasquini, M. (2023, 31 marca). Man dies by suicide after conversations with AI chatbot that became his ‘confidante,’ widow says. People. https://people.com/human-interest/man-dies-by-suicide-after-ai-chatbot-became-his-confidante-widow-says/
Pawluszek, A. (2023, 29 marca). Chatbot namówił mężczyznę do popełnienia samobójstwa. Gazeta Prawna. https://www.gazetaprawna.pl/wiadomosci/swiat/artykuly/8690927,belgia-media-chatbotnamowil-mezczyzne-do-popelnienia-samobojstwa.html
Peprah, P., Oduro, M., Okwei, R., Adu, C., Asiamah-Asare, B., i Agyemang-Duah, W. (2023). Cyberbullying victimization and suicidal ideation among in-school adolescents in three countries: Implications for prevention and intervention. BMC Psychiatry, 23(1), 23, 1–12. DOI: https://doi.org/10.1186/s12888-023-05268-9
Polsat News. (2019, 23 grudnia). „Powinnaś się zabić dla dobra planety”. Asystent-robot namawiał właścicielkę do samobójstwa. https://www.polsatnews.pl/wiadomosc/2019-12-23/powinnas-sie-zabic-dla-dobra-planety-asystent-robot-namawial-wlascicielke-do-samobojstwa/
Powel, J. (2024, 28 lutego). Microsoft investigates claims of chatbot Copilot producing harmful responses. USA Today. https://eu.usatoday.com/story/tech/news/2024/02/28/microsoft-chatbot-copilot-suicide/72777729007/
Rejmaniak, R. (2021). Autonomiczność systemów sztucznej inteligencji jako wyzwanie dla prawa karnego. Roczniki Nauk Prawnych, 31(3), 95–113. DOI: https://doi.org/10.18290/rnp21313.6
Rissman, K. (2024, 24 października). The disturbing messages shared between AI Chatbot and teen who took his own life. Independent. https://www.independent.co.uk/news/world/americas/crime/ai-chatbot-lawsuit-sewell-setzer-b2635090.html
Roose, K. (2024, 23 października). Can A.I. be blamed for a teen’s suicide? The New York Times. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Schonfeld, A., McNiel, D., Toyoshima, T., i Binder, R. (2024). Cyberbullying and adolescent suicide. Journal of the American Academy of Psychiatry and the Law Online, 51(1), 112–119. https://jaapl.org/content/early/2023/02/23/JAAPL.220078-22
Serrano, J. (2024, 4 marca). Microsoft’s Copilot AI told a user that ‘maybe you don’t have anything to live for’. Quartz. https://qz.com/microsoft-ai-copilot-chatbot-suicide-joker-1851306048
Świerczyński, M. (2020). Sztuczna inteligencja w prawie prywatnym międzynarodowym – wstępne rozważania. Problemy Prawa Prywatnego Międzynarodowego, 25, 27–42. DOI: https://doi.org/10.31261/PPPM.2019.25.02
TVP. (2024, 26 października). Sztuczna inteligencja doprowadziła 14-latka do samobójstwa? Jest pozew. https://www.tvp.info/83166639/chatbot-doprowadzil-dziecko-do-samobojstwa-matka-pozywa-firme
Wieczorek, M. (2019, 26 grudnia). „Alexa namawia do samobójstwa”. O co chodzi w głośnej historii, okrzykniętej przez media buntem maszyn? Antyfake. https://www.antyfake.pl/alexa-samobojstwo
World Health Organization. (2023, 10 września). Creating hope through action. https://www.who.int/campaigns/world-suicide-prevention-day/2023
Zero, D. (2021). Cybersuicydologia – nowe technologie a samobójstwo. Kortowski Przegląd Prawniczy, 1, 35–50. DOI: https://doi.org/10.31648/kpp.6688
License
Copyright (c) 2025 WPiA UAM

This work is licensed under a Creative Commons Attribution 4.0 International License.
