Abstrakt
Sztuczna inteligencja (SI) jest technologią, która rozwija się z zastraszającą prędkością. Technologie oparte na SI funkcjonują w finansach, ubezpieczeniach czy medycynie zostały również udostępnione osobom prywatnym. Jednak wraz z rozwojem SI powstają nowe zagrożenia. Rzeczywistość pokazała, że możliwe jest wystąpienie faktycznej namowy potencjalnego suicydenta do targnięcia się na własne życie z udziałem SI. Jest to nowe zagrożenie z dziedziny cybersuicydologii. Celem artykułu jest sprawdzenie możliwości przypisania na gruncie aktualnie obowiązującego prawa odpowiedzialności za autonomiczne działanie SI (namowę lub udzielenie pomocy w samobójstwie) albo za jej wykorzystanie w tym celu przez użytkownika. Przeanalizowane przypadki obrazują możliwość (i) wykorzystania SI jako narzędzia w rękach użytkownika albo (ii) jej autonomicznego działania, co może stanowić zagrożenie dla potencjalnych suicydentów. W pierwszym przypadku użytkownik może ponieść odpowiedzialność na gruncie kodeksu karnego. Natomiast w drugim przypadku, gdy zagrożenie płynie z autonomicznego działania SI, przepisy prawa karnego zawodzą i nie uwzględniają szybkiego rozwoju technologii ani zagrożeń z tego wynikających, uniemożliwiając wskazanie podmiotu odpowiedzialnego za faktyczne działanie SI. Obecnie w większości przypadków za autonomiczne działanie SI odpowiedzialność należy przypisać producentowi, w tym zwłaszcza za brak sprawowania odpowiedniego nadzoru nad systemem i dopuszczenie do użytkowania systemu bez odpowiednich filtrów bezpieczeństwa. Producent SI ponosiłby wówczas odpowiedzialność na podstawie art. 415 Kodeksu cywilnego.
Bibliografia
Adarlo, S. (2024, 3 lutego). Microsoft Copilot tells user suicide is an option. The Byte. Pobrane 10 sierpnia 2024 r., z: https://futurism.com/the-byte/microsoft-copilot-user-suicide
Bączyk-Rozwadowska, K. (2021). Odpowiedzialność cywilna za szkody wyrządzone w związku z zastosowaniem sztucznej inteligencji w medycynie. Przegląd Prawa Medycznego, 3–4, 5–35. DOI: https://doi.org/10.70537/z7xnk378
Bharade, A. (2023, 4 kwietnia). A widow is accusing an AI chat bot of being a reason her husband killed himself. Business Insider. https://www.businessinsider.com/widow-accuses-ai-chatbotreason-husband-kill-himself-2023-4?IR=T
Blandyna-Lewkowicz, M. (2024, 24 października). 14-latek zakochał się w chatbocie i popełnił samobójstwo. Jest pozew. CyberDefence24. https://cyberdefence24.pl/social-media/14-latek-zakochal-sie-w-chatbocie-i-popelnil-samobojstwo-jest-pozew
Brzezińska, D. (2024). Przekazywanie informacji o samobójstwie w przestrzeni publicznej. Analiza na wybranych przykładach. Media i Społeczeństwo, 20, 186–201. DOI: https://doi.org/10.5604/01.3001.0054.6906
Burdziak, K. (2019). Samobójstwo w polskim prawie. Wolters Kluwer.
Chabasiński, R. (2019, 25 grudnia). Alexa namawia do samobójstwa. Produkt Amazona radzi: „zabij się, dźgając w serce dla większego dobra”. Bezprawnik. https://bezprawnik.pl/alexa-namawia-do-samobojstwa/
Chłopecki, A. (2021). Sztuczna inteligencja – szkice prawnicze i futurologiczne. C. H. Beck; Legalis.
Cost, B. (2023, 30 marca). Married father commits suicide after encouragement by AI chatbot: Widow. New York Post. https://nypost.com/2023/03/30/married-father-commits-suicide-afterencouragement-by-ai-chatbot-widow/
Długoszewska-Kruk, I. (2024). Komentarz do art. 415. W: M. Załucki, Kodeks Cywilny. Komentarz. C. H. Beck; Legalis.
Drzewiecki, P. (2011). Samobójstwa nastolatków w Internecie w perspektywie pedagogiki mediów. Kultura Media Teologia, 5, 61–72.
Dubis, W. (2023). Komentarz do art. 415. W: E. Gniewek i P. Machnikowski (red.), Kodeks cywilny. C. H. Beck; Legalis.
El Atillah, I. (2023, 31 marca). Man ends his life after an AI chatbot „encouraged” him to sacrifice himself to stop climate change. Euronews. https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
Fijałek, K. (2023, 29 marca). Samobójstwo z chatbota. Nie żyje mężczyzna, który „poświęcił się” dla planety. RMF24. https://www.rmf24.pl/fakty/swiat/news-samobojstwo-z-chatbota-niezyje-mezczyzna-ktory-poswiecil-si,nId,6685443#crp_state=1
Filipowski, W. (2020). Prawo karne wobec sztucznej inteligencji. W: L. Lai i M. Świerczyński (red.), Prawo sztucznej inteligencji. Legalis.
Gawliński, A. (2022). Namowa, pomoc czy upozorowanie samobójstwa (tom 4). Wydawnictwo Kryminalistyczne.
Grodecka, M. (2019, 23 grudnia). „Popełnij samobójstwo dla dobra planety” – taką poradę dał asystent głosowy. Spider’s Web. https://spidersweb.pl/2019/12/amazon-alexa-proponuje-samobojstwo.html
Grudecki, M. (2019). Wybrane prawnokarne aspekty prób samobójczych, nakłaniania do samobójstwa oraz pomocy w samobójstwie. Wojskowy Przegląd Prawniczy, 2, 60–80.
Hernacka-Janikowska, A. (2022). Zamachy samobójcze z wykorzystaniem sieci internetowej – analiza kryminologiczna i prawnokarna. Studia Prawnoustrojowe, 58, 145–161. DOI: https://doi.org/10.31648/sp.8083
Kielak, E. (2023, 30 marca). Mroczna strona sztucznej inteligencji. Chatbot miał namówić mężczyznę do samobójstwa. Gazeta.pl. https://next.gazeta.pl/next/7,151243,29612614,mroczna-strona-sztucznej-inteligencji-chatbot-namowil-mezczyzne.html
Komenda Główna Policji. (2023). Statystyka. Doprowadzenie do samobójstwa (art. 151). Pobrane 29 sierpnia 2024, z: https://statystyka.policja.pl/st/kodeks-karny/przestepstwa-przeciwko/63420,Namowa-lub-pomoc-do-samobojstwa-art-151.html
Krasuski, A. (2021). Status prawny sztucznego agenta. Podstawy prawne zastosowania sztucznej inteligencji. C. H. Beck; Legalis.
Królikowski, M. (2023). Komentarz do art. 155. W: M. Królikowski i R. Zawłocki (red.), Kodeks karny. Część szczególna. Komentarz do artykułów 117–221 (tom 1). Legalis.
Kwiatkowski, A. (2019). Między Werterem a Papageno, czyli jak informować o samobójstwie, aby nie zaszkodzić. Dyskurs & Dialog, 2, 21–29.
Lai, L., i Świerczyński, M. (2020). Prawo sztucznej inteligencji. C. H. Beck; Legalis.
Mamak, K. (2017). Prawo karne przyszłości. Wolters Kluwer.
Michalak, A. (2023, 30 marca). Odebrał sobie życie po rozmowie z AI. „Poświęcił się dla planety”. Rzeczpospolita. https://klimat.rp.pl/klimat-i-ludzie/art38235681-odebral-sobie-zycie-po-rozmowiez-ai-poswiecil-sie-dla-planety
Montgomery, B. (2024, 23 października). Mother says AI chatbot led her son to kill himself in lawsuit against its maker. The Guardian. https://www.theguardian.com/technology/2024/oct/23/character-ai-chatbot-sewell-setzer-death
Mozgawa, M., i Bachmat, P. (2016). Przestępstwo doprowadzenia człowieka do targnięcia się na własne życie (art. 151 k.k.) – analiza akt sądowych. Instytut Wymiaru Sprawiedliwości.
Olechowski, P. (2024). Wybrane wyzwania prawne InsurTech na przykładzie robo-doradztwa. Ruch Prawniczy, Ekonomiczny i Socjologiczny, 86(1), 83–96. DOI: https://doi.org/10.14746/rpeis.2024.86.1.05
Oleksiewicz, I. (2022). Artificial intelligence versus human – a threat or a necessity of evolution. Przegląd Europejski, 3, 55–69. DOI: https://doi.org/10.31338/1641-2478pe.3.22.4
Pasquini, M. (2023, 31 marca). Man dies by suicide after conversations with AI chatbot that became his ‘confidante,’ widow says. People. https://people.com/human-interest/man-dies-by-suicide-after-ai-chatbot-became-his-confidante-widow-says/
Pawluszek, A. (2023, 29 marca). Chatbot namówił mężczyznę do popełnienia samobójstwa. Gazeta Prawna. https://www.gazetaprawna.pl/wiadomosci/swiat/artykuly/8690927,belgia-media-chatbotnamowil-mezczyzne-do-popelnienia-samobojstwa.html
Peprah, P., Oduro, M., Okwei, R., Adu, C., Asiamah-Asare, B., i Agyemang-Duah, W. (2023). Cyberbullying victimization and suicidal ideation among in-school adolescents in three countries: Implications for prevention and intervention. BMC Psychiatry, 23(1), 23, 1–12. DOI: https://doi.org/10.1186/s12888-023-05268-9
Polsat News. (2019, 23 grudnia). „Powinnaś się zabić dla dobra planety”. Asystent-robot namawiał właścicielkę do samobójstwa. https://www.polsatnews.pl/wiadomosc/2019-12-23/powinnas-sie-zabic-dla-dobra-planety-asystent-robot-namawial-wlascicielke-do-samobojstwa/
Powel, J. (2024, 28 lutego). Microsoft investigates claims of chatbot Copilot producing harmful responses. USA Today. https://eu.usatoday.com/story/tech/news/2024/02/28/microsoft-chatbot-copilot-suicide/72777729007/
Rejmaniak, R. (2021). Autonomiczność systemów sztucznej inteligencji jako wyzwanie dla prawa karnego. Roczniki Nauk Prawnych, 31(3), 95–113. DOI: https://doi.org/10.18290/rnp21313.6
Rissman, K. (2024, 24 października). The disturbing messages shared between AI Chatbot and teen who took his own life. Independent. https://www.independent.co.uk/news/world/americas/crime/ai-chatbot-lawsuit-sewell-setzer-b2635090.html
Roose, K. (2024, 23 października). Can A.I. be blamed for a teen’s suicide? The New York Times. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Schonfeld, A., McNiel, D., Toyoshima, T., i Binder, R. (2024). Cyberbullying and adolescent suicide. Journal of the American Academy of Psychiatry and the Law Online, 51(1), 112–119. https://jaapl.org/content/early/2023/02/23/JAAPL.220078-22
Serrano, J. (2024, 4 marca). Microsoft’s Copilot AI told a user that ‘maybe you don’t have anything to live for’. Quartz. https://qz.com/microsoft-ai-copilot-chatbot-suicide-joker-1851306048
Świerczyński, M. (2020). Sztuczna inteligencja w prawie prywatnym międzynarodowym – wstępne rozważania. Problemy Prawa Prywatnego Międzynarodowego, 25, 27–42. DOI: https://doi.org/10.31261/PPPM.2019.25.02
TVP. (2024, 26 października). Sztuczna inteligencja doprowadziła 14-latka do samobójstwa? Jest pozew. https://www.tvp.info/83166639/chatbot-doprowadzil-dziecko-do-samobojstwa-matka-pozywa-firme
Wieczorek, M. (2019, 26 grudnia). „Alexa namawia do samobójstwa”. O co chodzi w głośnej historii, okrzykniętej przez media buntem maszyn? Antyfake. https://www.antyfake.pl/alexa-samobojstwo
World Health Organization. (2023, 10 września). Creating hope through action. https://www.who.int/campaigns/world-suicide-prevention-day/2023
Zero, D. (2021). Cybersuicydologia – nowe technologie a samobójstwo. Kortowski Przegląd Prawniczy, 1, 35–50. DOI: https://doi.org/10.31648/kpp.6688
Licencja
Prawa autorskie (c) 2025 WPiA UAM

Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa 4.0 Międzynarodowe.
