AI可能在生死決定中取代醫生——「自殺艙」發明者

(SeaPRwire) –   據報導,一名澳洲安樂死倡議者已提議使用人工智慧系統來評估人們接受協助死亡的能力

周四,歐洲新聞台(Euronews)報導,備受爭議的薩爾科(Sarco)自殺艙發明人菲利普·尼奇克(Philip Nitschke)表示,人工智慧有朝一日可能取代精神科醫生,評估尋求協助死亡的人是否具備做出該決定的心智能力。  

薩爾科(Sarco)是「石棺」(sarcophagus)的縮寫,是一種3D列印的艙體,設計供一人進入、躺下並按下按鈕。該裝置會迅速降低氧氣濃度,並將艙內充滿氮氣,導致缺氧死亡。  

身為澳洲安樂死倡議者及該艙體創造者的尼奇克表示,人工智慧可以判斷誰具備結束自己生命的「心智能力」。他告訴該媒體,醫生不應該「到處跑來跑去決定是否允許你死亡」,選擇權應該屬於那些「心智健全」的人。  

在允許協助死亡的國家,精神科醫生通常會評估一個人是否具備心智能力,儘管這種做法受到限制且備受爭議。尼奇克表示,這個過程往往不一致。   

「我看過很多案例,同一個病人看了三位不同的精神科醫生,卻得到四種不同的答案,」他說。  

他提議使用一個透過對話式虛擬人物(avatar)來評估能力的人工智慧系統。使用者會「坐在那裡討論虛擬人物提出的問題」,之後系統會決定他們是否有能力繼續。如果人工智慧判定一個人心智健全,薩爾科艙將被啟動,給予24小時的執行窗口期,之後必須重新評估。尼奇克表示,該軟體的早期版本已可運作,但尚未經過獨立驗證。  

2024年9月,薩爾科艙在瑞士首次且唯一一次使用引發了國際憤怒。瑞士當局逮捕了數人,包括協助死亡組織The Last Resort的執行長,並表示該裝置違反了瑞士法律——瑞士法律僅允許在嚴格條件下進行協助自殺。  

尼奇克的提議重新引發了關於人工智慧在生死決策中角色的爭論。去年,OpenAI更新了ChatGPT,因為一項內部審查發現超過一百萬用戶向該聊天機器人透露了自殺念頭。精神科醫生對長時間與人工智慧互動可能導致妄想和偏執表示擔憂,這種現象有時被稱為「AI精神病」(AI psychosis)

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。