當前位置:首頁(yè) > 百科 > 正文內容

AI 介入臨終關(guān)懷,機器能否決定人類(lèi)生死

河南禮品公司3個(gè)月前 (08-03)百科44
印刷廠(chǎng)直印●彩頁(yè)1000張只需要69元●名片5元每盒-更多報價(jià)?聯(lián)系電話(huà):138-1621-1622(微信同號)

(來(lái)源:MIT TR)

幾個(gè)月前,一位五十多歲的女性 Sophie 在經(jīng)歷了一次出血性中風(fēng)后,她的大腦開(kāi)始出血。盡管她接受了腦部手術(shù),但心臟還是停止了跳動(dòng)。

這給她留下了嚴重的腦損傷。她反應遲鈍,手指無(wú)法捏緊,被要求睜開(kāi)眼睛時(shí)她也無(wú)法睜開(kāi),哪怕被掐時(shí)也沒(méi)有反應。她需要通過(guò)氣管造口管來(lái)呼吸,并通過(guò)胃飼管直接向胃內輸送營(yíng)養,因為她無(wú)法吞咽。接下來(lái)她的醫療護理應該如何進(jìn)行呢?

這個(gè)棘手的問(wèn)題同往常一樣,被留給了 Sophie 的家人來(lái)決定,貝勒醫學(xué)院內科醫生 Holland Kaplan 回憶道,他參與了對 Sophie 的治療,但她的家人之間無(wú)法達成一致。Sophie 的女兒堅決認為她的母親希望停止接受醫療干預并能安詳地離開(kāi)人世,而另一位家庭成員則強烈反對這種觀(guān)點(diǎn),并堅持認為 Sophie“是一位斗士”。這一局面讓所有相關(guān)人士,包括 Sophie 的醫生們,都感到非??鄲?。

美國國立衛生研究院(US National Institutes of Health)的生物倫理學(xué)家 David Wendler 指出,臨終決策對于代理人而言可能極為痛苦。Wendler 及其同事正在研究一種構想中的工具——基于人工智能的技術(shù),幫助代理人在各種特定情況下預測患者本人將如何選擇。

(來(lái)源:MIT TR)

這個(gè)工具還未開(kāi)發(fā),但 Wendler 計劃使用個(gè)人的醫療數據、私人信息以及社交媒體帖子來(lái)訓練,希望它不僅能更準確地推斷出患者本人的意愿,還能減輕家庭成員在做出艱難決策時(shí)的壓力和情感負擔。

Wendler 與牛津大學(xué)的生物倫理學(xué)家 Brian Earp 及其同事們希望能在獲得資金支持后盡快開(kāi)始構建這款工具,這可能在未來(lái)幾個(gè)月內就能實(shí)現。但要真正推出這款工具卻并非易事。批評者質(zhì)疑如何能夠在倫理上合理地利用個(gè)人的數據來(lái)訓練這樣的工具,以及生死攸關(guān)的決策是否應該交由人工智能來(lái)做決定。

生存還是死亡

大約 34% 的患者因各種原因被認為無(wú)法對自己的醫療護理做出決策。例如,他們可能處于無(wú)意識狀態(tài),或無(wú)法進(jìn)行理性思考和溝通。這一比例在老年人中更高——一項針對美國 60 歲以上人群的研究發(fā)現,面對重要醫療決策時(shí),有 70% 的人不具備自己做出這些決策的能力。“這不僅僅是要去做大量的決策,”Wendler 說(shuō),“而是大量的極其重要的決策,基本上決定了一個(gè)人是否會(huì )在近期內生存還是死亡。”

對心臟衰竭的患者實(shí)施胸外按壓可能會(huì )延長(cháng)其生命,但這種治療有幾率導致胸骨和肋骨骨折,而且即便患者最終蘇醒——如果能夠蘇醒的話(huà)——也可能已經(jīng)出現了嚴重的腦損傷。通過(guò)機器維持心臟和肺部的功能或許可以保證其他器官得到供氧血液,但并非一定能康復。并且在此期間,患者還可能感染多種疾病。一位晚期病人也許愿意繼續嘗試醫院提供的藥物和治療手段,以期多活幾周或幾個(gè)月,但另一些人或許會(huì )放棄這些干預措施,更愿意在家中舒適地度過(guò)余生。

在美國,只有大約三分之一的成年人完成了預設醫療意愿書(shū)(advance directive)——這是一種法律文件,指明了他們希望接受的臨終關(guān)懷類(lèi)型。Wendler 估計超過(guò) 90% 的臨終決策最終是由患者以外的人做出的。代理人的角色是基于患者希望如何接受治療的理念來(lái)做出這個(gè)決定,但人們通常并不擅長(cháng)做出這類(lèi)預測。研究表明,代理人準確預測患者臨終決策的比例約為 68% 。

Wendler 進(jìn)一步指出,這些決策本身也可能給人帶來(lái)極大的痛苦。雖然一些代理人會(huì )因為支持了他們的所愛(ài)之人而感到滿(mǎn)足,但有些人則會(huì )在情感負擔之下掙扎,可能在之后的數月甚至數年內感到內疚。有的人會(huì )擔心他們過(guò)早結束了親人生命,而另一些人則害怕他們不必要地延長(cháng)了親人的痛苦。“這對很多人來(lái)說(shuō)真的非常糟糕,”Wendler 說(shuō),“人們會(huì )將此描述為他們所經(jīng)歷過(guò)的最糟糕的事情之一。”

Wendler 始終致力于開(kāi)發(fā)一種方法幫助代理人做出決策。十多年前,他提出了一種工具的設想,該工具將基于一種計算機算法,通過(guò)一般人群的調查結果進(jìn)行反復訓練,從而根據諸如年齡、性別和保險狀態(tài)等特征來(lái)預測患者的選擇偏好。也許聽(tīng)起來(lái)起來(lái)有些粗糙,但這些特征似乎確實(shí)會(huì )影響人們對醫療護理的態(tài)度。例如,一個(gè)青少年比起一位 90 歲的老人,更有可能選擇積極的治療方式。而且研究顯示,基于平均值的預測可能比家庭成員的猜測更為準確。

在 2007 年,Wendler 和他的同事們基于少量數據構建了一個(gè)該工具的基礎版本。Wendler 表示,那個(gè)簡(jiǎn)化的工具在預測人們想要接受哪種類(lèi)型的護理方面“至少做得和直系親屬代理人一樣好”。

現在,Wendler、Earp 和他們的同事們正在著(zhù)手一個(gè)新的想法。新工具不再基于粗糙的特征,而是計劃構建一種個(gè)性化的工具。研究團隊提議利用人工智能和機器學(xué)習技術(shù),根據個(gè)人數據如醫療歷史,以及電子郵件、個(gè)人消息、網(wǎng)頁(yè)瀏覽記錄、社交媒體帖子,甚至是 Facebook 點(diǎn)贊等信息來(lái)預測患者對治療的偏好。結果將是一個(gè)人的“數字心理孿生體”——一個(gè)醫生和家人可以咨詢(xún)以指導患者醫療護理的工具。目前還不清楚實(shí)際應用中會(huì )是什么樣子,但研究團隊希望能夠在進(jìn)一步完善之前搭建好并測試該工具。

研究人員將他們的工具稱(chēng)為患者個(gè)性化偏好預測器,簡(jiǎn)稱(chēng) P4。理論上,如果它能像期望的那樣發(fā)揮作用,也許會(huì )比之前的初版工具更加準確——甚至比人類(lèi)代理人更加準確,Wendler 說(shuō)。Earp 表示,它可能比預設醫療意愿書(shū)更能反映患者當前的想法,后者可能是在十年前簽署的。

一個(gè)更好的選擇?

得克薩斯州貝勒醫學(xué)院的醫學(xué)倫理學(xué)家 Jennifer Blumenthal-Barby 表示,像 P4 這樣的工具還可以幫助減輕代理人在為其家庭成員做出如此重大的生死決策時(shí)所承受的情感負擔,因為這些決策有時(shí)會(huì )讓人們出現創(chuàng )傷后應激障礙的癥狀。

Kaplan 指出,一些代理人可能會(huì )經(jīng)歷“決策癱瘓”,從而選擇使用該工具來(lái)輔助他們度過(guò)決策過(guò)程。在這種情況下,P4 可以幫助代理人減輕可能承受的部分負擔,而并不會(huì )給出非黑即白答案。例如,它可能會(huì )建議患者“很可能”或“不太可能”對某種治療持特定態(tài)度,或者給出一個(gè)百分比分數來(lái)表示答案正確的可能性有多大。

Kaplan 認為像 P4 這樣的工具在類(lèi)似 Sophie 的情況中會(huì )有所幫助——在家庭成員對于某人的醫療護理存在不同看法的時(shí)候,可以向他們提供這一工具,理想情況下會(huì )幫助他們達成一致。

這一工具還可以幫助那些沒(méi)有代理人的患者的做出護理決策。Kaplan 是休斯頓本·陶布醫者的一位內科醫生,這是一家“安全網(wǎng)”醫院,無(wú)論患者是否有醫療保險都會(huì )為他們提供治療。“我們的許多患者是沒(méi)有合法身份、被監禁或是無(wú)家可歸的。”她說(shuō),“我們照顧的是基本上無(wú)法在其他地方獲得治療的患者。”

當 Kaplan 接診這些患者時(shí),他們通常已經(jīng)處于疾病的晚期并且處境極為艱難。許多患者無(wú)法親自參與討論自己的治療方案,而且有些人也沒(méi)有家人能代表他們發(fā)言。Kaplan 表示她可以想象像 P4 這樣的工具在這種情況下會(huì )被使用,以幫助醫生更多地了解患者可能的意愿。在這種情況下,也許很難掌握患者的社交媒體資料,但是,其他信息會(huì )證明是有用的。“如果某些因素能夠成為預測指標,我希望它們能被納入模型中。”Wendler 說(shuō),“如果人們的發(fā)色、他們上過(guò)的學(xué)校、或是姓氏的首字母能夠預測他們的意愿,那么我希望把這些因素加入到模型里。”

這種做法得到了 Earp 及其同事初步研究的支持,他們已經(jīng)開(kāi)始進(jìn)行調查以了解個(gè)人對于使用 P4 的感受。這項研究正在進(jìn)行中,但早期的反饋表明,如果沒(méi)有任何人類(lèi)代理決策者可用,人們才愿意嘗試這個(gè)模型。Earp 表示他也有同樣的看法。他還提到,如果 P4 和代理決策者給出不同的預測,“我可能會(huì )傾向于信任了解我的人類(lèi),而不是模型。”

并非人類(lèi)

Earp 的感受反映了許多人共有的直覺(jué):這些重大決策最好由人類(lèi)來(lái)做。瑞士聯(lián)邦理工學(xué)院洛桑分校的研究員 Georg Starke 表示:“問(wèn)題在于:我們希望如何做出臨終決策,以及由誰(shuí)來(lái)做?”他擔心采取技術(shù)解決的方法可能會(huì )將親密、復雜和個(gè)人化的決策轉變?yōu)椤耙粋€(gè)工程問(wèn)題”。

羅切斯特大學(xué)的倫理學(xué)家 Bryanna Moore 聽(tīng)到關(guān)于 P4 的介紹時(shí)的第一反應是:“哦,不。”Moore 是一位臨床倫理學(xué)家,在兩家醫院為患者、家屬和醫院工作人員提供咨詢(xún)。“我們的工作有很大一部分就是陪伴那些面臨艱難抉擇的人……他們沒(méi)有好的選擇,”她說(shuō)。“代理決策者真正需要的只是有人能夠傾聽(tīng)他們的故事,并通過(guò)積極的傾聽(tīng)和支持來(lái)確認他們的角色……說(shuō)實(shí)話(huà),我真的不知道是否真的有這樣的需求。”

Moore 認同代理決策者在為親人決定護理方案時(shí)并不總是能夠作出完全正確的選擇。即便我們可以直接詢(xún)問(wèn)患者本人,他們的回答也可能隨著(zhù)時(shí)間而改變。Moore 將這種情況稱(chēng)為“過(guò)去的自我與現在的自我”問(wèn)題。

Moore 并不認為像 P4 這樣的工具一定能解決這個(gè)問(wèn)題。即使一個(gè)人的愿望在過(guò)去的手記、消息或社交媒體帖子中被明確表達,但在實(shí)際面對醫療情況時(shí),要確切知道自己的感受是非常困難的。Kaplan 回憶起治療過(guò)一位患有骨質(zhì)疏松癥的 80 歲男性,他曾堅決表示如果心臟停止跳動(dòng)時(shí)想要接受胸外按壓。但當那一刻到來(lái)時(shí),他的骨頭太薄且脆弱,以至于無(wú)法承受按壓。Kaplan 記得聽(tīng)到他的骨頭像是牙簽一樣斷裂的聲音,以及他的胸骨從肋骨上脫離。“然后你會(huì )想,我們在做什么?我們在幫誰(shuí)?真的會(huì )有人想要這樣嗎?”Kaplan 說(shuō)。

還有其他的顧慮。首先,通過(guò)社交媒體帖子訓練的 AI 可能最終并不會(huì )成為真正的“心理孿生體”。“任何有社交媒體的人都知道,我們發(fā)布的內容往往并不能真正代表我們的信念、價(jià)值觀(guān)或愿望。”Blumenthal-Barby 說(shuō)。即便如此,也很難知道這些帖子如何反映出我們對于臨終關(guān)懷的感受——許多人發(fā)現,即使與家人討論這些問(wèn)題都已足夠困難,更不用說(shuō)在公開(kāi)平臺上了。

目前來(lái)看,人工智能并不總能在回答人類(lèi)問(wèn)題時(shí)給出很好的答案。即使是稍微改變給 AI 模型的提示,也可能得到完全不同的回應。“想象一下,這種情況發(fā)生在經(jīng)過(guò)精細調整過(guò)的大語(yǔ)言模型上,而這個(gè)模型本該告訴你患者在臨終時(shí)的愿望,”Starke 說(shuō)。“這很可怕。”

另一方面,人類(lèi)也會(huì )犯錯。貝勒醫學(xué)院的生物倫理學(xué)家 Vasiliki Rahimzadeh 認為 P4 是一個(gè)好主意,前提是它經(jīng)過(guò)了嚴格的測試。“我們不應該對這些技術(shù)設立比對我們自己更高的標準,”她說(shuō)。

Earp 和 Wendler 承認他們面臨著(zhù)巨大挑戰。他們希望構建的工具能夠捕捉到有用的信息,這些信息既能反映一個(gè)人的意愿又不會(huì )侵犯隱私,是患者和代理決策者可以選擇使用的有用指南,但它不應成為用來(lái)決定患者護理的默認方式。

即使他們在這些方面取得成功,也可能無(wú)法控制此類(lèi)工具最終的使用方式。以 Sophie 的案例來(lái)說(shuō),如果使用了 P4,它的預測可能只會(huì )進(jìn)一步加劇本已承受壓力的家庭關(guān)系的分裂。如果將其認定為最接近患者本人的意愿,Blumenthal-Barby 指出,患者的醫生可能會(huì )感到有法律義務(wù)遵循 P4 的輸出結果,而不是家庭成員的意見(jiàn)。“這可能會(huì )非?;靵y,也會(huì )給家庭成員帶來(lái)極大的痛苦,”她說(shuō)。

“我最擔心的是誰(shuí)來(lái)控制它,”Wendler 說(shuō)。他擔心醫院可能會(huì )濫用像 P4 這樣的工具來(lái)避免執行成本高昂的程序。“可能會(huì )有各種財務(wù)激勵,”他說(shuō)。

接受了《麻省理工科技評論》采訪(fǎng)的每個(gè)人都同意,使用像 P4 這樣的工具應該是自愿的,并且它并不適合每個(gè)人。“我想它有可能對某些人有所幫助,”Earp 說(shuō)。“但也有很多人會(huì )不愿意讓人工智能系統以任何方式參與他們的決策,因為它們的決策事關(guān)重大。”

原文鏈接:

021yin.com/2024/08/01/1095551/end-of-life-decisions-ai-help/

收藏0

發(fā)表評論

訪(fǎng)客

看不清,換一張

◎歡迎參與討論,請在這里發(fā)表您的看法和觀(guān)點(diǎn)。
中文字幕在线永久91_国产一级AV不卡毛片_亚洲日本中文字幕在线四区_日韩黄片在线大全