川普反「覺醒」AI政策危及病患生命

川普總統在華盛頓特區的人工智慧峰會上發表講話

(SeaPRwire) –   7月23日,唐納·川普總統簽署了一項影響深遠的 題為「預防聯邦政府中的覺醒(Woke)人工智慧法案」的法令。這是正在進行的政治文化戰爭中的又一次交鋒,也是一次蓄意嘗試,旨在 重新定義諸如多元性、公平性和包容性(DEI)等術語,並削弱那些致力於解決聯邦人工智慧系統中系統性種族主義問題者的工作。

但對於我們這些從事醫學工作的人來說,特別是那些倡導健康公平的人,這不只是政治姿態。這項命令威脅著生命。它危及了多年來識別和糾正長期以來傷害邊緣化社群,特別是非裔美國人的結構性偏見所做的工作。

人工智慧無處不在。它已經被用於急診病患的分類、後續護理的優先排序以及疾病風險的預測。但這些演算法並非來自中立的基礎。它們是透過真實世界的數據訓練而成的。而這些數據絕非公正無偏。

保護醫療準確性

其中一個最引人注目的例子來自於2019年發表在《Science》雜誌上,由UC Berkeley和University of Chicago研究人員撰寫的 一項研究。他們檢視了一種廣泛使用的商業醫療演算法,該演算法旨在標記需要高風險護理管理的病患。表面上看,它似乎客觀且以數據驅動。但研究人員發現,該演算法根本沒有評估臨床需求。相反,它悄悄地使用了一個代理指標:之前在病患護理上花費的金額。

由於非裔病患即使出現相同症狀,通常也會獲得較少的護理,因此這種支出代理指標導致該演算法嚴重低估了他們的需求。儘管近46.5%的非裔病患應該被標記為需要額外護理,但該演算法僅識別出17.7%。這不是一個統計上的附註。這是一個被教導視而不見的系統
這不是一個孤立的案例。考慮一下當今仍在使用的另外兩種經過種族調整的演算法:

腎臟功能(使用腎絲球過濾率(GFR)方程式計算)長期以來一直包含一個針對非裔病患的「校正因子」,這基於對肌肉質量的不科學假設。研究人員一再發現,這種調整誇大了腎臟分數,導致許多非裔病患被認定不符合移植條件或延遲獲得專科護理。

而肺功能測試(PFTs),用於診斷哮喘和肺部疾病,通常會應用一種基於種族的校正,該校正假定非裔人士天生肺活量較低,這降低了檢測閾值並導致診斷不足。

這些不僅僅是歷史文物。它們是如何將種族主義嵌入程式碼的例子。悄然無聲地、無處不在地,並致命地。

近年來,像我這樣的臨床醫生和研究人員一直在反擊。許多醫院正在從醫療方程式中移除基於種族的校正。以公平為中心的人工智慧工具正在被開發,以檢測和減輕差異,而不是忽視它們。這項工作與「覺醒(woke)」無關。它關乎準確性、改善結果和拯救生命。

川普反覺醒(anti-woke)文化戰爭的危險

川普的行政命令威脅要中止為提高醫療演算法準確性所做的重要工作。

透過禁止聯邦機構在人工智慧開發中考慮系統性種族主義或公平性,該命令實際上將解決這些問題所需的一切努力定為非法。它讓那些試圖建立和培養更公平系統的數據科學家噤聲。它告訴我們,點名不平等比延續不平等更糟糕。

該命令的支持者聲稱它促進了「中立性」。但在一個建立在不平等基礎上的系統中,中立性不是正義。它是對其假裝忽視的偏見的強化。

這種危險並非假設。非裔病患已經不太可能獲得 ,更有可能被 ,並且更有可能 因為可預防的疾病而受苦。道德設計的人工智慧可以幫助更早地揭示這些差異。但前提是我們被允許以這種方式構建它。

人工智慧中的偏見不僅傷害非裔社群。 研究顯示,臉部辨識系統誤認女性和有色人種的機率遠高於白人男性。在一個案例中,一個用於招聘的演算法系統性地降低了女性履歷的評分。在另一個案例中,一個醫療保健工具低估了女性心臟病風險,因為歷史數據本身就對她們的診斷不足。這就是不平等如何複製的。有偏見的輸入在沒有審查或背景的情況下變成自動化決策。

將DEI從人工智慧中抹去並非中立。它是選擇性記憶。這是一種試圖剝奪我們診斷問題所需語言的行為,更不用說解決問題了。如果我們強迫人工智慧忽視歷史,它將重寫歷史。不僅是事實,還有這些事實所代表的人們。

川普的行政命令將人工智慧政治化和武器化。對於數百萬已經被我們的法律、醫療和技術系統所忽視的美國人來說,代價將以生命來衡量。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。