|
Post by mehedi17a on Apr 4, 2024 6:28:35 GMT
人工智慧無所不在,同時又是無形的。每次與演算法互動時你是否有意識?您知道當您隨意瀏覽社交媒體或瀏覽線上商店中的產品時會收集和處理哪些資料嗎?平台提供者的資料保護聲明承諾完全透明,但這實際上意味著什麼以及背後的目標是什麼? 細節決定成敗 定義透明度從來都不是一件容易的事,在人工智慧系統的背景下也不例外。從最廣泛的意義上講,透明度是指人們能夠感知和理解的東西,以及允許人們根據這些知識採取行動的東西。考慮到大型科技公司的資料保護聲明包含超過10,000個單詞,並且旨在告知用戶意圖和保護權利,現有人工智慧透明度措施的有效性似乎值得懷疑。例如,當你接觸人工智慧系統時,你是否了解平台為什麼向你推薦某些內容?即使這些資訊可用,它也可能不透明,因為可用性並不總是意味著可理解。 透明度的隱喻 對非政府組織和其他政治行為體背景下透明度隱喻的使用的研究(Ball,2009 )表明,我們所說的透明度意味著傳達訊息的不同目的。 Ball(2009)區分了三者:問責制、開放性和效率。開放可能是透明度最直觀的目標。開放迫使透明度建立信任。例如,它透過允許受影響的人看到哪些內容受到其他人的保護來建立信任,例如B.保護您自己的隱私。這不僅包括明智的決策,還包括知道要問 英國電話號碼 哪些問題。作為透明度的目標,效率可能不太直觀,但對於當今複雜的社會來說,它同樣重要。只有了解和理解複雜的系統,我們才能確保它們有效地運作,因為這樣我們就不必在每次依賴它們時質疑它們是如何運作的。這就是為什麼透明度對於社會進步也很重要。最後,讓我們仔細看看問責制。 問責制 問責制經常被認為是透明度的第三個重要目標。對於人工智慧系統,這是指誰負責機器學習演算法開發和應用中各個步驟的問題。研究公共責任的馬克·博文斯將其定義為「一種社會關係,在這種關係中,演員感到有義務向另一個重要的人解釋並證明自己的行為合理」。 他認識到公共問責制的五個特徵,即1. 公眾獲得問責制;2. 主動解釋和證明行動的合理性;3. 針對特定受眾;4. 問責制的內在動機(而不是僅根據要求採取行動);以及5、對抗的可能性,包括與不請自來的獨白相比可能受到的製裁。鑑於問責制通常被視為避免指責和法律後果的工具,第四個特徵尤其提出了挑戰。為了有效實施問責制,認真實施人工智慧透明度至關重要,這樣它就不會「演變成一個善意、鬆散定義的概念和模糊的良好管理政策概念的垃圾桶」。 (博文斯,2005)。 一刀切並非萬能 透明度是一個持續的過程,而不是一個不可改變的事實。必須在其背景下並從受影響的參與者的角度來看待它(Lee & Boynton,2017)。向政府機構提供其軟體透明度的大公司無法向用戶提供相同的聲明和資訊並期望其提供透明度。
|
|