討論:可解釋人工智能

頁面內容不支援其他語言。
維基百科,自由的百科全書

可解釋性的目的是否為「信任」?[編輯]

關於「目的」這段的第一句: > 在代理人之間的合作上(這裏的代理人指的是演算法與人),信任是至關重要的事。如果人們要接受演算法的判斷就必須得先相信演算法。

這裏沒有列出出處。可解釋性的需求也包含用來發現 AI 演算法的錯誤之處 (如前面提到的例子),未必與「信任」有關。

可解釋性和「演算法是否被人們接受」的關係,應該是人們相信可解釋(但有瑕疵)的演算法可以在技術上被明確修正。 這會類似一個「被人們接受」的司法系統發生冤獄時可以究責與救濟,但是它未必被人們信任,並且可能經常會被要求提出解釋。--Taedlar留言2023年8月24日 (四) 10:25 (UTC)[回覆]