Talk:可解釋人工智慧

页面内容不支持其他语言。
维基百科,自由的百科全书

可解釋性的目的是否為「信任」?[编辑]

關於「目的」這段的第一句: > 在代理人之間的合作上(這裡的代理人指的是演算法與人),信任是至關重要的事。如果人們要接受演算法的判斷就必須得先相信演算法。

這裡沒有列出出處。可解釋性的需求也包含用來發現 AI 演算法的錯誤之處 (如前面提到的例子),未必與「信任」有關。

可解釋性和「演算法是否被人們接受」的關係,應該是人們相信可解釋(但有瑕疵)的演算法可以在技術上被明確修正。 這會類似一個「被人們接受」的司法系統發生冤獄時可以究責與救濟,但是它未必被人們信任,並且可能經常會被要求提出解釋。--Taedlar留言2023年8月24日 (四) 10:25 (UTC)[回复]