跳转到内容

讨论:可解释人工智慧

页面内容不支持其他语言。
维基百科,自由的百科全书

可解释性的目的是否为“信任”?[编辑]

关于“目的”这段的第一句: > 在代理人之间的合作上(这里的代理人指的是演算法与人),信任是至关重要的事。如果人们要接受演算法的判断就必须得先相信演算法。

这里没有列出出处。可解释性的需求也包含用来发现 AI 演算法的错误之处 (如前面提到的例子),未必与“信任”有关。

可解释性和“演算法是否被人们接受”的关系,应该是人们相信可解释(但有瑕疵)的演算法可以在技术上被明确修正。 这会类似一个“被人们接受”的司法系统发生冤狱时可以究责与救济,但是它未必被人们信任,并且可能经常会被要求提出解释。--Taedlar留言2023年8月24日 (四) 10:25 (UTC)[回复]