AI导读:

在医疗诊断、自动驾驶等高风险场景中,人工智能(AI)模型决策的可解释性至关重要。麻省理工团队开发出一种新方法,能从已训练好的计算机视觉模型中自动提取关键概念,并迫使模型使用这些人类易于理解的概念进行解释和预测。

在医疗诊断、自动驾驶等高风险场景中,人工智能(AI)模型决策的可解释性至关重要。据美国麻省理工学院官网近日消息称,为了提高透明度,该校团队开发出一种新方法,能够从已训练好的计算机视觉模型中自动提取关键概念,并迫使模型使用这些人类易于理解的概念进行解释和预测。这项进展有望在提升模型准确性的同时,增强用户对“黑盒”AI的信任。