人类专家的表现并不完美?诺丁汉大学教授谈模糊人工智能

人工智能已成为全世界计算机科学家非常感兴趣的话题。人们也越来越关注计算机化系统能够解释其决策的需求,现实世界中的数据和知识的特点是不确定性。模糊系统可以提供决策支持,既能处理不确定性,又能明确表示不确定知识和推理过程。然而,还不清楚如何评估任何决策支持系统,包括那些以模糊方法为特征的系统,以确定它们的使用是否被允许。

英国诺丁汉大学计算机科学系教授、高级数据分析中心(ADAC)的创始人Jonathan M. Garibaldi教授在IEEE/CAA Journal of Automatica Sinica发表的综述 “The need for fuzzy AI” 中提出了一个不可区分的概念框架,作为计算机化决策支持系统评估的关键组成部分。案例研究表明,人类专家的表现并不完美,还有一些技术可以使模糊系统模拟包括可变性在内的人类水平的表现。

Jonathan M. Garibaldi 教授从两个方面论证了 “模糊人工智能” 的必要性:

(一) 模糊方法学 (在扎德模糊集和系统的技术意义上) 作为以知识为基础的系统来表示和推理不确定性的必要性;

(二)在评估人工智能系统时,需要模糊性(在非技术意义上),并接受不完美的性能。

经过几个高峰和低谷,人工智能再次站在世界计算机科学研究的前沿。人工智能的两个标准词典定义是:

“能够执行通常需要人类智能的任务的计算机系统”

[·牛津英语词典]

“机器模仿人类智能行为的能力”

[·韦氏词典]

Jonathan M. Garibaldi教授指出:在特定的环境下需要基于知识的人工智能方法,它具有不确定性的明确表示和推理。作为这一论点的一部分,模糊技术的使用被认为是一种能够提供必要能力的合适方法。此外,据称不完美推理和不完美性能的存在是并且必须是这些人工智能算法的验收测试的基本特征。

模糊人工智能的需求,主要分为以下八个方面。

(1)可解释人工智能;主要介绍了需要可解释人工智能的最新背景,倡导决策支持系统的作用。

(2)模糊集和系统;主要介绍了决策支持中不确定性处理的基本基础和需求。

(3)评估人工智能;主要概述了如何通过图灵测试的形式来评估决策支持系统。

(4)人类推理的变化;

(5)专家系统推理的变异;

(6)模拟及量度变异;主要介绍了在模糊专家系统中可以使用的一些当前技术,以纳入变异,以及这样做可以获得的好处。

(7)讨论和观察;讨论了这些潜在的好处,并围绕出现的各种问题进行了推测。

(8)未来的发展方向,概述了未来可能的研究方向,并总结了主要结论。

注:(4)和(5)主要讨论了推理中的变化是如何成为人类推理的一个特征的,因此如果要通过这样的评估测试,就应该将其纳入计算机专家系统推理中。


图灵测试的表示

Garibaldi教授首先论证了模糊专家系统的必要性,作为可解释人工智能系统所必需的一套工具的有用组成部分,以及在这些系统中引入变异的必要性。虽然基于深度学习的神经网络系统目前似乎提供了目前计算机化系统可能提供的最高水平的性能(在需要人工智能技术解决的复杂问题的背景下),但它们很难解释。模糊专家系统提供了一定程度的解释,潜在地足以满足这样的系统能够解释所做决策的需求。

诺丁汉大学医院NHS信托基金正在使用的临床方案

建模专家可变性的最佳非平稳变量

最后Garibaldi教授提出不可分辨性计算机决策支持系统和试图模仿人类专家,通过评价试验的一种形式,应该允许使用的测试部署这些系统。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();