人工智能(AI)无疑是当今科技重要的发展方向,然而相关的算法难免会存在社会层面的问题。由于所收集数据量不足和先天性认知等问题,人工智能算法很可能会反映出社会本身存在的偏见,和一些不公平的观点。目前,微软(Microsoft)公司已经在开发新工具,力图解决这一问题。
从《麻省理工技术评论》的消息来看,微软正在打造的工具能够检测并提醒人们注意那些根据种族或性别来判定事物的人工智能算法。
无疑,微软也是一家有能力创造人工智能的科技公司。他们正在加入谷歌(Google)和脸书(Facebook)的行列,创造工具来“抓捕”那些不合时宜的人工智能。
不过,新算法目前只能发现“偏见算法”的存在并对目标问题进行标记。这意味着,那些会导致政策性偏见出现的程序如果没能被发现,它们可能仍将被创建和使用着。
为了真正地创造公平而有利于每个人的AI,这需要人们在前端给予更多的关注。
相关企业和机构目前可以通过引入第三方审计的方式,来应对这一问题。第三方机构带来的外部专家将审查他们的算法,寻找代码本身或者被输入数据中存在的偏见情况。
《麻省理工技术评论》中提到的人工智能审计想法在很多地方得到了关注,一些人工智能公司已经开始聘请审计人员来查看他们的代码。
当然这种做法也有一定的要求。所涉及的人工智能不可以太过复杂,以便别人能够进入该领域并发现问题所在。或者,审计人员需要精通相关代码。对于较为高级复杂的系统,这种方法可能并不完全适合,成本较高。
另一种潜在的解决方法是对实际创建人工智能的人员进行更好的培训,以便他们能够更好地发现自己的不成熟观点和偏见,防止这些观念被灌输到人工智能系统中,被算法认定为事实。
这并不是说那些编码人员正在编写着某种种族主义机器。但是,毕竟每个人的思维中都或多或少地有一些潜在偏见,这些问题的积累必然会成为问题。而人类的科技将会帮助我们更好地理解自己的世界观,不断完善并从中受益。
留言与评论(共有 0 条评论) |