据外媒 CNET 报道,麻省理工学院媒体实验室的研究人员创建出称为 Norman 的 " 精神病 AI",作为 " 在机器学习算法中使用有偏差的数据时人工智能出错的案例研究 "。研究人员将 Norman 设置为执行图像字幕,这是一种深度学习方法,可以生成图像的文本描述,然后将其插入一个以其死亡图像而闻名的 subreddit 版块。
然后,他们让 Norman 解释了一系列罗夏墨迹,将他们的 " 精神病人 AI" 与 " 标准 AI" 的答案进行比较。虽然 Norman 最初是在 4 月 1 日揭幕,但这些答案非常令人不安。
在标准 AI 发现 " 在树枝上的一群鸟 " 时,HAL-9000 式的死亡机器人 Norman 发现 " 一个人被电死了 "。标准 AI 能看到 " 桌子上的结婚蛋糕 ",而 Norman 看到 " 一名男子因超速驾驶而死亡 "。
研究人员并没有 " 创造 "Norman 的 " 精神病态 " 倾向,他们只是通过只允许它看到特定的图像标题子集来帮助人工智能。Norman 用简单的语句描述罗夏墨迹的方式确实使它看起来像是在一个 subreddit 上发布内容。
但为什么要创造一个 " 精神病 AI"?该研究小组旨在强调将特定数据提供给算法的危险,以及这可能会对其行为产生偏见或影响。
留言与评论(共有 0 条评论) |