跳到内容 跳到导航

Research & Ideas

站内搜索

一种新的算法,人工智能的列车,以避免不良行为

这种方法可以帮助机器人,自动驾驶汽车和防止不受欢迎的结果类似种族和性别歧视等智能机的保障。

blue background with multicolored lines gathered closer on the right side

在一个社会里的AI权力的重要决策,我们如何尽量减少不良后果? |插图由Sarah的Rieke

人工智能已经进入商业主流感谢的机器学习算法,使计算机可以训练自己做的事情一样驱动汽车,控制机器人或自动化决策日益崛起。

但艾开始处理敏感的任务,如帮助挑囚犯获得保释,决策者坚持认为计算机科学家提供保证自动化系统的设计,以尽量减少,如果不能完全避免,不需要的结果,如过度的风险或种族和性别偏压。

由葡京体育的研究人员和马萨诸塞大学领导的研究小组发表阿默斯特 一篇论文 十一月22 科学 提示如何提供这种保证。本文概述了新的技术,该技术转化一模糊目标,如避免性别偏见,进入精确的数学准则,将允许一个机器学习算法训练一个AI应用,以避免该行为。

“我们要提前人工智能尊重其人的用户和证明的价值在自治系统的信任,我们的地方,”说 艾玛brunskill计算机科学系在葡京体育的助理教授和论文的资深作者。

避免不当行为

工作的前提是概念,如果“不安全”或“不公平”的结果或行为可以被数学定义,那么它应该能够创建可从如何避免与高可信度这些不想要的结果数据算法学习。研究人员还希望开发一套技术,会很容易让用户指定他们希望限制,使机器学习设计者有信心预测系统中使用过去的数据来训练可以在当它被依靠什么样的不必要的行为在现实世界的情况下被应用。

“我们展示的机器学习算法的设计者怎样才能使它谁想要打造人工智能到他们的产品和服务来形容不必要的结果或行为,AI系统将采用高概率避人更容易,说:”菲利普·托马斯,助理在马萨诸塞州大学计算机科学教授阿默斯特和论文的第一作者。

公平性和安全性

研究人员试图通过提高该预测根据考试结果,一种常见的做法,可能导致性别偏见大学生的平均成绩算法的公平性测试他们的方法。利用实验数据集,他们给自己的算法的数学操作,以避免开发一种预测方法系统地高估或低估的平均成绩为单一性别。与这些指令中,算法识别一个更好的方法来预测学生的GPA比现有的方法更系统的性别偏见。以前的方法在这方面的努力是因为他们有内置或因开发实现公平算法不公平的过滤范围过于狭隘。

该小组开发了另一种算法,并用它在自动胰岛素泵来平衡安全性和性能。这种泵必须决定大或胰岛素的小剂量如何给一到用餐时间病人。理想情况下,泵提供刚好足够的胰岛素来维持血糖水平的稳定。太少的胰岛素使血糖水平升高,导致短期的不适,如恶心,和长期并发症的风险增加,包括心血管疾病。过多的血糖崩溃 - 一个潜在的致命结果。

机器学习可以通过鉴定个体的血糖反应,剂量细微模式可以帮助,但现有的方法不很容易让医生指定的结果是自动计量算法应尽量避免,如低血糖崩溃。使用血糖模拟器,brunskill和托马斯表明泵是如何被训练来确定加药量身定做的那个人 - 避免因过度或用药的并发症。虽然该集团不准备测试的真实的人这种算法,它指向一个AI的办法,最终可能会提高糖尿病患者的生活质量。

在他们的科学论文,brunskill和托马斯使用术语“seldonian算法”来定义他们的方法,以哈里·谢顿的引用,由科幻小说作家艾萨克·阿西莫夫,谁曾宣布机器人三个定律发明了一种文字与禁令是“一个开始机器人可能不伤害人类或通过不采取行动,允许人来伤害“。

同时承认,该领域仍然是从保证三部法律至今,托马斯说,这seldonian框架将使它更容易为机器学习设计者建立行为避税指令转换成各种算法,在某种程度上,可以使他们评估的概率受过培训的系统将在现实世界中正常工作。

brunskill说这个建议的框架基础上的努力,许多计算机科学家正在罢工创建强大的算法和开发方法之间的平衡,以保证其可信度。

“思考我们如何能够创造算法,像安全性和公平性最好的尊重价值观是至关重要的,因为社会越来越依赖于AI,” brunskill说。

本文也有共同作者来自马萨诸塞州的阿默斯特大学和联邦大学南里奥格兰溶胶。

这项工作由Adobe,美国国家科学基金会和教育科学研究所的部分得到了支持。