广告

技术专家:明确的机器学习目标是实现AI安全性关键

2022-01-21 16:05:32 George Leopold 阅读:
美国乔治敦大学安全与新兴技术中心的一篇论文指出,克服机器学习的规格描述挑战,是迈向更高AI安全性的关键步骤。

设计机器学习应用程序的一个关键挑战,是在软件程序代码当中精确地描述开发者想要系统执行的工作。美国乔治敦大学Georgetown University)安全与新兴技术中心(Center for Security and Emerging Technology)不久前发表的一篇论文作者强调,克服机器学习的规格描述挑战,是迈向更高人工智能(AI)安全性的关键步骤。2OHednc

上述论文作者将AI安全性规格(specification)定义为在程序代码中传达机器学习系统应该要执行之工作的详细描述,或者他们所称的“人类特有目标”(human-specific objective)。一个例子是在排列的图片方块中找出“红绿灯”的CAPTCHA图砖验证系统(EETT编按:在一些网站可以见到,用以区分机器人与人类的验证步骤)。而像是训练模型的步骤规则未包括在内。2OHednc

为了让机器学习能辨识各种图形,开发人员会详述关键目标。该目标函数代表一套学习算法的核心成分,阐述一个模型在搜集更多的训练资料时该如何学习。2OHednc

 2OHednc

2OHednc

为机器学习订定明确目标是确保AI安全性关键。2OHednc

 2OHednc

而在开发者试图从功能有限的应用程序迈进更具挑战性的真实世界应用程序之同时,AI安全性规格是研究人员最关注的议题之一。上述乔治敦大学论文的共同作者Helen Toner在接受访问时表示:“已经有越来越多基础研究聚焦于AI安全性与可靠性,以及对AI性能的理解。”2OHednc

她指出:“那些AI系统的可解释性(interpretability),在此是另一个真正有用的输入,能让你了解,依据应用以及哪一类保证是你所需要的,是否有更好的方法从概念上去了解这些系统里面到底发生什么事情,这也是相当有价值。在我看来,这是此堆栈底部的基础科学部份。”2OHednc

随着机器学习逐渐演进,从产品推荐等较狭窄的应用,发展到诸如自动驾驶等关键性任务,对于安全性规格的需求也跟着成长。“当机器学习系统变得更先进,将会被配置在越来越复杂的环境,以执行日益复杂的任务;”论文作者指出:“这时候规格问题可能会开始变得棘手。”2OHednc

该作者指出,对开发者来说,更大的责任是以新的方法在程序代码中传达其意图,让机器学习服从“被赋予的规则之字面意义,并非精神。”包含人类监督或迈向预测最坏情况之步骤的算法,被推荐做为一个克服“错误设定规格”的方法。2OHednc

还需要的是更多研究,了解开发人员如何在程序代码当中传达细微、复杂的目标,并确保他们所设计的系统能够达成这些目标。而在那之前,论文作者警告,机器学习仍应该被局限在“狭窄、严格规范的设定中。”2OHednc

(参考原文:Specifying Objectives is Key to AI Safety,本文同步刊登于《电子工程专辑》杂志20221月号)2OHednc

责编:Demi
George Leopold
EE Times特约编辑。自1986年以来,George Leopold一直在华盛顿特区撰写有关科学和技术的文章。除了EE Times,Leopold的作品还出现在《纽约时报》(New York Times),New Scientist和其他出版物上。 他住在弗吉尼亚州雷斯顿。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
EE直播间
在线研讨会
广告
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了