让物料处理更简单
全国咨询热线: 13160157221

AI道德准则:博世制定人工智能使用规范

发布时间:2020-03-04 10:23:32 人气:18540 来源:

      德国斯图加特和柏林——博世已经建立起使用人工智能的伦理 “红线”。日前,

博世发布了在智能产品中使用人工智能技术的指导方针《AI道德准则》,其原则是必

须保留人类对人工智能所做决策的控制权。在柏林召开的年度博世互联世界大会(BC

W)开幕式上,博世首席执行官沃尔克马尔·邓纳尔博士表示:“人工智能是为人类服

务的,博世的《AI道德准则》为员工开发智能产品提供明确指导。我们希望用户能够

信赖博世的人工智能产品。”

       人工智能技术对博世而言至关重要。到2025年,每款博世产品都将带有人工智能

功能,或者在开发和生产过程中运用人工智能技术。博世的目标是让人工智能产品变

得安全、可靠且可解释。博世集团首席数字官兼首席技术官 Michael Bolle博士强调:

“只有当人们不再将人工智能视为神秘的‘黑匣子’时,信任的种子才会萌芽。而信

任将是成就互联化世界不可或缺的要素。”博世致力于让其所生产的人工智能产品值

得信赖。新发布的博世《AI道德准则》秉持“科技成就生活之美”的理念,将创新精

神与社会责任相结合。博世计划在今后两年对近2万名员工进行人工智能培训。《AI

道德准则》也会作为培训内容的一部分。

      人工智能是全球经济发展和增长的驱动力。据咨询公司普华永道(PwC)预计,

2030年,人工智能将带动中国、北美和欧洲GDP分别增长约26%、14%和10%。

一技术不仅有助于克服气候行动带来的诸多挑战,而且能进一步优化在交通运输、

药和农业等多个领域所取得的成效。算法通过评估大量数据得出结论,以作为人工

能决策的基础。早在具有约束力的欧盟标准出台之前,博世就已决定以《世界人权

言》体现的价值观为基础,积极应对人工智能技术使用过程中出现的道德伦理问题。

       根据博世《AI道德准则》,人工智能必须在某种程度的人为介入或影响的条件下

做出决策。也就意味着,人工智能必须始终作为服务于人类的工具。《AI道德准则》

包含了三种机制,它们遵守着一个共同的原则,即博世开发的人工智能产品中,人类

保留对人工智能所做决策的最终控制权。种机制为人工控制(human-in-comm

and),适用于人工智能仅作为一种辅助工具出现的情境。例如,在决策支持系统中

,人工智能协助人们对物体或生物进行分类。第二种机制为使用阶段的人为干预(hu

man-in-the-loop),适用于人工智能系统可以进行自主决策,但人类能够随时干预

其决策的情境。比如驾驶辅助系统,驾驶员可以直接干预停车辅助系统的决策等。第

三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等

应用。开发此类智能产品时,专家将定义参数作为人工智能决策的基础,而人类不参

与决策,由人工智能进行。但是工程师可以随时追溯检查机器是否遵守所设定的参数

进行决策,必要情况下可以修改参数。




在线客服
联系方式

热线电话

13160157221

上班时间

周一到周五

公司电话

13160157221

二维码
线