发布时间:2020-03-04 10:23:32 人气:6412 来源:
德国斯图加特和柏林——博世已经建立起使用人工智能的伦理 “红线”。日前,
博世发布了在智能产品中使用人工智能技术的指导方针《AI道德准则》,其原则是必
须保留人类对人工智能所做决策的控制权。在柏林召开的年度博世互联世界大会(BC
W)开幕式上,博世首席执行官沃尔克马尔·邓纳尔博士表示:“人工智能是为人类服
务的,博世的《AI道德准则》为员工开发智能产品提供明确指导。我们希望用户能够
信赖博世的人工智能产品。”
人工智能技术对博世而言至关重要。到2025年,每款博世产品都将带有人工智能
功能,或者在开发和生产过程中运用人工智能技术。博世的目标是让人工智能产品变
得安全、可靠且可解释。博世集团首席数字官兼首席技术官 Michael Bolle博士强调:
“只有当人们不再将人工智能视为神秘的‘黑匣子’时,信任的种子才会萌芽。而信
任将是成就互联化世界不可或缺的要素。”博世致力于让其所生产的人工智能产品值
得信赖。新发布的博世《AI道德准则》秉持“科技成就生活之美”的理念,将创新精
神与社会责任相结合。博世计划在今后两年对近2万名员工进行人工智能培训。《AI
道德准则》也会作为培训内容的一部分。
人工智能是全球经济发展和增长的驱动力。据咨询公司普华永道(PwC)预计,
到2030年,人工智能将带动中国、北美和欧洲GDP分别增长约26%、14%和10%。
这一技术不仅有助于克服气候行动带来的诸多挑战,而且能进一步优化在交通运输、
医药和农业等多个领域所取得的成效。算法通过评估大量数据得出结论,以作为人工
智能决策的基础。早在具有约束力的欧盟标准出台之前,博世就已决定以《世界人权
宣言》体现的价值观为基础,积极应对人工智能技术使用过程中出现的道德伦理问题。
根据博世《AI道德准则》,人工智能必须在某种程度的人为介入或影响的条件下
做出决策。也就意味着,人工智能必须始终作为服务于人类的工具。《AI道德准则》
包含了三种机制,它们遵守着一个共同的原则,即博世开发的人工智能产品中,人类
保留对人工智能所做决策的最终控制权。种机制为人工控制(human-in-comm
and),适用于人工智能仅作为一种辅助工具出现的情境。例如,在决策支持系统中
,人工智能协助人们对物体或生物进行分类。第二种机制为使用阶段的人为干预(hu
man-in-the-loop),适用于人工智能系统可以进行自主决策,但人类能够随时干预
其决策的情境。比如驾驶辅助系统,驾驶员可以直接干预停车辅助系统的决策等。第
三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等
应用。开发此类智能产品时,专家将定义参数作为人工智能决策的基础,而人类不参
与决策,由人工智能进行。但是工程师可以随时追溯检查机器是否遵守所设定的参数
进行决策,必要情况下可以修改参数。