1. 我是CIO首页
  2. 观点

人工智能开发中的嵌入式道德方法

i

在新的医疗技术开发中,越来越多地使用AI(人工智能),这需要对道德方面给予更多的关注。慕尼黑工业大学(TUM)的一个跨学科团队主张从新技术开发过程的一开始就整合伦理。医学和健康技术伦理学教授Alena Buyx解释了嵌入式伦理学方法。

近年来,围绕AI研究中更加强调伦理学的讨论大大加剧,以至于有人可能会说“伦理学炒作”,德国和世界各地的许多委员会,例如德国伦理委员会或欧盟委员会人工智能高级专家组对此做出了回应。它们都是一致的:在基于AI的健康技术的开发中需要更多的道德规范。

但是对于工程师和设计师来说,实际情况如何?具体的解决方案仍然很少。在与TUM的两个综合研究中心的联合试点项目中,慕尼黑机器人与机器智能学院(MSRM)及其所长Sami Haddadin教授以及慕尼黑社会技术中心(MCTS)与RuthMüller教授,研究人员想尝试嵌入式道德方法,并于7月底在《自然机器智能》上发表了他们的建议。

嵌入式道德方法到底意味着什么?

从一开始,通过将伦理学家整合到AI开发团队中,就可以使伦理学成为研究过程中不可或缺的一部分。例如,他们定期参加团队会议,并对某些问题产生某种“道德意识”。他们还提出并分析特定的道德和社会问题。

专家讨论AI开发中的嵌入式道德方法
医学和健康技术伦理学教授Alena Buyx在新的AI健康技术的开发过程中倡导“嵌入式伦理学方法”。图片来源:Juli Eberle / TUM

在实践中是否有此概念的示例?

Geriatronics研究中心是MSRM在加米许-帕坦克辛(Garmisch-Partenkirchen)的旗舰项目,正在开发机器人助手,以使人们能够独立生活。该中心的举措将包括建造样板房,以试用老年人可以与机器人共享居住空间的住宅概念。在与参加工程师的联席会议上,应注意的是,在单元的任何位置(门很少或只有单个房间)使用开放概念布局的想法将使机器人具有较大的运动范围。但是,对于老年人来说,这种生活观念可能会令人沮丧,因为他们习惯于拥有私人空间。一开始,工程师们并未对此进行明确考虑。

这种方法听起来很有希望。但是,我们如何才能避免将内在的道德规范化为道德规范的清洗工作,从而在开发新的AI技术时为公司提供安全方面的安慰感?

这是我们无法避免的事情。关键是相互开放和倾听的意愿,目的是找到一种共同的语言,并随后准备有效实施道德方面的准备。在TUM,我们处于实现这一目标的理想位置。MSRM的主任Sami Haddadin教授还是欧盟人工智能高级小组的成员。在他的研究中,他以人为中心的工程概念为指导。因此,他从一开始就支持嵌入道德的思想。但有一点可以肯定:仅是嵌入式道德并不会突然使AI“转变为道德”。最终,这将需要法律,行为准则以及可能的国家激励措施。

本文为作者 新然 独立观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论