人工智能在自动驾驶中的良知
Text: Monika Weiner – Photos: Simon Koy
Christoph Lütge 教授是世界上首批人工智能伦理研究机构之一的负责人。在慕尼黑工业大学,跨学科团队将研究软件决策的后果。其中一个核心课题是自动驾驶。
如果我什么都不做呢?2016 年,克里斯托夫-吕特格(Christoph Lütge)教授驾驶着一辆高度自动化的汽车,首次行驶在从慕尼黑到因戈尔施塔特的 A9 公路上时,脑海中闪过了这个问题。这条测试路线早在一年前就已开通,能够独立加速、制动和转向的车辆可以使用这条路线。当警告信号响起时,驾驶员有十秒钟的时间重新控制车辆。如果驾驶员不这样做呢?车载电脑根据什么标准来决定如何继续行驶?如何确定优先顺序?吕特格一直在思考这些问题。他发现了一个全新的前沿研究领域。
这位 49 岁的慕尼黑工业大学(TUM)商业伦理教授在过去九年里一直在研究竞争如何促进企业的社会和伦理责任。在试驾 A9 之前,他对人工智能(AI)只是略知一二。随后,他阅读了相关研究报告,进行了调查,并与制造商进行了交谈。他很快就意识到,人工智能引发了一系列伦理问题:如果出了问题,谁来承担责任?智能系统做出的决定如何让人理解?人工智能算法的透明度也仍然不足:人们往往仍然无法理解其决策所依据的标准--人工智能成了一个黑盒子。"吕特格说:"我们必须正视这些挑战,无论人工智能是用于诊断医疗结果、打击犯罪还是驾驶汽车。"换句话说:我们需要解决围绕人工智能的伦理问题。"
我们未来的生活将由只懂逻辑而不懂伦理的机器决定,这种想法让很多人感到不安。世界经济论坛(WEF)在 27 个国家进行了一项调查,在总共 2 万名受访者中,41% 的人表示他们对人工智能的使用感到担忧。48%的人希望加强对公司的监管,40%的人希望政府和当局对人工智能的使用施加更多限制。
自动驾驶的伦理
自动驾驶是一个特别热门和困难的领域,因为它很快就会进入人命关天的领域。例如,如果刹车失灵,满载的车辆可能会与混凝土障碍物相撞或冲向一群行人,人工智能算法该怎么办?在这种情况下,人工智能应该设定怎样的优先级?它是否应该把乘员的生命看得比路人的生命更重要?与老年人相比,它是否应该优先避开儿童受害者?"Lütge说:"这些都是社会科学家探索的典型困境。在 Lütge 所在的联邦交通和数字基础设施部成立的自动驾驶伦理委员会中,这些问题也发挥了重要作用。"我们一致认为,不应存在基于年龄、性别或其他标准的歧视。这不符合《基本法》"。不过,最大限度减少人身伤害的方案是允许的。
责任问题也是一个全新的问题。如果车辆是自动驾驶的,则制造商应承担责任--因为此时适用的是产品责任。否则,驾驶员就要承担责任。"Lütge 说:"不过,将来我们需要在汽车上安装一种飞行记录器。Lütge说:"它将显示车祸发生时自动驾驶功能是否开启。当然,这也会引起数据保护方面的问题"。尽管挑战重重,但这位科学家坚信,自动驾驶汽车将使交通更加安全。"它们会比人类更好,因为除了不会疲劳或失去注意力之外,它们的传感器还能感知更多的环境。它们还能做出更恰当的反应:自动驾驶汽车刹车更猛烈,躲避障碍物更娴熟。即使在正常的道路交通情况下,它们最终也会胜过人类"。
在慕尼黑生产基地,人工智能人才济济
因此,吕特格在慕尼黑工业大学新成立的人工智能伦理研究所(Institute for Ethics in Artificial Intelligence)有许多令人兴奋的问题需要思考。该研究所由 Facebook 提供 650 万欧元资助。他说,没有任何附加条件。当然,Facebook 对科研成果很感兴趣--毕竟,它是该领域最早启动的研究机构之一。慕尼黑工业大学在人工智能领域享有盛誉,因此慕尼黑显然是个不错的选择。此外,德国对数据保护尤为重视,而且民众普遍对技术发展持批评态度。在新成立的研究所里,这些持怀疑态度的人也将得到聆听:"我们希望召集所有重要的参与者,共同制定针对特定人工智能应用的伦理准则。实现这一点的前提条件是来自商界、政界和民间社会的代表能够相互对话",Lütge 说道。
在人工智能伦理研究方面,这位科学家希望组建跨学科团队,研究新算法在伦理方面的显著性。"技术人员可以编写任何程序,"吕特格说,"但在预测软件决策的后果时,你需要社会科学家的投入。"但当涉及到预测软件决策的后果时,你需要社会科学家的投入"。这就是为什么他希望组建跨学科团队,每个团队由一名技术科学员工和一名人文、法律或社会科学代表组成。
此外,Lütge 还计划成立项目小组,其成员将来自不同的院系。他们将研究护理机器人的使用等具体应用,以及在此背景下产生的伦理问题。
Lütge 已经确信,人工智能将进入生活的许多领域--因为它能带来巨大的附加值,例如在交通领域:"几年后,具有不同自动化程度的自动驾驶汽车将成为交通领域的一部分。根据伦理委员会制定的规则,当自动驾驶汽车的性能至少与人类驾驶员不相上下时,就满足了前提条件--例如在评估交通状况和反应方面。就个人而言,他对此充满期待:"当我坐上自动驾驶汽车时,在最初的几分钟里,我总会感到某种不确定性--直到汽车能够可靠地加速、刹车和转向。然后,我就可以很快地把责任交给别人。我很享受这种情况,因为这样我就有时间思考了"。例如,如果自动驾驶汽车跨越国界会发生什么:同样的道德决策算法在那里适用吗?还是在每个边境都需要更新?这些问题无疑会让 Lütge 忙碌很长一段时间。
伦理与人工智能准则
欧盟高级别专家组:值得信赖的人工智能伦理指南(2019 年 4 月)
人工智能高级别专家组在制定伦理准则时,旨在为实现值得信赖的人工智能创建一个框架。该准则旨在帮助在社会技术系统中落实各项原则。该框架解决了公众的关切和担忧,旨在为全面提升欧盟的竞争力奠定基础。
人工智能背景下的伦理基础/原则
- 尊重人的自主权
人工智能系统不应无理服从、胁迫或欺骗人类。它们应支持人类创造有意义的工作。
- 预防伤害
人工智能系统不应造成伤害。这就需要保护精神和身体的完整性。它们必须在技术上是强大的,以确保不会被恶意使用。
- 公平性
人工智能系统应促进平等获得教育和商品。人工智能系统的使用不应损害人们的选择自由。
- 可解释性
过程和决策必须保持透明、易于理解。只有通过公开交流人工智能的能力和用途,才能实现对人工智能的长期信任。
道德委员会:自动驾驶和互联驾驶(2017 年报告)
德国联邦交通和数字基础设施部召集的跨学科伦理委员会制定了自动驾驶和联网驾驶指南。
自动驾驶和互联驾驶:规则摘录
规则 2
除非自动驾驶系统能保证与人类驾驶相比至少能减少伤害,换句话说,能实现风险的正平衡,否则就没有理由向自动驾驶系统发放许可证。
第 7 条
在危险情况下,必须对系统进行编程,以便在冲突中接受动物或财产损失,如果这意味着可以防止人身伤害的话。
第 9 条
在不可避免的事故情况下,严禁根据个人特征(年龄、性别、身体或精神状况)进行任何区分。
第 10 条
就自动驾驶和联网驾驶系统而言,以往只由个人承担的责任从驾驶者转移到了技术系统的制造商和运营商,以及负责基础设施、政策和法律决策的机构。

更多故事
CES 2026: Automotive Trends Lean Toward AI Amid EV Market Realities
2025 年 ACT 博览会:人工智能自动驾驶半挂车在可持续交通辩论中抢尽风头
参加并探索北美最大的先进商用车技术交流会。
阿尔法-罗密欧-托纳尔在 SUV 中加入 "S "元素
液氢是 H24 飞行任务的赛道能源目标
菲亚特 Topolino 电动车:为我们不断扩大的社区时代而设计的微型车
玛莎拉蒂MC20 Cielo和Grecale SUV与主要技术和音频合作伙伴在2025年消费电子展上展示意大利的卓越与创新
两款本田 0 系列原型车将在 2025 年美国消费电子展上亮相
电气个人防护设备 (PPE) 是一种新事物 - 由总部位于科罗拉多州的 OEL Worldwide Industries 生产
大众汽车 ID。巴斯入选《时代》周刊 "2024 年最佳发明 "榜单
凯迪拉克确认首款获得 V 系列徽章的电动 SUV 将于 2026 年推出 LYRIQ-V
Stellantis 投资 $29.5 百万美元开发创新风洞技术,以增强电动汽车空气动力学性能