人工智能也需上“思想教育课”

艾欧体(Aiouti)物联网资讯:建造人工智能和自动系统的科学家需要对他们的成果可能产生的影响有很强的道德认知和理解。最近100多名专家发表了一封致联合国的公开信,主题是致命的自动武器即“杀手机器人”。

这些人包括企业家埃隆·马斯克和几家机器人公司的创始人,他们只是发出呼吁的其中一部分人,从2015年开始他们就致力于此工作。这封公开信呼吁结束军备竞赛,并声称这可能是“继火药和核武器之后的第三次战争革命”。

联合国应该发挥作用,但对这些系统未来的责任也需要从实验室开始着手。培训我们的人工智能研究人员的教育系统需要在道德和编程方面对他们进行教育。

人工智能的自主权

自动系统可以自己做决定,几乎不需要人类的输入。这极大地增加了机器人和类似设备的实用性。例如,无人驾驶的无人机只需要传送地址,然后就能自己找到最佳路线从而克服沿途遇到的任何障碍,比如克服恶劣天气或遇到一群好奇的海鸥的围攻。

目前已经有大量关于自动驾驶系统的研究,而无人机目前正由亚马逊等公司开发。很明显,同样的技术可以轻而易举地用于配送比食品和书籍复杂得多的东西。无人机的机型更加小巧、价格更便宜、构造更结实,这意味着无人机将很快可以用于制造和部署成千上万架无人机。部署这样的武器系统很有可能会摆脱人类的控制,这封信会促使联合国“找到一种方法保护我们所有人免受这些危险”。

伦理与推理

无论你对这些武器系统有什么看法,这个问题都突显出人工智能研究中需要考虑伦理问题。就像在大多数科学领域一样,获得必要的深度,为世界的知识做出贡献需要专注于一个特定的主题。研究人员往往是相对狭窄的领域的专家,可能缺乏任何道德或道德推理方面的正规培训。

正是这种推理越来越被需要了。比如,正在美国测试的无人驾驶汽车将需要能够对潜在的危险情况做出判断。比如,如果一只猫意外地穿过马路,它会作何反应?是直接碾过去猫,还是为了避开猫而突然转向,让车里的人冒着受伤的风险?

我们希望很少看到这样的情况,但汽车需要在设计时考虑一些具体的原则来指导决策。正如维尼吉亚蒂格納姆(Virginia Dignum)最近在墨尔本举行的国际人工智能联合会议上发表了一篇题为“负责任的自动系统”的论文:无人驾驶汽车将具有伦理道德,那是谁的问题呢?

在论文中,纳温桑达和塞尔玛探讨了一个类似的主题:自动化双重效应学说。双重效应学说是一种关于道德问题的推理,比如在特定情况下的自卫权利,此推理由13世纪天主教学者托马斯·阿奎那(Thomas Aquinas)提出。

“双重效应”指的是获得好的效果(比如挽救某人的生命),同时也会产生不良影响(在这个过程中伤害别人)。这是一种为行动辩护的方式,比如无人机会射击撞倒行人的汽车。

这对教育意味着什么?在人工智能研究中,伦理作为一个讨论话题表明,我们也应该考虑如何让学生准备好生活在一个自动系统越来越普遍的世界里。
最近确实需要“T型”人才。现在企业正在寻找的不仅仅是特定领域的技术深度(即T的垂直路线),而且还在寻找专业技能和个人素质(水平路线)。综合来看,他们能够从不同的角度看待问题,能在多学科的团队中有效地工作。

大多数计算机科学和类似学科的本科课程包括一门关于职业道德和实践的课程。这些问题通常集中在知识产权、版权、专利和隐私问题上,这些问题当然很重要。

然而在人工智能联合会议的讨论中,有一种新的需求很明显即广义的道德问题。主题可以包括确定两害相轻的方法、刑事过失等法律概念,以及科技对社会的历史影响。

关键是要让毕业生从一开始就把伦理和社会的观点融入到他们的工作中去。同样需要研究提案来证明道德考量是如何被采纳的,这种做法似乎也是合适的。随着人工智能在日常生活中变得越来越广泛和深入,技术人员必须了解他们所生活的社会,以及他们的发明可能对其产生的影响。

欢迎转载,转载请注明作者和出处!:IOT-艾欧体 » 人工智能也需上“思想教育课”

赞 (0)
分享到:更多 ()

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址