参考消息网9月9日报道 外媒称,五角大楼寻找“伦理学家”监督军方使用人工智能。
据英国《卫报》网站9月7日报道称,五角大楼正寻找合适的人选,帮助其在被称为21世纪战场的人工智能(AI)领域应对模棱两可的道德问题。
招募:军事“伦理学家”。
技能:数据分析、机器学习、杀手机器人。
必备素质:冷静的头脑、道德指南针,以及能对将军、科学家甚至总统说“不”。
五角大楼联合人工智能中心(JAIC)主任杰克·沙纳汉中将近日对记者说:“我们将要填补的职位之一需要的人选不仅能够考虑技术标准,而且得是一名伦理学家。”
他说:“我认为这是非常重要的一点。说实话,一年前我们不会考虑这个问题。在‘梅文计划(一个飞行员人工智能机器学习计划)’中,这些问题真的不是每天都会出现,因为仍然是人类在监控目标识别、分类和追踪。没有武器参与其中。”
沙纳汉还说:“因此,我们将引进有深厚伦理学背景的人,然后与国防部的律师们一起,研究如何真正将其纳入国防部的未来。”
报道称,JAIC目前成立一年,有60名雇员。它去年的预算是9300万美元,今年的预算申请是2.68亿美元。美国担心其主要对手们在探索AI军事潜力——包括指挥控制以及自主武器——的全球竞赛中已获得先发优势,这个部门因此应运而生。
报道认为,正如“军事情报”这个词过去遭到嘲笑一样,一些评论人士或许会发现,在越南、柬埔寨和伊拉克发动战争的美军深入研究道德伦理哲学这一概念,具有讽刺意味。而沙纳汉坚称,道德伦理将是美国在人工智能领域取得进步的关键。
他说:“我们正在深入思考如何道德地、安全地和合法地使用AI。本质上来说,我们正身处一场围绕数字时代国际秩序特征的竞争。与我们的盟友和伙伴一道,我们希望成为领导者,并确保这一特征反映价值观和利益。”
报道认为,AI在武器中的应用——如在《终结者》等电影中所普遍呈现的那样——未必是官方的伦理学家最看重的东西。他们或许还必须应对数据搜集和隐私问题,这与亚马逊、奈飞和社交媒体在商业部门提出的问题并无不同。
华盛顿战略与国际问题研究中心国际安全项目副研究员林赛·谢泼德说:“我们谈论国防部利用AI时,不仅限于机器人和自主性。我认为记住这一点很重要。”“五角大楼的AI伦理学家必须能够支持AI应用的方方面面——从在武器系统中使用AI的时机,到我们如何看待人员数据的可行和合理使用”。