在美国和以色列对伊朗发动军事攻击后,有消息称美国在此次行动中使用了人工智能模型。有专家评论称,美国和以色列涉嫌在军事行动中“大量使用”人工智能模型,引发一系列道德和法律争议。新学院副教授、人工智能和机器人专家彼得·阿萨罗表示,从美国和以色列行动的决策时间短、目标数量多来看,两国都涉嫌广泛使用人工智能来识别和控制伊朗目标。他指出,自动化过程可能比手动创建目标列表要快得多,但关键问题是在授权攻击之前是否充分考虑了目标以及其合法性和有效性是否经过验证。彼得·阿萨罗问道:人类真的能控制正在发生的事情吗?出现错误时谁负责?法律是如何定义的?最低限度的道德是什么?美国力推AI军事化,AI企业存在分歧。据报道,美军在这次行动中使用了一种名为“克劳德”的人工智能模型。此前,开发该模型的美国公司Antropik曾表示,五角大楼拒绝解除其要求的两项限制:该模型不能用于美国境内的大规模监视,以及它是一个无需人工干预的完全自主武器系统。该公司在袭击伊朗之前就受到美国总统和国防部长的警告,最终被五角大楼列为“供应链风险”,并在六个月内更换。不过,继Entropik被列入“黑名单”后,美国企业开放人工智能研究中心2月28日宣布,已与该单位达成协议编辑美国国防部在五角大楼的机密网络上部署其人工智能模型。在旧金山开放人工智能研究中心总部附近,人们通过在街头写下抗议标语来表达愤怒。美国消费者新闻和商业频道记者:“我什么时候应该取消订阅?” “做正确的事并勇敢”。 “红线在哪里?”这样的标语随处可见。我想澄清的是,这些口号不是开放人工智能研究中心或Antropik员工写的,而是普通人写的。他们对目前的局势感到担忧,并担心这可能开创人工智能公司与政府签订军事合作合同的先例。不受控制的滥用是人工智能军事化的最大风险。李阳 中国科学院科学技术与网络安全研究所所长《当代国际关系》分析称,目前国际社会对人工智能军事应用的局限性达成的共识是,人类必须保证对军事决策的最终控制权。但目前的现实是,美国等国拒绝签署相关国际宣言,也反对具有约束力的禁令。事实表明,美国正在快速推进人工智能的军事应用,OpenAI、Palantir等硅谷公司也正在成为美国军工行业的初创企业。在人工智能军工综合体的推动下,战争变得更加精准、无人化、速度更快。 AI可以在几秒内生成战场情况,自行规划攻击路线并参与战斗。决策时间显着减少,人类控制战斗进程的能力持续下降。人工智能中的黑盒效应和算法错误很可能导致错误的决定并迅速将局部冲突升级为全面战争。因此,从这个意义上说,人工智能给人类带来的最大风险可能不是技术本身的不可预测性或不确定性,而是有关国家对人工智能的不加控制和不负责任的使用。 (央视新闻客户端)
Leave a Reply