乌克兰军方还展示了如何使用自动机枪。据说这种机枪可以利用人工智能发现并瞄准在战场上移动的敌人。
在乌克兰使用的人工智能并不都是为了打败对手,也有人道主义方面的例子。
通过追踪道路和基础设施的状况以及监控运送食物和基本物资的补给路线,人工智能正被用于帮助安置难民和因冲突而流离失所的人。
在其他地方,人工智能正在帮忙搜集证据,以追究那些犯下战争罪行的人的责任。指控和报告与显示部队行动情况的卫星图像相关联,视频被上传到社交媒体,为未来的起诉提供依据。
由美国“清晰视野”人工智能公司提供的人脸识别技术已被用于识别穿越边境的俄罗斯士兵,便于事后追踪和追究他们的责任。
引发重大伦理问题
当然,这些都引发了许多伦理问题。科技公司是否应该开发公然违背“不伤害”原则的人工智能工具?
以帕兰蒂尔公司为例,这家公司曾因开发间谍工具而饱受批评。乌克兰部署人工智能增强型监控所使用的许多方法都与该公司有关。
不难想象,战场提供了一个可以进行研发而不会受到过多道德监督或审查的场所。在未来的某个时候,这项技术是否有可能被部署到战区之外?忽视这种威胁似乎是愚蠢之举。
一个重要的问题是:让机器作出杀戮决策在道德上是否说得通?例如,乌克兰的人工智能机枪技术可以识别敌方目标,但仍需人类操作员授权才能开火。然而情况会一直如此吗?
过度强调人工智能和技术在战争中的作用也是有风险的。虽然它们确实可以为宣传提供素材,也许还能引起敌人的恐惧,但我们不应忘记,绝大多数战斗和杀戮仍是由人类完成的。
将俄乌冲突描绘成主要由机器人和软件进行的战争,淡化战争所带来的恐怖和危险,这可能会让人用“技术洗白”的方式掩盖战争的残酷性。