红十字会在人工智能国防会议上的展位凸显技术潜在威胁
华盛顿"AI+军事防御"会议上,国际红十字委员会的展台无疑引人注目——这正是其意义所在。
"当技术进入战场时,必将产生相应后果,"红十字国际委员会法律顾问乔纳森·霍洛维茨在其展位表示。该展位重点展示了人工智能在冲突应用中可能产生的问题。
在沃尔特·E·华盛顿会议中心,ICRC展台周围环绕着获得美国军事防御合同的世界最具影响力企业,以及其他国际实体的展位。Palantir、洛克希德·马丁、博思艾伦咨询公司、谷歌和微软都在本次AI+活动中有重要展示。
这场为期三天的会议由"特别竞争力研究项目"组织,该组织自称是"致力于重拾历史时期的竞争思维和统一国家使命,并将其适应AI时代和21世纪战略竞争"的团体。
战场AI的支持者认为其有助于减少伤亡并增强作战能力,但批评者指出该技术远未完善,会遗漏战争迷雾中微妙的细节,且常带有开发者的偏见。
批评者还强调,AI在军事领域的快速应用可能无视国际标准。
"技术的新颖性并不意味着可以无限制地使用,"霍洛维茨表示,"我们要提醒人们国际规则的存在,这些规则可见于《日内瓦公约》和国际人道主义法。"
他称虽然ICRC关注AI在战争中的使用,但也看到其在改善冲突中平民生活的潜力。
"它能让军队更清楚医院或关键基础设施的位置,从而避免攻击这些地点,"他解释道。
但近月来的担忧在于,AI平台一旦交付各国军队,其使用方式几乎不受问责。
微软近期因被指控其AI技术用于加沙战争中伤害平民而展开内部审查。虽然调查发现"没有证据"表明以色列军方如此使用其产品,但指出这些软件和平台可能被用于军队的高度安全独立网络,限制了公司调查范围。
面临AI技术使用争议的不止微软。Alphabet旗下谷歌、Scale AI和Palantir同样遭到类似指控。
AI+会议上,示威者呼应了对该技术危害平民(特别是加沙地区)的担忧,抗议者多次打断演讲和小组讨论。
霍洛维茨补充说,未来数月ICRC将继续与军方就AI应用展开合作"解决难题",以"保护武装冲突中受害最深的平民群体"。
关于ICRC更新的技术指导方针,他表示:"我们新增了针对AI决策支持系统的建议,首要原则是必须保持人类对这些系统的控制和判断。"
该组织近期已向联合国秘书长提交AI军事应用建议书。
文件中,ICRC对AI在自动武器系统的应用,以及加速军事决策的AI实施表示关切。
同时力图提高人们对AI可能加速虚假信息传播,进而助长甚至煽动暴力的认识。
文件总结道:"本文件旨在协助各国确保AI军事应用符合现行法律框架,并在必要时明确需要补充法律、政策或操作措施的领域。"
版权声明:本文由鱼文智库发布,如需转载请注明出处