美国,英国和其他国家墨水“设计” AI指南

杰西·科格兰(Jesse Coghlan)23分钟前,我们,英国和其他国家 /地区墨水“确保设计” AI指南,指南表明网络安全实践AI公司在设计,开发时应实施

杰西·科格兰(Jesse Coghlan

该指南建议网络安全实践AI公司在设计,开发,启动和监视AI模型时应实施。

81总看法7总股票收听第0:00新闻加入我们的社交网络

美国,英国,澳大利亚和其他15个国家发布了全球指南,以帮助保护AI模型免于受到篡改,敦促公司使其模型“通过设计安全”。

11月26日,18个国家发布了一份长达20页的文件,概述了AI公司在开发或使用AI模型时应如何处理其网络安全,因为他们声称在快节奏的行业中“安全通常是次要考虑”。

该指南主要由一般建议组成,例如在AI模型的基础架构上保持紧密的皮带,监视发布前后对模型的任何篡改,以及有关网络安全风险的培训人员。

激动人心的消息!我们与@NCSC和21个国际合作伙伴联手制定了“安全AI系统开发指南”!这是数字时代安全AI的运营合作:https://t.co/dimuhzgw4r#aisafety #securebydesign pic.twitter.twitter.com/e0sv5acic3

– 2023年11月27日的网络安全和基础设施安全局(@Cisagov)

未提及的是AI领域中某些有争议的问题,包括在培训模型中使用图像生成模型,深层假货或数据收集方法以及在培训模型中使用的可能控制的问题,这是一个问题主张。

美国国土安全部部长亚历杭德罗·梅卡斯(Alejandro Mayorkas)在一份声明中说:“我们正处于人工智能发展的一个变化点,这很可能是我们时代最重要的技术。”“网络安全是建立安全,安全和值得信赖的AI系统的关键。”相关:欧盟技术联盟警告说,在欧盟AI ACT最终确定之前对AI进行了过度调节

该指南遵循了其他政府倡议,这些计划对AI的影响,包括本月初在伦敦举行的AI安全峰会会议,以协调AI开发协议的协议。

同时,欧盟正在阐述其AI法案的详细信息,该法案将监督该空间,美国总统乔·拜登(Joe Biden)于10月发布了一项行政命令,该命令为AI安全和保障制定了标准,尽管两者都看到了AI行业的推动力,他们声称他们可以声称他们可以窒息创新。

新的“设计”指南的其他共同签名人包括加拿大,法国,德国,以色列,意大利,日本,新西兰,尼日利亚,挪威,挪威,韩国和新加坡。AI公司,包括OpenAI,Microsoft,Google,Anthropic和Scale AI,也有助于制定准则。

杂志:AI眼:Google的GPT-4竞争对手AI的AI用途

#business #government #security #ai #cybersecurity

添加反应

添加反应

原创文章,作者:大天,如若转载,请注明出处:https://www.53moban.com/14909.html

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息