美国七大AI公司签署安全公约:求监管

科技巨头携手AI初创公司齐聚白宫,商讨AI使用准则人工智能(AI)的潜力开始慢慢被人熟知,但这一技术并非没有风险,尤其是现在还缺乏对AI的监管政策。就在上周,美国联邦贸易委员会(FTC)就数据处理以及

科技巨头携手AI初创公司齐聚白宫,商讨AI使用准则

人工智能(AI)的潜力开始慢慢被人熟知,但这一技术并非没有风险,尤其是现在还缺乏对AI的监管政策。就在上周,美国联邦贸易委员会(FTC)就数据处理以及ChatGPT可能损害消费者声誉的问题对OpenAI展开调查。你没有听错,AI也有可能违法。

安全是美国政府现在最关心的问题,负责任的AI开发者也一直在求监管,希望政府出台一套清晰的规则和准则以防这一技术失控。上周五,AI监管终于走出了第一步,下面这7家公司齐聚华盛顿哥伦比亚特区并签署了一份安全公约:

精选投资机会 Blockmate Ventures Inc.&nbsp(TSX.V: MATE, OTCQB: MATEF, FSE: 8MH1)

Blockmate Ventures是一个Web3孵化器/风险投资公司,重点关注的业务是利用区块链技术和去中心化为日常服务提供更大的效益、可及性和可持续性。我们与潜在的企业创始人合作,帮助孵化中的项目从Blockmate生态系统中受益。该生态系统提供技术、服务、集成、数字资产和咨询,以加速项目的孵化和变现。

微软Microsoft(NASDAQ:MSFT)亚马逊com(NASDAQ:AMZN)Facebook母公司Meta Platforms, Inc.(NASDAQ:META)谷歌母公司Alphabet Inc(NASDAQ:GOOG)(NASDAQ:GOOGL)OpenAIAnthropicInflection这一协议希望实现三大目标

这7家公司都有在研发自己的大语言模型,这种类型AI的终极模式是线上聊天机器人。虽然该安全公约是各方自愿签署的,但这是美国政府为了防范AI潜在风险而首次制定的清晰的准则。

该协议涉及3个核心领域:

确保产品向公众发布前是安全的。具体的措施包括这7家公司任命独立的专家对产品更新进行测试和分析,这些公司还要与政府、民间团体以及学术界分享数据。这些数据涉及的是恶意人士违反安全功能的尝试,如此整个行业可以就潜在的威胁开展合作。

建立安全第一的系统。在上述措施的基础之上,这些公司将加大网络安全投入以保护未发布的模型权重。这些是训练AI所使用的参数,比如说它们决定一台聊天机器人在收到输入后将提供的输出。此外,这些公司还将允许第三方发现和报告漏洞,这样就可以确保它们无法隐藏或粉饰入侵和攻击的程度。

赢得公众信任。这些公司已同意AI生成内容时要告知终端用户,比如说图片和视频做水印处理。此外,开发者要报告模型偏见为输出提供语境,以及投入资金研究AI可能带来的社会危害。最后,这些公司还同意将它们的模型用于社会公益事业,比如说医疗和对抗气候变化。

这些准则对于OpenAI、Anthropic和Inflection这些私人公司尤其重要。相比之下,微软、Meta、亚马逊和Alphabet都是上市公司,本来就有报告和信息披露的义务。

这一AI安全公约对这些公司意味着什么?

2023年AI创新速度惊人,这一定程度上得益于监管的缺乏。安全公约签署之后,AI的开发将面临一个新的环境。这些领先的AI公司不会停止这一技术的研发,但在发布新产品前必须咨询独立的专家以确保合规,消费者可能要等待更久才能用上它们的产品。此外,因为企业、学术界以及政府对于安全的观点可能大不相同,数据分享可能会带来意料之外的后果。

最近FTC对OpenAI启动的调查对于所有其他的AI公司都是一个震慑,尤其是OpenAI主要的投资者微软。该机构对于AI可能会给消费者带来的损害表达了清晰的担忧,并希望了解目前已经采取什么措施将危害降至最低。此外,AI公司应重金投入数据安全,这也是联邦贸易委员会的关注焦点。

原创文章,作者:财经快讯,如若转载,请注明出处:https://www.53moban.com/4154.html

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息