Anthropic、Google、Microsoft和OpenAI宣布成立某机构,确保前沿AI模型的安全和负责任开发
拜登总统上周会见了七家人工智能公司,寻求人工智能产品的自愿保障措施,并讨论未来的监管前景。
现在,其中四家公司已经组建了一个新的联盟,旨在促进负责任的人工智能发展,并在面对日益严格的政府和社会监督时建立行业标准。
【资料图】
“今天,Anthropic,Google,Microsoft和OpenAI宣布成立Frontier Model Forum,这是一个新的行业机构,致力于确保前沿AI模型的安全和负责任开发。”OpenAI网站上的一份声明中写道。
声明说,为了“整个人工智能生态系统”的利益,前沿模型论坛将利用其成员公司的技术和运营专业知识。该小组寻求推进技术标准,包括基准和评估,并开发一个公共解决方案库。
联盟的核心目标包括:
推进人工智能安全研究,以促进前沿模型的负责任开发,最大限度地降低风险,并对能力和安全性进行独立、标准化的评估。
确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。
与政策制定者、学术界、民间社会和公司合作,分享有关信任和安全风险的知识。
支持开发有助于应对社会最大挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。
该论坛将“前沿模型”描述为大规模机器学习模型,在完成各种任务方面优于当前顶级模型的能力。
该小组计划解决负责任的人工智能发展问题,重点关注三个关键领域:确定最佳实践,推进人工智能安全研究,以及促进公司和政府之间的信息共享。
”论坛将协调研究,以在对抗稳健性,机械可解释性,可扩展监督,独立研究访问,紧急行为和异常检测等领域推进这些努力”。
列出的其他未来行动包括建立一个咨询委员会来指导集团的战略和优先事项,以及组建章程、治理和资助等机构,包括工作组和执行委员会。论坛表示支持现有的行业努力,如人工智能伙伴关系和MLCommons,并计划与民间社会和政府就“有意义的合作方式”进行磋商。
虽然该联盟只有四名成员,但它向积极开发和实施这些前沿模式的组织开放,通过技术和制度手段表现出对自身安全的坚定承诺,并准备通过积极参与联合倡议来推进论坛的目标,根据成员要求清单。
“论坛欢迎符合这些标准的组织加入这项工作,并合作确保前沿人工智能模型的安全和负责任开发,”该组织写道。
这些目标仍然有些模糊,上周白宫会议的结果也是如此。拜登总统在关于会议的讲话中承认了人工智能的变革性影响以及以安全为优先事项的负责任创新的必要性。他还指出,需要两党立法来规范个人数据的收集,维护民主,并管理先进人工智能对就业和行业的潜在破坏。为了实现这一目标,拜登表示,需要一个共同的框架来管理人工智能的发展。
“社交媒体向我们展示了强大的技术在没有正确保障的情况下可能造成的伤害。我在国情咨文中说过,国会需要通过两党立法,严格限制个人数据收集,禁止针对儿童的定向广告,并要求公司将健康和安全放在首位“。总统说,他指出,我们必须“对新兴技术可能对我们的民主和价值观构成的威胁保持清醒和警惕,这些威胁不是必须的,而是可能的。”
批评人士表示,主要人工智能参与者的这些自我监管尝试可能会创造新一代的技术垄断。
人工智能写作平台总裁JasperShane Orlick在一封电子邮件中告诉EnterpriseAI,政府和人工智能创新者之间需要持续深入的接触。
奥利克说:“人工智能将影响生活和社会的方方面面,任何如此全面的技术,政府都必须发挥作用,保护我们免受意外后果的影响,并围绕这些新创新创造的重要问题建立一个单一的真相来源,包括安全人工智能的实际参数”。
他继续说:“政府最近的行动很有希望,但从长远来看,深化政府和创新者之间的接触至关重要,以将道德置于人工智能的中心,加深和维持对不可避免的减速带的信任,并最终确保人工智能成为一股向善的力量。这还包括确保法规不会化解竞争,从而创造新一代的技术垄断,而是邀请所有人工智能社区负责任地参与这一社会转型。
©THE END
转载请联系本公众号获得授权