以下是 AI 安全治理方向的国内外团队和人员相关信息:
As we advance this agenda at home,the Administration will work with allies and partners abroad on a strong international framework to govern the development and use of AI.The Administration has already consulted widely on AI governance frameworks over the past several months—engaging with Australia,Brazil,Canada,Chile,the European Union,France,Germany,India,Israel,Italy,Japan,Kenya,Mexico,the Netherlands,New Zealand,Nigeria,the Philippines,Singapore,South Korea,the UAE,and the UK.The actions taken today support and complement Japan’s leadership of the G-7 Hiroshima Process,the UK Summit on AI Safety,India’s leadership as Chair of the Global Partnership on AI,and ongoing discussions at the United Nations.The actions that President Biden directed today are vital steps forward in the U.S.’s approach on safe,secure,and trustworthy AI.More action will be required,and the Administration will continue to work with Congress to pursue bipartisan legislation to help America lead the way in responsible innovation.For more on the Biden-Harris Administration’s work to advance AI,and for opportunities to join the Federal AI workforce,visit[AI.gov](https://ai.gov/).
全球治理英国创建了世界上第一个人工智能安全研究所,美国迅速跟进世界首个人工智能安全研究所AISA有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA还发布了Inspect,一个用于LLM安全评估的框架,涵盖核心知识、推理能力和自主能力等方面。英国宣布与美国等效机构签署谅解备忘录,双方同意共同开发测试,并计划在美国旧金山设立办事处。政府急于填补关键国家基础设施中的漏洞英国通过其高级研究与发明机构(ARIA),花费了5900万英镑来开发一个“守门员”——一种先进的系统,负责了解和减少在能源、医疗保健和电信等关键领域中其他人工智能代理的风险。英国政府还报道称计划设立一个“AI安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性AI的知识。美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。随着攻击面扩大,开发人员加大了对“越狱”的研究
仅少数董事会成员可以在合伙企业中持有财务权益。此外,有限合伙人利益与非营利使命可能发生冲突,以及任何有关向投资者和员工支付回报时,只有不持有此类财务权益的董事会成员才能投票决策。公司架构我们的文件中还有一项条款规定,非营利机构保留对公司的控制权。(文件中使用了OpenAI LP的正式名称“OpenAI,L.P.”)如上所述,投资者和员工的经济回报是有上限的(这一上限会和每位有限合伙人事先协商确定)。超过上限的回报将归非营利机构所有。我们的目标是确保,如果成功,我们创造的大部分价值能回馈世界,因此我们认为这是重要的第一步。第一轮投资者的回报上限设定为投资金额的100倍,我们预计未来轮次的回报倍数上限会降低。OpenAI做什么我们的日常工作保持不变。如今,我们相信专注于开发新的AI技术,而非商业产品,是我们创造最大价值的方式。我们的架构为未来长期盈利提供了灵活性,但我们希望在实现安全的AGI之后再来探索这一问题(不过,在此期间,我们对一些不影响专注的收入来源持开放态度,诸如专利许可授权等)。OpenAI LP目前有大约100名员工,分为三个主要方向:技术能力(推动AI系统功能发展)、安全保障(确保这些系统符合人类价值观)和政策治理(确保适当治理这些系统)。OpenAI非营利机构负责监管OpenAI LP开展Scholars和Fellows等教育项目,并主办政策倡议活动。OpenAI LP正在加速推进由OpenAI非营利机构启动的发展路线图,该路线图已在强化学习、机器人技术和语言领域取得了突破性成果。安全