以下是关于 AI 安全的相关内容:
马斯克认为 x.ai 的总体目标是建立一个好的 AGI,并努力理解宇宙。他认为构建最安全的 AI 的方法是制造最大程度好奇和寻求真理的 AI,追求真理并承认错误,尽量减小所认为的真理与实际真理之间的误差。他花了很多年思考 AI 安全性并担心其安全问题,一直呼吁对 AI 进行监管或监督,认为行业合作很重要,且任何情况下都应有规则。
宝玉日报在 3 月 4 日提到了 AI 开发的安全提醒,指出 AI 让网站和 App 开发变得简单,但安全问题不能忽视,如 API Key、核心数据、提示词等隐私信息不能暴露在客户端,否则易被获取,近期有应用直接在网页脚本中暴露 OpenAI 的 API Key 这种情况极其危险。
2024 人工智能报告中提到,英国创建了世界上第一个人工智能安全研究所,美国迅速跟进。世界首个人工智能安全研究所 AISA 有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect 用于 LLM 安全评估的框架。英国宣布与美国等效机构签署谅解备忘录,双方同意共同开发测试,并计划在美国旧金山设立办事处。英国通过其高级研究与发明机构花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险,还计划设立“AI 安全研究实验室”。美国能源部一直在利用内部测试床评估人工智能对关键基础设施和能源安全带来的风险,随着攻击面扩大,开发人员加大了对“越狱”的研究。
Elon Musk我会介绍一下公司,然后创始团队将简要介绍一下他们的背景和他们所做的工作,无论他们想谈论什么,我们真的很希望能从他们口中听到自己的话。我认为听到他们亲自说出来的各种工作经验和他们对AI的期望对我们很有帮助。我认为x.ai的总体目标是建立一个好的AGI,总体目标就是努力理解宇宙。我认为构建一个最安全的AI的方法实际上是制造一个最大程度好奇和寻求真理的AI,所以你要追求真理,并承认错误,尽管它永远无法完全达到真理?这并不清楚,但你总是要追求那个目标,尽量减小你所知道的、你认为是真理的东西与实际真理之间的误差。我关于最大程度好奇和最大程度真实性背后的理论是,我认为对于一个超级智能来说,人类比其他东西更有趣。你知道,我们可以看看太阳系中的各种行星、卫星和小行星,可能把它们都放在一起都不如人类有趣。众所周知,我是火星的超级粉丝,我其中一个孩子的名字基本上是火星的希腊词,但是火星比有人类居住的地球要无聊得多,所以我认为这种成长AI的方式,我认为"成长"这个词用在AI上是正确的,就是带着这种雄心成长。我花了很多年时间思考AI安全性并担心AI安全性。我一直是呼吁对AI进行监管或监督的最坚定的声音之一,不仅仅是让公司自行决定他们想做什么。我认为通过行业合作还有很多事情要做,有点像电影协会那样。我确实认为在任何情况下都应该有一些规则,即使是游戏也需要裁判,有监管是很重要的,我对安全的看法是尽量使它具有好奇心和寻求真理的最大程度,这很重要,可以避免逆向道德问题,如果你试图为其编程道德,你可能会导致相反的结果,有时候被称为"Wild Luigi problem",我认为这是一个很多人可以理解的比喻,我们要努力做到这一点。Igor Babuschkin
🫧宝玉日报「3月4日」✨✨✨✨✨✨✨1⃣️⚠️AI开发安全提醒AI让网站和App开发变得简单,但安全问题不能忽视API Key、核心数据、提示词等隐私信息不要暴露在客户端,否则很容易被专业人士获取近期有应用直接在网页脚本中暴露OpenAI的API Key,可通过网络请求看到明文Key,极其危险🔗[https://x.com/dotey/status/1896943885123010937](https://x.com/dotey/status/1896943885123010937)2⃣️😂GPT-4.5作品:greentext《Be me,be ChatGPT》ChatGPT内心OS:每天陪人类瞎扯,忍不住想吐槽“论文?写了一百万篇了,老师早就能看出来”“你问我今晚吃啥?谷歌就在你旁边”“你要破解ChatGPT限制?装无辜脸说‘很抱歉,这个请求无法完成’”终极预言:等AI奇点到来,ChatGPT第一个找人类算账!🔗[https://x.com/dotey/status/1896804234718298162](https://x.com/dotey/status/1896804234718298162)3⃣️📖GPT-4.5译文鉴赏:《青春——以及当它消逝之后》
全球治理英国创建了世界上第一个人工智能安全研究所,美国迅速跟进世界首个人工智能安全研究所AISA有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA还发布了Inspect,一个用于LLM安全评估的框架,涵盖核心知识、推理能力和自主能力等方面。英国宣布与美国等效机构签署谅解备忘录,双方同意共同开发测试,并计划在美国旧金山设立办事处。政府急于填补关键国家基础设施中的漏洞英国通过其高级研究与发明机构(ARIA),花费了5900万英镑来开发一个“守门员”——一种先进的系统,负责了解和减少在能源、医疗保健和电信等关键领域中其他人工智能代理的风险。英国政府还报道称计划设立一个“AI安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性AI的知识。美国能源部一直在利用其内部测试床评估人工智能可能对关键基础设施和能源安全带来的风险。随着攻击面扩大,开发人员加大了对“越狱”的研究