作为用户研究人员拥抱 AI 可以从以下几个方面入手:
一、与 AI 共舞
在许多情况下,我们可以给 AI 下达明确的命令来完成一次性任务,比如制作简单的 Chrome 插件、编写脚本或创建 Python 爬虫。当 AI 满足简单需求并带来正反馈后,期待会提高,此时需了解 AI 编程的边界和限制。
二、社会与学术机构层面的应对
三、科技精英的角色转变
AGI 有能力自主研究和改进,科技精英的“独特性”下降。未来的科学家将更多扮演“与 AI 协作”的角色,与 AGI 一起构思实验,由 AGI 执行繁琐分析,人类专注提出问题、解释结果、赋予研究社会意义。科技精英需具备引导 AI 工作的能力,并对 AI 方案保持审慎监督,更像是“AI 驭手”或者“AI 教师”。
在许多情况下,我们只需给AI下达明确的命令来完成一次性任务,例如制作一个简单的Chrome插件、编写脚本、或创建Python爬虫。但当AI满足了我们简单的需求,并让我们获得正反馈之后,我们的期待也会不断提高,希望能进一步从繁琐的日常任务中解脱出来。这个时候,我们需要了解AI编程的边界和限制。[heading2]3.1 AI编程准则第一条:能不编,尽量不编[content]随着IT技术的发展,各种基础设施和工具越来越多,大多数需求都能找到现成的软件解决方案,只需权衡投入产出,进行评估即可。[搜索技巧的逆袭:在AI统治的世界中寻找价值](https://iaiuse.com/posts/af894b2a)成熟产品优先找线上工具:例如制作白底图等功能,如果线上有现成的工具那最好。其次找插件:基于现有系统找合适的插件。最后是本地应用:当线上工具和插件都不满足需求时,再考虑本地应用。API功能先找现成的开源工具,GitHub上很多。然后考虑付费服务。如果都找不到现成的方案,才考虑自己编程。毕竟,人生苦短,何必为难自己呢?如果真的需要动手编写,也要以终为始,抛开技术障碍,聚焦于目标。
学术界和民间机构应当积极参与AGI的独立评估和审计。大学、研究所可以设立AGI伦理与安全研究中心,第三方检验企业的AGI系统,对其安全性发表审查报告。类似的独立观察有助于发现问题、发出预警。开源社区也能发挥作用,追踪大型模型的动态,开发开源的安全工具和对抗方法,形成对商业AI的监督力量。[heading5]伦理框架与标准制定[content]科学家、伦理学家、法学家等应共同制定适用于AGI的伦理准则和行业标准。例如,可以扩展现有的AI伦理原则(如透明、公平、可问责等)以适应AGI的特点,明确AGI在决策、人权等方面的边界。这些框架可以供政府立法参考,也指导企业研发方向。学术团体(如IEEE、AAAI等)已经发布了一些AI伦理指南,未来需要针对AGI进行更细化的讨论,甚至起草**“AGI宪章”**这样具有宣言性质的文件,凝聚全球共识。[heading5]公众教育与对话[content]社会机构(非盈利组织、社区团体等)可以面向大众开展AI科普项目,提高全社会的科技素养和批判性思维。媒体也应负起责任,避免危言耸听或不实报道,提供平衡客观的AGI讨论空间。此外,伦理学者和未来学家应积极参与公共论坛、媒体访谈,把深邃的思考带到公众面前。只有社会各界都参与进来,对AGI可能带来的伦理困境、法律问题等进行充分讨论,我们才能在需要做集体抉择时有所准备。民主参与将确保AGI治理不只是精英主导,而是反映广大人民的意志。
最后,AGI有能力进行自主研究和改进,这意味着科技精英的“独特性”也在下降。如果AGI本身可以编程、写论文、创造新知识,那么人类研究者可能需要重新定位与AI的关系。有观点认为,未来的科学家将更多扮演**“与AI协作”的角色:与AGI一起构思实验,由AGI执行繁琐分析,人类则专注提出问题、解释结果、赋予研究社会意义。在这种人机搭档模式下,科技精英需要具备引导AI工作的能力,并对AI给出的方案保持审慎监督。这与过去单枪匹马创新的形象不同,更像是“AI驭手”或者“AI教师”**,帮助人工智能更好地发挥正面作用。