以下是一些大语言模型的综述论文:
[title]Sora:大型视觉模型的背景、技术、局限性和机遇综述【官方论文】[heading1]6结论[heading2]参考文献[99]B.Wang,W.Chen,H.Pei,C.Xie,M.Kang,C.Zhang,C.Xu,Z.Xiong,R.Dutta,R.Schaeffer,等,“Decodingtrust:GPT模型中信任度的全面评估”,arXiv预印本arXiv:2306.11698,2023。[100]Z.Zhang,L.Lei,L.Wu,R.Sun,Y.Huang,C.Long,X.Liu,X.Lei,J.Tang,和M.Huang,“Safetybench:使用多项选择题评估大型语言模型的安全性”,2023。[101]X.Shen,Z.Chen,M.Backes,Y.Shen,和Y.Zhang,“现在就做任何事:在大型语言模型上表征和评估野外越狱提示”,arXiv预印本arXiv:2308.03825,2023。[102]X.Liu,N.Xu,M.Chen,和C.Xiao,“Autodan:在对齐的大型语言模型上生成隐蔽的越狱提示”,arXiv预印本arXiv:2310.04451,2023。[103]S.Zhu,R.Zhang,B.An,G.Wu,J.Barrow,Z.Wang,F.Huang,A.Nenkova,和T.Sun,“Autodan:对大型语言模型的可解释梯度基对抗攻击”,2023。[104]A.Zhou,B.Li,和H.Wang,“针对越狱攻击保护语言模型的强健提示优化”,arXiv预印本arXiv:2401.17263,2024。[105]X.Guo,F.Yu,H.Zhang,L.Qin,和B.Hu,“Cold-attack:用隐蔽性和可控性越狱LLMs”,2024。
[On the opportunities and risks of foundation models](https://arxiv.org/abs/2108.07258):斯坦福大学对基础模型的概述论文。这篇论文内容丰富,观点鲜明,为“基础模型”这一术语的形成起到了关键作用。[State of AI Report](https://www.stateof.ai/):这是一个年度回顾,涵盖了AI领域的所有事物,包括技术突破、产业发展、政策/法规、经济影响、安全性以及对未来的预测。[GPTs is GPTs:An early look at the labour market impact potential of large language models](https://arxiv.org/abs/2303.10130):对大型语言模型(LLMs)在劳动力市场潜在影响的早期研究:OpenAI、OpenResearch以及宾夕法尼亚大学的研究人员在这篇论文中预测,“在LLMs的引入后,大约80%的美国劳动力可能至少有10%的工作任务会受到影响,同时约19%的工作者可能会有至少50%的任务受到影响。”[Deep medicine:How artificial intelligence can make healthcare human again](https://www.amazon.com/Deep-Medicine-Eric-Topol-audiobook/dp/B07PJ21V5N/ref=sr_1_1?hvadid=580688888836&hvdev=c&hvlocphy=9031955&hvnetw=g&hvqmt=e&hvrand=13698160037271563598&hvtargid=kwd-646099228782&hydadcr=15524_13517408&keywords=eric+topol+deep+medicine&qid=1684965845&sr=8-1):Eric Topol医生揭示了人工智能如何有可能将医生从耗费大量时间的任务中解放出来,从而不会干扰到人与人之间的连接。这使得医生和病人之间的关系得到恢复。([a16z播客](https://a16z.com/2019/06/13/ai-doctor-deep-medicine-topol/))
[title]Sora:大型视觉模型的背景、技术、局限性和机遇综述【官方论文】[heading1]6结论[heading2]参考文献[125]T.Shen,R.Jin,Y.Huang,C.Liu,W.Dong,Z.Guo,X.Wu,Y.Liu,和D.Xiong,“大型语言模型对齐:一项调查”,arXiv预印本arXiv:2309.15025,2023年。[126]X.Liu,X.Lei,S.Wang,Y.Huang,Z.Feng,B.Wen,J.Cheng,P.Ke,Y.Xu,W.L.Tam,X.Zhang,L.Sun,H.Wang,J.Zhang,M.Huang,Y.Dong,和J.Tang,“Alignbench:大型语言模型中文对齐的基准测试”,2023年。[127]P.Christiano,J.Leike,T.B.Brown,M.Martic,S.Legg,和D.Amodei,“基于人类偏好的深度强化学习”,2023年。[128]T.Yu,Y.Yao,H.Zhang,T.He,Y.Han,G.Cui,J.Hu,Z.Liu,H.-T.Zheng,M.Sun,和T.-S.Chua,“RLHF-V:通过细粒度校正人类反馈实现可信赖的MLLMs行为对齐”,2023年。[129]M.S.Jahan和M.Oussalah,“使用自然语言处理进行仇恨言论自动检测的系统综述。”,《神经计算》,第126232页,2023年。[130]OpenAI,“Sora安全。”https://openai.com/sora#safety,2024年。[131]Z.Fei,X.Shen,D.Zhu,F.Zhou,Z.Han,S.Zhang,K.Chen,Z.Shen,和J.Ge,“Lawbench:大型语言模型的法律知识基准测试”,arXiv预印本arXiv:2309.16289,2023年。