以下是一些与 LLM 项目相关的信息:
Luotuo-Chinese-LLM:地址:[https://github.com/LC1332/Luotuo-Chinese-LLM](https://github.com/LC1332/Luotuo-Chinese-LLM)简介:囊括了一系列中文大语言模型开源项目,包含了一系列基于已有开源模型(ChatGLM,MOSS,LLaMA)进行二次微调的语言模型,指令微调数据集等。Linly:地址:[https://github.com/CVI-SZU/Linly](https://github.com/CVI-SZU/Linly)简介:提供中文对话模型Linly-ChatFlow、中文基础模型Linly-Chinese-LLaMA及其训练数据。中文基础模型以LLaMA为底座,利用中文和中英平行增量预训练。项目汇总了目前公开的多语言指令数据,对中文模型进行了大规模指令跟随训练,实现了Linly-ChatFlow对话模型。ChatYuan地址:[https://github.com/clue-ai/ChatYuan](https://github.com/clue-ai/ChatYuan)简介:元语智能发布的一系列支持中英双语的功能型对话语言大模型,在微调数据、人类反馈强化学习、思维链等方面进行了优化。ChatRWKV:地址:[https://github.com/BlinkDL/ChatRWKV](https://github.com/BlinkDL/ChatRWKV)简介:开源了一系列基于RWKV架构的Chat模型(包括英文和中文),发布了包括Raven,Novel-ChnEng,Novel-Ch与Novel-ChnEng-ChnPro等模型,可以直接闲聊及进行诗歌,小说等创作,包括7B和14B等规模的模型。
大家好,我是一个开源项目作者ailm。目前,绝大多数小型本地开源大语言模型以及部分商用大模型接口都不支持稳定的tool calling功能。而现有的解决方案是微调LLM,这导致大量的时间和算力被浪费。本文提出一种仅使用提示词工程和一些精巧的代码设计,即可让LLM获得稳定的tool calling能力。本文使用多个不具备tool calling能力的LLM作为测试模型,在多个工具调用任务上进行实验,成功率为100%。本文所有工作是基于comfyui开发,适合完全没有代码基础的小伙伴们复现并且按自己的想法修改我的工作。
🔔Xiaohu.AI日报「1月29日」✨✨✨✨✨✨✨✨1⃣️📘LLMs-from-scratch项目:详细解释LLMs的工作原理。提供创建自己的LLM的逐步指南。适合企业团队、初创公司和教育机构学习。🔗https://github.com/rasbt/LLMs-from-scratch🔗https://x.com/xiaohuggg/status/1751890557805449693?s=202⃣️💡SliceGPT-微软开发的大语言模型压缩方法:在保持高性能的同时大幅减少模型参数。允许在更少的GPU上运行,提高运行速度。显著降低了在消费级GPU上的总计算量。🔗https://arxiv.org/abs/2401.15024🔗https://x.com/xiaohuggg/status/1751880365307011182?s=203⃣️👁️🌐VisualWebArena-自主智能体的视觉网络任务基准测试:评估智能体在网络环境中的规划、推理和执行任务能力。着重于视觉信息的重要性和多模态智能体评估。提供深入的定量和定性分析,揭示LLM智能体的限制。🔗https://arxiv.org/abs/2401.13649🔗https://jykoh.com/vwa🔗https://x.com/dotey/status/1751746302155632925?s=204⃣️🔥百川智能的Baichuan 3模型:中文任务评测表现卓越,超越GPT-4。在医疗领域和中华传统文化理解方面表现突出。引入创新技术,提高训练效率和数据质量。🔗https://x.com/xiaohuggg/status/1751830719222124727?s=205⃣️📱Apple Vision Pro最新宣传片:🔗https://x.com/xiaohuggg/status/1751789758186238100?s=20