Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

waytoAGI知识库 用的是什么大语言模型

Answer

“通往 AGI 之路”知识库没有明确提及自身所使用的大语言模型。但为您提供以下大语言模型相关的信息和资源:

  • 相关文章和介绍的链接:
    • NLP's ImageNet moment has arrived: https://thegradient.pub/nlp-imagenet/
    • Google Cloud supercharges NLP with large language models: https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-supercharge
    • s-nlp-with-large-language-models
    • LaMDA: our breakthrough conversation technology: https://blog.google/technology/ai/lamda/
    • Language Models are Few-Shot Learners: https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
    • PaLM-E: An embodied multimodal language model: https://ai.googleblog.com/2023/03/palm-e-embodied-multimodal-language.html
    • Pathways Language Model(PaLM): Scaling to 540 Billion Parameters for Breakthrough Performance: https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html
    • PaLM API & MakerSuite: an approachable way to start prototyping and building generative AI applications: https://developers.googleblog.com/2023/03/announcing-palm-api-and-makersuite.html
    • The Power of Scale for Parameter-Efficient Prompt Tuning: https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
    • Google Research, 2022 & beyond: Language models: https://ai.googleblog.com/2023/01/google-research-2022-beyond-language.html#LanguageModels
  • 各种 LLM 的测试排名: |Rank|Model|Elo Rating|Description| |-|-|-|-| |1|🥇vicuna-13b|1169|a chat assistant fine-tuned from LLaMA on user-shared conversations by LMSYS| |2|🥈koala-13b|1082|a dialogue model for academic research by BAIR| |3|🥉oasst-pythia-12b|1065|an Open Assistant for everyone by LAION| |4|alpaca-13b|1008|a model fine-tuned from LLaMA on instruction-following demonstrations by Stanford| |5|chatglm-6b|985|an open bilingual dialogue language model by Tsinghua University| |6|fastchat-t5-3b|951|a chat assistant fine-tuned from FLAN-T5 by LMSYS| |7|dolly-v2-12b|944|an instruction-tuned open large language model by Databricks| |8|llama-13b|932|open and efficient foundation language models by Meta| |9|stablelm-tuned-alpha-7b|858|Stability AI language models|
Content generated by AI large model, please carefully verify (powered by aily)

References

WaytoAGI 品牌 VI

「通往AGI之路」的品牌VI(视觉识别)融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性,共同构建了一个充满活力和前瞻性的品牌形象。颜色:我们选择彩虹色作为主要的配色方案,代表多样性、包容性和创新。彩虹色的丰富层次和鲜明对比,象征着人工智能领域的无限可能和多维视角。图案:品牌的标志性图案是一只鹿,它在中文中与「路」谐音,象征着通往AGI未来的道路。鹿的形象优雅而智慧,寓意在追求AGI过程中的品味与睿智。字体设计:我们选择的是简洁现代的非衬线字体,这种字体风格简约而现代,易于阅读,强调了信息传达的清晰度和直接性。「通往AGI之路」是一个充满活力、敢于创新、追求科技美感的品牌。我们的VI不仅仅是视觉上的呈现,它是我们对AGI探索路上多元思维和创新追求的体现。

2. 大语言模型介绍

[title]2.大语言模型介绍NLP's ImageNet moment has arrived:https://thegradient.pub/nlp-imagenet/Google Cloud supercharges NLP with large language models:https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-supercharges-nlp-with-large-language-modelsLaMDA:our breakthrough conversation technology:https://blog.google/technology/ai/lamda/Language Models are Few-Shot Learners:https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a- Paper.pdfPaLM-E:An embodied multimodal language model:https://ai.googleblog.com/2023/03/palm-e-embodied-multimodal-language.htmlPathways Language Model(PaLM):Scaling to 540 Billion Parameters for Breakthrough Performance:https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.htmlPaLM API & MakerSuite:an approachable way to start prototyping and building generative AI applications:https://developers.googleblog.com/2023/03/announcing-palm-api-and-makersuite.htmlThe Power of Scale for Parameter-Efficient Prompt Tuning:https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a- Paper.pdfGoogle Research,2022 & beyond:Language models:https://ai.googleblog.com/2023/01/google-research-2022-beyond-language.html#Langu ageModels

测试各种LLM

[title]测试各种LLM|Rank|Model|Elo Rating|Description|<br>|-|-|-|-|<br>|1|🥇[vicuna-13b](https://lmsys.org/blog/2023-03-30-vicuna/)|1169|a chat assistant fine-tuned from LLaMA on user-shared conversations by LMSYS|<br>|2|🥈[koala-13b](https://bair.berkeley.edu/blog/2023/04/03/koala)|1082|a dialogue model for academic research by BAIR|<br>|3|🥉[oasst-pythia-12b](https://open-assistant.io/)|1065|an Open Assistant for everyone by LAION|<br>|4|[alpaca-13b](https://crfm.stanford.edu/2023/03/13/alpaca.html)|1008|a model fine-tuned from LLaMA on instruction-following demonstrations by Stanford|<br>|5|[chatglm-6b](https://chatglm.cn/blog)|985|an open bilingual dialogue language model by Tsinghua University|<br>|6|[fastchat-t5-3b](https://huggingface.co/lmsys/fastchat-t5-3b-v1.0)|951|a chat assistant fine-tuned from FLAN-T5 by LMSYS|<br>|7|[dolly-v2-12b](https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm)|944|an instruction-tuned open large language model by Databricks|<br>|8|[llama-13b](https://arxiv.org/abs/2302.13971)|932|open and efficient foundation language models by Meta|<br>|9|[stablelm-tuned-alpha-7b](https://github.com/stability-AI/stableLM)|858|Stability AI language models|

Others are asking
我指的是用AI来辅助小红书内容的优化方面,我应该在WaytoAGI中学习什么内容?
在 WaytoAGI 中,您可以学习以下与用 AI 辅助小红书内容优化相关的内容: 1. 智能纪要中的数据转化与创作提示词工具:包括从数据到模型的转化过程,以及基于 AGI 特调的生成 MJ 和 SD 提示词的工具扣子,还有利用这些工具生成山海经神兽等创作提示词的方法和迭代优化方式。 2. 人文数据转化的不同层面:了解数据转化成模型的结构过程和情感层面的结构,以及人类世界人文价值对齐翻译对 AI 发展的重要性。 3. 关于神兽提示词创作及相关工具的交流:如社区建立种子群收集知识库,推荐表现力好的提示词组等。 4. 相关社区及平台的介绍:例如嘟嘟社区的现状,以及在队友平台上跑效果图等。 5. 开展的创作挑战活动:如 10 分钟神兽提示词创作挑战,包括挑战方式、成果检验和配方获取等。 6. 第 11 期 Video Battle AI 视频挑战活动:包括选题参考,如 AI 视频领域国内外近期热点话题事件、技术工作流拆解等;话题要求,如小红书内容文案需附特定字样和带特定标签;大赛主题和创意支持,以及视频工具建议等。 希望以上内容对您有所帮助。
2025-03-07
怎么可以通过好好利用“waytoagi”生成视频?从文字到图片最后到视频?具体可以用到哪些工具?
以下是关于如何通过“waytoagi”从文字生成视频以及相关工具的介绍: 在视频制作中,对于规避多人脸崩的镜头,AI生成多人脸易崩,可借助工具修复,如放大工具。终极解决办法是抽出有问题的帧进行修复,但时间成本高,也可换脸,但存在光影和边缘模糊等问题。 解决文字糊掉的问题,推荐使用将 2D 图片转成 3D 效果的工具,用可灵也能在很大程度上保持文字不变。 视频补帧一般使用 top video 黄玉,美图工具 still 可氪金提升视频帧率和画质,但对显卡要求高。 处理团队意见分歧,在传统片子和 AI 片子中,若对镜头或节点分歧较大,一般听写本子和拆分镜的人的意见。 扩图工具可用吉梦扩图,一次只需一个积分,操作方便,如上传图片后调整尺寸和扩图范围。 去水印工具如 HID 工具,还有很多其他去水印工具可选择。 利用现有工具生成艺术字和图片的流程:先点导入参考图,选择免费无版权且字体不太细的字,通过设置边缘轮廓或景深、参考程度、添加关键词等生成,还可进行细节修复和超清放大。利用参考图改变生成效果,参考程度可影响生成结果,不同风格的参考图能带来不同效果。生成视频和首尾帧,多生成几张图制作视频,通过首尾帧让图片有变化效果,但要注意写好提示词。同时,收集参考图时注意版权,可先在其他地方生成保存再当参考图。 以下是一些文字生成视频的 AI 产品: Pika:擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看: 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-06
wayToAGI 是个什么样的网站
WaytoAGI 网站是一个在 AI 领域为用户提供多种功能的网站,具有以下特点和功能: 1. 和 AI 知识库对话:用户可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,方便用户按需求找到适合的工具。 3. AI 提示词:集合了精选的提示词,可复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 WaytoAGI 网站和 WaytoAGI 知识库相互关联又各自独立,希望成为用户学习 AI 路上的好助手。 其愿景和目标是让每个人在学习 AI 的过程中少走弯路,让更多的人因 AI 而强大。网站提供了全面系统的 AI 学习路径,帮助用户了解从 AI 常见名词到 AI 应用等各方面知识,并引发用户思考“我可以用 AI 做什么,帮助自己更强大”。 此外,WaytoAGI 还有以下相关渠道: 1. 公众号:通往 AGI 之路。 2. 内置知识库 AI 助手。 3. B 站:以视频普及 AI 知识。 4. 小红书:及时传递 AI 消息。 5. X(Twitter):同步知识库精选内容。
2025-03-06
如何用waytoAGI
以下是关于如何使用 WaytoAGI 的详细介绍: 1. 加入飞书群:您可以在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码请在获取),然后点击加入,直接@机器人即可。 2. 在网站首页提问:您可以在 WaytoAGI.com 的网站首页,直接输入您的问题,即可得到回答。 3. 点开链接查看:不用注册,不用花钱,直接点就能看。 4. 按需求选择内容:比如您想学 AI 绘画,就去看“AI 绘画”部分;想找 AI 工具,就去“工具推荐”部分。内容分得清清楚楚,想学啥都能找到。 5. 从特定板块开始:以 Agent 板块为例,您可以从下往上看,一个一个点进去查看相关视频。比如链接:。 如果您看了还有不懂的,或者想跟别人交流,可以加入社群,大家一起讨论。WaytoAGI 是一个帮助您快速入门 AI、学会用 AI 搞事情的“武器库”,无论您是小白还是想靠 AI 赚钱,都能从中受益。
2025-03-05
在 WaytoAGI 的工具网站上列出的文字转语音工具, 哪个是最适合生成中文语音的?
在 WaytoAGI 的工具网站上,以下几个文字转语音工具在生成中文语音方面各有特点: 1. Eleven Labs:https://elevenlabs.io/ 是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 2. Speechify:https://speechify.com/ 是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,能将文本转换为音频文件。 3. Azure AI Speech Studio:https://speech.microsoft.com/portal 提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 4. Voicemaker:https://voicemaker.in/ 可将文本转换为各种区域语言的语音,并允许创建自定义语音模型,易于使用。 此外,还有免费的 GPTSoVITS 和 BertVITS2 两个开源模型,它们也能很好地生成中文语音。这两个项目均免费且好用,直接找到需要的音色,输入文字点击“合成语音”生成后就能下载。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-05
waytoagi东西好多,我不知道从哪里看起
以下是关于如何使用 WayToAGI 知识库的指导: 1. 从 Agent 板块开始: 以 Agent 板块为例,链接: 。 用法:从下往上看,逐个点击,都有视频。 选择原因:共学都有视频,是从注册开始的手把手教学,多看几遍基本能保障调通一个工具、搭好一个 Agent。 注意事项:内容较多,点进去看看哪个工具您听过就从哪个工具开始,以免太累。 2. 看了一些视频之后: 链接: 。 用法:明确自己想看理论还是应用,找到导航,想看哪里点哪里。 备注:智能千帆、阿里云百炼有视频,其余部分没有。 注意事项:内容较多,要考虑聚焦,先挑一个,开始手把手一起做,只要开始用起来,就有可能达成目标。 3. 快捷方式: 点开链接就能看,不用注册,不用花钱,直接点这个链接就能看:点击 。 想看啥就看啥,比如想学 AI 绘画,就去看“AI 绘画”部分;想找 AI 工具,就去“工具推荐”部分,内容分类清晰。 有问题还能问,如果看了还有不懂的,或者想跟别人交流,可以加入社群讨论。 WayToAGI 是一个帮助您快速入门 AI、学会用 AI 搞事情的“武器库”。无论您是完全不懂 AI 的小白,还是想用 AI 赚钱的普通人,它都能提供帮助。AI 是未来的趋势,现在学习一点都不晚,如果您想了解 AI、用 AI、甚至靠 AI 搞钱,WayToAGI 就是您最该看的“AI 宝典”。
2025-03-04
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
如何建立个人知识库
建立个人知识库可以通过以下方式: 1. 利用 GPT 打造个人知识库: 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,通过比较 embeddings 向量,提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,发送给 GPT API 以获得回答。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG(检索增强生成)技术,它是利用大模型的能力搭建知识库的应用。 RAG 应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)等 5 个过程。 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建定制化知识库: 由于 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
2025-03-10
最强AI办公提示词知识库,公益
以下是关于最强 AI 办公提示词知识库的相关信息: 一、提示词与知识库的概念 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其能按需求变成特定“员工”。知识库则相当于给“聪明员工”发放的工作手册,包含特定的工作相关内容,如《爱情公寓》全季剧情等。 二、相关资源 1. 画小二的相关内容: 如何写好提示词是创建智能体第一步,包括打破砂锅者、董宇辉的小作文等部分。 提示词网站分享,如 Learn Prompting(https://learnprompting.org/docs/intro )、AI Short(https://www.aishort.top/en/ )、AIPRM(https://www.aiprm.com/prompts/ )、Prompt Library(https://promptlibrary.org/ )。 延伸阅读,如人人都能懂的 Prompt 技巧:FewShots、COT、SC、TOT、StepBack(https://blog.csdn.net/oWuChenHua/article/details/135125891 )。 学习交流群和手把手教学,包括会员详细教程(https://m.qlchat.com/topic/details?topicId=2000022058296055 )及 AIGC 商业案例实操课海报。 2. 扣子提供的功能: 提示词(人设与回复逻辑功能),设定 Bot 的身份、目标和技能。详情参考 。 插件,通过 API 连接集成各种平台和服务。详情参考 。 工作流,用于规划和实现复杂功能逻辑。详情参考 。 记忆库,包括知识库(支持上传本地或线上内容并分割成知识分片)和数据库(存储和管理结构化数据)。知识库详情参考 。 希望以上信息对您有所帮助。
2025-03-10
我是IVD企业的技术中心主任,我想构建我们技术中心的知识库,有什么AI工具可以帮我实现
以下是一些可以帮助您构建技术中心知识库的 AI 工具及相关步骤: Dify 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建新的数据集,上传准备好的文档,并为数据集编写清晰的描述,说明其包含的内容和特点。 3. 配置索引方式:Dify 提供了高质量模式、经济模式和 Q&A 分段模式三种索引方式,您可根据实际需求选择,如追求更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新内容以保持时效性。 其他相关场景和应用 1. 提示词帮您规划 PARA 分类模式:PARA 代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)。AI 可通过分析您的工作模式和内容类型,自动生成提示词,帮助您将信息和知识分类到 PARA 的相应部分,简化分类过程,更快组织和检索信息。 2. 提示词帮您设计笔记标签系统:AI 能通过分析您的笔记内容和使用习惯,推荐合适的标签和标签结构,提高笔记管理和检索效率。 3. 知识助手 Bot 帮您渐进式积累领域知识:例如基于 dify.ai 将数百个思维模型整合成一个知识库,根据不同的对话和条件判断为用户选择适用的思维模型分析工具,封装成一个智能分析的 Bot,能根据您的学习进度和兴趣点,定期推送相关文章、论文和资源,持续扩展知识边界并确保知识及时更新。
2025-03-09
最近想要出一本书,书籍的主题是“Deepseek的应用革命:打造AI时代的竞争力”主要是面相企业家和企业高管,希望能够将知识库内容中关于企业应用的部分提炼成书,请根据知识库素材,输出一个图书内容规划和重点参考资料
以下是为您规划的图书内容和重点参考资料: 一、图书内容规划 1. 引言 介绍 AI 时代的背景和企业面临的挑战与机遇。 阐述 DeepSeek 在塑造企业竞争力方面的重要性。 2. DeepSeek 的技术创新 详细介绍 DeepSeek 最新模型 V3 与 R1 的架构创新,如混合专家(MoE)架构、多头潜注意力(MLA)等。 解释其如何提升计算效率和推理能力,打破算力壁垒。 3. 多领域的应用案例 字节跳动的新技术 OmniHuman 在视频生成方面的突破。 Coinbase 全面推动 AI 应用的实践,如在欺诈预防和客户支持等领域的应用。 4. 对企业管理的影响 探讨善于沟通上下文、明晰 AI 能力边界、合理授权并监督等管理经验如何提升 AI 协作效率。 5. 行业趋势与挑战 分析 AI 基础大模型参数量的变化趋势。 讨论初级程序员面临的职业挑战以及编程领域的颠覆性变化。 6. 未来展望 预测 DeepSeek 及相关技术在未来的发展方向和可能的创新。 二、重点参考资料 1. 《》 2. 《》 3. 《》 4. 《》 5. 《》 6. 《[零基础掌握 Deepseek》》 7. 日报 8. 日报
2025-03-08
本地部署deep seek后如何搭建个人知识库,详细说明一下每个步骤
以下是本地部署 Deep Seek 后搭建个人知识库的详细步骤: 1. 在 RAGFlow 中配置 Deep Seek 模型 返回 RAGFlow ,打开右上角设置,进入模型提供商界面。 配置本地部署的 Deep Seek 模型,选择 Ollama ,并根据运行的模型配置相关信息。 设置基础 URL 。 点击确定。 2. 导入嵌入模型 导入一个用于文本向量化的嵌入模型。 3. 设置系统模型设置 4. 创建知识库 返回知识库,进入数据集,导入文件或设置文件夹当作知识库。 5. 文件解析 对导入的文件进行解析,解析速度取决于本机 GPU 性能(显卡性能),越好的显卡解析越快。 6. 检索测试 解析完成后,进行检索测试。 7. 进入聊天界面 测试没问题后,可进入聊天界面,助理设置可自行进行。 此外,如果想要对知识库进行更灵活的掌控,可以使用 AnythingLLM 软件,步骤如下: 1. 安装 AnythingLLM ,安装地址:https://useanything.com/download 。 2. 安装完成后进入配置页面,主要分为三步: 选择大模型。 选择文本嵌入模型。 选择向量数据库。 3. 构建本地知识库 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话 完成上述配置后,即可与大模型进行对话。 在进行本地知识库搭建实操之前,还需要对 RAG 有大概的了解: RAG 是一种检索增强生成技术,应用过程包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。文本加载器用于将用户提供的文本加载到内存中以便后续处理。
2025-03-07
如何学习使用AI模型
以下是关于学习使用 AI 模型的一些建议和知识: Teachable Machine: 这是由 Google 开发的机器学习工具,可应用于商品说明书、自动驾驶、教学互动等多个场景。使用步骤如下: 1. 收集数据:可上传图片、录制声音或动作视频作为训练数据。 2. 训练模型:用收集的数据训练模型,并测试其能否正确识别新的图片、声音或动作。 3. 导出模型:完成训练后,可下载或上传到网上用于其他项目。 它具有多种优势: 1. 允许用户快速、简单地创建机器学习模型,无需专业知识或编程技能。 2. 提供多种创建机器学习模型的方式,非常灵活和用户友好。 3. 支持使用文件或实时捕捉示例,用户可选择上传已有文件或实时录制。 4. 可以在本地完成训练,保护用户隐私。 5. 生成的模型是真实的 TensorFlow.js 模型,可在任何运行 JavaScript 的地方工作,还能导出到不同格式在其他地方使用。 AI 模型相关技术原理: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习参照人脑有神经网络和神经元,因为有很多层所以叫深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,不依赖于循环神经网络或卷积神经网络。
2025-03-11
目前法律的大模型做的做好的产品是什么?
目前在法律大模型领域,以下是一些做得较好的产品: 1. 麦伽智能:是清华大学互联网司法研究院的成果转化伙伴,合作开发了 LegalOne 法律大模型。基于此模型研发了精准语义检索平台、法律咨询系统、审判辅助系统等多款产品,并在上海、山东、苏州、深圳、成都等地开展试点应用。 2. ChatLaw:由北大开源的一系列法律领域的大模型,包括 ChatLaw13B(基于姜子牙 ZiyaLLaMA13Bv1 训练而来),ChatLaw33B(基于 Anima33B 训练而来,逻辑推理能力大幅提升)等。 3. 行云:规划推出两款产品,有助于解决大模型芯片成本问题,降低对昂贵的英伟达高端显卡依赖。
2025-03-11
大模型和HR和招聘日常工作有哪些结合点?
大模型与 HR 和招聘日常工作的结合点主要体现在以下几个方面: 1. 面试环节:面试不仅仅是单点功能,面试后的结果如何发送到公司 HR 系统,以及如何通知 HR 人员的录用或不录用情况,需要一套工作流系统将大模型 Agent 框架的能力与企业原有的业务系统紧密连接。 2. 不同场景的应用:企业在不同的 HR 场景,如面试、员工评估等,可能会有专门的大模型。例如面试有面试大模型,员工评估也有相应的大模型。 3. 新员工招聘:将招聘流程分解得足够细,如搜集简历、编写职位描述、制定招聘计划、确定招聘需求、筛选简历、安排面试、数字人自动面试、结果评估和发录取通知书等。然后结合大模型目前成熟的能力进行筛选,同时考虑场景的容错度和数据准备度。
2025-03-10
如何训练自己的模型
训练自己的模型可以参考以下步骤: 1. 选择合适的底模,如 Baichuan27BChat 模型,配置模型本地路径和提示模板。 在 Train 页面里选择 sft 训练方式,加载定义好的数据集,如 wechat 和 self_cognition。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式很实用。 需要用到 xformers 的依赖。 显存占用约 20G,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 2. 对于 AI 绘画模型的训练,如 Stable Diffusion: 设置 sample_sampler,可选择多种 sampler,默认是“ddim”。 设置 save_model_as,可选择多种格式,目前 SD WebUI 兼容"ckpt"和"safetensors"格式模型。 完成训练参数配置后,运行训练脚本进行全参微调训练。 选择合适的底模型,如 WeThinkIn_SD_二次元模型。 利用 accelerate 库封装训练脚本,可根据需求切换训练环境参数。 3. 创建图像描述模型: 模型由编码器和解码器组成,编码器将输入图像转换为特征向量,解码器根据特征生成描述文本,二者组合形成完整模型。 自定义损失函数,如使用稀疏分类交叉熵并屏蔽填充部分。 编译模型后开始训练,可使用单个 GPU 训练,每个 epoch 约 15 至 20 分钟,可根据需求增加训练次数。 训练完成后进行推理与生成字幕,重构解码器结构,编写自定义推理循环以生成完整句子。
2025-03-10
最近一个月有哪些令人惊艳的开源大模型
以下是最近一个月令人惊艳的开源大模型: 1. 三月初,Meta 的 LLaMA 泄露给公众,随后社区出现一系列创新,包括指令调整、量化、质量改进、人类评估、多模态、RLHF 等变体,解决了扩展问题,降低了培训和实验的准入门槛。 2. 1 月 20 日,DeepSeek 宣布开源 R1 模型,将大模型行业推进到推理时代,引发了深刻影响。 3. 2024 年 5 月: 谷歌在 Google Cloud Next 2024 上发布一系列生成式 AI 产品和服务。 OpenAI 发布 GPT4 Turbo 模型,并开源评估框架 simpleevals。 xAI 发布首个多模态模型 Grok1.5V 的预览版。 微软 WizardLM 团队发布 WizardLM2,后紧急撤回进行毒性测试。 Mistral AI 开源 Mistral 8x22B 模型。 Meta 发布拥有 4000 亿参数的开源大模型 Llama 3。
2025-03-10
有关国产大模型介绍及对比
以下是关于国产大模型的介绍及对比: 过去一年,国内大模型取得了显著进步。综合能力超过 GPT 3.5 和 GeminiPro 的国产模型有 11 个,如百度的文心一言 4.0、阿里云的通义千问 2.0 和 Qwen 72BChat、OPPO 的 AndesGPT、清华&智谱 AI 的智谱清言、字节跳动的云雀大模型等。在 SuperCLUE 测评中,国外模型平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距约 4 分,且国内外平均水平差距在缩小。 国内开源模型在中文上表现优于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi34BChat 均优于 Llama213BChat。国内大模型竞争格局方面,从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。 此外,还有针对国产大模型的测评机制,包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等方面进行多轮测评。 国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 有较好的稳定性表现。国内开源模型总体表现较好,成绩最好的开源模型在中文某些场景或任务上接近 GPT 4,大版本的模型通常优于中小版本,众多创业公司是开源模型的主力。
2025-03-10
我需要把文字转语言,并且生成一些图片,做成视频,用到那些AIr
目前有多种 AI 工具可以帮助您实现将文字转换为语言并生成图片制作视频的需求。例如,一些语音合成工具如百度语音、科大讯飞等可以将文字转换为语言;在图片生成方面,像 DALL·E2、StableDiffusion 等工具表现出色;而制作视频时,您可以考虑使用剪映等软件结合上述生成的语音和图片来完成。
2025-03-10
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
请你用简单易懂的语言告诉我comfyui和SD的区别
ComfyUI 和 SD(Stable Diffusion)主要有以下区别: 1. UI 界面:SD WebUI 的 UI 更接近传统产品,有很多输入框和按钮;ComfyUI 的 UI 界面复杂,除输入框外,还有很多块状元素和复杂的连线。 2. 学习成本:ComfyUI 的学习成本比 SD WebUI 高。 3. 工作流方式:ComfyUI 主要通过连线搭建自动化工作流,从左到右依次运行;SD WebUI 则通过输入框和按钮配置参数。 4. 灵活性和拓展性:ComfyUI 具有更高的自由和拓展性,可以根据自身需求搭建、调整甚至改造工作流,无需依赖开发者,还能开发并改造节点;SD WebUI 在这方面相对较弱。 5. 功能实现:从功能角度看,两者提供的功能本质相同,但 ComfyUI 通过改变节点方式能实现不同功能,如一个节点是直接加载图片,另一个是通过画板绘制图片,从而实现导入图片生图和绘图生图等不同功能。
2025-03-08
我想整理现在国内和国外的大语言模型产品并需要你整理差异还有时间轴
以下是对国内外大语言模型产品的整理及差异: 国内大语言模型: 通用模型:如文心一言、讯飞星火等,能够处理自然语言。 垂直模型:专注于特定领域,如小语种交流、临床医学、AI 蛋白质结构预测等。 具有代表性的项目:“悟道・天鹰”(北京智源人工智能研究院)是首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型;文心一言(百度)可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 国外大语言模型: 具有代表性的项目:GPT4(OpenAI)是目前最先进的自然语言生成模型,可用于回答问题、撰写文章等;Gemini Ultra(Google)是多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等;Claude 3 Opus(Anthropic)是多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能,实现了接近完美的召回率。 时间轴方面: 国内:去年 7 月大模型百花齐放。 国外:相关模型也在不断发展和更新。 在工作原理上,大语言模型通常包括训练数据、算力、模型参数等要素。在训练数据一致的情况下,模型参数越大能力越强。Transformer 架构是大语言模型训练的常见架构,具备自我注意力机制能理解上下文和文本关联。同时,大模型可能存在幻觉,即因错误数据导致给出错误答案,优质数据集对其很重要。此外,Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 Prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等。还可以基于通用大模型进行 Fine tuning 微调,以适应特定领域的需求。
2025-03-07
有什么语言学习类的工具
以下是一些语言学习类的工具: 1. 语言学习平台: FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 2. 发音和语法检查: Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 3. 实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 4. 语言学习应用: Duolingo:使用 AI 来个性化学习体验,根据进度和错误调整练习内容。通过游戏化的方式提供词汇、语法、听力和口语练习。下载应用,选择要学习的语言,并按照课程指引进行学习。 Babbel:结合 AI 技术,提供个性化的课程和练习,重点在于实际交流所需的语言技能。注册账户,选择语言课程,按照学习计划进行学习。 Rosetta Stone:使用动态沉浸法,通过 AI 分析学习进度,提供适合的练习和反馈。注册并选择学习语言,使用多种练习模式(听力、口语、阅读和写作)进行学习。 5. AI 对话助手: ChatGPT:可以用来模拟对话练习,帮助提高语言交流能力。在聊天界面选择目标语言,与 AI 进行对话练习。可以询问语法、词汇等问题,甚至模拟实际交流场景。 Google Assistant:支持多种语言,可以用来进行日常对话练习和词汇学习。设置目标语言,通过语音命令或文本输入与助手进行互动,练习日常用语。 对于 4 岁儿童练习英语口语的 AI 工具,有以下选择: LingoDeer:使用游戏和互动活动来教孩子英语,提供各种课程,涵盖从字母和数字到更高级的语法和词汇。具有家长仪表板,可跟踪孩子进度并设置学习目标。 Busuu:提供英语和其他多种语言的课程,使用各种教学方法,包括音频课程、视频课程和互动练习。具有社区功能,可让孩子与来自世界各地的其他孩子练习英语口语。 Memrise:使用抽认卡和游戏来教孩子英语,提供各种课程,涵盖从基本词汇到更高级的会话技巧。具有社交功能,可让孩子与朋友和家人一起学习。 Rosetta Stone:使用沉浸式方法来教孩子英语,让孩子在自然环境中使用英语,具有语音识别功能,帮助孩子练习发音。 Duolingo:免费的语言学习应用程序,提供英语和其他多种语言的课程,使用游戏化方法让学习变得有趣,提供各种课程帮助孩子保持参与度。 在为孩子选择 AI 工具时,要考虑他们的年龄、兴趣和学习风格,还需考虑应用程序的功能和成本。
2025-03-06
c语言指针怎么学
学习 C 语言指针可以按照以下步骤进行: 1. 理解指针的概念:指针是一个变量,它存储的是另一个变量的内存地址。 2. 掌握指针的声明和初始化:例如 `int ptr;` 声明一个指向整数的指针,`ptr = &var;` 进行初始化,其中 `&var` 是变量 `var` 的地址。 3. 了解指针的运算:包括指针的加减运算、比较运算等,但要注意运算的合法性和意义。 4. 学会通过指针访问和修改值:使用 `ptr` 来访问指针所指向的变量的值,并可以通过 `ptr = value;` 来修改其值。 5. 结合数组和指针:理解数组名实际上是一个指针常量,以及如何使用指针遍历数组。 6. 研究指针与函数的关系:包括指针作为函数参数传递地址,实现函数对外部变量的修改。 7. 多做练习题和实践项目:通过实际编写代码来加深对指针的理解和运用。 在学习过程中,要多思考、多实践,遇到问题及时查阅相关资料和请教他人。
2025-03-06