直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

怎么加载开源模型?

回答

加载开源模型的步骤如下:

  1. 下载相关模型节省时间:
    • Base Model - DreamShaper XL Turbo: https://civitai.com/models/112902/dreamshaper-xl
    • LoRA:Envy Anime Watercolor XL 03:https://civitai.com/models/382684/envy-anime-watercolor-xl-03
    • Alphonse Mucha Style:https://civitai.com/models/63072/alphonse-mucha-style
  2. 打开以下链接放在后台:
    • Ollama: https://ollama.com/
    • https://github.com/stavsap/comfyui-ollama
    • IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus
    • InstantID: https://github.com/cubiq/ComfyUI_InstantID
    • PuLID:https://github.com/cubiq/PuLID_ComfyUI
  3. 安装缺失节点:
    • 下载过程中若发现 layer style 下不了,可重启重新下载,尝试修复。若仍不行,从官网重新下载到./custom_nodes 的文件夹下。
  4. 从官网GitHub - cubiq/ComfyUI_InstantID下载两个文件,点击左上角部分将加载器展开并选择官网下载好的两个模型。
  5. 对于 G-Dino 加载器部分,在链接:https://github.com/storyicon/comfyui_segment_anything处下载相关文件,然后检查文件是否齐全。对于 grounding-dino 和 sams 配置是否齐全可以使用“抠头发.json”来检验。
  6. Ollama 大模型部分:
    • 首先,下载 ollama,网站:Download Ollama on Windows
    • 其次,在llama3:8b-instruct-q4_K_M(ollama.com)网站中,复制代码。然后,打开 ComfyUi 根目录下的 custom_nodes\ComfyUi-Ollama-YN 的文件路径,在上方的路径下输入 cmd,进入到命令行,右键粘贴刚才的代码,等待下载。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

4-SeasonYou 工作流 副本

[title]4-SeasonYou工作流副本[heading2]一、加载模型部分(总文件有)①可以先下载下面的模型节省时间:Base Model - DreamShaper XL Turbo:https://civitai.com/models/112902/dreamshaper-xlLoRA:Envy Anime Watercolor XL 03:https://civitai.com/models/382684/envy-anime-watercolor-xl-03Alphonse Mucha Style:https://civitai.com/models/63072/alphonse-mucha-style②以下的链接可以先打开放在后台:Ollama:https://ollama.com/https://github.com/stavsap/comfyui-ollamaIPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plusInstantID:https://github.com/cubiq/ComfyUI_InstantIDPuLID:https://github.com/cubiq/PuLID_ComfyUI③首先,将缺失节点都安装。下载过程中发现layer style下不了。重启重新下看行不行。Try fix一下。若还是不行,那么就需要从官网重新下载了。▲我的建议是直接从官方下,下到./custom_nodes的文件夹下。

4-SeasonYou 工作流 副本

[title]4-SeasonYou工作流副本[heading2]一、加载模型部分(总文件有)官网[GitHub - cubiq/ComfyUI_InstantID](https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file)下载两个文件:先点击如图中的左上角部分将加载器展开且选择官网下载好的两个模型:否则将会有以下的问题:⑩G-Dino加载器部分:在链接:[https://github.com/storyicon/comfyui_segment_anything](https://github.com/storyicon/comfyui_segment_anything)处下载以下文件:然后再次检查自己的文件有没有齐全:在models下创建grounding-dino且配置以下文件命名齐全。、同理,sams也是。对于grounding-dino和sams配置有没有齐全可以使用“抠头发.json”来检验然后,接下来很大概率在运行到此节点时会报科学上网的(httpsxxxxx)错误:倘若觉得在此工作流中排除bug很慢,不妨使用此网址的工作流(可以直接复制他的json内容自己创建一个txt文件后粘贴,再改后缀名为json。)进行操作:[https://www.cnblogs.com/qcy-blog/p/18222657](https://www.cnblogs.com/qcy-blog/p/18222657)那么你就要在尝试稳定的科学上网后重启UI跑工作流。便完成了。

4-SeasonYou 工作流 副本

[title]4-SeasonYou工作流副本[heading2]一、加载模型部分(总文件有)(MaxRetryError('HTTPSConnectionPool(host=\'huggingface.co\',port=443):Max retries exceeded with url:/QuanSun/EVA-CLIP/resolve/main/EVA02_CLIP_L_336_psz14_s6B.pt(Caused by SSLError(CertificateError("hostname \'huggingface.co\' doesn\'t match either of \'*.extern.facebook.com\',\'extern.facebook.com\'")))'),'(Request ID:05b932bd-e982-434e-8dc7-e41cca2e949f)')⑧Ollama大模型部分,为了应对没下载大模型带来的报错,因此需要下载大模型首先,下载ollama,网站:[Download Ollama on Windows](https://ollama.com/download)其次,在[llama3:8b-instruct-q4_K_M(](https://ollama.com/library/llama3:8b-instruct-q4_K_M)[ollama.com](https://ollama.com/library/llama3:8b-instruct-q4_K_M)[)](https://ollama.com/library/llama3:8b-instruct-q4_K_M)网站中,复制代码如红框:然后,像我建议一样打开ComfyUi根目录下的custom_nodes\ComfyUi-Ollama-YN的文件路径,在上方的路径下输入cmd:进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可:⑨instanid部分:

其他人在问
开源音频质量检测模型有哪些?
以下为一些开源音频质量检测模型: 此外,还有: VALLEX:一个开源的多语言文本到语音合成与语音克隆模型。它支持多种语言(英语、中文和日语)和零样本语音克隆,具有语音情感控制和口音控制等高级功能。 智谱·AI 自 2019 年成立以来推出并开源的多款模型,具体可参考。但请注意,Token 数代表了模型支持的总 Token 数量,包括了输入+输出的所有 token,且一个 token 约等于 1.8 个汉字。
2024-10-16
开源音乐生成模型
以下为您介绍一些开源音乐生成模型: ElevenLabs 推出了自己的音乐生成模型 ElevenLabs Music,并展示了早期预览版生成的歌曲。该模型可直接通过文本提示生成完整带歌词音乐,且声称这些歌曲都是根据单个文本提示生成的,没有任何编辑。各首歌曲风格涵盖流行摇滚、乡村、爵士、当代 R&B 和独立摇滚等多样化类型。详细内容及更多试听:https://xiaohu.ai/p/7687 Deepmind 与 YouTube 的 Lyria 音乐生成模型,只要哼唱或者吹口哨就能帮您自动生成交响乐,还能进行歌词创作和风格控制,模仿艺术家风格。其特色是生成音频带 AI 水印。详情链接:https://deepmind.google/discover/blog/transformingthefutureofmusiccreation/ 🔗
2024-10-14
有哪些完全开源免费的AIgc知识库,可以随意复制
以下是一些完全开源免费且可随意复制的 AIGC 知识库: :可将任何文档、资源或内容转换为大语言模型(LLM)知识库,便于在对话中引用。 :包含获取 GPTs 的 Prompt、Knowledge 以及防护教程,还对破解官方 GPTs 的 Prompt 进行了分类。 :收集了众多被破解的 GPTs Prompt。 :精心收集整理的优秀 AI 助手列表。 :仅需一张角色图片,就能生成动作可控的生动视频。 :可安装在电脑和安卓手机上的用户界面,能与文本生成的人工智能互动并进行角色扮演。 :微软开源的 AI 工具,用于简化大模型应用开发周期,打通从构思到生产部署的全流程。 :开源的计算机视觉 AI 工具箱,安装简便,能提升开发效率。
2024-10-07
有哪个完全开源免费的AI知识库
以下为您推荐一个完全开源免费的 AI 知识库:WayToAGI(通往 AGI 之路)。它是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库,大家贡献并整合各种 AI 资源,使得大家都可以轻松学习各种 AI 知识,应用各类 AI 工具和实战案例等。 WayToAGI 提供了一系列开箱即用的工具,文生图、文生视频、文生语音等详尽的教程,将您的文字化为视觉与听觉的现实。它还会追踪 AI 领域最新的进展,时刻更新,让您紧跟 AI 领域的步伐,每次访问都能有新的收获。 无论您是 AI 初学者还是行业专家,都可以在这里发掘有价值的内容,让更多的人因 AI 而强大。 相关链接: 🔗:https://waytoagi.com/(通往 AGI 之路) 🚀即刻体验:https://waytoagi.com/
2024-10-07
手机怎么加开源ai模型吗?
以下是为您整理的在手机上添加开源 AI 模型的相关信息: 对于 Phi3mini 模型: 主要用到开源工具 Ollama,从官网下载安装包后一路点下一步进行安装。 打开终端,运行“ollama run phi3”命令,系统会自动下载并安装 Phi3。 该模型体积约 2.3GB,安装完成后终端会出现交互界面,可直接交流。 若想格式化终端给出答案的 markdown 内容,可通过开源社区的 Open WebUI 解决,根据 Github 上的说明安装(需预先安装 Docker,之后执行一条命令),即可通过浏览器访问本地的 Web 聊天界面。 相关链接:Ollama(https://ollama.com )、Open WebUI(https://github.com/openwebui/openwebui) 对于配置微信助手相关: 首先配置 OneAPI,在阿里的接口创建 ApiKey 并复制。 在 OneAPI 的页面,点击【渠道】添加新渠道,类型选择阿里通义千问,名称自定,将复制的 ApiKey 粘贴到秘钥里。 智谱·AI 开源模型列表中的 Chat 模型: ChatGLM26B32k:第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 的基础上强化了长文本理解能力,能处理最多 32K 长度的上下文。代码链接:,模型权重下载链接:魔搭社区、始智社区、启智社区。 ChatGLM26B32kint4:ChatGLM26B32K 的 int4 版本。代码链接:,模型权重下载链接:魔搭社区、始智社区、启智社区。 ChatGLM6B:第一代 ChatGLM 对话模型,支持中英双语,基于 General Language Model、魔搭社区、始智社区、启智社区。
2024-10-01
目前开源的短视频制作软件或网站?
以下是一些开源的短视频制作软件或网站: 1. ChatGPT(https://chat.openai.com/)+剪映(https://www.capcut.cn/):ChatGPT 可生成视频小说脚本,剪映能根据脚本自动分析出视频所需场景、角色、镜头等要素,并生成对应素材和文本框架,可快速实现从文字到画面的转化,节省时间和精力。 2. PixVerse AI(https://pixverse.ai/):在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory(https://pictory.ai/):AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验,用户提供文本描述即可生成相应视频内容。 4. VEED.IO(https://www.veed.io/):提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway(https://runwayml.com/):AI 视频创作工具,能将文本转化为风格化的视频内容,适用于多种应用场景。 此外,境内深度合成服务算法备案清单(2023 年 6 月)中也有相关信息供参考: 1. 快手短视频生成合成算法:服务提供者为北京快手科技有限公司,应用于快手(APP)的短视频制作场景,利用生成模型对用户上传图片、视频进行属性编辑或风格转换,生成图片、视频。备案编号为网信算备 110108413760701220011 号。 2. 百度文生图内容生成算法:服务提供者为北京百度网讯科技有限公司,应用于文心一格(网站)的图像生成场景,利用图文匹配神经网络模型和扩散生成模型,生成与输入文本语义一致的图像。备案编号为网信算备 110108645502801230019 号。 3. 百度 PLATO 大模型算法:服务提供者为北京百度网讯科技有限公司,应用于小侃星球(APP)的对话生成场景,基于飞桨深度学习框架和对话语料训练的对话模型,生成开放域的文本回答。备案编号为网信算备 110108645502801230027 号。 4. 剪映特效算法:服务提供者为北京抖音信息服务有限公司,应用于西瓜视频(APP)、轻颜(APP)、剪映(APP)、抖音短视频(APP)等的图像、视频生成场景,基于人像理解技术和视频剪辑技术实现对用户上传图片或视频的渲染处理与格式转换,生成编辑处理后图像或视频。备案编号为网信算备 110108823483901230015 号。
2024-09-30
知道源代码就可以加载AI吗?
一般来说,仅仅知道源代码并不一定能够直接加载 AI 。以 GPT4 的代码解释器为例,它是一种特定的模式,允许用户将文件上传到 AI,让 AI 编写和运行代码,并下载 AI 提供的结果。它可以用于执行程序、运行数据分析、创建各种文件、网页甚至游戏。但使用代码解释器进行分析存在未经培训的人使用的风险,许多测试专家对此印象深刻,甚至有论文表明它可能需要改变培训数据科学家的方式。如果您想了解更多关于如何使用它的详细信息,可以访问相关帖子。
2024-10-01
什么是加载别人训练的qwen模型?
加载别人训练的 qwen 模型通常涉及以下步骤: 1. 对于直接调用千问的某一个大模型,如“qwenmax”模型,在 COW 中需要更改 key 和 model。在 /root/chatgptonwechat/文件夹下,打开 config.json 文件进行更改,并添加"dashscope_api_key"。获取 key 可参考视频教程或图文教程。同时,需要“实名认证”后,这些 key 才可以正常使用,若对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,可能是未实名认证,可点击去,或查看自己是否已认证。 2. 部署大语言模型时,如下载 qwen2:0.5b 模型,对于不同的电脑系统操作有所不同。如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。之后复制相关命令行并粘贴回车,等待自动下载完成。 3. 对于 Ollama 大模型部分,为避免没下载大模型带来的报错,需要先下载 ollama,网站:网站中复制代码,然后像特定操作一样打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd,进入到下方的命令行,右键粘贴刚才的代码,等待下载即可。
2024-10-01
controlnet一直加载怎么办
ControlNet 一直加载可能由以下原因导致及对应的解决方法: 1. 模型版本问题:确保 checkpoint、ContalNet 等所有需要加载模型的版本均基于 SD1.5,否则可能会报“超出索引”的错误。 2. 节点未安装完全:载入工作流后若出现爆红部分,可能是节点没下好、没下全。此时可以先全部更新,让所缺节点“显露出来”,然后安装好缺失的节点。 3. 参数设置问题:假如右下角的区域报红,那么就得根据报错信息相应调整一下左上角蓝色区域的 h、w 参数。 此外,ControlNet 还有一些新的功能和应用,例如: 1. 1.1 版本新出的 lineart 线稿提取功能,可先通过 invert 预处理将白底黑线处理成黑底白线,然后切换到 lineart 预处理器和模型进行生成。 2. mlsd 直线线条检测功能,一般用在建筑或者室内设计上,预处理器可提炼出室内的结构线。 ComfyUI 中的 ControlNet 高级控件: 在时间步和批处理潜变量之间调度 ControlNet 强度的节点,以及应用自定义权重和注意力掩码。这里的 ControlNet 节点完全支持滑动上下文采样。输入包括 positive(提示词(正面))、negative(提示词(负面))、control_net(加载了控制网络)、image(用于指导控制网络的图像)、mask_optional(应用于控制网络的注意力掩码)、timestep_kf(时间步关键帧)、latent_kf_override(潜在关键帧的覆盖)。
2024-08-29
推荐一下国内可以通过对话微调的预训练模型
以下是为您推荐的国内可以通过对话微调的预训练模型相关信息: 为优化 Llama2 的中文能力,可使用以下数据: 网络数据:互联网上公开的网络数据,包括百科、书籍、博客、新闻、公告、小说等高质量长文本数据。 :中文 Wikipedia 的数据。 :中文悟道开源的 200G 数据。 :Clue 开放的中文预训练数据,经过清洗后的高质量中文长文本数据。 竞赛数据集:近年来中文自然语言处理多任务竞赛数据集,约 150 个。 :MNBVC 中清洗出来的部分数据集。 社区提供预训练版本 Atom7B 和基于 Atom7B 进行对话微调的模型参数供开放下载,关于模型的进展详见社区官网 https://llama.family。 另外,关于会话补全(Chat completions): gpt3.5turbo 和 textdavinci003 两个模型能力相似,但前者价格只是后者的十分之一,在大部分情况下更推荐使用 gpt3.5turbo。 gpt3.5turbo 模型不支持微调。从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。有关如何使用微调模型的更多细节,请参阅微调指南。 从 2023 年 3 月 1 日起,OpenAI 会将您通过 API 发送的数据保留 30 天但不会使用这些数据来提升模型。 关于安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent(国内版): 目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为 3 轮,可修改区间是 0 到 30,具体轮数可根据业务需求决定。 在 Bot 编排页面的“技能”区域,可为 Bot 配置所需技能。不懂插件时,可选择区域右上角的“优化”按钮让 AI Bot 根据提示词自动选择插件。也可自定义添加所需插件,点击插件区域的“+”号选择加入具体插件。 在 Bot 编排页面的“预览与调试”区域,可测试 Bot 是否按预期工作,可清除对话记录以开始新的测试,确保 Bot 能理解用户输入并给出正确回应。
2024-10-18
推荐一下个人可以使用的通过对话微调的模型
以下是一些个人可以使用的通过对话微调的模型相关信息: 会话补全(Chat completions): GPT3.5 系列中,gpt3.5turbo 和 textdavinci003 有相似能力,但 gpt3.5turbo 价格仅为 textdavinci003 的十分之一,在多数情况下更推荐使用 gpt3.5turbo。不过,gpt3.5turbo 不支持微调,从 2023 年 3 月 1 日起,只能对基于 GPT3.5 的模型进行微调。 微调(Finetuning): 案例研究: 客户支持聊天机器人:通常包含相关上下文、对话摘要及最近消息,可能需要几千个示例处理不同请求和客户问题,建议审查对话样本确保代理消息质量,可使用单独文本转换微调模型生成摘要。 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,确保完成基于所提供描述,若常查阅外部内容,自动添加此类内容可提高性能,若描述基于图像,提取图像文本描述可能有帮助。 模型(Models): GPT3.5 模型可理解和生成自然语言或代码,其中功能最强大、最具成本效益且针对聊天优化的型号是 gpt3.5turbo,建议使用它而非其他 GPT3.5 模型,因其成本更低。 gpt3.5turbo:功能强大,针对聊天优化,成本低,会使用最新模型迭代更新,最大 Token 数 4096,训练数据截至 2021 年 9 月。 gpt3.5turbo0301:2023 年 3 月 1 日的快照,不会更新,仅在 2023 年 6 月 1 日结束的三个月内提供支持,最大 Token 数 4096,训练数据截至 2021 年 9 月。 textdavinci003:能完成任何语言任务,支持文本中插入补全,最大 Token 数 4097,训练数据截至 2021 年 6 月。 textdavinci002:与 textdavinci003 类似,使用监督微调而非强化学习训练,最大 Token 数 4097,训练数据截至 2021 年 6 月。 codedavinci002:针对代码完成任务优化,最大 Token 数 8001,训练数据截至 2021 年 6 月。 请注意,OpenAI 模型具有不确定性,相同输入可能产生不同输出,将温度设置为 0 可使输出大部分具有确定性,但可能仍有少量可变性。
2024-10-18
个人使用可以通过对话微调的大模型
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:完成就业指导后,进行如翻译、问答等工作,在大模型里称为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词等,具体取决于分词方法。将输入分词时会数字化形成词汇表。 个人动手实验方面: macOS 系统可采用 GGML 量化后的模型。有名的项目如 ggerganov/llama.cpp:Port of Facebook's LLaMA model in C/C++ ,首先编译,利用 Metal 的 GPU 用相应命令编译,然后去下载模型,还提供了 WebUI,启动 server 后默认监听 8080 端口,打开浏览器可对话。 Whisper 与 llama 类似,用 make 命令编译,去指定地址下载量化好的模型,转换音频,目前只接受 wav 格式,可用 ffmpeg 转化。 张梦飞的教程《用聊天记录克隆自己的 AI 分身》全程本地操作,目标是把微信聊天记录导出,用其微调模型,最终接入微信替你回复消息。
2024-10-18
国内能通过对话微调的语言大模型
以下是国内一些能通过对话微调的语言大模型: 教育领域:桃李(Taoli) 地址: 简介:在国际中文教育领域数据上进行了额外训练的模型,基于国际中文教育教材等构建资源库和问答数据集,并利用数据进行指令微调,让模型习得将知识应用到具体场景中的能力。 数学领域:chatglmmaths 地址: 简介:基于 chatglm6b 微调/LORA/PPO/推理的数学题解题大模型,样本为自动生成的整数/小数加减乘除运算,可 gpu/cpu 部署,开源了训练数据集等。 文化领域:Firefly 地址: 简介:中文对话式大语言模型,构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等,以提升模型在这方面的表现。 金融领域: Cornucopia(聚宝盆) 地址: 简介:开源了经过中文金融知识指令精调/指令微调的 LLaMA7B 模型。通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在金融领域的问答效果。基于相同的数据,后期还会利用 GPT3.5 API 构建高质量的数据集,另在中文知识图谱金融上进一步扩充高质量的指令数据集。 BBTFinCUGEApplications 地址: 简介:开源了中文金融领域开源语料库 BBTFinCorpus,中文金融领域知识增强型预训练语言模型 BBTFinT5 及中文金融领域自然语言处理评测基准 CFLEB。 XuanYuan(轩辕) 地址: 简介:国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。在 BLOOM176B 的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,不仅可以应对通用领域的问题,也可以解答金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
2024-10-18
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18