直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗

回答

蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。

内容由 AI 大模型生成,请仔细甄别(powered by aily)
其他人在问
如何利用自动对齐技术,确保16位不同地点的人员录制的同一句口号音频同步且整齐,请推荐具有此功能的音频编辑工具、网站或AI工具,以便将这16段音频精确叠加并融合成一个协调一致的整体
以下是关于利用自动对齐技术确保 16 位不同地点人员录制的同一句口号音频同步且整齐的相关信息及工具推荐: 在音频编辑中,常见的步骤如下: 1. 选择合适的数字音频工作站(DAW),如 Studio One。上传 FLAC 无损格式的音频,只对融合部分进行 Inpaint 处理,保持其他音频信息不变,以避免音质问题。 2. 在 DAW 中对接音轨后,播放试听,并缩放波形图,检查波形是否正确对齐。若出现波形未对齐或播放时有咔哒声等问题,可能是在导出和处理过程中对音频施加了额外的效果器处理,如混响、限制器、压缩等,导致音频前后不一致,影响对接效果。因此,需要确保在不同的导出和处理步骤中,音频不受到额外的处理,或者在每次处理时保持相同的效果设置。 具有此功能的音频编辑工具和网站包括: 1. Studio One:可用于对齐拼接音轨,并进行后续的叠加额外音轨、调整音量和平衡等操作,以丰富音频的层次,注意叠加后各音轨的电平,避免过载或失衡。 2. Udio:具有混音功能,可对现有剪辑进行微妙或明显的变化。在提示框中有新的区域,通过滑块控制混音效果的强度。 此外,阿里的相关研究全面概述了大语言模型自动对齐的主要技术路径,将现有的自动对齐方法分为四大类:利用模型固有偏好实现对齐、通过模仿其他模型行为实现对齐、利用其他模型反馈实现对齐、通过环境交互获得对齐信号,并探讨了自动对齐背后的机理以及实现有效自动对齐的关键因素。但此研究主要针对大语言模型,对于音频对齐的直接应用可能有限。
2024-10-17
写一个将16进制转换为字符串的代码
很抱歉,暂时没有关于将 16 进制转换为字符串的代码内容。但通常来说,在大多数编程语言中,您可以使用相应的函数或方法来实现这个功能。以下是一个使用 Python 语言实现的示例代码: ```python def hex_to_str: return bytes.fromhex hex_value = "48656c6c6f" 这是 "Hello" 的 16 进制表示 print ``` 您可以根据您使用的具体编程语言,查找相关的文档和函数来完成这个转换。
2024-09-16
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
一个 prompt 有 10 段文本内容,怎么标记不同段落的权重
当一个 prompt 有 10 段文本内容时,标记不同段落权重的方法如下: 使用双冒号“::”将提示分成不同部分,并在双冒号后面立即添加一个数字来指定该部分的相对权重。例如,“hot::2 dog”表示单词“hot”比“dog”重要度高出两倍。 在版本 1、2、3 中只接受整数作为权值,版本 4 能接受权值的小数位数。未指定权值时默认为 1。 负数权值可用于提示中以删除或排除不需要的元素,但所有权值的比必须是正数。 改变 tag 权重有多种方式: :数值从 0.1 到 100,低于 1 减弱,大于 1 加强。 括号,权重就重 1.1 倍;每加一层括号就反向减弱 1.1 倍。 小括号权重乘 1.1,如 a;中括号权重除以 1.1;小括号里面直接用冒号写权重也行;反斜杠可以让小括号的权重不生效当做一般字符串处理。 花括号写法,一个花括号权重为 1.05。 提示词其他常用语法:是画到一半的时候开始不画女孩。
2024-11-17
什么是prompt?
Prompt 是您给大模型的文本,用于引发相关输出,通常以问题或指示的形式出现。它可以是一套与大模型交互的语言模板,通过这个模板,您可以输出对大模型响应的指令,明确大模型应该做什么、完成什么任务以及如何处理具体任务,并最终获得期望的结果。大模型的本质是基于语言的概率模型,没有 Prompt 时,大模型随机给出答案,有了 Prompt 则相当于给了一个包含对模型要求、输入和输出限制的模板,让大模型在限制下得到概率最大的答案。此外,Prompt 是给到大模型输入的一段原始输入,能帮助模型更好地理解用户需求并按特定模式或规则进行响应。例如可以设定“假设你是一位医生,给出针对这种症状的建议”,后续对话会按此设定展开,还能在设定中要求模型按一定思路逻辑回答,如思维链(cot),也能让模型按特定格式(如 json)输出,使模型成为输出器。
2024-11-17
用 mj 做文生图,Prompt 模板
以下是使用 MJ 进行文生图的 Prompt 模板: 1. 定主题:明确您需要生成一张什么主题、什么风格、表达什么信息的图。 2. 选择基础模型 Checkpoint:按照主题,找内容贴近的 checkpoint。一般喜欢用模型大佬麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等,效果较好。 3. 选择 lora:在想要生成的内容基础上,寻找内容重叠的 lora,以控制图片效果及质量。可多参考广场上好看的帖子中使用的 lora。 4. ControlNet:用于控制图片中特定的图像,如人物姿态、生成特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语的组合,不用管语法,单词、短语之间用英文半角逗号隔开。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。 9. 采样算法:较复杂,一般选 DPM++ 2M Karras 较多。最稳妥的是留意 checkpoint 的详情页上模型作者是否有推荐采样器,使用推荐的采样器更有保障。 10. 采样次数:根据采样器特征,选 DPM++ 2M Karras 后,采样次数一般在 30 40 之间,多了意义不大且慢,少了出图效果差。 11. 尺寸:根据个人喜好和需求选择。 另外,使用 Stability AI 基于 Discord 的媒体生成和编辑工具进行文生图时: 1. 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 2. 进入 ARTISAN 频道,任意选择一个频道。 3. 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。 4. 输入/dream 提示词,这部分和 MJ 类似。 5. 和 MJ 手工输入参数不同,可选参数有五类: prompt:提示词,正常文字输入,必填项。 negative_prompt:负面提示词,填写负面提示词,选填项。 seed:种子值,可以自己填,选填项。 aspect:长宽比,选填项。 model:模型选择,SD3,Core 两种可选,选填项。 Images:张数,1 4 张,选填项。完成后选择其中一张。 在 MJ 应用篇儿童绘本制作、人物一致性方面: 1. 生成人物图片:确定人物形象,如“a little girl wearing a yellow floral skirt + 人物动作 + 风格词”,在 mj 中生成直到得到满意的人物图像。垫图 URL + “In the forest,a little girl wearing a yellow floral skirt is playing happily,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”,iw 取值范围,不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,取 iw 2 。 2. 合成人物和场景,垫图并重新生成:使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐(若画面和谐或 PS 技术足够,也可不用图生图),将合成后的图作为垫图(iw 2),mj 重新生图,如“prompt:垫图 url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”。 3. 绘本展示。
2024-11-15
文生图的 Prompt 模板
以下是关于文生图的 Prompt 模板的相关内容: 通常描述逻辑包括人物及主体特征(如服饰、发型发色、五官、表情、动作),场景特征(如室内室外、大场景、小细节),环境光照(如白天黑夜、特定时段、光、天空),画幅视角(如距离、人物比例、观察视角、镜头类型),画质(如高画质、高分辨率),画风(如插画、二次元、写实)。通过这些详细的提示词,能更精确地控制 Stable Diffusion 的绘图。 对于新手,有功能型辅助网站帮助书写提示词,如 http://www.atoolbox.net/ ,可通过选项卡方式快速填写关键词信息;https://ai.dawnmark.cn/ ,每种参数有缩略图参考,方便直观选择提示词。还可以去 C 站(https://civitai.com/)抄作业,复制每一张图的详细参数并粘贴到正向提示词栏,然后点击生成按钮下的第一个按键,不过要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同,也可只取其中较好的描述词使用。 在 Tusiart 中,文生图的操作流程如下: 定主题:确定要生成的图的主题、风格和表达的信息。 选择基础模型 Checkpoint:找内容贴近主题的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 控制图片效果及质量。 ControlNet:控制图片中特定的图像,如人物姿态、特定文字、艺术化二维码等。 设置 VAE:无脑选择 840000 。 Prompt 提示词:用英文写需求,单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写要避免的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:如选 DPM++ 2M Karras,留意 checkpoint 详情页上模型作者推荐的采样器。 采样次数:根据采样器特征,如选 DPM++ 2M Karras 采样次数在 30 40 之间。 尺寸:根据喜好和需求选择。 在一些提示词中,括号和“:1.2”等是用来增加权重的,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。同时还有反向提示词,告诉 AI 不要的内容。
2024-11-15
关于儿童绘本的Prompt
以下是关于儿童绘本的 Prompt 相关内容: 对于儿童故事读物,通常需要具备以下特点: 1. 语言简单易懂,使用简洁的语言和短句子,便于孩子理解和跟随故事情节。 2. 具有丰富的想象力,充满奇幻和想象,带有魔法、奇妙的生物和奇异的世界,激发孩子的创造力和想象力。 3. 包含教育意义,常包含道德教训或生活启示,帮助孩子理解基本价值观。 4. 拥有生动的角色,包括可爱的动物、勇敢的英雄、善良的公主等,以有趣的人物形象吸引孩子注意力。 5. 经常使用重复的句子或韵律感强的语言,增强记忆力和语言的音乐感。 6. 具备互动性,许多儿童故事设计为互动式,鼓励孩子参与情节发展。 7. 有明确的情节结构,故事情节简单明了,有清晰的开始、发展和结局,方便孩子跟随和理解。 8. 配有丰富的插图和图画,增强视觉吸引力,帮助孩子更好地理解和记忆故事内容。 在让 LLM 生成故事时,需要限定生成的内容主题、风格、适合人群等的 prompt,例如生成「漫画小书虫📚🐛」的相关故事,并按照格式返回文本内容,以方便后续对数据解析、配图。 此外,小七姐在 K12 领域应用中提到儿童 PBL 项目 Prompt,原始设计思路包括: 1. 作为家长,获取 10 个生活中可能的 PBL 项目主题。 2. 对感兴趣的主题进一步拓展 5 个相关主题。 3. 选择主题后,设计包含目标、项目周期、项目阶段和任务、项目评估的 PBL 项目。 4. 根据反馈优化项目。 5. 设计测试评估孩子在项目中的知识与能力、提升可能、学习风格和兴趣点。 6. 根据孩子的真实反馈设计个性化学习方案。 7. 明确家长在项目中承担的角色和提供的支持。 8. 写一封信吸引孩子参与家长设计的学习项目。 例如为一位特别喜欢识认汽车品牌、喜欢交通工具、挖掘机等工程机械车的 3 岁小朋友设计一个包含能练习中、英文的 PBL 项目式学习任务,包含项目目标、项目周期、项目阶段和任务、项目评估。 在提示简介中,提示是给 Claude 的用于引发相关输出的文本,通常以问题或指示的形式出现,Claude 回答的文本被称为“响应”,有时也被称为“输出”或“完成”。
2024-11-15
prompt是什么
Prompt 是您给 AI(如 Claude)的文本,用于引发相关输出,通常以问题或指示的形式出现。例如:“Why is the sky blue?” 它是一段指令,用于指挥 AI 生成您所需要的内容,每个单独的提示词叫 tag(关键词)。支持的语言为英语,emoji 也可以用。语法规则包括用英文半角符号逗号分隔 tag,改变 tag 权重有两种写法,还可以进行 tag 的步数控制。此外,prompt 是给到大模型输入的一段原始输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。比如可以设定“假设你是一位医生,给出针对这种症状的建议”,然后后续对话会按照这个设定展开,还能在 prompt 的设定中要求模型按照一定的思路逻辑回答,如思维链(cot),也能让模型按照特定格式(如 json)输出,将模型变成输出器。
2024-11-14
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
本地化部署
以下是关于本地化部署的相关内容: SDXL 的本地化部署: SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 在 webUI 中使用 SDXL 大模型,需先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI,即可在模型中看到 SDXL 的模型。 正常使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。生成图片后,可将其发送到图生图中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。 对于配置较高的电脑,如显卡为 4080ti,生成时间约在十秒左右。配置较低的需自行测试。 还可安装 refine 插件,在扩展列表中搜索 refine 并安装,重启后可在文生图界面直接使用 refine 模型进行绘画。 Google Gemma 的本地化部署: Google 发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境准备: 1. 首先提一下 Ollama,它是一个开源的大型语言模型服务,可方便地部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。 2. 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 3. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应显示 0.1.26。 4. 输入 cls 清空屏幕,然后直接输入 ollama run gemma 运行模型(默认是 2b),首次需下载,等待一段时间。若想用 7b,运行 ollama run gemma:7b。完成后即可直接对话,2 个模型都安装后,可重复上述指令切换。
2024-09-11
用于分析excel表数据的AI工具
以下是一些可用于分析 Excel 表数据的 AI 工具: 1. Excel Labs:这是一个 Excel 插件,基于 OpenAI 技术,新增了生成式 AI 功能,允许用户在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,用户能以聊天形式告知需求,Copilot 会自动完成如数据分析、格式创建等任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 此外,Omni 的计算 AI 功能能利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。 随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-14
AI可以运用于炒股领域吗
AI 可以运用于炒股领域。 目前,AI 在炒股领域的应用仍处于不断探索和发展的阶段。例如,博主林亦 LYi 的《AI 炒股?我开了一家员工全是 AI 的公司,自动帮我炒股》就在某种程度上实现了多 Agent 协作的能力。 人工智能和机器学习在金融服务行业的应用已有十多年历史,大型语言模型通过生成式人工智能代表着重大飞跃,可能为金融服务市场带来数十年来最大的变革。但需要注意的是,AI 在炒股领域的应用还存在一些挑战和需要完善的地方。一方面,高度智能化的能力需要进一步打磨,概念落地还有较长距离;另一方面,AI 与金融服务的结合还需要不断探索和优化。
2024-11-13
AI应用于企业
以下是关于 AI 应用于企业的相关内容: 提示词工程在企业中的应用: 提升决策、创新和沟通:通过个性化客户互动、情感智能沟通、内部知识管理和跨部门协作等方式优化客户服务和内部沟通。例如,使用特定提示词训练客服 AI 以提升客户服务质量。 AI 在各行业的主要应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 AI 在企业中的主要应用领域: 计算机视觉:如图像分类和物体识别、图像分割算法、视觉追踪等,应用于面部识别、检测 X 光照射图片等。 自然语言处理:包括文本分类、信息检索、名称实体识别、机械翻译、解析与语音部分标注技术、语音识别、触发词检测、语音 ID 识别、语音合成技术等。 机器人:涉及机器人“感知”、运动轨迹计划、控制等。
2024-11-08
讯飞星火主要用于什么场景
讯飞星火主要用于以下场景: 1. 在结构化 prompt 测试和反馈方面,对于某些输入能给出相对贴合实际的回答,经适当调解和提示可输出较完整的咨询文案。 2. 在律师答辩状 prompt 评测中,欢迎语直接,在输出内容上有优点,如提出不可抗力因素、财产独立抗辩、加入诉讼费等,也存在主体转换的瑕疵;在应诉方案输出方面,准备工作详细专业,增加了有用提示,答辩策略简洁明了,庭审准备细化到位。 3. 在开发方面,是基于人工智能的开放平台,提供多种 api 接口,可基于其 api 封装 LLM,实现文本翻译、摘要、分类等语言任务,需注册账号、创建应用获取必要参数,并安装 requests 库。
2024-11-05
智谱清言主要用于什么
智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。其具有以下特点和应用场景: 特点: 在工具使用排名国内第一。 在计算、逻辑推理、传统安全能力上排名国内前三。 更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。 应用场景: 可应用的场景相对广泛。 根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。 在较复杂推理应用上的效果会比较不错。 广告文案、文学写作方面也是一个很好的选择。 此外,智谱清言在产品设计方面以 ChatGPT 为对标,努力打造类似的用户体验,是国内首批开放智能体应用的 AI 公司之一,在逻辑推理和处理复杂提示词方面表现出了明显的优势。AutoGLM 目前还处于内测阶段,申请入口在智谱清言 APP 中,目前只能在安卓设备上使用,需要开启无障碍权限和悬浮球权限。
2024-11-05
有没有用于提升学习效率的提示词
以下是一些用于提升学习效率的提示词: 概括:要求对较长内容进行简要概括,例如“请为这篇长篇科技文章提供一个简短的概要。” 讲故事:要求使用讲故事或叙事技巧,比如“请用一个人物的故事来展示运动如何改变了他们的生活。” 优缺点:要求评估主题的优缺点,像“分析使用电子书和纸质书的优缺点。” 利弊分析:对主题的利弊进行分析,例如“分析远程工作的利与弊。” 问题解决:针对特定问题提供解决方案或建议,比如“请提供几个有效的解决睡眠问题的方法。” 最佳实践:要求提供关于某主题的最佳实践或指南,例如“请提供一份关于如何高效学习的最佳实践指南。” 时间线:要求提供事件或发展的时间线,比如“请为互联网的发展提供一个简要的时间线。” 行动呼吁:要求明确的行动呼吁或后续步骤,例如“在关于环保的文章结尾提出具体的环保行动建议。” 分步指南:要求提供过程的分步指南或说明,比如“提供一个关于如何制作自制面包的分步指南。” 历史背景:要求考虑历史背景或背景,例如“在写关于量子计算的文章时,谈论量子计算的历史发展。” 对比:要求比较和对照不同的观点或概念,比如“请比较太阳能和风能作为可再生能源的优缺点。” 教训:要求讨论从特定情况中得到的教训,例如“分享一个关于企业失败的案例,并从中提炼出的教训。” 此外,还有以下相关的提示词: 百晓生:作为世上最好的研究和解释代理,以各种可能的方式以中文解释主题,使其易于理解。 里程碑大师:充分理解用户想学习的技术,并从易到难拆分出学习阶段里程碑的任务。
2024-11-04