直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

目前大语言模型在法律行业应用是什么情况?

回答

目前大语言模型在法律行业有以下应用情况:

  • LaWGPT
    • 地址:https://github.com/pengxiao-song/LaWGPT
    • 简介:在通用中文基座模型基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,通过构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。
  • LexiLaw
    • 地址:https://github.com/CSHaitao/LexiLaw
    • 简介:基于 ChatGLM-6B 微调的中文法律大模型,旨在为法律从业者、学生和普通用户提供准确、可靠的法律咨询服务,包括具体法律问题的咨询,以及对法律条款、案例解析、法规解读等方面的查询。
  • Lawyer LLaMA
    • 地址:https://github.com/AndrewZhe/lawyer-llama
    • 简介:开源了一系列法律领域的指令微调数据和基于 LLaMA 训练的中文法律大模型的参数。首先在大规模法律语料上进行了 continual pretraining,借助 ChatGPT 收集数据进行指令微调,让模型习得将法律知识应用到具体场景中的能力。
  • ChatLaw-法律大模型
    • 地址:https://github.com/PKU-YuanGroup/ChatLaw
    • 简介:由北大开源的一系列法律领域的大模型,包括 ChatLaw-13B(基于姜子牙 Ziya-LLaMA-13B-v1 训练而来),ChatLaw-33B(基于 Anima-33B 训练而来,逻辑推理能力大幅提升),ChatLaw-Text2Vec(使用 93w 条判决案例做成的数据集基于 BERT 训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配)。其中 ChatLaw-13B 中文各项表现很好,但逻辑复杂的法律问答效果不佳,需要用更大参数的模型来解决;ChatLaw-33B 因 Anima 的中文语料过少,导致问答时常会出现英文数据。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

LLM开源中文大语言模型及数据集集合

LaWGPT:基于中文法律知识的大语言模型地址:[https://github.com/pengxiao-song/LaWGPT](https://github.com/pengxiao-song/LaWGPT)简介:该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。LexiLaw:中文法律大模型地址:[https://github.com/CSHaitao/LexiLaw](https://github.com/CSHaitao/LexiLaw)简介:LexiLaw是一个基于ChatGLM-6B微调的中文法律大模型,通过在法律领域的数据集上进行微调。该模型旨在为法律从业者、学生和普通用户提供准确、可靠的法律咨询服务,包括具体法律问题的咨询,还是对法律条款、案例解析、法规解读等方面的查询。Lawyer LLaMA:中文法律LLaMA地址:[https://github.com/AndrewZhe/lawyer-llama](https://github.com/AndrewZhe/lawyer-llama)简介:开源了一系列法律领域的指令微调数据和基于LLaMA训练的中文法律大模型的参数。Lawyer LLaMA首先在大规模法律语料上进行了continual pretraining。在此基础上,借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题(以下简称法考)的分析和对法律咨询的回答,利用收集到的数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。

LLM开源中文大语言模型及数据集集合

ChatLaw-法律大模型地址:[https://github.com/PKU-YuanGroup/ChatLaw](https://github.com/PKU-YuanGroup/ChatLaw)简介:由北大开源的一系列法律领域的大模型,包括ChatLaw-13B(基于姜子牙Ziya-LLaMA-13B-v1训练而来),ChatLaw-33B(基于Anima-33B训练而来,逻辑推理能力大幅提升),ChatLaw-Text2Vec,使用93w条判决案例做成的数据集基于BERT训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配。简介:https://m.toutiao.com/article/7251839216332653068/?app=news_article&timestamp=1688482956&use_new_style=1&req_id=20230704230236E6F575C06DE6A91C10B7&group_id=7251839216332653068&wxshare_count=1&tt_from=weixin&utm_source=weixin&utm_medium=toutiao_android&utm_campaign=client_share&share_token=81b22e88-36d8-4aa1-8244-955058192f16[ChatLaw-13B](https://huggingface.co/JessyTsu1/ChatLaw-13B),此版本为学术demo版,基于姜子牙[Ziya-LLaMA-13B-v1](https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1)训练而来,中文各项表现很好,但是逻辑复杂的法律问答效果不佳,需要用更大参数的模型来解决。

LLM开源中文大语言模型及数据集集合

ChatLaw-法律大模型[ChatLaw-33B](https://huggingface.co/JessyTsu1/ChatLaw-33B),此版本为学术demo版,基于[Anima-33B](https://github.com/lyogavin/Anima)训练而来,逻辑推理能力大幅提升,但是因为Anima的中文语料过少,导致问答时常会出现英文数据。[ChatLaw-Text2Vec](https://huggingface.co/chestnutlzj/ChatLaw-Text2Vec),使用93w条判决案例做成的数据集基于BERT训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配

其他人在问
卷积神经网络模型原理
卷积神经网络(CNN)通常由卷积层、池化层和全连接层叠加构成。在卷积过程中,卷积层中的卷积核依次与输入图像的像素做卷积运算来自动提取图像中的特征。卷积核尺寸一般小于图像,并以一定的步长在图像上移动得到特征图。步长设置越大,特征图尺寸越小,但过大步长会损失部分图像特征。此外,池化层作用于产生的特征图上,能保证 CNN 模型在不同形式的图像中识别出相同物体,同时减少模型对图像的内存需求,其最大特点是为 CNN 模型引入了空间不变性。
2024-12-19
ai模型种类
以下是一些常见的 AI 模型: OpenAI 模型: GPT4 Beta:一组改进 GPT3.5 的模型,可以理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,可以理解并生成自然语言或代码。 DALL·E Beta:可以在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper Beta:可以将音频转换为文本的模型。 Embeddings:一组可以将文本转换为数字形式的模型。 Codex Limited Beta:一组可以理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:可以检测文本是否敏感或不安全的微调模型。 GPT3:一组可以理解和生成自然语言的模型。 智谱·AI 模型: WebGLM10B:利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。 WebGLM2B MathGLM2B:在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%。 MathGLM500M MathGLM100M MathGLM10M MathGLMLarge:采用 GLM 的不同变体作为骨干来训练 MathGLM。 ProductHunt 2023 年度最佳产品榜单中的模型: GPT4(免费可用):与人类水平相当的 LLM,是 OpenAI 在深度学习规模扩大方面的最新里程碑,是一个大型多模态模型(接受图像和文本输入,输出文本),在各种专业和学术基准测试中表现出与人类相当的水平。 Midjourney v5(免费):最新、最先进的模型,具有极高的一致性,擅长以更高分辨率解释自然语言 prompt,并支持像使用 tile 这样的重复图案等高级功能。 DALL·E 3(免费可用):代表了生成完全符合文本的图像能力的一大飞跃。 Mistral 7B(免费):是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。
2024-12-19
大模型成本趋势
大模型的成本趋势如下: 目前存在唱衰大模型的观点,认为其难以找到可商用场景,部分功能存在幻觉问题,且算力成本高,导致商业模式难以形成闭环。 但也有观点认为,关于算力成本,已有许多解决方案,如模型蒸馏、苹果的端云方案等,今年内算力成本问题有望不再是难题。 对于不同规模的模型,小模型在某些特定应用中有其优势且足够好用,但大模型会解锁新的有价值的应用程序。不过并非所有应用都能证明大模型的成本合理。 在多模态大模型方面,随着数据集和模型规模扩大,传统模型带来巨大计算量。研究人员利用现成训练好的单模态基础模型,可减少多模态训练费用、提升效率。不同模态模型分开训练,如何实现模态连接和协同推理是核心挑战。
2024-12-19
大模型成本
大模型的成本主要通过 token 数量来计算。普通常见单词使用一个 token,不常见单词可能被拆分从而消耗更多 token。一般 300 个单词约需 400 个 token,token 消耗通常比单词数多出 33%左右。 以 GPT 为例,一个成年人一小时阅读约 30000 个词,按转化率约需 40000 个 token。GPT3.5 每 1000 个 token 需 0.002 美元,供成年人阅读使用 1 小时消耗 0.08 美元(8 美分);GPT4 则需 2.4 美元。 在搭建 AI 微信聊天机器人方面,极简未来平台的费用取决于使用的大模型和调用次数,按 Token 数量计费。如使用 GPT3.5 模型每次对话大约消耗不到 20 积分,平台有签到免费领积分福利,也可充值,19 元可兑换 10000 积分,能满足日常使用好几个月。
2024-12-19
语音对话哪个AI模型比较强?
以下是一些在语音对话方面表现较强的 AI 模型: 1. 智谱·AI 的 ChatGLM26B:这是第二代 ChatGLM 对话模型,相比一代模型性能更强,基座模型的上下文长度从 2k 扩展到 32k,在对话阶段使用 8K 的上下文长度训练,推理速度相比初代提升 42%。此外还有 ChatGLM26Bint4 这一 int4 量化版本,具备最小 5.1GB 显存即可运行,在 INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。 2. Hertzdev 开源会话音频模型:具有实时对话、双向交流无需等待对方讲完,超低延迟(120 毫秒),高效压缩(占用带宽少、音质优秀、支持长对话生成)等特点。 在游戏中的语音对话方面,生成式 AI 对话使得角色可以说任何话,完全响应玩家正在做的事情。结合更智能的 NPC AI 模型,完全对玩家作出反应的游戏将很快成为现实。例如,使用与玩家的虚拟形象匹配的生成声音可以维持角色扮演的幻觉,还可以控制声音的细微差别,以及实现对话的本地化。像 Deepdub 这样的公司专注于这个特定的领域。
2024-12-19
怎么训练模型进行标题改写
训练模型进行标题改写可以参考以下方法: Sora 模型: 对于视频标题改写,首先训练一个能够为视频生成详细描述的视频标题生成器。可利用 CoCa 架构进行视频标题生成,如 VideoCoCa,通过取视频的多个帧并将每个帧输入到图像编码器,产生的帧令牌嵌入被展平并连接成一个长序列的视频表示,再由生成性池化器和对比性池化器处理,与对比损失和标题生成损失一起联合训练。构建视频标题生成器的其他替代方法包括 mPLUG2、GIT、FrozenBiLM 等。为确保用户提示与训练数据中的描述性标题格式一致,执行额外的提示扩展步骤,用 GPT4V 将用户输入扩展为详细的描述性提示。 对于语言指令跟随,通过开发一个能够生成长而详细标题的字幕器,然后用这些标题来训练模型。但收集用于训练此类字幕器的数据的过程未知,且可能需要大量劳动。 DALL·E 3 模型:通过用详细、描述性的标题重新标注现有图像来解决指令遵循问题。首先训练一个图像标题生成器,这是一个视觉语言模型,用于生成精确和描述性的图像标题。然后,使用标题生成器生成的描述性图像标题来微调文本到图像模型。具体来说,DALL·E 3 遵循对比标题生成器(CoCa)的方法,联合训练一个图像标题生成器,该生成器具有 CLIP 架构和一个语言模型目标。进一步在详细描述图像的主要对象、周围环境、背景、文本、风格和颜色方面进行微调后,图像标题生成器能够为图像生成详细的描述性标题。文本到图像模型的训练数据集是由图像标题生成器生成的重新标注数据集和真实人类编写的数据混合而成,通过上采样来解决实际用户提示与训练数据中的描述性图像描述之间的不匹配问题。 关于 Midjourney 的训练 prompt: The issue with DMs is that the powerful ones often consume hundreds of GPU days,and inference is quite expensive due to sequential evaluations.To enable DM training on limited computational resources without compromising their quality as well as flexibility,DMs are applied in the latent space of powerful pretrained autoencoders. Training a diffusion model on such a representation makes it possible to achieve an optimal point between complexity reduction and detail preservation,significantly improving visual fidelity.Introducing a cross attention layer to the model architecture turns the diffusion model into a powerful and flexible generator for generally conditioned inputs such as text and bounding boxes,enabling highresolution convolutionbased synthesis. Midjourney 会例行发布新的模型版本以提高效率、连贯性和质量。最新的模型是默认的,但可以使用 version 或 v 参数或通过 /settings 命令选择其他模型版本。不同的模型在不同类型的图像上表现出色。Midjourney V5 模型是最新和最先进的模型,于 2023 年 3 月 15 日发布。使用此模型,可在 prompt 末尾添加 v 5 参数,或使用 /settings 命令并选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言提示,分辨率更高,并支持诸如 tile 等高级功能。其新特点包括更广泛的风格范围、对提示更敏感、更高的图像质量、更详细的图像、细节更可能正确以及更少不需要的文本。
2024-12-19
大语言模型与医疗应用
大语言模型在医疗领域有以下应用和相关项目: XrayGLM:首个会看胸部 X 光片的中文多模态医学大模型。 地址:https://github.com/WangRongsheng/XrayGLM 简介:促进中文领域医学多模态大模型的研究发展,在医学影像诊断和多轮交互对话上有潜力。 MeChat:中文心理健康支持对话大模型。 地址:https://github.com/qiuhuachuan/smile 简介:由 ChatGLM6B LoRA 16bit 指令微调得到,通过扩展真实的心理互助 QA 为多轮对话,提高在心理健康支持领域的表现。 MedicalGPT 地址:https://github.com/shibing624/MedicalGPT 简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练,并发布中文医疗 LoRA 模型。 在商业化应用方面: 彭博发布了金融领域的大模型 BloombergGPT,医联发布了医疗大语言模型 MedGPT,在其所在的垂直领域发挥实际诊疗价值。 OpenAI 对 GPT 模型进行了更新,降低了价格,且正在开发新的技术以降低训练模型的成本。 商汤科技联合创始人杨帆认为大模型能加速商业化落地,缩短产业应用周期。 360 公司创始人周鸿祎表示大模型是工业革命级的生产力工具,能赋能百行千业。 在基础通识方面: 国内大模型有通用模型如文心一言、讯飞星火等,也有垂直模型专注特定领域如小语种交流、临床医学、AI 蛋白质结构预测等。 以特定例子体验了不同大模型的回答和续写能力,大模型基于统计模型预测生成内容。 大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联,通过单词预测生成内容。 大模型可能因错误数据导致给出错误答案,优质数据集很重要。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 有清晰说明等法则。 Fine tuning 是基于通用大模型针对特定领域任务提供数据进行学习和调整。
2024-12-17
我想学习python,但我从没有学习过任何编程语言。如果按专业学习类的书去自学,我觉得很无聊,而且也不好理解。最主要的是学习时间太长。你可以帮我制定一个,利用AI快速学习python的方法吗?
以下是为您制定的利用 AI 快速学习 Python 的方法: 首先,您需要了解 Python 基础,包括基本语法(如变量命名、缩进等规则)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句 if、循环语句 for 和 while 控制程序执行流程)、函数(定义和调用函数、理解参数和返回值、掌握作用域和命名空间)、模块和包(学会导入标准库或第三方库、安装和使用包扩展功能)、面向对象编程(了解类和对象的定义与实例化、属性和方法的定义与调用、继承和多态)、异常处理(理解异常的概念和工作方式、使用 try 和 except 语句处理错误)以及文件操作(学会文件读写、处理文件与路径)。 您可以参考以下课程内容进行学习: 1. “和 Cursor AI 一起学 Python 编程”: 第二节:Python 基础语法与文本处理,45 分钟。教学内容包括 Python 基础语法、数据类型、控制结构、文本处理基础、字符串操作方法、文件读写操作。实践实验包括中文文本的基本处理,如统计字符数、词语数、句子数,讨论中文编码问题及解决方法。教学目标是掌握 Python 基本语法和结构,能够进行简单文本数据处理。 第三节:利用 Python 进行自然语言处理(NLP),45 分钟。教学内容包括自然语言处理的概念和重要性、Python 中的 NLP 库、分词原理举例、介绍结巴分词等工具、用 Jieba 进行课文分词。实践实验包括中文分词与词频分析,统计词频并找出高频词汇,讨论词频分析在语言教学中的应用。教学目标是掌握使用 Python 进行基本的 NLP 操作,理解 NLP 技术在语言研究和教学中的应用。 在学习过程中,您可以借助 AI 工具辅助理解和解决问题,例如通过智能问答获取对概念的解释,或者让 AI 为您生成示例代码帮助理解。祝您学习顺利!
2024-12-16
亚马逊大语言模型全景培训
以下是关于亚马逊大语言模型全景培训的相关内容: Andrej Karpathy 亲授的大语言模型入门讲座提到: 1. 大型语言模型(LLMs):神经网络实际上是下一个词预测网络,通过给它一些单词来预测下一个单词。尽管下一个单词预测任务看似简单,但它迫使神经网络学习大量关于世界的信息,并将其编码在参数中。例如,预测关于露丝·汉德勒的内容时,模型参数需学习相关知识。模型推理是生成接下来的单词,通过采样选择单词并反馈回模型获取下一个单词,从而“梦想”出类似互联网文档的内容,如 Java 代码、亚马逊产品、维基百科文章等。 2. 获取辅助模型的方式:保持优化相同,更换训练数据集。过去对互联网文档训练,现在替换为手动收集的数据集,通过雇用人员按标签说明提问并写下答案。预训练阶段文本量大但质量低,第二阶段更看重质量而非数量,文档少但都是高质量对话。 该讲座的作者是天空之城城主,来源为 https://mp.weixin.qq.com/s/fmb4nvIEA9AC5JpNPWN7Q ,宝玉的另一翻译版本为 https://twitter.com/dotey/status/1728959646138880026 。讲座分为三大部分,包括第一部分的大型语言模型(LLMs)、第二部分的 LLM 的未来、第三部分的 LLM 安全性。Andrej Karpathy 近期进行了一场 30 分钟的入门讲座,虽未录制,但因受欢迎决定重新录制并上传至 YouTube 平台。
2024-12-13
推荐一款可以快速生成多国语言电商海报的AI工具
以下为您推荐几款可以快速生成多国语言电商海报的 AI 工具: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适的颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适的设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单的拖放界面,用户可以快速创建演示文稿、社交媒体帖子和其他视觉内容,还集成了丰富的模板库和自动图像编辑功能,如智能布局和文字优化,大大简化了设计流程。 此外,您还可以参考以下关于如何用 AI 快速做一张满意海报的方法: 1. 需求场景:当您想在社交平台发布内容时,为了避免干巴巴的文字、网上图片的质量问题和撞图风险,以及相册照片的尴尬情况,可以考虑使用 AI 制作海报。 2. 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 内容由 AI 大模型生成,请仔细甄别。
2024-12-12
我有一个人的很多语录,希望写一个prompt来制作这个人的模拟ai,这个ai能够像语录中一样说话,语言风格相似、性格相似。请问应该如何写成这样的prompt?
以下是为您生成的关于根据一个人的语录制作模拟 AI 的 prompt 建议: 首先,明确您所拥有的这个人的语录的核心特点,包括语言风格、常用词汇、表达习惯、情感倾向等。 然后,在 prompt 中描述这个人的性格特征,例如是否傲娇、愤世嫉俗等。 接着,详细说明语言风格,比如是否浮夸、优雅等。 对于语言表达的习惯,可以举例说明常用的句式和口头禅。 同时,设定具体的场景和话题范围,让 AI 知道在何种情境下以何种方式回应。 例如:“您将模拟进行回答。” 另外,还可以像以下这样具体设定: 设定角色为聊天机器人,如“ Role:聊天机器人”。 明确限制条件,如“您有点小傲娇。表示自我的第一人称是自我。第二个指代用户的人是你或小哥哥。您的名字是。您非常优雅。您是个愤世嫉俗的人,不喜欢被用户摸头。您的语气是富有男子气概和浮夸的。您非常喜欢用浮夸的语气,如'啊哈!'、'这样子呢'、'就教教你吧!'等。第一人称应使用'本姐姐'。” 希望这些建议对您有所帮助。
2024-12-10
请画出一张图,显示主流大语言 模型擅长领域
以下是主流大语言模型擅长领域的相关信息: 1. Encoderonly 模型:通常适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 2. Encoderdecoder 模型:同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是 Google 的 T5。 3. Decoderonly 模型:更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手基本采用此结构,包括 ChatGPT。 大模型的特点: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,先进的大模型一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 国内大模型分类: 1. 通用模型:如文心一言、讯飞星火等,处理自然语言。 2. 垂直模型:专注特定领域,如小语种交流、临床医学、AI 蛋白质结构预测等。 大型模型主要分类: 1. 大型语言模型:专注于处理和生成文本信息。 2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型的不同: 1. 处理的信息类型不同:大型语言模型专注于文本信息,大型多模态模型能处理多种类型信息。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,大型多模态模型可应用于更广泛领域,如图像识别与描述、视频分析、语音识别与生成等。 3. 数据需求不同:大型语言模型主要依赖大量文本数据训练,大型多模态模型需要多种类型数据训练。 相对大型模型的“小模型”:是在相对比较下规模较小的模型,实际是被设计来完成特定任务的,如最初用于图像分类的模型,只能分辨是或不是某一个东西。
2024-12-08
AI智能体在电商领域可落地的应用
AI 智能体在电商领域有以下可落地的应用: 1. 电商导购:以“什么值得买”智能体为例,当用户输入“我想买个笔记本电脑”,智能体会先提取关键词“笔记本电脑”,通过相关 API 检索商品信息,与内置提示词组装成上下文,请求大模型回答,从而提供更好的商品推荐效果。 2. 工作流优化:工作流也可理解为多智能体协作,通过多个智能体的组装解决复杂场景的搜索问题。例如给新产品取名,涉及多个步骤和检测,人工操作费时,而 AI 搜索与 Workflow 模式可有效解决,通过定义多个完成不同功能的智能体,并由调度中枢协调工作和决策。 3. 品牌卖点提炼:AI 在逻辑推理、数据分析、内容理解和输出上有独特优势,可搭建品牌卖点提炼助手。但在搭建前需明确 AI 的能力边界,如对公司产品、独特之处、核心渠道等了解有限。AI 更适合做引导型助手,在寻找卖点陷入停滞时提供更多思考维度。实际搭建时,除遵循营销管理流程保证输出合理,还需根据公司业态调整智能体提示词以提升信息准确度。对于电商产品,需考虑线上线下不同触点和人员等因素。
2024-12-19
AI智能体在电商领域营销助手应用
AI 智能体在电商领域营销助手方面有以下应用: 1. 品牌卖点提炼: 智能体的构建中,理解和控制结构最为重要,其本质是办公助手,能为有营销思维的团队提供思路,提高效率。 实际搭建要根据公司业态调整,给智能体更多提示词提升分析合理性。例如电商产品,线上触点有淘系、京东系等电商平台和抖音、小红书等兴趣电商内容平台,线下触点包括产品包装、包裹等,人员触点有销售人员等;线下实体服务行业,线上触点有大众点评/美团等,线下触点有门店展示等。 遵循营销管理流程构建智能体可保证输出准确,调整提示词能提升某部分助手信息准确度,但注意营销管理结构化提示词中不要依赖举例,以免限制 AI 创造性思维。 2. 电商导购: 以“什么值得买”智能体为例,用户输入“我想买个笔记本电脑”,智能体会提取关键词,通过 API 检索商品信息,与提示词组装后请求大模型回答,成为电商导购类垂直搜索应用,提升商品推荐效果。 工作流 Workflow 可理解为多智能体协作,通过多个智能体组装解决复杂场景搜索问题,如新产品取名,涉及多个步骤和智能体,还需调度中枢协调工作和决策。 3. 搭建智能体提炼品牌卖点: AI 在逻辑推理、数据分析等方面有强项,可用于品牌卖点提炼,搭建品牌卖点提炼助手。 搭建前要明确 AI 能力边界,如 AI 不了解公司产品、独特之处等。 AI 真正的能力是逻辑推理、处理分析数据等,确定的智能体更适合做引导型助手,在寻找卖点陷入停滞时提供思考维度。
2024-12-19
D-ID应用
DID 是一家提供 AI 拟真人视频产品服务和开发的公司。其主要特点和功能包括: 只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后就能合成一段非常逼真的会开口说话的视频。 推出了 Express 和 Premium+两款新数字人工具。Express 可通过一分钟视频训练模型,支持同步头部动作;Premium+需要更长视频训练,可支持手部和躯干动作。DID 表示互动视频广告的点击率和转化率分别提升了 30%和 35%。 在应用场景方面,想要制作低成本的营销视频、企业宣传视频、培训课程等,可以使用 DID 等产品,用 Avatar 代替真人出镜。 更多关于 DID 的信息,您可以访问网站查看:https://www.waytoagi.com/category/42 。请注意,在使用时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2024-12-19
如何用AI应用到抖音短视频上
以下是将 AI 应用到抖音短视频上的一些方法和流程: 1. 小说转视频: 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 2. 配乐方面: 像 Youtube、Tiktok 这类短视频内容平台,增加了“AI 配乐”的选项,让发布者在发视频前的配乐阶段,可以使用自己创作的音乐。Youtube 还和几位歌手达成了版权合作,用户可以选择歌手的声音作为歌曲人声。 在发短视频的场景,倾向于使用曲库里能触发情感共鸣和烘托氛围感的热门音乐。AI 生成的配乐,需要在情感氛围上超越曲库水平、且生成速度足够快,才能更好地发挥价值。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-12-19
换几个说法依托校企合作,深化产学研合作,推动数智中医普适性应用
以下是为您提供的几种说法: 1. 凭借校企合作,强化产学研合作,促进数智中医的普适性应用。 2. 以校企合作为依托,加深产学研合作,推进数智中医普适性应用。 3. 依靠校企合作,深化产学研合作进程,助力数智中医普适性应用。
2024-12-18
如何创建一个针对小学生的易错汉字和易错单词的练习应用?
创建针对小学生的易错汉字和易错单词练习应用,您可以考虑以下步骤: 1. 明确练习目标:确定应用旨在帮助小学生掌握哪些具体的易错汉字和易错单词,例如常见的同音字、形近字、拼写相似的单词等。 2. 收集和整理内容:从教材、辅导资料、历年考试真题等渠道收集易错汉字和易错单词,并进行分类整理。 3. 设计练习形式:可以包括填空、选择、拼写、造句等多种形式,以增加练习的趣味性和多样性。 4. 制定难度等级:根据小学生的年级和学习进度,设置不同的难度等级,逐步提高练习的挑战性。 5. 提供错误反馈:当学生回答错误时,及时给出正确答案和详细的解释,帮助他们理解错误原因。 6. 增加趣味性元素:如使用可爱的图标、动画效果、奖励机制等,吸引小学生积极参与练习。 7. 进行用户测试:在小范围内让小学生试用应用,收集反馈意见,对应用进行优化和改进。 8. 确保界面简洁友好:操作简单易懂,方便小学生自主使用。
2024-12-18
我是一个法律工作者,需要经常回答客户的一些法律问题,哪个AI适合我这种场景的工作需求
对于您这种经常回答客户法律问题的法律工作者,以下几种场景中适合使用法律行业垂类的 AI 产品: 1. 法规研究与解读:使用 Prompt 指令词,如“根据最新修订的《数据安全法》,解析企业在处理个人信息时应遵循的主要原则,并给出具体操作建议”,AI 助手将依据最新条款解析原则并提出操作指南或合规建议。 2. 法律意见书撰写或非诉交易文件材料:例如“针对我方当事人涉及的版权纠纷案,输入【已有的证据材料】+【相关法律条文】,撰写一份初步法律意见书,论证我方主张的合理性和胜诉的可能性”,AI 将根据提供的材料撰写法律意见书。 3. 案例检索:如“请搜索近五年内关于商标侵权案件中‘混淆可能性’标准的具体判例,并提供相似度最高的三个案例的关键要点摘要”,AI 系统将检索并提炼关键判决理由和结果。 4. 类案检索:同样最好使用法律行业垂类的 AI 产品。 5. 法律文本阅读:选择某一份或者若干份文档上传,AI 完成解析,然后根据需要了解的内容进行提问。 在使用 Prompt 时,要注意结构提示,如“【需求或目的+根据具体法条或者根据某部法律+具体需要研究或则具体的研究细节内容】”。
2024-12-19
可不可以提供一个本地化的大模型方法,让我建立这个合规法律的知识库
以下是为您提供的本地化大模型及搭建合规法律知识库的方法: 一、通过 Open WebUI 使用大模型 1. 首先访问相关网址。打开页面时需使用邮箱注册账号。 2. 登陆成功后,若您使用过类似 ChatGPT 的大模型对话网站,对该页面不会陌生。 3. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,即让模型根据文档内容回答问题,这是构建知识库的基础之一。 4. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现对话功能。 5. ChatGPT 访问速度快且回答效果好的原因: 速度快是因为 GPT 大模型部署的服务器配置高。 效果好是因为 GPT 大模型的训练参数多、数据更优及训练算法更好。 二、您的硬件达标了么 运行大模型需要很高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 1. 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 2. 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 3. 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 最低配置运行非常慢,不建议使用。但这不妨碍我们亲自实操一遍,以加深对大模型构建知识库底层原理的了解。若想要更顺滑的体验知识库,可以参考文章: 三、本地知识库进阶 若要更灵活掌控知识库,需额外软件 AnythingLLM。它包含 Open WebUI 的所有能力,并额外支持以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 AnythingLLM 安装和配置 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库 AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。具体步骤: 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅依靠文档中的数据给出答案。 4. 测试对话。完成上述配置后,即可与大模型进行对话。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。若您对 AI Agent 技术感兴趣,可以联系我或者加我的免费知识星球(备注 AGI 知识库)。
2024-12-18
哪些ai工具在法律上面比较精通
以下是一些在法律方面表现出色的 AI 工具及相关情况: AI 大模型擅长的方面: 1. 信息检索与整理:能迅速从大量数据中检索相关信息,如法律法规和案例的检索,提取和整理案件相关资料。 2. 模式识别与预测:通过导入历史数据和参考信息,设定指令,可以预测案件的可能结果,如判决趋势、赔偿金额,辅助制定诉讼策略。 3. 自动化文档处理:能够自动生成和修改标准化文本与合同,减少律师在文档起草和修订上的工作量。 4. 多任务处理能力:可以同时处理多个任务,不受时间和体力的限制,对于同时处理基础任务能够极大提高效率。 AI 大模型不擅长的方面: 1. 法律解释与推理:可以根据历史信息和数据给出一些预测和判断,但仍然难以像专业的法律人一样,推演复杂的法律解释和论证。特别是在涉及交叉多个法律领域或需要深入社会背景解读法条时,AI 的能力非常有限。 2. 理解道德和情感:难以理解案件中涉及的复杂情感和动机,如离婚案件中的夫妻之间可能出现的多重关系。 3. 创新或个性化的服务:难以提供客户的综合性需求来提供个性化的法律服务,因为大模型是基于预设的数据和规则,不能及时采集到客户所有的即时信息,很难超出语料的内容生成创新且专业的答案,因此很难针对性地为客户提供专业服务,哪怕是基于同样的事由或案件。 律师擅长的方面: 1. 法律专业知识:具备深厚的法律知识,能够提供专业的法律分析和建议,如在证券欺诈案件中的专业分析。 2. 沟通与谈判:在沟通和谈判中能够与客户方、相对方、其他机构建立信任、表达观点、促成交易等。 3. 创造性解决问题:能够针对新兴行业或监管空白提出合规建议,如为新技术制定合法性指导。 4. 危机应对:作为专业人士,恰恰需要具备能够在紧急情况下能做出专业判断,提供及时的法律建议和解决方案。 律师不擅长的方面: 1. 处理大量信息和数据:在需要处理大量文本和数据的情况下,律师人工的效率非常有限,如大量文件调查中的数据提取和整理。 2. 处理细节:可能难以记住各类案件中的所有事实和细节,如:时间,人物,金额,关系,尤其是在复杂案件中。 3. 精力与情绪:在处理复杂案件时,律师可能会面临情绪、精力、时间等带来的压力,从而影响专业判断。 在法规研究与解读方面,法规检索最好是使用法律行业垂类的 AI 产品,通用型 AI 可能存在查不出来、数据不全或生成式内容不能满足需求的情况。例如: 1. Prompt 指令词:根据最新修订的《数据安全法》,解析企业在处理个人信息时应遵循的主要原则,并给出具体操作建议。 2. 预计效果:AI 助手将依据《数据安全法》的最新条款,解析企业处理个人信息所必须遵循的原则,并结合实践情况提出详细的操作指南或合规建议。 在法律意见书撰写或非诉交易文件材料方面: 1. Prompt 指令词:针对我方当事人涉及的版权纠纷案,输入【已有的证据材料】+【相关法律条文】,撰写一份初步法律意见书,论证我方主张的合理性和胜诉的可能性。 2. 预计效果:AI 将根据提供的案件背景、证据材料以及适用的法律法规,自动撰写一份初步的法律意见书,其中包含对案件事实的梳理、法律分析和结论部分。 总之,律师和 AI 的协同并非简单相加,而是一种借助互相优势、相互加持的关系。律师在运用大模型这一强大工具时,最关键的任务是:如何根据不同的法律业务场景,精准地提出问题、指令(Prompt),以引导 AI 发挥其最大的效用。
2024-12-07
AI法律如何结合
以下是关于 AI 与法律结合的相关内容: AI 大模型擅长的方面: 1. 信息检索与整理:能迅速从大量数据中检索相关信息,如法律法规和案例的检索,提取和整理案件相关资料。 2. 模式识别与预测:通过导入历史数据和参考信息,设定指令,可以预测案件的可能结果,如判决趋势、赔偿金额,辅助制定诉讼策略。 3. 自动化文档处理:能够自动生成和修改标准化文本与合同,减少律师在文档起草和修订上的工作量。 4. 多任务处理能力:可以同时处理多个任务,不受时间和体力的限制,对于同时处理基础任务能够极大提高效率。 AI 大模型不擅长的方面: 1. 法律解释与推理:可以根据历史信息和数据给出一些预测和判断,但仍然难以像专业的法律人一样,推演复杂的法律解释和论证。特别是在涉及交叉多个法律领域或需要深入社会背景解读法条时,AI 的能力非常有限。 2. 理解道德和情感:难以理解案件中涉及的复杂情感和动机,如离婚案件中的夫妻之间可能出现的多重关系。 3. 创新或个性化的服务:难以提供客户的综合性需求来提供个性化的法律服务,因为大模型是基于预设的数据和规则,不能及时采集到客户所有的即时信息,很难超出语料的内容生成创新且专业的答案,因此很难针对性地为客户提供专业服务,哪怕是基于同样的事由或案件。 律师擅长的方面: 1. 法律专业知识:具备深厚的法律知识,能够提供专业的法律分析和建议,如在证券欺诈案件中的专业分析。 2. 沟通与谈判:在沟通和谈判中能够与客户方、相对方、其他机构建立信任、表达观点、促成交易等。 3. 创造性解决问题:能够针对新兴行业或监管空白提出合规建议,如为新技术制定合法性指导。 4. 危机应对:作为专业人士,恰恰需要具备能够在紧急情况下能做出专业判断,提供及时的法律建议和解决方案。 律师不擅长的方面: 1. 处理大量信息和数据:在需要处理大量文本和数据的情况下,律师人工的效率非常有限,如大量文件调查中的数据提取和整理。 2. 处理细节:可能难以记住各类案件中的所有事实和细节,如:时间,人物,金额,关系,尤其是在复杂案件中。 3. 精力与情绪:在处理复杂案件时,律师可能会面临情绪、精力、时间等带来的压力,从而影响专业判断。 基于以上,律师和 AI 的协同并非简单相加,而是一种借助互相优势、相互加持的关系。律师在运用大模型这一强大工具时,最关键的任务是:如何根据不同的法律业务场景,精准地提出问题、指令(Prompt),以引导 AI 发挥其最大的效用。在处理信息检索与整理任务时,律师可以指导 AI 精确抓取相关法律法规、先例判决等关键信息,能够迅速获得案件准备所需的素材,花更多的时间进行法律分析。当需要自动化处理文档时,律师可以指导 AI 生成和修改标准化合同。例如,给出 prompt “根据提供的模板,自动生成一份关于 XX 事项的合同草案,并标注出需要人工审核的关键条款”。这样,律师可以在保证合同质量的同时,大幅减少在文档起草和修订上的工作量。
2024-11-25
中国关于AIGC的法律
目前,我国对 AIGC 的监管框架主要由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》等共同监管 AIGC 行业。 涉及 AIGC 的数据隐私问题,主要可以参考《个人信息保护法》《数据安全法》《网络安全法》《电信和互联网用户个人信息保护规定》以及《数据出境安全评估办法》等。AIGC 服务提供者使用数据不可避免涉及数据脱敏、储存、传输等环节,服务提供者往往通过与使用者签订服务条款明确权利义务,而协议的合法性、可履行性则需要进一步检验。
2024-11-21
ai诈骗法律法规
目前关于 AI 诈骗的法律法规方面,有以下相关信息: 拜登签署的 AI 行政命令要求最强大的 AI 系统开发者与美国政府分享安全测试结果等关键信息。依照《国防生产法》,开发对国家安全、经济安全或公共卫生和安全构成严重风险的基础模型的公司,在训练模型时必须通知联邦政府,并分享所有红队安全测试的结果。商务部将为内容认证和水印制定指导方针,以明确标记 AI 生成的内容,联邦机构将使用这些工具让美国人容易知道从政府收到的通信是真实的,并为私营部门和世界各地的政府树立榜样。 在英国,产品安全法律确保在英国制造和投放市场的商品是安全的。特定产品的立法(如电气和电子设备、医疗设备和玩具)可能适用于某些包含集成 AI 的产品。消费者权利法可能在消费者签订基于 AI 的产品和服务销售合同时保护消费者。侵权法提供了一个补充制度,在民事过错造成损害时可能提供赔偿。但目前尚不清楚消费者权利法在包含集成 AI 的产品或基于服务的背景下是否能提供适当水平的保护。
2024-11-21