直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

表格大模型的使用

回答

以下是关于表格大模型使用的相关内容:

使用 coze 做智能报表助手: 用户上传 excel 后,在工作流中获取 excel 连接,通过插件下载并读取数据。最初打算将解析的 excel 数据以单元格形式存到 bot 数据库,用大模型根据数据和用户提问生成答案,但大模型计算能力差,常出错。后改为将 excel 转换为数据表,用大模型把用户问题转换为 sql,准确率高。自己写服务动态创建表并存表名到 coze 数据库,根据表名动态执行 sql 拿数据。再用大模型为用户生成 3 个推荐报表,限制数据 100 条。拿到 sql 后执行查询,用大模型转换为绘制 echarts 图表的参数,自行编写插件提高图表清晰度。

SDXL 大模型: SDXL 的大模型分为两部分,base+refiner 是必须下载的,base 用于文生图操作,refiner 用于细化生成的模型以获得更丰富的细节,还有配套的 VAE 模型用于调节图片效果和色彩。模型可在云盘获取,在 webUI 中使用需将版本升级到 1.5 以上,放入对应文件夹。先在文生图中用 base 模型生成,再将图片发送到图生图中用 refiner 模型重绘。

通过 Open WebUI 使用大模型: Open WebUI 是大模型的交互客户端,是 github 上的开源项目,参考官方文档下载安装。安装前需先安装 Docker,不同系统安装方式不同。安装 Open WebUI 有两种方式,已安装 ollama 时只需安装 open webui 即可。安装完成后即可使用。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

使用coze做一个智能报表助手

用户上传excel后,在工作流中可以拿到excel连接,然后写一个插件通过url下载当前excel,再读取excel里的数据。开始我打算把解析出来的excel数据以单元格的形式存到bot数据库,然后使用大模型根据单元格数据和用户提问生成答案,但是经过多次实验,发现大模型的计算能力特别差,经常出现计算错的情况。比如一张学生成绩表,用户想求某个学科的平均数,大模型可以把当前学科所有分数精准的提取出来,最后一步计算的时候,经常会出现错误。然后就试了一下另外一套方案,把excel转换为数据表,然后使用大模型把用户问题转换为sql,发现这样做生成的sql准确率非常高,基本都能得到想要的结果。coze里不能动态创建表,所以我自己写了一个服务,在动作流里调用这个服务,根据excel的url动态创建表,同时把excel数据插入到表中,最后把服务返回的动态表名存到coze数据库中,这一步是为了后续用户提问问题时,根据表名动态执行sql,拿到数据。最后再根据数据库表字段信息,使用大模型为用户生成3个推荐报表,报表信息中包含标题、描述、查询sql。这里防止一次查询出来的数据过多,传给大模型时候崩溃,所以限制数据100条。拿到sql后,使用插件动态执行sql查询数据,再根据标题和数据使用大模型转换为绘制echarts图表的参数。绘制图表,官方有一个插件,但是这个插件生成的图表图表有点模糊,我自己就写了一个插件,生成的图表图片就清晰度比较高,echarts绘制图表时可以设置缩放,我给图片放大了三倍,清晰度就变高了很多。

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

手把手教你本地部署大模型以及搭建个人知识库

在默认的情况下,我们需要在终端中跟大模型进行交互,但是这种方法太古老了。我们基本不会使用终端命令跟Mysql打交道,而是使用Navcat等客户端和Mysql进行交互。大模型也有其交互客户端,这就是Open WebUI[heading2]安装Open WebUI[content][Open WebUI](https://github.com/open-webui/open-webui?tab=readme-ov-file)是github上的一个开源项目,这里我们参考其[官方文档](https://docs.openwebui.com/getting-started/)进行下载和安装。1.在安装之前,我们需要先安装Docker,安装说明如下:如果是Win或者Mac系统,参考文档:[Docker Desktop release notes](https://docs.docker.com/desktop/release-notes/#4200):注意:要下载跟自己的电脑系统适配的版本例如目前的最新版本的Docker仅支持Mac OS12.0以后的系统如果Linux系统,请自己上网找教程(日常都可以使用Linux系统了,安装Docker小Case!)1.在官方文档中我们会看到两种安装Open WebUI的方式:ollama和open webui一起安装仅仅安装open webui由于我们已经安装了ollama,因此我们只需要安装open webui即可,复制如下命令:当Open WebUI安装下载完成之后,我们就可以愉快的玩耍啦!

其他人在问
如果我想让快速提取网页内容,并将其中的数据提取为表格或文档,我应该使用哪一款AI软件?
以下是一些可以帮助您快速提取网页内容并将数据提取为表格或文档的 AI 软件及相关建议: 1. 利用 AI 搜索与权威网站结合获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。但要注意,信息收集过程中,AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 2. 对于数据处理,可以借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 3. 分析与撰写时,通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。 此外,Mistral 发布了全新聊天应用,基于 Pixtral Large 124B 多模态模型,支持网络搜索、写作画布与 Flux Pro 图像生成功能。其网络搜索工具可获取最新信息,写作画布功能适合文档创作与协作,高质量图像生成工具 Flux Pro 支持免费使用。您可以通过在线体验: 了解更多。
2024-11-22
Excel表格智能处理
以下是一些关于 Excel 表格智能处理的相关内容: 目前有几种不同的工具和插件可以增强 Excel 的数据处理和分析能力,如 Excel Labs,它是一个基于 OpenAI 技术的 Excel 插件,新增了生成式 AI 功能,可用于数据分析和决策支持。 Microsoft 365 Copilot 是微软推出的 AI 工具,整合了多种办公软件,用户通过聊天形式告知需求,Copilot 会自动完成任务,包括 Excel 中的数据分析和格式创建等。 Formula Bot 提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互进行数据分析和生成 Excel 公式。 Numerous AI 是一款支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 在实际应用中: 可以在 Excel 里自动累加一行的美元数额,并将总和显示在右边名为“总计”的列里。 让 ChatGPT 编写 Python 程序来做 Excel 数据处理,如一个文件修改成功后可提要求批量修改所有文件,所有文件都批量处理完后可提下一步需求进行汇总。 对于学生交的实习报告,可通过 Python 将所有.doc 和.docx 文件聚集在一起,还能统计报告字数并排序。 用 GPT4 写代码的基本操作包括文字提需求直接出代码、贴代码进去让其按新需求修改、贴错误信息进去让其解 bug 以及直接询问一些技术问题的解法和思路。 处理腾讯文档的 Bug 时,多人同时填写触发保护机制导致内容被复制很多份,需要先“查重合并”再统计名字出现次数,还可以让其帮忙合并一个单元格或整个表格所有单元格内的重复内容,只要用自然语言交待清楚需求,不需要编程。 随着技术的不断发展,未来可能会有更多 AI 功能被集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-20
喂AI文档,表格不识别怎么办
如果 AI 文档中的表格不被识别,您可以参考以下内容: 召回排序过程中会过滤掉标题里携带了【已废弃】、【已过期】、【已停用】、【已删除】、【已作废】、【已过时】、【弃用】等字眼的片段。如果某些文档已经过期、内容不再准确,但是又需要保留存档,可以在文档总标题里加上关键字眼,避免这些文档进入问答、影响答案的准确性。 当前文档里插入的表格(包括普通表格、电子表格、多维表格)内容虽然已经能被 AI 识别,但是识别效果还在进一步提升中。某篇文档如果主要用于 AI 智能问答,现阶段为了保证更好的问答效果,可以尽量都使用普通文本描述,避免大量有价值的信息都包含在表格中。 随着飞书团队持续丰富支持识别的数据类型,这些局限会逐渐消除、问答效果也会持续提升。
2024-11-18
有哪些ai可以直接制作Excel表格的
以下是一些可以直接制作 Excel 表格的 AI 工具: 1. Excel Labs:这是一个 Excel 插件,基于 OpenAI 技术,新增了生成式 AI 功能,允许用户在 Excel 中利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,用户通过聊天形式告知需求,Copilot 可自动完成如数据分析、格式创建等任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 5. GPTExcel:在相关排行中有所体现。 6. SheetGod:在相关排行中有所体现。 7. 酷表 ChatExcel:在相关排行中有所体现。 8. GPT Workspace:在相关排行中有所体现。 9. OpenAI in Spreadsheet:在相关排行中有所体现。 10. Ajelix AI Excel Tools:在相关排行中有所体现。 随着技术的不断发展,未来可能会有更多 AI 功能被集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-17
什么工具能进行AI数据表格处理
以下是一些能够进行 AI 数据表格处理的工具: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可在 Excel 中直接利用 AI 进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,用户通过聊天形式告知需求,Copilot 自动完成任务,包括 Excel 中的数据分析和格式创建等。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 此外,以下是一些 AI 相关的产品数据表格排行: |AI 产品数据表格_排行|AI 产品数据表格_产品名|AI 产品数据表格_分类|AI 产品数据表格_4 月访问量(万 Visit)|相对 3 月变化| |||||| |1||表格|175|0.036| |2|Highcharts|表格|127|0.257| |3|Numerous.ai|表格|73.4|0.911| |4|Coefficient|表格|69|0.213| |5|GPTExcel|表格|37|1.139| |6|Rows AI|表格|34|0.115| |7|SheetGod|表格|26|0.016| |8|AI Excel Bot|表格|25.3|0.103| |9|OpenAI in Spreadsheet|表格|17|0.091| |10|GPT Workspace|表格|17|0.189|
2024-11-10
表格数据分析
以下是关于表格数据分析的相关内容: ChatGPT 助力数据分析: 第一个用户提示:限定 SELECT SQL,要求不要用 SELECT 查询全部列,仅回复一条 SELECT SQL 语句,至少查询两列(数据项、数据值),不能直接查询长类型字段,可用 count/substring 等函数处理。 系统提示是表结构信息,对难以理解的字段可告知 GPT 其意义,若有多个表可分开描述。 需校验 GPT 生成的 SQL,不通过直接返回提示“抱歉,不支持此类请求”,通过再执行 SQL 查询数据。 数据分析的用户提示:提示数据分析,限定返回的 JSON 格式(conclusion、keyMap、title),keyMap 用于数据 key 的映射以渲染图表,根据结果数据的维度选择不同的 prompt 传递给 GPT,且结果数据 tableData 已通过 SQL 查询,不能让 GPT 再次生成,以免耗时。 生成式 AI 季度数据报告 2024 月 1 3 月: 数据来源:Similarweb、Visit,单位:万,变化公式:3 月/2 月 1 100%。 包括数据分析(446 万)、天花板潜力(1000 亿美元)、对标公司(oracle)、总体趋势(快速增长,88.19%)、月平均增速(70 万 PV/月)、原生产品占比(高)、竞争情况(Top1、Top3 占比,马太效应、网络效应强弱,大厂是否入局及占比,技术门槛)、Top1 公司(非大厂)的相关信息等。 还提供了 23 年 12 月至 24 年 3 月月访问量排行榜及变化情况、赛道月访问总量及构成、23 年 4 月访问量 Top10 等数据。 58 数据分析 161 万: 包含名称、二级分类、三级分类、网址、2 月至 11 月的数据及 11/5 月的变化计算等信息,如帆软数据、RATH、rows.com、亚信科技数智产品、神策数据等。
2024-11-10
你的模型是什么
以下是关于模型的相关信息: 微调模型:假设已准备好训练数据,可使用 OpenAI CLI 开始微调工作。需指定从 ada、babbage、curie 或 davinci 等基本模型开始,还可通过后缀参数自定义微调模型名称。运行命令后会进行文件上传、创建微调作业、流式传输事件直至作业完成等操作。每个微调工作默认从 curie 基本模型开始,模型选择会影响性能和成本。开始微调作业后,可能需几分钟至数小时完成,若事件流中断可通过特定命令恢复。完成后会显示微调模型名称,还可进行列出现有作业、检索作业状态或取消作业等操作。 图像描述模型:编码器部分将 inception resnet V2 应用于图像数据,并冻结大部分 CNN 部分,因骨干是通过庞大的数据集(如图像网络数据集)预训练的,若想再次微调也是可能的。解码器较为复杂,包含注意力层、嵌入层、GRU 层、添加层归一化层和最终的密集层等。定义好编码器和解码器后,创建最终模型并定义输入(图像输入进入编码器,文字输入进入解码器)和输出,在运行训练前需定义损失功能。 不同模型切换:使用光标聊天、Ctrl/⌘ K 和终端 Ctrl/⌘ K 可在不同模型间切换。在 AI 输入框下方有下拉列表可选择模型,默认有、cursorsmall 等模型,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能但速度更快且用户可无限制访问。可在 Cursor Settings > Models > Model Names 下添加其他模型。
2024-11-25
文生图模型排行
以下是一些常见的文生图模型排行及相关介绍: 1. Kolors:最近开源的文生图模型中表现出色。从技术报告来看,有更强的中文文本编码器、机造的高质量文本描述、人标的高质量图片、强大的中文渲染能力,以及巧妙的 noise schedule 解决高分辨率图加噪不彻底的问题。实测效果不错,体现了快手的技术实力。 2. 基于 Diffusion Model 的代表模型: Stable Diffusion Midjourney GLIDE DALLE 2 DALLE 3 发展阶段为 2022 年至今,受益于开源模式和参数量较少,研究成本相对低,在学术界和工业界的传播和迭代速度快。其原理是通过连续添加高斯噪声来破坏训练数据,然后通过消除噪声来学习如何重建数据。 3. 基于自回归模型(Autoregressive Model)的代表模型: DALLE CogView CogView2 Parti CM3leon 发展阶段为 2020 年至今,囿于闭源模式和参数量较大,研究成本高,迭代速度慢于 Diffusion Model。其原理是 Encoder 将文本转化成 token,经特征融合后,由训练好的模型 Decoder 输出图像。 4. Red_Panda:文生图模型黑马,霸榜 Hugging Face,超越了 Midjourney、Flux 等。
2024-11-25
有哪些使用语言模型的最佳实践案例?
以下是一些使用语言模型的最佳实践案例: 1. 转换类应用: 大型语言模型擅长将输入转换为不同格式,如语言翻译、拼写和语法矫正、格式转换等。例如,可以输入一段不符合语法规范的文本让其修改,或输入 HTML 输出 JSON。 可以执行翻译任务,模型在多种语言的大量文本上训练,能够掌握数百种语言。 2. 基础提示词: 提示词包含传递到模型的指令、问题等信息,也可包含上下文、输入或示例等详细信息,以更好地指导模型获得更好结果。 对于 OpenAI 的聊天模型,可使用 system、user 和 assistant 三种角色构建 prompt,通常示例仅使用 user 消息作为 prompt。 提示工程探讨如何设计最佳提示词,如通过改进提示词完善句子输出。 3. 提示工程: 将复杂任务分解为更简单的子任务,如使用意图分类识别用户查询中的指令,对长对话进行总结或过滤,将长文档分段总结。 给予模型“思考”时间,如让模型在给出最终答案前先进行“思考链”推理,指导其先给出解决方案,使用“内心独白”或系列查询隐藏推理过程,询问是否遗漏信息以确保完整性。
2024-11-25
AI的主要大模型有哪些
目前主要的 AI 大模型包括: 1. OpenAI 系列: GPT3.5:于 11 月启动了当前的 AI 热潮。 GPT4:在春季首次发布,功能更强大。有新的变种使用插件连接到互联网和其他应用程序,如 Code Interpreter 是一个强大的版本,可运行 Python 程序。未为 OpenAI 付费只能使用 3.5。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,能创建和查看图像,可在网页浏览器中阅读文档并连接到互联网。 2. 谷歌:Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 3. Anthropic:Claude 2,其最显著的特点是有非常大的上下文窗口,本质上是 LLM 的记忆,几乎可以保存一整本书或许多 PDF,且与其他大型语言模型相比,不太可能恶意行事。
2024-11-25
目前各大主流模型的 max output token
以下是目前各大主流模型的 max output token 情况: Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 token。 需要注意的是,token 限制同时对一次性输入和一次对话的总体上下文长度生效。不是达到上限就停止对话,而是会遗忘最前面的对话。 如果想直观查看 GPT 如何切分 token,可以打开: 。此外,GPT3 和 GPT3.5/4 的 token 计算方式不同,英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。
2024-11-24
如何用langchian加载本地模型
要使用 Langchain 加载本地模型,您可以按照以下步骤进行: 1. 加载所需的库和模块,例如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型。使用 ollama 前请确保服务已经开启并下载好模型。 2. 从订阅源获取内容,通过特定函数从指定的 RSS 订阅 URL 提取内容,若需接收多个 URL 稍作改动即可。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终将这些文档合并成一个列表用于后续处理。 3. 为文档内容生成向量,使用文本向量模型 bgem3。从 hf 下载好模型后,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效的向量存储。 在整个过程中,还需要了解以下相关知识: 1. RAG(Retrieval Augmented Generation):大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成。RAG 应用包括文档加载(从多种来源加载文档,LangChain 提供 100 多种文档加载器)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 2. Ollama:支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu,提供模型库,用户可下载不同模型,还支持自定义模型、提供 REST API 用于运行和管理模型及与其他应用程序集成,社区贡献丰富。安装完后确保后台服务已启动,可通过 ollama list 确认,通过 ollama 命令下载模型。
2024-11-23
Cursor使用说明书
以下是 Cursor 的使用说明: 1. 下载与注册: 前往 https://www.cursor.com/ 下载 Cursor。 可用邮箱(如 google、github、163、qq 等)注册账号,直接接受二维码登录。 2. 安装中文包插件。 3. 配置相关设置: 在设置中进行 Rule for AI 配置。 可通过“Ctrl/Cmd + i”输入需求。 4. 检查使用情况: 可在页面检查使用情况,也可在 Cursor 应用程序中的 Cursor Settings > General > Account 下,专业用户按“Manage Subscription”,商业用户按“Manage”。 游标使用情况会根据订阅开始日期每月重置一次。 5. 用户界面与操作: 当 Cursor 仅添加其他文本时,补全显示为灰色文本;若建议修改现有代码,会在当前行右侧显示为 diff 弹出窗口。 可通过按 Tab 键接受建议,按 Esc 键拒绝建议;逐字部分接受建议按 Ctrl/⌘ →;拒绝建议可继续输入或使用 Escape 取消/隐藏建议。 每次击键或光标移动,Cursor 会尝试根据近期更改提出建议,但不总会显示。 Cursor 可更改当前行上方一行至下方两行的内容。 要打开或关闭相关功能,可将鼠标悬停在应用程序右下角状态栏上的“Cursor Tab”图标上。 若要做一个在网页中玩的贪吃蛇游戏,需求如下: 游戏界面:在矩形网格上进行,玩家控制蛇。 蛇的移动:持续移动,玩家通过按键控制方向(上、下、左、右)。 食物:界面随机出现,蛇吃到食物增长身体。 增长:每次吃到食物身体增加一节。 死亡条件:撞墙(头部撞到边界)、撞自己(头部撞到自身)。 得分:吃到食物获分数,与食物数量成正比。 难度递增:蛇速度加快或食物出现频率降低。 游戏结束:蛇死亡时结束,玩家可看到得分。清晰表达需求如:“帮我做一个贪吃蛇游戏,这个游戏的规则和逻辑如下……”
2024-11-24
国内如何使用ChatGPT
在国内使用 ChatGPT 可能会面临一些挑战。ChatGPT 由 OpenAI 开发,是国际 AI 领域的知名产品。 其具有诸多优点: 1. 具有开创性,是首批向公众开放的大规模商用 AI 对话系统之一,引领了 AI 革命。 2. 用户体验精心设计,界面简洁直观,交互流畅自然,新手也能轻松上手。 3. 技术实力强大,背后的 GPT 系列模型性能和能力行业领先。 但也存在局限性: 1. 随着 AI 技术发展,已不是市场上唯一的顶级选择,其他产品在特定领域可能超越它。 2. 对于国内用户,可能因网络连接问题出现连接不稳定、响应延迟等,影响使用体验。 如果您想在国内使用 ChatGPT: 1. 对于苹果系统,中国区正常无法下载,需切换到美区。美区 Apple ID 注册教程可参考知乎链接: 。 2. 打开支付宝,地区切换到美区任意区,找到【品牌精选 折扣礼品卡】,点击【大牌礼品卡】,下滑找到【App Store & iTunes US】礼品卡,按需购买,建议先买 20 刀。 支付宝购买礼品卡。 在 apple store 中兑换礼品卡。 在 chatgpt 中购买订阅 gpt plus,中途不想订阅可在订阅列表中取消。 使用时: 1. 打开 ChatGPT 应用或网页,点击开始对话。 2. 版本切到 ChatGPT 4o,点击右下角“耳机🎧”图标,选择声音,可体验语音对话。会员在苹果或安卓手机购买,电脑上也能登录。
2024-11-24
请给我chatgpt的官方使用教程,教会我作为一个新人小白,怎样可以快速的学会使用chatgpt
以下是关于 ChatGPT 的使用教程: 一、认识 ChatGPT 1. ChatGPT 名称含义:GPT 即 Generative PreTraining Transformer,其中 Generative 表示生成式,PreTraining 表示预训练,Transformer 表示转换器。 2. 实质功能:本质是“单字接龙”,长文由单字接龙的回归所生成。GPT 作为大脑即模型需要训练,训练方式是通过材料学习,不断形成模型。训练目的是学习“提问和回答的通用规律”,实现举一反三。但它不是搜索引擎的升级版,可能出现“幻觉”,对现实不存在的东西进行合乎规律的捏造。 二、注册、安装、订阅 1. 简介:ChatGPT 是一种基于 GPT 架构的人工智能模型,由 OpenAI 开发,是自然语言处理工具,能理解和生成接近人类水平的文本。 2. 版本:目前官网有 GPT3.5 和 GPT4 两个版本。GPT3.5 免费,拥有账号即可使用;GPT4 智能程度更高,有更多功能,如 DALL.E3(AI 画图功能)和 GPTs 商店和高级数据分析等插件,PLUS 套餐收费 20 美金/月,还有团队版和企业版,费用更贵,一般推荐 PLUS 套餐。 3. 注册准备:在注册 ChatGPT 账号前,先注册谷歌账号,因其支持一键登录,可省去很多后续注册流程。谷歌账号注册支持国内手机号码和国内邮箱验证,过程简单。 三、学习英语的应用 推特博主的英语老师制作了一个 GPT 工作流,基于个人日常需求生成定制素材。具体使用方法: 1. 先把特定 prompt 喂给 ChatGPT(建议开新对话专门用于学习英文)。 2. 然后 ChatGPT 会扮演美国好朋友,对输入的英文和中文表达返回更地道的表达,对俚语部分加粗,还会举一反三结合欧美流行内容给出更多例子。 3. 输入特定语句,ChatGPT 会输出对话回顾并建议 3 个推荐任务强化记忆。 建议使用方式:开窗口复制 prompt,手机端打开历史记录,点右上角耳机图标打电话,既能练口语又能练听力,结束后看回顾帮助阅读。 群友也写了类似版本在讯飞上尝试,效果不错。
2024-11-23
如何使用 cursor
以下是关于如何使用 Cursor 的详细介绍: Apply 应用: 在我们的中阅读更多关于如何构建即时申请的信息。 Cursor 的 Apply 允许您将聊天中的代码块建议快速集成到您的代码中。 要应用代码块建议,您可以按每个聊天代码块右上角的播放按钮。这将编辑您的文件以合并 Chat 生成的代码。由于您可以在 Chat 中添加最多的上下文并与模型进行最多的来回交流,因此我们建议使用 Chat + Apply 进行更复杂的 AI 驱动的代码更改。 应用代码块后,您可以浏览差异并接受或拒绝更改。您也可以点击聊天代码块右上角的“接受”或“拒绝”按钮。Ctrl/⌘ Enter 键接受,Ctrl/⌘ Backspace 键拒绝。 @Docs: Cursor 附带一组第三方文档,这些文档已爬取、索引并准备好用作上下文。您可以使用@Docs 符号访问它们。 如果要对尚未提供的自定义文档进行爬网和索引,可以通过@Docs > Add new doc 来实现。粘贴所需文档的 URL 后,将显示相应模式。然后 Cursor 将索引并学习文档,您将能够像任何其他文档一样将其用作上下文。 在 Cursor Settings > Features > Docs 下,您可以管理已添加的文档,包括编辑、删除或添加新文档。 介绍视频: Cursor 旨在让您极其高效,它是使用 AI 进行编码的最佳方式。 您可以通过以下链接查看相关视频: 它能够从您的代码库中获得最佳答案,或参考特定文件或文档,一键使用模型中的代码。通过预测您的下一个编辑,让您轻松完成更改。
2024-11-23
我是新手AI使用者,想使用chatgpt,操作步骤是什么
以下是新手使用 ChatGPT 的操作步骤: 1. 获得 API Key(扣费凭证): 以 OpenAI API 为例,您可以在这个页面找到 API Key:https://platform.openai.com/apikeys 。 打开后,点击「Create new secret key」即可获取。 请注意:通常,您需要绑定支付方式,才可以获取有效 Key。 2. 获得 API 使用的示例代码: 以 OpenAI API 为例,您可以在 Playground 这个页面获取 API 调用的示例代码:https://platform.openai.com/playground 。 并且可以将您和 GPT 的对话,转换成代码。 注意,这里有两个值可以定义,一个是: SYSTEM:对应 ChatGPT 里的 Instructions,用来定义这个 Bot 的功能/特点。 USER:对应 ChatGPT 里,用户发出的信息。 这里,我将 SYSTEM 定义成了缩略信息助手,而在 USER 中输入了文章内容。 运行后,结果很令人满意。 点击右上方 View Code,获取生成这一内容的示例代码。 3. 再问 ChatGPT:顺着之前的对话,让 ChatGPT 帮我们继续写代码。 4. 对于在 Colab 中抓取网页正文内容,如抓取 https://mp.weixin.qq.com/s/KUnXlDlgRs_6D5RFpQbnQ 的正文内容: 在 Colab 中抓取网页的正文内容,您可以使用 Python 的 requests 库来获取网页的 HTML 源代码,然后使用 BeautifulSoup 库来解析 HTML 并提取所需的正文部分。 首先,确保您已经在您的 Colab 环境中安装了 beautifulsoup4 和 requests 库。如果没有安装,您可以使用以下命令安装: 然后,使用以下代码抓取并解析指定的网页内容: 这段代码会打印出您提供的微信公众号文章的正文内容。请注意,由于网页的结构随时可能发生变化,所以提取正文内容的部分(即 soup.find 那一行)可能需要根据实际的 HTML 结构进行调整。如果文章有反爬虫机制,可能还需要进一步的处理,比如设置请求头模拟浏览器访问等。 运行您的代码: 先复制第一段:!pip install beautifulsoup4 requests ,运行后得到结果。 接下来,点击左上方「+代码」按钮,新建一个新的代码块。 最后,复制后面的代码,并运行,获得结果。
2024-11-23