以下是一些在精准的数据分析和可视化方面表现较好的大模型:
需要注意的是,不同的大模型在不同的应用场景和数据特点下可能会有不同的表现,您可以根据具体需求进行选择和测试。
BigModel智谱AI大模型开放平台[heading2]方案背景[content]GLM-4-AllTools是专门为支持智能体和相关任务而进一步优化的模型版本。代码沙盒Code Interpreter工具很大程度加强GLM-4-AllTools模型的数据计算能力,处理日常的数据分析已经完全没有问题。[heading2]1、分析行业收入数据[content]这个案例中,我们想要对2024年上半年各行业企业统计数据做图表分析。[heading3]收入数据可视化[content]首先,根据各行业营收统计数据,绘制成可视化的图表。代码示例:绘制图表如下:[heading3]利润数据可视化[content]同样的,我们也可以将行业利润数据绘制可视化图表,prompt修改为:可以看到,财务数据的(数字)表示负利润,GLM-4-AllTools无需额外指令,模型也能够准确理解:[heading3]计算利润率并排序[content]最后,我们让GLM-4-Alltools模型计算出各行业利润率,按照利润率从高到低生成图表。绘制图表如下,数据结果计算非常准确:
主持人:我对可靠性的看法是,就您的观点而言,它会随着模型规模的增加而增加,而且如果您针对特定用例或实例或数据集进行微调,它也会增加。因此,在尺寸与专业微调与可靠性方面存在权衡。Ilya:关心某些特定应用的人们肯定有充分的动机让最小的模型足够好地工作。我认为这是真的。这是不可否认的。我认为任何关心特定应用程序的人都会想要最小的模型。这是不言而喻的。我确实认为,随着模型不断变得更大、更好,它们就会解锁新的和前所未有的有价值的应用程序。所以,是的,小型模型将在不太有趣的应用中占有一席之地,但它们仍然非常有用。然后更大的模型将交付应用程序。例如,考虑提供良好法律建议的任务。如果你能真正相信答案,那真的很有价值。也许您需要一个更大的模型,但它证明了成本的合理性。主持人:今年,尤其是7b(70亿参数)尺寸的投资非常多,而且还有7b、13b、34b尺寸。您认为在这些规模上继续研究是浪费吗?Ilya:不,当然不。我认为从中期来看,无论如何,按照人工智能的时间尺度,将会出现这种情况。在一个生态系统中,不同的模型大小会有不同的用途。对于很多人来说,最好的7b模型已经足够好了,他们会感到非常兴奋。他们将对此感到极度欣喜。接下来,我们将看到大量令人兴奋和惊奇的应用程序,但这还远远不够。我想,这就是我想说的全部。我认为大模型会比小模型更好,但并非所有应用程序都能证明大模型的成本是合理的。
encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。