以下是关于 AI 建模的相关信息:
前两天使用Ai制作场景的“潦草建模”是我随手做的录屏作为分享,没想道能够得到大家的喜欢。响应评论区,我重复了一遍流程,并将复现中可能遇到的问题在教程中解决,希望能帮助到大家,也希望在互动中获得进步和灵感。生成工具:MidjourneyV6放大工具:Comfy Ui、Magnific Ai、Upscayl深度图:Leia Pix法线图:Shadermap
|模型|介绍|代码链接|模型下载|<br>|-|-|-|-|<br>|MathGLM-Large|采用GLM的不同变体作为骨干来训练MathGLM,包括具有335M参数的GLM-large和GLM-10B。此外,还使用ChatGLM-6B和ChatGLM2-6B作为基座模型来训练MathGLM。这些骨干模型赋予MathGLM基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。|[MathGLM](https://github.com/THUDM/MathGLM)|[THU-Cloud](https://cloud.tsinghua.edu.cn/d/3d138deaf93441b196fb/)|<br>|MathGLM-10B|采用GLM的不同变体作为骨干来训练MathGLM,包括具有335M参数的GLM-large和GLM-10B。此外,还使用ChatGLM-6B和ChatGLM2-6B作为基座模型来训练MathGLM。这些骨干模型赋予MathGLM基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。|[MathGLM](https://github.com/THUDM/MathGLM)|[THU-Cloud](https://cloud.tsinghua.edu.cn/d/bc3c7b5c46304c2b88f6/)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/MathGLM/summary)|<br>|MathGLM-ChatGLM-6B|采用GLM的不同变体作为骨干来训练MathGLM,包括具有335M参数的GLM-large和GLM-10B。
|AI产品数据AI训练模型_排行|AI产品数据AI训练模型_产品名|AI产品数据AI训练模型_分类aiwatch.ai|AI产品数据AI训练模型_4月访问量(万Visit)|相对3月变化|<br>|-|-|-|-|-|<br>|1|[prolific.com](http://prolific.com)|AI训练模型|1367|-0.017|<br>|2|Llama 2|AI训练模型|398|1.341|<br>|3|火山方舟|AI训练模型|335|0.037|<br>|4|PaLM 2|AI训练模型|295|0.089|<br>|5|ai.google|AI训练模型|251|-0.074|<br>|6|Appen|AI训练模型|248|-0.313|<br>|7|Lightning AI|AI训练模型|137|0.356|<br>|8|Roboflow|AI训练模型|135|0.089|<br>|9|魔搭社区-阿里达摩院|AI训练模型|98.5|-0.121|<br>|10|modular|AI训练模型|48|0.008|