DeepSeek 是一项非常出色的科技成果,由一家小规模的年轻中国公司开发完成。它具有以下显著特点:
如果您想使用 DeepSeek,可以直接访问相关网页链接或移动 APP 马上用起来。
另外,关于本地部署,SDXL 在生成时间上,对于高配电脑如 4080ti 显卡,速度在十秒左右,配置较低的需要自行测试。还可以安装 refine 插件,在文生图界面直接使用 refine 模型进一步绘画。
此外,基于多模态大模型的相关代码开源,有动手能力的小伙伴可以自己部署,如在手机上部署 llava,采用 server 方式需要 9 秒,最快只能加速到 1.5 秒,要达到毫秒级,移动端侧推理才是王道。
[heading3]游戏科学创始人、黑神话悟空制作人冯骥:年前还是认真推下DeepSeek吧。V3已经用了一个月,但R1仅仅用了5天,不得不来发这条微博。先讲一句暴论:DeepSeek,可能是个国运级别的科技成果。为了讲清楚这个成果有多惊人,我打个比方:如果有一个AI大模型做到了以下的任何一条,都是超级了不起的突破——1、强大。比肩O1的推理能力,暂时没有之一2、便宜。参数少,训练开销与使用费用小了一个数量级3、开源。任何人均可自行下载与部署,提供论文详细说明训练步骤与窍门,甚至提供了可以运行在手机上的mini模型。4、免费。官方目前提供的服务完全免费,任何人随时随地可用5、联网。暂时唯一支持联网搜索的推理模型(o1还不支持)6、本土。深度求索是一家很小规模的年轻中国公司,由没有海外经历甚至没有资深从业经验的本土团队开发完成上面的六条,DeepSeek全部、同时做到了。实在太6了,6到不真实。如果这都不值得欢呼,还有什么值得欢呼?那么,现在看到这条微博的你应该去做什么呢?1、请直接访问:网页链接马上用起来,也有移动APP
可以看到细节又提升了不少,可惜的是,现在还不能配合tile来使用。在生成时间上,我的显卡是4080ti,速度在十秒左右。所以sdxl对于高配电脑还是可以接受的,但配置较低的朋友需要自己去测试一下了。当然,有人可能会说,这个操作好麻烦,生成一张图要去两个界面来回倒腾。在这里,我给大家再介绍一款插件。我们来到扩展列表中,搜索refine,点击安装插件,然后重启。启用这个插件,就可以让我们在文生图的界面直接使用refine模型,进一步到位的绘画。我填写一段正向提示词:a girl looks up at the sky in the city of cyberpunk,close-up,wearing a helmet,fantasy elements,game original,starry_sky,点击生成,生产过程中的显存使用情况,显存基本跑满。最终的生成图像用时36秒,效果我觉得非常好,很难想象这是曾经的sd能够直出的效果。然后,我用同样的提示词在midjourney里面进行了生成。从心里的实话来说,我觉得midjourney的美感把握和图像的细节绘制还是要更胜一筹的。但对于SD而言,它的优势并不在于美图直出,而是它强大的可操控性,只要继续在SDXL上去发展,它的未来是不可限量的。
作者:bluishfish深度觉醒2024-01-26 02:47发表于上海作者公众号:https://mp.weixin.qq.com/s/08S3XFO2Np6oHXaKxOyDDg代码开源了,有动手能力的小伙伴可以自己部署一下,值得一试https://github.com/bluishfish/llavaprompt在手机上部署了一下llava,稍后整理一下具体实现步骤。LVM的应用前景太广了,自定义prompt才是未来,争取在春节出行前部署到车上[941806dd8d70e34319e3b60054ba64.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/KnqDbT5wEojYixxX4OlcZAgqnCm?allow_redirect=1)采用server方式需要9秒,最快只能加速到1.5秒,理论上用语音交互prompt,分析沿途风景即时捕捉一下动态热点暂时应该够用了。要达到毫秒级,移动端侧推理lvm才是王道,大内存高算力的手机准备要起来了,芯片压力山大啊以下为具体教程