以下是关于 AI 总结的相关内容:
除了聊天内容之外,我们还能让AI总结整理各种文章(文章不超过2w字,否则就超出token了)例如,我复制了我的一篇文章给它总结:打开后直接全选复制全文,然后粘贴发送给GPTs,它就开始总结了,很方便,GPT4它能识别出哪些部分属于重点内容。[heading3]2、B站视频[content]你可能会疑惑,GPT不是无法处理视频内容吗,这是怎么做到的?答案是视频字幕。我用这个视频举例:https://www.bilibili.com/video/BV1VL411U7MU/?spm_id_from=333.337.search-card.all.click&vd_source=e05ea46c768d112737bc19e721da8967打开这个视频,如果你能在视频栏下面有一个字幕按钮,说明这个视频作者已经上传了字幕或者后台适配了AI字幕。那我们把这些字幕弄下来,再发给AI执行内容总结任务,是不是就达到了总结视频的效果?是的,目前大部分用AI总结视频的工具/插件/应用都是这么干的。那接下来的卡点就是,怎么把字幕文字内容给提取出来,用语音转文字?不,效率太低了。像这种有字幕的视频,我们可以装一个油猴脚本:[Bilibili CC字幕工具](https://greasyfork.org/zh-CN/scripts/378513-bilibili-cc%E5%AD%97%E5%B9%95%E5%B7%A5%E5%85%B7)安装之后,刷新浏览器,点击字幕,你会看到多出一个“下载”按钮点击下载按钮,会弹出下面这个窗口,你可以选择多种字幕格式,带时间的或者不带时间的:接下来,还是老办法,将字文字内容全选复制发送给GPTs即可。当然,总结完视频内容之后你继续向AI提问更多细节内容或者与它探讨视频内容。
缘起于一次网上找到一个总结公众号的提示词,给它一个公众号文章链接,它就给我一段合适的总结。当时正在研究AI硬件的内容,它的输出结果还挺像那么回事,但是真正打开网页看的时候完全不是不对,它根本没有去读取网页内容。在写这篇文章的时候同样也遇到这个问题,思索再三,没有把它归到AI幻觉中去,有这样几个方面的考虑:从策略上看,总结类文章,AI很有可能不会读完整个文章,而只是头尾读一下,中间随机读就可以了。使用Python的request库读取网页速度并不会太快,但是大语言模型的反馈会非常快速,实际上很多大语言模型并没有真去搜索网页。综合上述理由,它更像是大语言模型开发商的”狡猾”,用“AI幻觉”背锅了。
这几天网上比较火的一篇文章是关于著名投资人对大模型投资的评判的,大量的总结文案。但是,对我而言,这篇文章中唯一有价值的一句话是:也就是说,当前,大多数AI应用可能不会长期存在,这是因为大型模型的能力还不足以支撑商业运营,必须通过开发具体应用程序来补充。如果这些应用依赖于大型模型(目前商业化使用国外大型模型是不被允许的),其未来是不确定的。因为AI领域的过度乐观,产生了一些并非真实需求的伪需求。投资大量资金进行开发……。AI的出现极大地促进了对高效知识管理和学习的需求。过去,我们可能因为时间不足而忽略了收藏夹中或已购买的课程。现在,AI可以帮助我们总结这些内容,理论上我可以在一天内了解300本书的核心内容,然后决定是否深入阅读。然而,上述例子清晰地展示了AI总结可能会忽略掉对我们真正有价值的信息。不过,有一个简单的解决方案。我们可以为不同类型的信息定制专门的Prompt进行总结并不断迭代。然而,能够坚持这一过程的人,可能并不属于需要这种服务的用户群体,因为这需要极高的自律性,这样的人不太可能受到“知识仓鼠症”的影响。虽然AI在很大程度上解放了我们,但它也可能导致我们陷入新的信息茧房。有时候,了解了还不如不知道,因为无法采取行动。错过某些信息可能是无可避免的,而过度焦虑于此无益。错过就错过呗,命该如此,焦虑又有何用?