以下是一些最新的生成式人工智能模型及其应用和提出时间:
生成式人工智能模型的应用广泛,包括但不限于生成文本(如博客文章、程序代码、诗歌等)、生成图像、翻译单词等。生成式人工智能模型在近年来迅速发展,不断涌现出新的成果和应用场景。
生成式人工智能已经可以做很多事情。它能够生成文本和图像,涵盖博客文章、程序代码、诗歌和艺术品(甚至[赢得竞赛,有争议)](https://www.washingtonpost.com/technology/2022/09/02/midjourney-artificial-intelligence-state-fair-colorado/))。该软件使用复杂的机器学习模型根据先前的单词序列预测下一个单词,或根据描述先前图像的单词预测下一个图像。法学硕士于2017年在Google Brain开始提供,最初用于翻译单词,同时保留上下文。从那时起,大型语言和文本到图像模型在领先的科技公司中激增,包括Google(BERT和LaMDA)、Facebook(OPT-175B、BlenderBot)和OpenAI(微软是主要投资者的非营利组织(GPT- 3用于文本,DALL-E2用于图像,Whisper用于语音)。Midjourney(帮助赢得艺术竞赛)等在线社区和HuggingFace等开源提供商也创建了生成模型。
GPT是“生成式预训练变换器”(Generative Pre-trained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个GPT由OpenAI于2018年推出。GPT模型是基于Transformer模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至2023年,大多数LLM都具备这些特征,并广泛被称为GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到2017年Google推出了Transformer模型,我们才见到了如BERT(2018年发布)和XLNet(2019年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018年,OpenAI发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT-1”。
Sequoia Capital在2023年九月发表了一年前那篇引领市场的《Generative AI:A Creative New World》的续篇《Generative AI’s Act Two》,里面这样写到:生成式AI的第一年,我们发现了一种新的“锤子” -基础模型,并推出了一波新奇的应用,但这些程序大多是些酷炫新技术的轻量级演示,这些产品远远没有达到预期,糟糕的用户留存率就证明了这一点。当最终用户过了新鲜体验期,对许多应用的需求开始趋于稳定,真实数据就原形毕露了。。配图2.01:AI应用与社交应用使用率的对比对比流行的社交应用,哪怕是最顶流的ChatGPT,56%的首月用户留存度,也不及社交应用的中位数63%;一些最好的消费级应用拥有60到65%的DAU / MAU比,例如WhatsApp的比率高达85%。相比之下,生成式AI应用的中位数只有14%,AI陪伴类别除外,这意味着用户还没有在这些AI原生的产品中找每天使用它们的理由。看过一个数据,在Google Gemini中使用最多的场景就是生成每日菜谱,这个和用搜索引擎的需求基本一样,也许这么短的时间内,大众还没充分发现使用ChatGPT这种对话式AI的原生场景。