以下是一些关于图转视频的开放 API 信息:
[title]照片数字人工作流及语音合成(TTS)API-出门问问Mobvoi[heading1]照片数字人工作流-使用文档[heading2]让我们一起来实际操作吧![heading3]出门问问:语音合成(TTS)API获取地址API官网:https://openapi.mobvoi.com/序列猴子开放平台:语言驱动的深度学习大模型能够快速、准确地处理语言表达,支持多种交互方式,可以快速生成悦耳的语音、高质量的文本,以及与人机进行互动,以满足各种语音、文本和对话需求。语音合成(TTS)API地址:https://openapi.mobvoi.com/pages/sound-library语音生成(Text To Speech)采用第五代TTS引擎MeetHiFiVoice,支持多语种、多方言和中英混合,可灵活配置音频参数,500+高品质发音人可供选择,广泛应用于短视频、有声阅读、新闻播报、车载语音、智能硬件和语音助手等场景。语音合成(TTS)操作文档:https://openapi.mobvoi.com/document?name=%E8%AF%AD%E9%9F%B3%E5%90%88%E6%88%90%EF%BC%88TTS%EF%BC%89
[title]使用GPT的视觉功能和TTS API处理和讲述视频原文作者:Kai Chen发表于Nov 6,2023[Open in Github在Github中打开](https://github.com/openai/openai-cookbook/blob/main/examples/GPT_with_vision_for_video_understanding.ipynb)原文链接:https://cookbook.openai.com/examples/gpt_with_vision_for_video_understandingThis notebook demonstrates how to use GPT's visual capabilities with a video.GPT-4 doesn't take videos as input directly,but we can use vision and the new 128K context widnow to describe the static frames of a whole video at once.We'll walk through two examples:这个笔记本演示了如何通过视频使用GPT的视觉功能。GPT-4不直接将视频作为输入,但我们可以使用视觉和新的128 K上下文widnow来同时描述整个视频的静态帧。我们将介绍两个示例:1.Using GPT-4 to get a description of a video使用GPT-4获取视频的描述2.Generating a voiceover for a video with GPT-4 and the TTS API使用GPT-4和TTS API为视频生成画外音3.[1.Using GPT's visual capabilities to get a description of a video](https://cookbook.openai.com/examples/gpt_with_vision_for_video_understanding#1-using-gpts-visual-capabilities-to-get-a-description-of-a-video)[1.使用GPT的视觉功能获取视频的描述](https://cookbook.openai.com/examples/gpt_with_vision_for_video_understanding#1-using-gpts-visual-capabilities-to-get-a-description-of-a-video)