新榜讯 字节跳动已正式宣布进军 AI 视频生成领域。9 月 24 日,字节跳动旗下的火山引擎于深圳举行 AI 创新巡展,一次性发布了豆包视频生成-PixelDance、豆包视频生成-Seaweed 两款大模型,并面向企业市场开启邀请测试。据悉,豆包视频生成模型能够达成自然连贯的多拍动作以及多主体复杂交互。
扫描二维码
手机浏览
豆包视频生成大模型正式发布,首次突破多主体互动难关
分享文章链接
相似推荐

豆包:视频生成模型“VideoWorld”可仅靠视觉认知世界 现已开源
新榜讯 由豆包大模型团队携手北京交通大学、中国科学技术大学联合提出的视频生成实验模型“VideoWorld”,有别于 Sora 、DALL-E 、Midjourney 等主流多模态模型,在业界率先达成无需依赖语言模型便能认知世界的突破。

字节跳动将上线全新多模态视频生成模型
新榜讯 字节跳动旗下的一站式 AI 创作平台即梦 AI 即将推出多模态视频生成模型 OmniHuman,仅凭借一张图片和一段音频就能生成一条 AI 视频,此模型系字节自研的闭源模型。

字节跳动豆包电脑版上线视频生成功能,内测用户每日可免费生成10个视频
新榜讯 12 月 10 日,字节跳动的视频生成模型 PixelDance 已于豆包电脑版正式展开内测,部分用户的体验入口已开通。