想象你正在玩一款开放世界的游戏,突然,你发现你可以通过简单的文字描述,就能让游戏中的角色动起来,还能自定义他们的动作和表情。这就是“千影 QianYing”带来的魔力!它由巨人网络AI实验室和清华大学SATLab共同研发,是首个实现角色多样运动与个性化、具备强物理模拟特性的游戏视频生成大模型。
“千影 QianYing”的核心是YingGame游戏视频生成大模型。它不仅能生成开放世界的游戏视频,还能通过文本、图像或键盘、鼠标操作实现角色动作的交互控制。这意味着,你可以轻松地让游戏中的角色跳舞、奔跑,甚至是进行复杂的战斗动作。而且,YingGame还具备更好的游戏物理仿真特性,无需传统游戏的3D模型制作和引擎渲染环节,大大提高了游戏视频的制作效率。
当然,一个精彩的游戏视频怎能缺少声音呢?这就有了YingSound,它是“千影 QianYing”的另一位重要成员。这款由巨人网络AI实验室、西北工业大学ASLP Lab和浙江大学联合研发的视频配音大模型(V2A),拥有超强的时间对齐能力和视频语义理解能力。它可以根据画面自动生成与之匹配的复杂音效,无需人工输入提示词,就能为各类视频,包括真实场景、动漫和游戏视频,生成精细的音效。
巨人网络不仅发布了“千影 QianYing”有声游戏生成大模型,还启动了“千影共创计划”。这个计划基于大模型底座技术,对外开放模型技术、模型应用、原创游戏项目等方面的合作共创、应用落地、人才招募。这样一来,游戏AI的发展将更加迅速,从降本增效向颠覆式创新的快速转化。
“千影 QianYing”的出现,无疑为游戏视频带来了无限可能。它不仅让游戏视频的制作变得更加简单高效,还能让玩家体验到前所未有的互动体验。想象你可以在游戏中扮演各种角色,通过文字或图像控制他们的动作,还能听到与他们动作相匹配的音效。这样的游戏视频,是不是让你心动了呢?
“千影 QianYing”有声游戏生成大模型的出现,标志着游戏AI融合的新纪元。它不仅为游戏视频的制作带来了革命性的变化,还为玩家带来了更加丰富的互动体验。相信在不久的将来,我们将会看到更多基于“千影 QianYing”的游戏视频作品,让我们的游戏世界变得更加精彩!