今天注定成为模型更新的混战日!
Runway推出了一款名为Act-One的工具,它是一种全新的方式,可以通过简单的视频输入生成富有表现力的角色表演。Act-One能够利用视频和声音表演作为输入,生成引人注目的动画,这在利用生成模型进行现场动作和动画内容的表达上是一个重大的进步。
Act-One的核心优势在于它能够捕捉演员表演的本质,包括眼神、微表情、节奏和传达方式,并在最终生成的输出中忠实地呈现这些细节。这与传统的面部动画流程不同,传统方法通常涉及复杂的多步骤工作流程,如动作捕捉设备、多段视频参考、手动面部绑定等技术。Act-One的方法仅由演员的表演驱动,无需额外的设备。
此外,Act-One可以应用于各种参考图像,能够保留真实的面部表情,并准确将表演转化为与原始源视频比例不同的角色。这种多功能性为创造性的角色设计和动画开辟了新的可能性。
Act-One在产生电影级和现实感输出方面表现出色,即使在不同的摄像机角度下,也能保持高保真度的面部动画。这种能力使创作者能够开发出能够传递真实情感和表达的可信角色,从而增强观众与内容的联系。
Runway还探索了Act-One在生成多轮、富有表现力的对话场景方面的潜力,这些场景以前很难用生成视频模型创建。现在,创作者可以使用消费级相机和一个演员来阅读并表演剧本中的不同角色,从而仅使用这些简单的设备就能创造叙事内容。
Runway对Act-One的发布承诺了负责任的开发和部署,包括一套全面的内容审核和安全预防措施,例如增强的能力来检测和阻止生成包含公众人物内容的尝试;技术措施来验证最终用户有权使用他们创造的声音;以及持续监控以检测和减轻对工具和平台的其他潜在滥用。
Act-One的访问权限将从今天开始逐步向用户推出,并很快将向所有人提供。Runway期待看到Act-One为动画和角色表演带来什么样的创意故事讲述形式,并希望艺术家和讲故事者能够使用Act-One以新的和令人兴奋的方式将他们的愿景变为现实。
runwayml.com