Gate动态广场创作者星火招募计划限时开启!
无论你是加密KOL、项目方还是媒体,现在入驻发帖,即可抢先解锁:Gate百万流量曝光、超$10,000月度激励奖金、深度生态合作资源等专属福利!
参与攻略:
1️⃣ 立即填写申请表:https://docs.google.com/forms/d/e/1FAIpQLSdStzGVu-fj14EM07-cVLYf0pk0axwMQbS-0tk1YK3Y6x5Vew/viewform?usp=header
2️⃣ 审核通过,开启创作之旅!
🎁 活动奖金奖励:
基础创作激励:参与动态内容挖矿,轻松发帖即可获得高达10%手续费返佣!
$10,000/月内容激励池:每周精选TOP 10优质内容,入选即奖励 $50 USDT/篇!
爆款内容奖励:阅读量≥3万可获得额外 $50 USDT,阅读量≥10万可获得额外 $100 USDT!
🎁 生态合作&流量曝光权益:
空投/AMA/白名单等项目合作优先权
参与Gate Labs早期项目评测,赢潜在种子轮奖励
APP首页推荐位、官方宣发、峰会嘉宾等资源加持
本活动长期开放,首批入驻动态广场用户权益优先!
立即申请,抢占流量红利,轻松发帖赚高额奖励,项目方更有生态扶持等你来享!
Meta 公布 audio2photoreal AI 框架,输入配音文件即可生成人物对话场景
巴比特讯 Meta 近日公布了一项名为 audio2photoreal 的 AI 框架,该框架能够生成一系列逼真的 NPC 人物模型,并借助现有配音文件自动为人物模型“对口型”“摆动作”。
官方研究报告指出,Audio2 photoreal 框架在接收到配音文件后,首先会生成一系列 NPC 模型,之后利用量化技术及扩散算法生成模型用动作,其中量化技术为框架提供动作样本参考、扩散算法用于改善框架生成的人物动作效果。
对照实验中有 43% 的评估者对框架生成的人物对话场景感到“强烈满意”,因此研究人员认为 Audio2 photoreal 框架相对于业界竞品能够生成“更具动态和表现力”的动作。据悉,研究团队目前已经在 GitHub 公开了相关代码和数据集。