阿里达摩院上线“文本生成视频大模型”
据《都市快报》消息,阿里达摩院昨日在魔搭社区(ModelScope)放出了“文本生成视频大模型”。根据官方介绍,目前这个模型,由文本特征提取、文本特征到视频隐空间扩散模型、视频隐空间到视频视觉空间这 3 个子网络组成,整体模型参数约 17 亿。支持英文输入。扩散模型采用 Unet3D 结构,通过从纯高斯噪声视频中,迭代去噪的过程,实现视频生成的功能。
此前 2 月消息,阿里版聊天机器人 ChatGPT 正在研发中,目前处于内测阶段。
Web3.0行业快讯更多 »
- 观点:印度尼西亚的选举结果可能有利于加密货币
- SBI 与 Ripple 合作建立基于 XRPL 构建的供应链金融解决方案
- NFT 集成协议 STYLE Protocol 完成 250 万美元种子轮融资,GBV Capital 等参投
- 6支香港虚拟资产现货ETF首日交易量约8750万港元
- 众安银行:即将推出零售虚拟资产交易
- 华夏基金CEO:香港加密ETF为人民币持有者打开另类投资大门
- UniSat:已支持诅咒铭文
- 币安合约将上线 ENA、ETHFI 和 1000BONK USDC 本位永续合约
- 香港证监会:认可虚拟资产现货ETF上市,不代表支持或鼓励大众投资
- 彭博社:若被下令监禁,CZ将成为史上在美联邦监狱服刑最富有人士