7月31日消息,据GitHub页面显示,阿里达摩院近日宣布与大连理工大学合作,推出一款名为HQTrack的AI框架。
该框架主要由视频多目标分割器(VMOS)和掩模优化器(MR)组成,旨在“实现对视频中任何目标的高质量跟踪”。研究团队表示,HQTrack基于开源框架DeAOT、HQ-SAM,在此之上进行了一定改进,实现了“在视频中分割各目标”的可能性。
截自微博
同时,研究团队使用Intern-T作为特征提取器,提高框架对不同类型物体的区分能力,同时加入了一个门控传播模块(GPM),以便于框架在复杂环境中感知更多微小物体,生成高质量的即时目标遮罩。
据悉,在VOTS2023竞赛中,HQTrack以0.615的质量得分获得第二名,研究团队表示,该 AI 框架可以应用于人脸识别、智能驾驶、监控追踪等领域,并有望在未来商业应用中落地。
图源:HQTrack的GitHub页面
值得一提的是,阿里云近日在国内率先推出针对Llama2全系列版本的训练和部署方案。官方表示,欢迎所有开发者来阿里云上打造专属大模型。
近日,Llama2大语言模型宣布开源,覆盖70亿、130亿及700亿参数版本。Llama2可免费用于研究场景和月活7亿用户以下的商业场景,为企业和开发者提供了大模型研究的新工具。然而,对Llama2的再训练和部署仍存在较高门槛,尤其是针对效果更胜一筹的大尺寸版本。
截自阿里云官网
为方便开发者群体,阿里云机器学习平台PAI在国内率先对Llama2系列模型进行深度适配,推出了轻量级微调、全参数微调、推理服务等场景的最佳实践方案,助力开发者快速基于Llama2进行再训练,搭建自己的专属大模型。
阿里云牵头发起的AI模型社区魔搭ModelScope,第一时间上架了Llama2系列模型。开发者可在魔搭社区Llama2模型页面点击“Notebook快速开发”,一键拉起阿里云机器学习平台PAI,对模型进行云上开发和部署;在其他平台下载的Llama2模型,也可使用阿里云PAI进行开发。