相信刷过抖音的同学都知道,某些视频都是采用高帧率慢动作解析呈现给大家观看。而当前市面上支持高帧率慢动作视频的旗舰手机越来越多,但是应用起来受到很多限制。其中主要分为3个主要点,分别是时长、分辨率和帧速率。同时,在慢速播放时,软件会试图补充帧数导致画面移动不自然。而近日,英伟达公司在人工智能技术的支持下开发出一种将普通视频以慢镜头的方式呈现给观众的新技术。
英伟达携手马萨诸塞州大学和加利福尼亚大学的研究人员,打造出该种技术,该技术可以将任何视频转换为慢动作,且不会牺牲播放的平滑度。其依赖于两个卷积神经网络,让它们协同工作,进而确定物体在框架和帧面间的移动位置。
据了解,研究人员们借助Nvidia Tesla V100 GPU和cuDNN加速的PyTorch深度学习框架,用了11000段240FPS视频对该项技术系统进行"特训",最终实现功能,补充慢动作视频中缺失的帧。
目前该技术还未完全成熟,想要进一步发展需要AI功能的更强大发展,进而实现AI慢放,尽管该技术有一定的前景,但英伟达公司仍需大量的优化才能让系统完美运行。
留言与评论(共有 0 条评论) |