北京经开区融媒体中心启用融合DeepSeek-R1和DeepSeek Janus Pro的BlackEye多模态视听大模型

近日,北京经济技术开发区融媒体中心在当虹科技的技术支持下,正式启用了融合DeepSeek-R1和DeepSeek Janus Pro的BlackEye多模态视听大模型。这一举措标志着该中心率先开启了“DeepSeek+视听+行业端侧”的大模型应用,为新闻生产注入了全新动能。
该多模态视听大模型通过融合DeepSeek-R1的强大模型推理能力和DeepSeek Janus Pro的多模态处理技术,能够实现文本、图像、视音频、三维模型等多种模态的编码、解码和生成。这使得不同模态信息之间的推理和预测生成成为可能,显著提升了传媒文化领域内容生产、审核、推荐和用户体验等方面的效率与质量。
北京经开区融媒体中心的记者和编辑们表示,有了这位“赛博同事”,内容生产的质量和效率正在飞速提升。例如,仅需几十秒,就可快速生成一段高精度视频,大大节省了视频生产的时间和成本。此外,功能全面的智能横转竖、智能慢动作、智能抠像等技术也为视频业务带来了极大便利。
据悉,该大模型在当虹科技BlackEye多模态视听大模型融合DeepSeek-R1和DeepSeek Janus Pro的基础上,完成了视听传媒垂直场景的数据调优训练。通过文本、图像、视音频、三维模型等多种模态的编码、解码、多模态潜空间对齐、多模态语言推理及生成等技术,实现了不同模态信息之间的推理和预测生成。
目前,该多模态视听大模型可以生成电影、连环画、3D卡通等八种风格的2K视频,并可通过AI超分算法进一步提升至4K。同时,为了适应手机竖屏观看需求,还可将横屏视频智能转化为竖屏,AI横竖屏同步制作效率大幅提升。
北京经开区融媒体中心有关负责人表示,多模态视听大模型的应用,标志着该中心在AI技术应用领域迈出了关键一步。未来,中心将持续借助AI技术能力,进一步加大在新闻挖掘、内容创作、新闻分发、用户互动等领域的应用力度,积极探索AI技术在媒体行业的创新应用场景,为用户提供更丰富、更优质、更智能的新闻服务,引领区级融媒体中心在新时代的智能化发展浪潮。