(資料圖)
近日,在第二屆全球媒體創(chuàng)新論壇上,上海人工智能實(shí)驗(yàn)室、央廣電視總臺(tái)聯(lián)合發(fā)布“央視聽媒體大模型”。
據(jù)新民晚報(bào)報(bào)道,本次發(fā)布的央視聽大模型為首個(gè)專注于視聽媒體內(nèi)容生產(chǎn)的AI大模型,集合了央廣電視總臺(tái)的海量視聽數(shù)據(jù)與上海AI實(shí)驗(yàn)室的原創(chuàng)先進(jìn)算法、大模型訓(xùn)練基礎(chǔ)設(shè)施優(yōu)勢(shì)?;凇皶ㄓ么竽P腕w系”,央視聽大模型將拓展視聽媒體的創(chuàng)意空間、提高創(chuàng)作效率并帶來交互方式的變革。
據(jù)悉,以大模型的多模態(tài)理解、交互和生成能力為基礎(chǔ),媒體工作者將來有望在“聊天”中完成工作。目前,央視聽大模型具備了強(qiáng)大的視頻理解能力和視聽媒體問答能力,AI相當(dāng)于擁有了感知真實(shí)世界的“眼睛”和“耳朵”。
同時(shí),央視聽大模型可根據(jù)提供的視頻,創(chuàng)作諸如主持詞、新聞稿件,甚至詩歌等文字。媒體編輯可在大模型的協(xié)助下,一鍵為視頻生成風(fēng)格各異的解說詞,當(dāng)前生成內(nèi)容已覆蓋美食、文化和科技等多個(gè)領(lǐng)域。
央視聽大模型可通過逐步呈現(xiàn)的視覺元素,理解并分析視頻。用戶通過與AI聊天對(duì)話的形式,深挖視頻蘊(yùn)含信息,進(jìn)一步完善輸出的內(nèi)容——當(dāng)它“看”到央視節(jié)目《中國(guó)詩詞大會(huì)》中“看圖猜詩詞”環(huán)節(jié)視頻,便可理解視頻內(nèi)容并生成出李白的《望廬山瀑布》。
央視聽大模型還為用戶提供了強(qiáng)大的交互式圖像、視頻編輯與創(chuàng)作能力,使得新的內(nèi)容生產(chǎn)方式變成可能。在央視聽大模型的界面中,用戶僅需使用簡(jiǎn)單的光標(biāo)和文字指令,即可快速修改或編輯圖像,實(shí)現(xiàn)“指哪改哪,畫隨口出”。
上海人工智能實(shí)驗(yàn)室科研團(tuán)隊(duì)介紹,央視聽大模型具備的視覺理解能力,源于跨模態(tài)互動(dòng)技術(shù)的最新突破,將圖像/視頻視為另一種“語言”,并將視覺與語言對(duì)齊,降低人工智能視覺任務(wù)的門檻?;趯?duì)多模態(tài)數(shù)據(jù)的建模,央視聽大模型可感知圖像的風(fēng)格與紋理筆觸,通過將用戶輸入的文本指令與圖像對(duì)齊,實(shí)現(xiàn)按照用戶需求生成畫面及風(fēng)格一致的其他內(nèi)容。
除了視頻內(nèi)容,央視聽大模型還具備快速生成“數(shù)字人主播”的能力。使用較短的真人采集視頻即可生成對(duì)應(yīng)的數(shù)字人。AI生成的數(shù)字人主播以“真人”形象呈現(xiàn),不僅能根據(jù)既定文案和背景場(chǎng)景快速生成播報(bào)視頻,還可自動(dòng)學(xué)習(xí)真人的語言及動(dòng)作習(xí)慣,做到形象更逼真,表情更自然。
責(zé)任編輯:胡笑柯
分享到:版權(quán)聲明:凡注明來源“流媒體網(wǎng)”的文章,版權(quán)均屬流媒體網(wǎng)所有,轉(zhuǎn)載需注明出處。非本站出處的文章為轉(zhuǎn)載,觀點(diǎn)供業(yè)內(nèi)參考,不代表本站觀點(diǎn)。文中圖片均來源于網(wǎng)絡(luò)收集整理,僅供學(xué)習(xí)交流,版權(quán)歸原作者所有。如涉及侵權(quán),請(qǐng)及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: