時間:2021-08-09 01:10:37來源:中國傳動網
轉載自《集成技術》
視頻數據爆炸式增長給存儲和傳輸帶來了巨大的壓力和挑戰(zhàn),這迫切地需要快速、高效的視頻編碼方案。而下一代視頻編碼方法仍是采用憑統(tǒng)計經驗手工設計預測函數的編碼方案, 在一定程度上限制了編碼性能的提升。如何使用先進的學習工具在給定帶寬的條件下最大化視頻質量、提高壓縮效率成為了未來智能視頻編碼優(yōu)化的關鍵問題。該文從計算機視覺和人工智能的角度出發(fā),將視頻編碼中的色度預測問題模型化為計算機視覺中的圖像上色問題,以進一步消除顏色通道之間的冗余?;诰矸e神經網絡的色度預測包含兩個子網絡:亮度下采樣和色度預測。采用線性模型結果作為色度初始化以增強性能,采用量化參數來表征編碼失真消除壓縮噪聲影響。在編碼器設計過程中,為了取得更好的編碼性能,該文利用率失真優(yōu)化方法從傳統(tǒng)色度預測方法和所提出的方法中選擇代價最小的預測策略。
結果顯示,與現有傳統(tǒng)方法相比,該文方法在 Y、U、V 分量分別可以節(jié)省 4.28%、3.34% 和 4.63% 的網絡帶寬。
針對現有視頻編碼模塊中的局限性問題,從計算機視覺和人工智能的角度出發(fā),實現了由信號處理領域問題向人工智能領域問題的轉變,以海量視頻 / 圖像數據為基礎,研究結合神經網絡模型的視頻編碼方法,最終實現智能視頻編碼優(yōu)化理論與方法的創(chuàng)新,預期成果能應用于下一代視頻編碼標準及視頻壓縮的相關領域。
色度預測性能對比 ( 需要預測的塊位于右下角 )
上一篇:【四方電氣】四方產品在自動...
中國傳動網版權與免責聲明:凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.wangxinlc.cn)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。
本網轉載并注明其他來源的稿件,均來自互聯網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。
產品新聞
更多>2025-04-30
性能躍升20%!維宏NK300CX Plus數控系統(tǒng)...
2025-04-11
2025-04-08
2025-03-31
應用案例 | 使用宏集TELE監(jiān)控繼電器監(jiān)控...
2025-03-26
2025-03-20