瀏覽人次:【6466】
H.264之介紹
數位視訊的應用範圍日益廣泛,從影像電話和視訊會議到DVD和數位電視都能見到它的蹤跡,而且隨著以不同應用領域為目標的許多視訊編碼標準不斷出現,採用數位視訊的各種應用更有增加的趨勢;對於不同製造商所發展的不同系統,無論它們的應用領域為何,這些標準都讓它們得以相互操作,進而帶動整個視訊市場的成長。國際電信聯盟的電信標準化部門(International Telecommunications Union,Telecommunications Standardization Sector,ITU-T)是目前專門發展視訊編碼標準的兩個國際正式組織之一,另一個機構是國際標準化組織/國際電工委員會第一聯合技術委員會(International Standardization Organization/International Electrotechnical Commission,Joint Technical Committee 1;ISO/IEC JTC1)。ITU-T視訊編碼標準被稱為「規範」(recommendations),它們的名稱都採用H.26x,例如H.261、H.262、H.263以及H.264;ISO/IEC則採用MPEG-x做為標準名稱,例如MPEG-1、MPEG-2以及MPEG-4。
絕大多數的ITU-T規範都是針對即時視訊通訊應用,例如視訊會議和影像電話;另一方面,MPEG標準主要則是為了支援視訊儲存(DVD)、廣播視訊(有線電視、DSL和衛星電視)以及視訊串流(例如透過網際網路或是無線通訊來傳輸視訊)等各種應用。在絕大多數情形下,這兩個標準化委員會是獨立工作,各自發展不同的標準,唯一例外是H.262/MPEG-2標準,它是由這兩個單位共同發展。ITU-T和ISO/IEC JTC1最近又同意結合雙方力量,共同發展由ITU-T委員會首先提出的H.264標準;H.264又稱為MPEG-4 Part 10或是MPEG-4 AVC,這項標準能獲得兩個委員會採用,是因為它在效能上已經超越了目前所有的視訊編碼標準。(圖一)總結ITU-T規範和ISO/IEC MPEG標準的演進歷程。
《圖一 ITU-T規範和ISO/IEC MPEG標準的演進歷程》 |
H.264之概述
H.264計劃背後的主要目標是發展一種高效能的視訊編碼標準,方法則是從最基本原理出發,利用眾所熟悉的建構方塊,完成最簡單直接的設計。ITU-T的視訊編碼專家工作小組(Video Coding Experts Group;VCEG)是從1997年開始發展H.264標準;到了2001年底,ISO/IEC MPEG工作小組有鑑於H.264軟體所提供的視訊品質已經超過(現有的)最佳化MPEG-4軟體,因此決定與ITU-T VCEG攜手合作,組成一個聯合視訊工作小組(Joint Video Team;JVT),由它接管ITU-T的H.264計劃。JVT的目標是創造一套視訊編碼標準,並讓它同時成為MPEG-4標準的一部份(也就是Part-10)以及最新的ITU-T規範(也就是H.264)。H.264發展工作正積極進行中,這項標準的第一個版本預計在2003年初完成技術制定,並於2003年底前正式定案。
發展中的H.264標準有多項獨特優點,使它卓然不同於其它現有標準;另一方面,它也與現有標準分享許多共同特色。以下是H.264的部份重點:
(1)最多節省50%位元速率:相較於H.263v2(H.263+)或是MPEG-4 Simple Profile,在相同編碼器最佳化的條件下,以H.264最多可節省50%的位元速率。
(2)高品質視訊:無論位元速率的高低,H.264都提供穩定一致的良好視訊品質。
(3)抗錯性(error resilience):H.264提供多種必要工具,不但能處理封包網路的封包遺失,還能針對容易發生錯誤的無線網路,處理其中可能出現的位元錯誤。
(4)網路友善性:透過網路適應層(Network Adaptation Layer),H.264位元串流很容易就能在不同網路上傳輸。
上述優點使得H.264成為許多應用的理想標準,例如視訊會議和廣播視訊。
H.264技術說明
H.264標準的主要目標是提供一套方法,使得視訊品質超越現有視訊編碼標準所能達到的水準;另一方面,H.264的基本方法則類似於現有標準所採用的方法,例如H.263和MPEG-4,並且包含以下四個主要階段:
(1)把每個視訊圖框分割成多個像素區塊,使得視訊圖框的處理能夠在區塊層級上進行。
(2)利用視訊圖框內部的空間冗餘性,方法則是透過空間預測、轉換、量化以及熵編碼 (entropy-coding)或是可變長度編碼(variable-length coding)技術,對某些原始區塊進行編碼。
(3)利用區塊在連續圖框中的時間相關聯性(temporal dependencies),這樣就只需對連續圖框之間的變動部份進行編碼,這可藉由移動估算(motion estimation)和補償來達成。對於任何特定區塊,它會搜尋先前的一個或多個編碼圖框,或是下一個圖框,根據搜尋結果來決定移動向量,再由編碼器和解碼器利用這些向量來預測物件區塊。
(4)利用視訊圖框內剩餘的任何空間冗餘性,方法是對殘值區塊(residual blocks)進行編碼;殘值區塊是原始區塊和預測區塊之間的差值,編碼方式還是透過轉換、量化以及熵編碼技術。
《圖二 H.264編碼器方塊圖》 |
如(圖二)所示,透過一個編碼器方塊圖,從編碼的角度來總結H.264和其它標準間的主要差異;在移動估算/補償部份,H.264採用不同大小和形狀的區塊、解析度的更高1/4畫素移動估算(1/4-pel motion estimation)、多重參考圖框選擇以及複雜的多重雙向模式選擇。在轉換部份,H.264採用以整數為基礎的轉換方式,它像是既有標準所使用的離散餘弦轉換(Discrete Cosine Transform;DCT),但在逆向轉換時不會發生失配的問題。在新出現的H.264標準中,有兩種方法可以執行熵編碼,第一種方法是使用通用可變長度碼(Universal Variable Length Code;UVLC)表格和情境適應性可變長度碼 (Context Adaptive Variable Length Codes;CAVLC),並將它們用於係數轉換,第二種方法則是使用以情境為基礎的適應性二位元算術編碼(Context-based Adaptive Binary Arithmetic Coding;CABAC)。
位元流的組成方式
每格視訊畫面會被分割成多個較小的區塊,稱為巨集區塊(macroblock),例如(圖三)就把QCIF解析度(176(144)的畫面分割成99個16(16巨集區塊,其它大小的圖框也採用類似的巨集區塊分割方式。畫面亮度會在圖框解析度下進行取樣,色差訊號Cb和Cr的取樣率則會沿著水平和垂直方向減少兩倍;除此之外,每格畫面也可分割成整數個「切片」(slices),當某些資料遺失時,這些切片對於畫面再同步會有很大幫助。
《圖三 將QCIF畫面分割成16(16巨集區塊》 |
框內預測和編碼(Intra Prediction and Coding)
框內編碼只會利用視訊畫面內的空間冗餘性,所得到的圖框稱為I-畫面(I-picture),這種編碼方式通常是直接對圖框內的不同巨集方塊進行轉換,所以編碼後的I-畫面通常也會很大,因為圖框內會包含大量資訊,編碼過程也不會使用任何時間資訊。H.264為了提高框內編碼程序的執行效率,會利用圖框內相鄰巨集區塊之間的空間關聯性,這種想法源自於一個觀察結果:相鄰的巨集區塊通常都有類似的性質,可以根據環繞四週的巨集區塊來預測目標區塊(通常會選擇目標區塊上方和左邊的巨集區塊,因為這些區塊應已完成編碼),並以此做為巨集區塊編碼程序的第一步。接著則是對實際區塊和預測值之間的差異值進行編碼,相較於直接對巨集區塊進行轉換,這種方式只需要較少的位元數目,就能代表目標巨集區塊。
《圖四 4x4亮度區塊的框內預測模式》 |
為了執行上述的框內預測,H.264總共提供九種模式來預測4(4亮度區塊,包括直流預測 (模式2)以及八種方向性模式,如(圖四)所示,它們在圖中的編號是0、1、3、4、5、6、7和8,圖四即是說明這個程序,其中像素A至M來自相鄰區塊,並已完成編碼,可於預測過程中使用。舉例來說,若選擇使用模式0(垂直預測),它會依下列方式指定像素a到p的值:
●a、e、i和m等於A
● b、f、j和n等於B
● c、g、k和o等於C
● d、h、l和p等於D
如果選擇使用模式3(左下對角預測),則會依下列方式指定像素a到p的值:
●a等於(A + 2B + C + 2)/4
● b和e等於(B + 2C + D + 2)/4
● c、f和i等於(C + 2D + E + 2)/ 4
● d、g、j和m等於(D + 2E + F + 2)/4
● h、k和n等於(E + 2F + G + 2)/4
● l和o等於(F + 2G + H + 2/)4
● p等於(G + 3H + 2)/4
對於空間細節較少的區域(也就是平坦區),H.264也支援16(16框內預測,其中有四種預測模式可供選擇(直流、垂直、水平和平面),可以預測巨集區塊的整個亮度值;此外,H.264還支援8(8色度區塊的框內預測,並提供四種預測模式(直流、垂直、水平和平面)。最後,為了以更高效率對每個區塊的預測模式進行編碼,它會把較短的符號指定給出現機率較高的模式,每個模式的出現機率則是由週圍區塊編碼時所使用的預測模式來決定。
框間預測和編碼(Inter Prediction and Coding)
框間預測和編碼會使用移動估算和補償,它們會利用連續圖框之間的時間冗餘性,故能提供極高效率的視訊影片編碼。若利用前面已完成編碼的(一個或多個)圖框做為移動估算的參考圖框,接受編碼的圖框就稱為P-畫面(P-picture),或參考圖框包括(一個或多個)已編碼圖框和一個未來圖框,那麼目標圖框就稱為B-畫面(B-picture)。H.264的移動估算可以支援早期視訊標準所採用的絕大多數重要特色,它還會透過更強大的彈性和功能來改善運算效率。除了支援P-畫面(使用一個或多個參考圖框)以及B-畫面(使用多種預測模式),H.264還支援新的串流間轉移畫面(inter-stream transitional picture),稱為SP-畫面(SP-picture);把SP-畫面加入位元流後,不但能很有效率的在多個內容相似而編碼位元速率不同的位元流之間進行切換,還可以支援隨機存取和高速播放模式。
區塊大小
《圖五 H.264為移動估算提供的各種巨集區塊分割模式》 |
如(圖五)所示,我們可利用不同的區塊大小和形狀來執行每個16(16巨集區塊的移動補償。可以傳送個別移動向量的最小區塊為4(4,所以每個巨集區塊最多能傳送16個移動向量,從圖中可看出,獲得支援的區塊大小包括16(8、8(16、8(8、8(4以及4(8;整體來說,提供更小的移動補償區塊可以改善預測結果,特別是小區塊可以提高模型處理移動細節的能力,達成更良好的主觀視覺品質,因為它們不會像大區塊一樣產生假影雜訊 (artifacts)。
不但如此,透過最近獲得採用的樹狀結構分割法(tree structure segmentation method),就有可能在8( 8子區塊內使用4( 8、8 ( 4或是4 ( 4子區塊組合,(圖六)即是16 ( 16巨集區塊採用這類組合方式的範例。
《圖六 根據H.264的樹狀結構分割法來規劃巨集區塊內的子區塊》 |
移動估算的精準度
H.264可以利用高於現有標準的空間精準度來決定移動向量,進而改善移動補償演算法的預測能力;在H.264標準中,四分之一像素精準度的移動補償是精準度最低的移動補償(相形之下,既有標準大多採用半像素精準度,只有最新的MPEG-4標準才提供四分之一像素精準度)。
多重參考畫面選擇
H.264標準還提供選項,可於框間編碼過程中使用多個參考圖框,這樣不但能得到更良好的主觀視訊品質,目標視訊圖框的編碼也將更有效率;此外,採用多個參考圖框也會讓 H.264位元流具備更強大的抗錯性。另一方面,若從實作角度而言,採用多個參考圖框會影響編碼器和解碼器,使得處理作業的延遲時間更長,記憶體需求也更高。
消除區塊(迴路)濾波器
H.264指定使用一種適應性消除區塊濾波器(de-blocking filter),它會在預測迴路內對水平和垂直區塊邊緣進行處理,以便消除區塊預測誤差所造成的假影雜訊。這種濾波通常是以4×4區塊的邊界為運算基礎,邊界兩側各有兩個像素,可以利用不同的濾波器將它們更新。消除區塊濾波器的運用規則非常微妙複雜,它在每個切片(較寬鬆的定義是整數個巨集區塊)上面的使用卻是可選擇的;即便如此,主觀品質的改善程度通常都會使得複雜性的增加值回票價。
整數轉換
不論是框內預測或框間預測,預測誤差區塊中所包含的資訊最後都會以轉換係數的形式重新表示,H.264獨特之處在於它採用純整數空間轉換(類似於離散餘弦轉換),它的形狀主要是4(4區塊,而不是常見的浮點8(8離散餘弦轉換──早期標準會利用捨入誤差容忍範圍來定義此轉換。小區塊有助於減少塊狀和環狀假影雜訊,高精準度的整數轉換則能消除逆轉換過程中,編碼器和譯碼器之間的失配問題。
量化和轉換係數掃描
資料壓縮有很大部份是在量化步驟完成。H.264是採用無擴展死區(no widened dead-zone)的純量量化方式來執行轉換係數的量化,針對個別巨集區塊,還有52種不同的量化步階(step sizes)可供選擇--這與以前的標準並不相同(例如H.263僅支援31種);除此之外,在H.264標準裡,量化步階大約是以12.5%的複合速率增加,而不是每次都增加某個固定量。相較於亮度係數所用的量化步階,色差訊號會使用更小的量化步階,以便改善它們的傳真度,特別是當亮度係數的量化很粗糙時。
《圖七 H.264為圖框編碼所提供的掃描圖案(scan pattern)》 |
量化後的轉換係數對應於各種不同頻率,如(圖七)所示,左上角的係數就代表直流值,其它係數則代表各種非零的頻率值。編碼程序的下個步驟就是將量化後係數排成陣列,直流係數排在最前面。H.264已提供一個係數掃描圖案圖七給圖框編碼使用,目前還在增加另一個係數掃描圖案,可用於圖場編碼(field coding)。圖七描繪的鋸齒狀掃描可用於所有的圖框編碼方式,它和早期視訊編碼標準使用的傳統掃描方式完全相同,鋸齒狀掃描會根據頻率上升順序來安排對應的係數值。
熵編碼(Entropy Coding)
視訊編碼程序的最後一個步驟是熵編碼,它的基本原理是為出現機率較高的符號指定較短的字碼(codeword),然後把較長的字碼指定給較少出現的符號。採用熵編碼的部份參數包括殘值資料(residual data)的轉換係數、移動向量和其它的編碼器資訊。目前已有兩種熵編碼方法獲得採用,第一種方法是通用可變長度碼(UVLC)以及情境適應性可變長度碼(CAVLC)的組合,第二種方法則是採用以情境為基礎的適應性二位元算術編碼 (CABAC)。
UVLC/CAVLC
某些視訊編碼標準會把符號以及相關字碼安排成多個查詢表,這些查詢表又稱為可變長度編碼(Variable Length Coding;VLC)表格,它們會同時儲存在編碼器和解碼器裡面。隨著目標資料的型態不同(例如轉換係數或移動向量),H.263會使用多個不同的可變長度編碼表;H.263還提供一個通用可變長度編碼(Universal VLC;UVLC)表格,可用來對編碼器內的所有符號進行熵編碼──除了轉換係數以外。雖然使用一個通用可變長度編碼表很簡單,但它卻有項重大缺點:這個表格通常是利用靜態機率分佈模型推導而得,因此會忽略編碼器符號之間的關聯性。
在H.264標準當中,轉換係數的編碼是使用情境適應性可變長度編碼(CAVLC),它是專門設計來利用已量化4(4區塊的多項特性。首先,鋸齒狀掃描結束時的非零係數通常會等於±1,CAVLC會以很精簡的方式對這些係數(尾隨的1值)的數目進行編碼;其次,CAVLC還採用run-level編碼方式,可以很有效率的代表已量化4(4區塊中的零值字串。此外,相鄰區塊內的非零係數數目通常都會互相關,因此在對非零係數的數目進行編碼時,就會使用與相鄰區塊內非零係數數目有關的查詢表。最後,越接近直流係數的非零係數,它們的振幅(位準)就越大,高頻係數附近的非零係數就較小,CAVLC會利用這項特性,在為該位準選擇VLC查詢表時,以最新編碼的位準做為選擇參考。
H.264 Profiles
到目前為止,已有三個Profiles獲得同意:Baseline Profile,主要用於視訊會議以及電話和行動應用;Main Profile,主要用於廣播視訊應用;以及X Profile,主要用於串流和行動視訊應用。
《圖八 Baseline Profile和Main Profile的特色》 |
(圖八)是Baseline Profile以及Main Profile的共同特色以及他們各自獨有的其它特色,Baseline Profile允許使用任意切片順序(Arbitrary Slice Ordering;ASO)來減少即時通訊應用的延遲時間,它還允許使用彈性巨集區塊順序(Flexible Macroblock Ordering;FMO)以及冗餘切片,以提高編碼位元流的抗錯性。Main Profile則能透過更先進的雙向預測(B-畫面)、CABAC和加權預測等方式,使得所需頻寬少於Baseline Profile。
Baseline Profile
任意切片順序(Arbitrary Slice Ordering)
利用任意切片順序功能,無論切片以任何順序抵達,解碼器都能處理這些切片;此項功能使得解碼器不必等到所有切片都安排妥當,就能先行處理所收到的切片。這能減少解碼器的處理作業延遲時間,使得即時視訊通訊應用的總延遲時間變得更短。
彈性巨集區塊順序(Flexible Macroblock Ordering;FMO)
特定圖框內的巨集區塊通常都是按照逐行掃描(raster scan)順序進行編碼,FMO則能根據巨集區塊配置圖執行巨集區塊編碼,這個配置圖會將圖框內屬於同一個切片、但是空間位置不同的所有巨集區塊集合在一起。這種安排可以增強編碼位元流的抗錯性,因為它能減少資料間的互關聯性──如果對圖框內彼此相鄰的巨集區塊進行編碼,這種資料間的互關聯性就會存在。如果發生封包遺失的現象,資料損失也會分散至整個畫面,使得它們的隱藏更容易。
冗餘切片
冗餘切片功能可在容易發生錯誤的網路上重複傳送相同切片,讓接收端有更高機率收到沒有錯誤的正確切片。
Main Profile
B-畫面
相較於P-畫面,B-畫面提供更大的壓縮優勢,因為它能替每個巨集區塊提供更多的預測模式。此處是將兩個參考區塊的取樣值平均,再將所得結果做為預測值;在絕大多數情形下,其中一個參考區塊的時間會在目前畫面之前,另一個區塊則在它之後,但這並不是強制要求。除此之外,它還支援「直接模式」預測,這種方法會在相鄰的參考圖框中找出同樣位置的巨集區塊,然後根據這個巨集區塊在編碼時所使用的移動向量,利用內插法來計算目標巨集區塊的移動向量,因此它不必傳送任何移動資訊。透過支援許多種的預測模式,預測精準度將獲得改善,位元速率通常也能節省5~10%。
加權預測(weighted prediction)
它能利用一個全域乘數(global multiplier)以及全域位移值(global offset),修改完成移動補償的取樣亮度,這些乘數和位移值可直接傳送,也能透過隱含方法推導產生。使用乘數和位移值是為了減少預測殘值,這些殘值有許多可能來源,例如全域亮度的改變;對於包含淡出(fades)、光源改變和其它特殊效果的視訊影片,減少預測殘值可以提高它們的編碼效率。
情境適應性可變長度編碼(CABAC)
CABAC利用編碼器和解碼器的機率模型來處理所有語法元素(syntax elements),包括轉換係數、移動向量和其它。為了提高算術編碼的編碼效率,它所使用的基礎機率模型會透過情境模型分析(context modeling)程序,來適應視訊圖框內不斷改變的統計特性。
情境模型分析提供編碼符號的條件機率估算值,只要利用適當的情境模型,就能根據待編碼符號週圍的已編碼符號,在不同的機率模型間進行切換,進而充份利用符號間的冗餘性。相較於VLC熵編碼方法(UVLC/CAVLC),CABAC能多節省10%位元速率,而這絕大部份都要歸功於情境模型分析技術。
應用範例:視訊會議
在全世界各地,視訊會議系統正成為日益有用的工具,不但提供低成本而高效率的通訊方式,還能減少支出,提高生產力。視訊會議系統幾乎都用於企業環境,它能交換音訊和視訊資訊,又能做為協作工具,使它成為極具吸引力的商業旅行替代方案。
視訊會議產業:挑戰
要讓視訊成為視訊會議應用的一部份,就頻寬和品質角度而言會牽涉到許多挑戰,以下將對這些問題進行討論。
●有效率的頻寬利用:配置給典型視訊會議使用的頻寬當中,絕大多數都會被傳輸資料的視訊部份所佔用,因此在維持適當視訊品質的前題下,若能減少所需的視訊頻寬,即可帶來多項好處,例如讓更多人參與視訊會議,並且在會議期間交換更多資料。不但如此,視訊會議應用還必須在低位元速率下執行,這項事實讓最有效視訊壓縮工具的使用更為重要,因為這樣才能在視訊會議的低速率下,繼續維持良好的視訊品質。
●處理作業的延遲時間很短:必須把資料處理和傳輸的延遲時間減到最短,讓解碼視訊仍擁有高畫質,這是很重要的一點;編碼器若造成很長的處理作業延遲時間,重建完成的視訊影片看起來就很不流暢。總延遲時間等於編碼、網路和解碼延遲時間的總和,在即時互動應用中,如果來回時間超過250毫秒,使用者就會察覺到某些令人不愉快的延遲現象。為了將延遲時間減至最少,關鍵是讓編碼器和解碼器都只有很小的處理作業延遲時間。
●更良好的視訊品質:會議應用的視訊品質會受到多項因素的負面衝擊,包括來源視訊的雜訊和亮度改變、視訊重建後出現尾隨假影(trailing artifacts)以及網路封包的遺失。
●前處理(Pre-processing):無論是視訊圖框出現雜訊,或是前後連續的視訊圖框出現亮度改變情形,它們都會使得框間編碼程序的效率大幅降低,因此必須加入前處理工具,使得雜訊和亮度改變對於視訊品質的影響減至最小。
●避免尾隨假影:尾隨假影看起來像是許多雜點,尾隨著移動中的物體,低位元速率時尤其容易察覺,因此必須偵測以及消除(或至少降低)這類的假影雜訊。
●抗錯性:視訊編碼器產生的壓縮位元流首先會被分割成固定或可變長度封包,與音訊或其它類型的資料多工在一起,然後透過網路傳送。受到網路擁擠或實體通道損壞的影響,封包在網路傳輸過程中可能會遺失或是毀損,導致音訊和視訊資料出現失真。因此,通常都必須在編碼器中採用抗錯性工具,確保能對傳輸錯誤提供最起碼的抗錯能力。
應用範例:廣播視訊
廣播視訊應用正經歷轉換階段,越來越多內容的產生和供應都是透過數位格式,而不是傳統類比格式,廣播產業的服務供應商也面臨前所未有的觀眾爭奪戰。這個領域過去是由有線電視業者所獨家掌控,但是衛星和DSL公司現在也開始爭奪同樣客戶;面對著激烈競爭的市場態勢,服務供應商被迫發展新方法,以便將他們的服務內容差異化,同時採用新解決方案來產生和提供數位視訊。
廣播視訊產業:挑戰
數位廣播視訊服務供應商必須克服許多重大技術障礙,才能在市場上推出獨特不同的服務內容。就視訊編碼的角度而言,這個產業必須解決三項主要的挑戰,分別是有效率的頻寬利用、確保很高的再生視訊品質、以及提供低成本的嵌入式解碼器解決方案。另一項挑戰來自H.264 Main Profile標準,雖然這項標準可以改善頻寬和品質之間的取捨,但它目前卻仍未定案,而且未來幾個月內還可能被大幅修改。以下將詳細討論前述的四項挑戰。
●有效率的頻寬利用:對於服務供應商來說,既定傳輸頻寬所能容納的通道數目是項關鍵區隔要素,因為它會對營收總額造成影響。對於不同的服務供應商,無論他們是透過有線電視、衛星或DSL提供服務,只要傳輸頻寬的利用更有效率,就等於是為客戶提供更多的可用通道或是額外服務,使得服務供應商的服務內容獲得進一步加強。對於某些廣播視訊應用,例如透過DSL線路傳輸視訊(video over DSL),可用頻寬早已非常有限,這意味著它們更需要節省頻寬。但無論要如何節省數位視訊廣播的可用頻寬,都不能以視訊品質做為代價,因為客戶期望這些服務提供他們過去曾經擁有的廣播視訊品質,或許還要更好,因此唯一解決方案就是使用最有效的壓縮工具。
●廣播視訊品質:觀眾習慣DVD播放機的超高畫質後,將無法接受品質低於這個水準的任何廣播視訊,因此要在有限通道頻寬下(也就是1.5 Mbps的DSL通道)提供標準畫質解析度(720(480)的廣播視訊品質,這將是相當大的挑戰,特別是視訊內容包含大量動作畫面、場景變換、淡出(fades)以及溶鏡(dissolves)時更是如此。除此之外,對於絕大多數的廣播視訊應用,空間和時間雜訊將會對視訊品質造成很大影響,它們通常會產生令人不愉快的假影雜訊,例如輪廓浮凸(contouring)以及塊狀現象(blocking),這在高亮度部份尤其明顯。因此要確保高階視訊品質,就必須對來源視訊進行前處理,預先將這些雜訊消除。
●解碼器複雜性:H.264標準比先前的任何視訊編碼標準都複雜許多,例如移動補償就使用七種區塊大小,從16(16往下到4(4,因此H.264解碼器的運算和記憶體需求必然會更為嚴格。任何解碼器都應能處理所有的「合法」位元流(也就是在最惡劣條件下),這使得解碼器的實作更加複雜。此外,嵌入式解碼器的實作也是項困難挑戰,因為它的內部記憶體容量非常有限;舉例來說,對於使用雙向預測技術進行編碼的巨集區塊,當解碼器要對它們執行移動補償時,必須利用目標畫面之前和之後的多個參考圖框,但為了傳送移動補償所要求的巨集方塊,解碼器的作業卻可能受到拖累,因為記憶體資料傳輸可能需要過多的週期時間。
●H.264 Main Profile狀態:H.264雖處於發展過程的最後階段,但這項標準仍有可能被修改,特別是在Main Profile獨有的功能特色部份。因此廣播基礎設施公司通常雖然都要求硬體解決方案,但現在也開始尋找完全可程式的解決方案,以便迅速支援不斷演進的標準。(作者任職於UB Video)
|