H.261
H.261ist ein im November 1988 von derITU-Tstandardisiertes Verfahren undDatenformatzur Kompression beziehungsweise Dekompression von digitalenVideosignalenim Echtzeiteinsatz. Ziel war, überISDN-Leitungen mit mehreren gebündeltenB-KanälenVideotelefonieoderVideokonferenzbetreiben zu können. H.261 war der erste gebräuchliche digitale Video-Kodierungs-Standard. Er hat heute keine nennenswerte Verwendung mehr.
Merkmale
[Bearbeiten|Quelltext bearbeiten]In H.261 wird eine maximale Verzögerungszeit für die Kompression und Dekompression von zusammen 150 ms festgelegt. H.261 kann nur progressiv eingelesene Bilder verarbeiten. Die Bilder werden als Luminanz (Y) und zwei Chrominanzkomponenten (Cr und Cb) kodiert, wobei die Chrominanzmatrizen ein Viertel der Größe der Luminanzmatrix besitzen (Farbunterabtastung4:2:0). Das Verfahren unterstützt dabei zwei Bildformate. Diese sindCIF- und QCIF-Video-Frames, die eine Luminanz-Auflösung von 352×288 beziehungsweise 176×144 haben. H.261 ist ebenfalls rückwärtskompatibel für Abbildungsgraphiken (Standbilder) mit einer Auflösung der Luminanz von 704×576.
Historisches
[Bearbeiten|Quelltext bearbeiten]Der Entwurf von H.261 war eine bahnbrechende Bemühung und alle folgenden internationalen Video-Kodierungs-Standards (MPEG-1,MPEG-2,H.262,H.263und auchH.264) basieren auf diesem Entwurf. Zusätzlich sind die Methoden, die vom H.261-Produktentwicklungsausschuss (geleitet von Sakae Okubo) verwendet werden, um den Standard gemeinschaftlich zu entwickeln, der grundlegende funktionierende Prozess für Normungsarbeiten auf diesem Gebiet.[1]Der H.261-Standard beschreibt die Kompression von Bildsequenzen für Videokonferenzen und Bildtelefonie und legt die Grundprinzipien der digitalen Bewegtbildübertragung und Datenkompression fest. Die Kompressionsraten liegen bei 100:1 bis 2.000:1. H.261 ist Teil vonH.320.
Technik
[Bearbeiten|Quelltext bearbeiten]Um Bilddaten auf die geringe Zielbandbreitezu reduzieren, wird als zentrales ElementDPCMverwendet. H.261 arbeitet nach dem 4:2:0-YCbCr-Farbmodell mit Intra-Frames und Predicted-Frames. Es hat eineJPEG-ähnliche Intra-Kodierung mit blockweiserDiskreter Kosinustransformation(DCT) und Entropiekodierung quantisierter DCT-Koeffizienten nachHuffmansowie pixelgenau bewegungskompensierte zeitliche Vorhersage für das jeweils nachfolgende Bild (vorwärtsgerichtet). Gegen hochfrequente Bildstörungen kann ein Filter innerhalb der Codec-Schleife eingesetzt werden, dessen Effekte damit auch in der Vorhersage berücksichtigt werden (in-loop filtering). Eine häufige Verwendung dieses Standards fand imMBonestatt, einem System zum Broadcasten von Videokonferenzen im Internet über einen Spannbaum von Kommunikationsleitungen an eine Menge von angemeldeten Benutzern.
Siehe auch
[Bearbeiten|Quelltext bearbeiten]- H.120,der erste digitale Video-Kodierungs-Standard
Literatur
[Bearbeiten|Quelltext bearbeiten]- Shahriar Akramullah:Video Coding Standards.In:Digital Video Concepts, Methods, and Metrics.Apress, 2014,ISBN 978-1-4302-6712-6,H.261,S.57–58,doi:10.1007/978-1-4302-6713-3_3(englisch,springer).
Weblinks
[Bearbeiten|Quelltext bearbeiten]- ITU-T:H.261: Video codec for audiovisual services at p x 384 kbit/s – Recommendation H.261 (11/88).1988,abgerufen am 21. Oktober 2010(englisch).
Einzelnachweise
[Bearbeiten|Quelltext bearbeiten]- ↑Sakae Okubo, „Reference model methodology – A tool for the collaborative creation of video coding standards “,Proceedings of the IEEE,Band 83, Nummer 2, Februar 1995, Seiten 139–150