H.261

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

H.261ist ein im November 1988 von derITU-Tstandardisiertes Verfahren undDatenformatzur Kompression beziehungsweise Dekompression von digitalenVideosignalenim Echtzeiteinsatz. Ziel war, überISDN-Leitungen mit mehreren gebündeltenB-KanälenVideotelefonieoderVideokonferenzbetreiben zu können. H.261 war der erste gebräuchliche digitale Video-Kodierungs-Standard. Er hat heute keine nennenswerte Verwendung mehr.

Datenformat eines Einzelbildes

In H.261 wird eine maximale Verzögerungszeit für die Kompression und Dekompression von zusammen 150 ms festgelegt. H.261 kann nur progressiv eingelesene Bilder verarbeiten. Die Bilder werden als Luminanz (Y) und zwei Chrominanzkomponenten (Cr und Cb) kodiert, wobei die Chrominanzmatrizen ein Viertel der Größe der Luminanzmatrix besitzen (Farbunterabtastung4:2:0). Das Verfahren unterstützt dabei zwei Bildformate. Diese sindCIF- und QCIF-Video-Frames, die eine Luminanz-Auflösung von 352×288 beziehungsweise 176×144 haben. H.261 ist ebenfalls rückwärtskompatibel für Abbildungsgraphiken (Standbilder) mit einer Auflösung der Luminanz von 704×576.

Der Entwurf von H.261 war eine bahnbrechende Bemühung und alle folgenden internationalen Video-Kodierungs-Standards (MPEG-1,MPEG-2,H.262,H.263und auchH.264) basieren auf diesem Entwurf. Zusätzlich sind die Methoden, die vom H.261-Produktentwicklungsausschuss (geleitet von Sakae Okubo) verwendet werden, um den Standard gemeinschaftlich zu entwickeln, der grundlegende funktionierende Prozess für Normungsarbeiten auf diesem Gebiet.[1]Der H.261-Standard beschreibt die Kompression von Bildsequenzen für Videokonferenzen und Bildtelefonie und legt die Grundprinzipien der digitalen Bewegtbildübertragung und Datenkompression fest. Die Kompressionsraten liegen bei 100:1 bis 2.000:1. H.261 ist Teil vonH.320.

Um Bilddaten auf die geringe Zielbandbreitezu reduzieren, wird als zentrales ElementDPCMverwendet. H.261 arbeitet nach dem 4:2:0-YCbCr-Farbmodell mit Intra-Frames und Predicted-Frames. Es hat eineJPEG-ähnliche Intra-Kodierung mit blockweiserDiskreter Kosinustransformation(DCT) und Entropiekodierung quantisierter DCT-Koeffizienten nachHuffmansowie pixelgenau bewegungskompensierte zeitliche Vorhersage für das jeweils nachfolgende Bild (vorwärtsgerichtet). Gegen hochfrequente Bildstörungen kann ein Filter innerhalb der Codec-Schleife eingesetzt werden, dessen Effekte damit auch in der Vorhersage berücksichtigt werden (in-loop filtering). Eine häufige Verwendung dieses Standards fand imMBonestatt, einem System zum Broadcasten von Videokonferenzen im Internet über einen Spannbaum von Kommunikationsleitungen an eine Menge von angemeldeten Benutzern.

  • H.120,der erste digitale Video-Kodierungs-Standard
  1. Sakae Okubo, „Reference model methodology – A tool for the collaborative creation of video coding standards “,Proceedings of the IEEE,Band 83, Nummer 2, Februar 1995, Seiten 139–150