Td corrigé PROYECTO DE NUEVA RECOMENDACIÓN UIT-R BT.1683 ... - ITU pdf

PROYECTO DE NUEVA RECOMENDACIÓN UIT-R BT.1683 ... - ITU






part of the document



uación subjetiva,
recomienda
1 se utilicen las directrices, objeto y restricciones que figuran en el Anexo 1 al aplicar los modelos de calidad de vídeo objetiva que figuran en los Anexos 25;
2 se utilicen los modelos de calidad de vídeo objetiva de los Anexos 25 para la medición objetiva de la calidad de vídeo percibida.

Anexo 1
Resumen
En la presente Recomendación se especifican métodos para estimar la calidad de vídeo percibida de un sistema de transmisión de vídeo unidireccional. Esta Recomendación es aplicable a las señales en banda base. Los métodos de estimación de esta Recomendación son aplicables a:
– la evaluación, especificación y pruebas de aceptación de códecs;
– la supervisión potencial de la calidad en servicio, en tiempo real, en la fuente;
– la supervisión remota de la calidad del destino cuando hay disponible una copia de la fuente;
– la medición de la calidad de un sistema de almacenamiento de vídeo o de un sistema digital que utilice técnicas de compresión y descompresión de vídeo, ya sea en un solo paso o mediante una combinación de estas técnicas.
Introducción
La capacidad de medir automáticamente la calidad del vídeo de radiodifusión se ha considerado desde hace tiempo de enorme interés para la industria. La industria de la radiodifusión necesita que estos instrumentos sustituyan o complementen las costosas y lentas pruebas de la calidad subjetiva. Tradicionalmente, las mediciones de la calidad objetiva se han obtenido mediante cálculo de la relación señal/ruido de cresta (PSNR). A pesar de su utilidad como indicador de la calidad, se ha demostrado que la PSNR es una representación poco satisfactoria de la calidad perceptual. Para superar las limitaciones asociadas a la PSNR, se han llevado a cabo investigaciones para definir algoritmos que permitan medir la calidad perceptual del vídeo de radiodifusión. Estos instrumentos de medición de la calidad perceptual objetiva pueden aplicarse a las pruebas de calidad de funcionamiento de una red de radiodifusión, como ayuda en la adquisición de equipos y para el desarrollo de nuevas técnicas de codificación del video de radiodifusión. En estos últimos años se han dedicado ingentes esfuerzos al desarrollo de instrumentos fiables y precisos que puedan utilizarse para medir con objetividad la calidad perceptual del vídeo de radiodifusión. En la presente Recomendación se definen modelos computacionales objetivos que han demostrado ser mejores que la PSNR como instrumentos de medida automáticos para la evaluación de la calidad del vídeo de radiodifusión. Estos modelos se probaron con material de 525 líneas y de 625 líneas conforme con la Recomendación UITR BT.601, característico de la distribución secundaria de vídeo de calidad de televisión con codificación digital.
La calidad de funcionamiento de los modelos de calidad perceptual se determinó mediante dos evaluaciones paralelas de material de vídeo de prueba. En la primera evaluación se utilizó el método de doble estímulo con escala de calidad continua (DSCQS) subjetivo estándar para obtener los índices subjetivos de la calidad del material de vídeo determinados por equipos de observadores (Recomendación UITR BT.500 – Metodología para la evaluación subjetiva de la calidad de las imágenes de televisión). En la segunda evaluación, se obtuvieron los índices objetivos a partir de modelos computacionales objetivos. Para cada modelo se computaron varias métricas a fin de medir la precisión y coherencia con la que los índices objetivos predecían los subjetivos. La parte de la prueba correspondiente a la evaluación subjetiva se llevó a cabo en tres laboratorios independientes. Dos de éstos, Communications Research Center (CRC, Canadá) y Verizon (Estados Unidos de América), realizaron la prueba utilizando secuencias de 525/60 Hz, mientras que el tercero, Fondazione Ugo Bordoni (FUB, Italia), realizó la prueba utilizando secuencias de 625/50 Hz. Varios laboratorios «proponentes» elaboraron modelos computacionales objetivos de la calidad de vídeo a partir de las mismas secuencias de vídeo ensayadas con observadores humanos por CRC, Verizon y FUB. Los resultados de las pruebas se presentan en el Apéndice 1.
La presente Recomendación contiene los modelos computacionales objetivos relacionados en el Cuadro 1.
En los Anexos 25 se facilita una descripción completa de los cuatro modelos computacionales objetivos citados.
Pueden seguir utilizándose los equipos de prueba de la calidad de vídeo existentes mientras no se disponga de equipos de prueba que implementen alguno de los cuatro modelos anteriores.

CUADRO 1
Número del modeloNombreProponente del Grupo de Expertos en Calidad de Vídeo (VQEG)PaísAnexo1British TelecomDReino Unido22Yonsei University/Radio Research Laboratory/SK TelecomECorea (Rep. de)33Centro de Investigación y Desarrollo en Telecomunicaciones (CPqD)FBrasil44National Telecommunications and Information Administration (NTIA)/Institute for Telecommunication Sciences (ITS)HEstados Unidos de América5
Para que un modelo pueda considerarse incluido en la sección normativa de la presente Recomendación en el futuro, debe ser verificado por un organismo abierto e independiente (tal como el VQEG) que realice su evaluación técnica con sujeción a las directrices y criterios de calidad de funcionamiento establecidos por la Comisión de Estudio 6 de Radiocomunicaciones. La intención de la Comisión de Estudio 6 de Radiocomunicaciones es recomendar, finalmente, un único método de referencia normativa completa.
1 Objeto
En esta Recomendación se especifican métodos para estimar la calidad de vídeo percibida de un sistema de vídeo unidireccional. Esta Recomendación es aplicable a las señales en banda base. Los estimadores de la calidad de funcionamiento objetiva de vídeo se definen para la calidad extremo a extremo entre dos puntos. Los métodos de estimación se basan en el procesamiento del vídeo de componente digital de 8 bits definido en la Recomendación UITR BT.6012. El codificador puede utilizar varios métodos de compresión (por ejemplo el Grupo de Expertos en imágenes en movimiento (MPEG) Recomendación UITT H.263, etc.). Los modelos propuestos en esta Recomendación pueden utilizarse para evaluar un códec (combinación de codificador/decodificador) o una combinación de varios métodos de compresión y dispositivos de almacenamiento en memoria. Aunque en el cálculo de los estimadores de la calidad objetiva descrito en esta Recomendación se considera la degradación provocada por errores (por ejemplo, errores en los bits, paquetes rechazados), no se dispone aún de resultados de pruebas independientes para validar la utilización de estimadores en los sistemas con degradación por errores. El material de pruebas de validación no contenía errores de canal.

1.1 Aplicación
En esta Recomendación se facilitan estimaciones de la calidad de vídeo para las clases de vídeo de televisión (TV0TV3) y la clase de vídeo multimedios (MM4) definidas en el Anexo B de la Recomendación UITT P.911. Entre las aplicaciones de los modelos de estimación descritos en la presente Recomendación se encuentran las siguientes:
– la evaluación, especificación y pruebas de aceptación de códecs;
– la supervisión potencial de la calidad en servicio, en tiempo real, en la fuente;
– la supervisión remota de la calidad del destino cuando hay disponible una copia del origen;
– la medición de la calidad de un sistema de almacenamiento de vídeo o de un sistema digital que utilice técnicas de compresión y descompresión de vídeo, ya sea en un solo paso o mediante una combinación de estas técnicas.
1.2 Restricciones
Los modelos de estimación descritos en la presente Recomendación no pueden utilizarse para sustituir las pruebas subjetivas. Los valores de correlación entre dos pruebas subjetivas cuidadosamente diseñadas y ejecutadas (es decir, en dos laboratorios diferentes) suelen estar en el intervalo 0,92 a 0,97. En esta Recomendación no se facilita ningún medio de cuantificar los errores potenciales de estimación. Es conveniente que los lectores de la presente Recomendación analicen la comparación de los resultados subjetivos y objetivos disponibles para hacerse una idea del intervalo de error de estimación de los índices de calidad de vídeo.
La calidad de funcionamiento predicha por los modelos de estimación no está validada aún para los sistemas de vídeo con degradación por errores en el canal de transmisión.


Anexo 2 Modelo 1
ÍNDICE
Página
1 Introducción 5
2 Modelo de BTFR 5
3 Detectores 6
3.1 Conversión de la entrada 6
3.2 Recorte y desplazamiento 7
3.3 Emparejamiento 8
3.3.1 Estadísticas de emparejamiento 10
3.3.2 MPSNR 10
3.3.3 Vectores de emparejamiento 10
Página
3.4 Análisis espacial de frecuencia 11
3.4.1 La transformada piramidal 11
3.4.2 SNR piramidal 13
3.5 Análisis de textura 13
3.6 Análisis de los bordes 14
3.6.1 Detección de los bordes 14
3.6.2 Diferenciación de los bordes 14
3.7 Análisis de la MPSNR 15
4 Integración 15
5 Registro 16
6 Referencias Bibliográficas 16
Anexo 2a 17




1 Introducción
El instrumento de evaluación automática de la calidad de vídeo de referencia completa de la BT (BTFR, BT full-reference) elabora predicciones de la calidad de vídeo representativas de las estimaciones humanas de la calidad. Este instrumento de medición objetiva simula digitalmente las características del sistema visual humano (HVS, human visual system) para elaborar predicciones precisas de la calidad de vídeo y ofrece una alternativa viable a las lentas y costosas evaluaciones subjetivas formales.
En las pruebas VQEG2 se utilizó una implementación del modelo en soporte lógico, y la calidad de funcionamiento resultante se presentó en un informe de la prueba1.
2 Modelo de BTFR
El algoritmo BTFR consiste en una detección seguida de una integración como se muestra en la Fig. 1. La detección supone el cálculo de un conjunto de parámetros perceptuales significativos del detector, a partir de secuencias de vídeo sin distorsionar (de referencia) y distorsionadas (degradadas). Estos parámetros se introducen a continuación en el integrador que produce una estimación de la calidad de vídeo percibida mediante la oportuna ponderación. La selección de detectores y factores de ponderación se basa en el conocimiento de las propiedades de enmascaramiento espacial y temporal del HVS y se determina mediante experimentos de calibración.
Este modelo soporta los tipos de vídeo de entrada 625 (720 × 576) entrelazado a 50 campos/s y 525 (720 ´ð 486) entrelazado a 59,94 campos/s en el formato YUV422.
 EMBED Designer.Drawing.7 
3 Detectores
El módulo de detección del algoritmo BTFR calcula ciertas medidas espaciales, temporales y basadas en frecuencia a partir de las secuencias de entrada en formato YUV, como muestra la Fig. 2.

3.1 Conversión de la entrada
En primer lugar, se convierten las secuencias de entrada del formato entrelazado YUV422 al formato no entrelazado YUV444 de bloque, de modo que cada campo sucesivo se representa mediante las matrices Ref Y, Ref U y Ref V:
 EMBED Equation.3  (1)
 EMBED Equation.3  (2)
 EMBED Equation.3  (3)
siendo:
X : número de píxeles horizontales de un campo
Y : número de píxeles verticales.
Para une entrada YUV422, debe repetirse cada valor U y V para obtener las matrices (2) y (3) de resolución completa.
3.2 Recorte y desplazamiento
Esta rutina recorta con desplazamiento la secuencia de entrada degradada y recorta sin desplazamiento la secuencia de entrada de referencia. Los parámetros de desplazamiento XOffset y YOffset se determinan externamente y definen el número de píxeles horizontales y verticales en que la secuencia degradada está desplazada con respecto a la de referencia. El origen de la imagen se define en el ángulo superior izquierdo de la misma, siendo el incremento horizontal positivo hacia la derecha y el incremento vertical positivo hacia abajo con respecto a la imagen. El valor XOffset = 2 indica que los campos degradados están desplazados a la derecha dos píxeles mientras que el valor YOffset = 2 indica un desplazamiento hacia abajo de dos píxeles. Para un campo de entrada cuyos valores YUV estén almacenados en formato YUV444 (véase el § 3.1) en las matrices InYField, InUField, e InVField, la salida recortada y desplazada se calcula mediante las ecuaciones (4) a (20).
 EMBED Equation.3  (4)
 EMBED Equation.3  (5)
 EMBED Equation.3  (6)
 EMBED Equation.3  (7)
 EMBED Equation.3  (8)
 EMBED Equation.3  (9)
 EMBED Equation.3  (10)
 EMBED Equation.3  (11)
X e Y son las dimensiones horizontal y vertical del campo, respectivamente. Cx y Cy son el número de píxeles a recortar de izquierda a derecha y de arriba a abajo.
Para las secuencias de 625,
 EMBED Equation.3  (12)
Para las secuencias de 525,
 EMBED Equation.3  (13)
Xstart, Xend, Ystart e Yend definen ahora la región que se copiará de cada campo. Los píxeles que queden fuera de esta región se inicializarán con arreglo a las ecuaciones (14) a (15), siendo YField, UField y VField matrices de píxeles de salida XxY que contienen los valores de Y, U y V respectivamente.
Las barras verticales a la izquierda y a la derecha del campo se inicializan con arreglo a las siguientes expresiones:
 EMBED Equation.3  (14)
 EMBED Equation.3  (15)
Las barras horizontales en la parte superior e inferior del campo se inicializan con arreglo a las siguientes expresiones:
 EMBED Equation.3  (16)
 EMBED Equation.3  (17)
Por último, los valores de los píxeles se copian con arreglo a las siguientes expresiones:
     EMBED Equation.3  (18)
     EMBED Equation.3  (19)
     EMBED Equation.3  (20)
Para la entrada degradada, el recorte con desplazamiento produce las matrices de campos de salida DegYField, DegUField y DegVField, mientras que el recorte sin desplazamiento para la secuencia de referencia produce Ref YField, Ref UField y Ref Vfield. Estas matrices bidimensionales XxY se utilizan como entrada a las rutinas de detección descritas más adelante.
3.3 Emparejamiento
El proceso de emparejamiento genera señales para otros procedimientos de detección así como parámetros de detección para el procedimiento de integración. Las señales emparejadas se generan a partir de un proceso de búsqueda del emparejamiento óptimo para los bloques pequeños de cada campo degradado de una memoria intermedia de campos de referencia vecinos. Este proceso genera una secuencia, denominada referencia emparejada, que sustituye a la secuencia de referencia en algunos módulos de detección.
El análisis de emparejamiento se ejecuta en bloques de 9 ´ð 9 píxeles de las matrices de intensidad RefYField y DegYField. Añadiendo una dimensión numérica de campo a las matrices de intensidad, el píxel (Px, Py) del campo N de referencia puede representarse del siguiente modo:
 EMBED Equation.3  (21)
Un bloque de 9 ´ð 9 píxeles centrado en el píxel (Px, Py) del N-ésimo campo puede representarse del siguiente modo:
 EMBED Equation.3  (22)
Deg(n, x, y) y BlockDeg(n, x, y) pueden definirse del mismo modo.
Para BlockDeg(N, Px, Py), se calcula el error de adaptación mínimo, E(N, Px, Py), buscando campos de referencia vecinos con arreglo a la siguiente expresión:
EMBED Equation.2 (23)
siendo N el índice del campo degradado que contiene el bloque degradado objeto de emparejamiento.
Si mediante la ecuación (23) se determina que la mejor pareja de BlockDeg(N, Px, Py) es BlockRef(nm, xm, ym), la matriz de referencia adaptada MRef se actualiza con arreglo a la siguiente expresión:
EMBED Equation.2 (24)
El proceso de emparejamiento, consistente en buscar en primer lugar la mejor pareja para un bloque degradado y copiar a continuación el bloque resultante en la matriz de referencia emparejada, se repite para toda la región de análisis deseada. Esta región de análisis viene definida por los puntos centrales del bloque Px() y Py() del siguiente modo:
 EMBED Equation.3  (25)
y
 EMBED Equation.3  (26)
donde Qx y Qy definen el número de bloques de análisis horizontales y verticales.
Por consiguiente, el análisis de emparejamiento del N-ésimo campo produce una secuencia de referencia emparejada descrita por:
 EMBED Equation.3  (27)
y un conjunto de valores de error del mejor emparejamiento:
 EMBED Equation.3  (28)
Puede definirse un conjunto de matrices de desplazamiento MatT, MatX y MatY tal que:
 EMBED Equation.3  (29)
Los parámetros de emparejamiento para secuencias de radiodifusión de 625 y 525 se presentan en el Cuadro 2.
CUADRO 2
Parámetros de búsqueda para el procedimiento de emparejamiento
Parámetro625525Qx8787Qy3328
La región de análisis definida por las ecuaciones (26) y (27) no ocupa todo el tamaño del campo. Por ello debe inicializarse MRef con arreglo a la ecuación (29) para poder utilizarla sin restricciones en cualquier sitio.
 EMBED Equation.3  (30)
3.3.1 Estadísticas de emparejamiento
Se elaboran estadísticas de emparejamiento horizontal a partir del proceso de emparejamiento para utilizarlas en el proceso de integración. El mejor emparejamiento para cada bloque de análisis, determinado con arreglo a la ecuación (23), se utiliza en la construcción del histograma histX para cada campo con arreglo a la siguiente ecuación:
 EMBED Equation.3  (31)
donde la matriz histX se inicializa a cero para cada campo. A continuación se utiliza el histograma para determinar la medición f XPerCent de acuerdo con la ecuación:
 EMBED Equation.3  (32)
Para cada campo, la medición f XPerCent es el porcentaje (%) de bloques emparejados que contribuye a la cresta del histograma de emparejamiento.
3.3.2 MPSNR
Se utiliza el error mínimo, E(), de cada bloque emparejado para calcular la SNR emparejada con arreglo a las siguientes ecuaciones:
 EMBED Equation.3  (33)
 EMBED Equation.3  (34)
3.3.3 Vectores de emparejamiento
Los vectores horizontal, vertical y de retardo se guardan para ser utilizados más adelante, con arreglo a las siguientes expresiones:
 EMBED Equation.3  (35)
 EMBED Equation.3  (36)
 EMBED Equation.3  (37)
3.4 Análisis espacial de frecuencia
El detector espacial de frecuencia se basa en una transformación «piramidal» de las secuencias de referencia degradada y emparejada. En primer lugar se transforma cada secuencia generando las matrices piramidales de referencia y degradada. A continuación se calculan las diferencias entre las matrices piramidales midiendo los errores cuadráticos medios, obteniendo los resultados como SNR piramidal.
 EMBED Designer.Drawing.7 
3.4.1 La transformada piramidal
En primer lugar, el campo de entrada, F, se copia a una matriz piramidal, P, con arreglo a la siguiente expresión:
 EMBED Equation.3  (38)
A continuación se actualiza esta matriz piramidal en tres etapas (stage = 0...2) de análisis vertical y horizontal. El análisis horizontal Hpy(stage) viene definido por las ecuaciones (39) a (43).
Primero se hace una copia temporal de toda la matriz piramidal:
 EMBED Equation.3  (39)
A continuación se calculan los límites x e y de acuerdo con:
 EMBED Equation.3  (40)
 EMBED Equation.3  (41)
A continuación se utilizan los promedios y las diferencias de los pares de elementos horizontales de la matriz temporal para actualizar la matriz piramidal con arreglo a las siguientes ecuaciones:
 EMBED Equation.3  (42)
 EMBED Equation.3  (43)
El análisis vertical Vpy(stage) viene definido por las ecuaciones (44) a (48).
 EMBED Equation.3  (44)
 EMBED Equation.3  (45)
 EMBED Equation.3  (46)
A continuación se utilizan los promedios y diferencias de los pares de elementos verticales de la matriz temporal para actualizar la matriz piramidal con arreglo a las siguientes expresiones:
 EMBED Equation.3  (47)
 EMBED Equation.3  (48)
En la Etapa 0, el análisis horizontal Hpy(0) seguido del análisis vertical Vpy(0) actualiza toda la matriz piramidal con los 4 cuadrantes Q(stage, 0...3) construidos del siguiente modo:
 EMBED Designer.Drawing.7 
A continuación se efectúa el análisis de la Etapa 1 sobre Q(0,0) y los resultados Q(1,0...3) generados se almacenan en la pirámide con arreglo a:
 EMBED Designer.Drawing.7 
En el análisis de la Etapa 2 se procesa Q(1,0) y se sustituye por Q(2,0...3).
Tras la tercera etapa del análisis, la matriz piramidal resultante tendrá un total de 10 bloques de resultados. Tres bloques Q(0,1...3) procederán del análisis de 2 ´ð 2 píxeles de la Etapa 0, tres Q(1,1...3) del análisis 4 ´ð 4 de las Etapas 1 y 4 Q(2,0...3) del análisis 8 ´ð 8 de la Etapa 2.
Del análisis de tres etapas de las secuencias emparejadas de referencia y degradada se obtienen las matrices piramidales Pref y Pdeg. Las diferencias entre estas matrices se miden a continuación en el módulo SNR piramidal.
3.4.2 SNR piramidal
La medida del error cuadrático entre las matrices piramidales de referencia y degradada se determina en los cuadrantes 1 a 3 de las Etapas 0 a 2 con arreglo a la siguiente ecuación:
 EMBED Equation.3  (49)
donde x1, x2, y1 e y2 definen los límites horizontales y verticales de los cuadrantes de las matrices piramidales y se calculan con arreglo a las siguientes ecuaciones:
 EMBED Equation.3  (50)
 EMBED Equation.3  (51)
 EMBED Equation.3  (52)
A continuación se utilizan los resultados de la expresión (49) para medir la PSNR de cada uno de los cuadrantes de cada campo con arreglo a la siguiente ecuación:
 EMBED Equation.3  (53)
siendo el número de Etapas s = 0...2 y el número de cuadrantes de cada Etapa q = 1...3.
3.5 Análisis de textura
La textura de la secuencia degradada se mide registrando el número de puntos de inflexión de la señal de intensidad a lo largo de las líneas horizontales de imagen. Esto puede calcularse mediante las ecuaciones (54) a (59).
Para cada campo se inicializa primero un contador de puntos de inflexión con arreglo a la ecuación (54).
sum =ð 0 (54)
A continuación, se procesa cada línea, y =ð 0...Y ( 1, para x =ð 0...X ( 2 con arreglo a las siguientes ecuaciones:
 EMBED Equation.3  (55)
 EMBED Equation.3  (56)
 EMBED Equation.3  (57)
 EMBED Equation.3  (58)
 EMBED Equation.3  (59)
 EMBED Equation.3  (60)
Una vez procesadas todas las líneas de un campo, el contador sum contendrá el número de puntos de inflexión de la señal de intensidad horizontal, que se utiliza para calcular un parámetro de textura para cada campo de la siguiente forma:
 EMBED Equation.3  (61)
3.6 Análisis de los bordes
Cada uno de los campos de las secuencias de referencia degradada y emparejada se somete por separado a una rutina de detección de bordes para generar los correspondientes mapas de bordes y compararlos mediante un procedimiento de emparejamiento de bloques para generar los parámetros de detección.
 EMBED Designer.Drawing.7 
3.6.1 Detección de los bordes
Se ha utilizado un detector de bordes Canny [Canny, 1986] para determinar los mapas de bordes, aunque pueden utilizarse otras técnicas similares de detección de bordes. Los mapas de bordes resultantes, EMapRef y EMapDeg, son mapas de píxeles en los que los bordes se indican por 1 y su ausencia por 0.
Para un borde detectado en el píxel (x, y):
 EMBED Equation.3  (62)
Si no se ha detectado borde alguno en el píxel (x, y):
 EMBED Equation.3  (63)
3.6.2 Diferenciación de los bordes
El procedimiento de diferenciación de los bordes mide las diferencias entre los mapas de bordes de los campos de referencia degradado y emparejado correspondientes. El análisis se efectúa en bloques no solapados de NxM píxeles con arreglo a las ecuaciones (64) a (68).
En primer lugar se mide el número de píxeles marcados con borde en cada bloque de análisis, donde Bh y Bv definen el número de bloques no solapados a analizar en las direcciones horizontal y vertical y X1 e Y1 definen los desplazamientos del análisis con respecto al borde del campo.
 EMBED Equation.3  (64)
 EMBED Equation.3  (65)
Los límites de la suma se determinan de acuerdo con las siguientes ecuaciones:
 EMBED Equation.3  (66)
 EMBED Equation.3  (67)
donde el operador «div» representa la división entera.
A continuación se calcula la medida de las diferencias en todo el campo mediante la siguiente ecuación:
 EMBED Equation.3  (68)
Para los campos de 720 ´ð 288 píxeles en el vídeo de radiodifusión de 625:
 EMBED Equation.3  (69)
Para los campos de 720 ´ð 243 píxeles en el vídeo de radiodifusión de 525:
 EMBED Equation.3  (70)
3.7 Análisis de la MPSNR
Se calcula la relación señalruido emparejada para los valores del píxel V utilizando los vectores de emparejamiento definidos por las ecuaciónes (35) a (37). Para cada conjunto de vectores emparejados se calcula la medida del error, VE, mediante la ecuación:
 EMBED Equation.3  (71)
A continuación se calcula la medida de la PSNR segmentaria del campo mediante la ecuación (72):
 EMBED Equation.3  (72)
4 Integración
El procedimiento de integración requiere en primer lugar el promedio en el tiempo de los parámetros de detección campo a campo, con arreglo a la ecuación (73):
 EMBED Equation.3  (73)
siendo:
N : número total de campos de las secuencias probadas
D(k, n) : parámetro de detección k del campo n.
A continuación, se combinan los parámetros de detección promediados, AvD(k), para proporcionar una predicción de la nota de calidad, PDMOS, correspondiente a la secuencia del campo N de acuerdo con la ecuación (74):
 EMBED Equation.3  (74)
Los Cuadros 3 y 4 muestran los parámetros del integrador para las secuencias de 625 y 525 respectivamente.
CUADRO 3
Parámetros de integración para el vídeo de radiodifusión de 625
KNombre del parámetroW0TextureDeg–0,681PySNR(3,3)–0,572EDif+58 913,2943f XPerCent–0,2084MPSNR–0,9285SegVPSNR–1,529Offset+176,486N400
CUADRO 4
Parámetros de integración para el vídeo de radiodifusión de 525
KNombre del parámetroW0TextureDeg+0,0431PySNR(3,3)–2,1182EDif+60 865,1643f XPerCent–0,3614MPSNR+1,1045SegVPSNR–1,264Offset+260,773N480
5 Registro
Para que el modelo FR funcione con eficacia es necesaria tanto la alineación espacial como la temporal. El modelo incorpora intrínsecamente la alineación y puede acomodar desplazamientos espaciales entre la secuencia degradada y la de referencia de (4 píxeles y desplazamientos temporales de (4 campos. Los desplazamientos espaciales y temporales que superen estos límites no son soportados por este modelo siendo necesario un módulo de registro independiente para garantizar la correcta alineación de los ficheros de referencia y degradado.
6 Referencias Bibliográficas
CANNY, J. [1986] A computational approach to edge detection. IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 8(6), p. 679698.
Anexo 2a

CUADRO 5
Datos subjetivos y objetivos de 525Nombre del ficheroSecuencia fuente (SRC)Circuito de referencia hipotético (HRC)Índice subjetivo medio brutoÍndice predicho por el modelo a partir de los datos brutosÍndice subjetivo medio ajustado a escalaÍndice predicho por el modelo a partir de datos ajustados a escalaV2src01_hrc01_525.yuv11–38,3075757644,9450490,54023680,69526V2src01_hrc02_525.yuv12–39,5621212138,6462710,54832050,58989V2src01_hrc03_525.yuv13–25,946969732,8557550,40240970,50419V2src01_hrc04_525.yuv14–17,2409090921,0627750,30635280,36089V2src02_hrc01_525.yuv21–35,2363636431,2607440,50255580,48242V2src02_hrc02_525.yuv22–18,0181818218,7327580,31133460,33715V2src02_hrc03_525.yuv23–6,2848484858,9145090,18817390,25161V2src02_hrc04_525.yuv24–6,9833333334,166630,19073470,21776V2src03_hrc01_525.yuv31–31,9651515222,3487130,46827240,37461V2src03_hrc02_525.yuv32–17,4772727310,447280,30888310,26352V2src03_hrc03_525.yuv33–1,1045454552,4949110,13003890,20688V2src03_hrc04_525.yuv34–1,17121212100,12932930,19158V2src04_hrc05_525.yuv45–50,6409090940,825260,67420050,6249V2src04_hrc06_525.yuv46–28,0545454532,5523220,42508730,49999V2src04_hrc07_525.yuv47–23,8757575825,2865980,37626560,40764V2src04_hrc08_525.yuv48–16,6075757619,864050,29722940,3485V2src05_hrc05_525.yuv55–31,8696969730,8126160,46825590,47645V2src05_hrc06_525.yuv56–18,5651515221,4138950,32030240,3646V2src05_hrc07_525.yuv57–8,15454545515,4464370,20717020,306V2src05_hrc08_525.yuv58–4,00606060610,8360510,16527520,26662V2src06_hrc05_525.yuv65–41,6318181837,3427890,56902910,56967V2src06_hrc06_525.yuv66–29,4878787926,6600550,43709610,42391V2src06_hrc07_525.yuv67–22,2590909120,8782480,35917880,35896V2src06_hrc08_525.yuv68–12,0318181816,8961680,24821690,31941V2src07_hrc05_525.yuv75–23,8954545519,0869980,37963620,34067V2src07_hrc06_525.yuv76–10,1560606110,694020,22769340,26548V2src07_hrc07_525.yuv77–4,2409090914,8965460,16444090,22267V2src07_hrc08_525.yuv78–5,980303031,5550550,18195660,20099V2src08_hrc09_525.yuv89–76,252,0941770,95133870,83024V2src08_hrc10_525.yuv810–61,3454545547,3952260,7897480,7397V2src08_hrc11_525.yuv811–66,0257575852,4575840,84059160,83753V2src08_hrc12_525.yuv812–37,2045454537,9318540,52215550,57874V2src08_hrc13_525.yuv813–31,2303030330,959850,45720490,4784V2src08_hrc14_525.yuv814–31,2681818233,2936020,46141040,51031V2src09_hrc09_525.yuv99–64,4287878854,4147720,82629120,87746V2src09_hrc10_525.yuv910–49,9287878836,0804250,6603390,55061V2src09_hrc11_525.yuv911–53,7318181846,3387910,71001110,72031V2src09_hrc12_525.yuv912–34,3696969723,213930,49217080,38409V2src09_hrc13_525.yuv913–22,8545454516,9559780,36565590,31998V2src09_hrc14_525.yuv914–16,4166666713,6943960,29609570,29046V2src10_hrc09_525.yuv109–72,1121212148,1791040,90841710,75433V2src10_hrc10_525.yuv1010–43,1166666730,7038610,59087840,475V2src10_hrc11_525.yuv1011–56,1196969752,638870,73023760,84118V2src10_hrc12_525.yuv1012–19,5590909121,952250,33457030,37033V2src10_hrc13_525.yuv1013–12,3439393916,239880,25654590,31328V2src10_hrc14_525.yuv1014–16,0523,2013550,29531440,38395V2src11_hrc09_525.yuv119–50,4045454536,3945350,66758530,55531V2src11_hrc10_525.yuv1110–54,2621212137,8125420,70549290,5769V2src11_hrc11_525.yuv1111–41,7363636444,1280360,57611930,68087V2src11_hrc12_525.yuv1112–19,0393939414,6196880,327610,29857V2src11_hrc13_525.yuv1113–17,7212121214,120410,3104950,29417V2src11_hrc14_525.yuv1114–19,496969714,9274240,3310510,30132V2src12_hrc09_525.yuv129–61,3540,0512540,78833710,61229V2src12_hrc10_525.yuv1210–46,8454545531,1289730,62953010,48066V2src12_hrc11_525.yuv1211–51,8015151541,772850,68092880,6406V2src12_hrc12_525.yuv1212–22,5196969720,8682820,36514020,35886V2src12_hrc13_525.yuv1213–14,1787878815,0409920,27143560,30234V2src12_hrc14_525.yuv1214–14,603030313,5215170,27824490,28896V2src13_hrc09_525.yuv139–55,2538,6914980,72111940,5906V2src13_hrc10_525.yuv1310–39,5533,0545040,55457220,50696V2src13_hrc11_525.yuv1311–40,0393939445,94540,55254940,71318V2src13_hrc12_525.yuv1312–1416,6310020,27087440,31692V2src13_hrc13_525.yuv1313–14,3318181815,1139590,275490,30299V2src13_hrc14_525.yuv1314–14,3196969716,6112860,27337710,31674
CUADRO 6
Datos subjetivos y objetivos de 625Nombre del ficheroSRCHRCÍndice subjetivo medio brutoÍndice predicho por el modelo a partir de los datos brutosÍndice subjetivo medio ajustado a escalaÍndice predicho por el modelo a partir de datos ajustados a escalaV2src1_hrc2_625.yuv1238,8518518531,7642140,594610,47326V2src1_hrc3_625.yuv1342,0740740721,8685610,644360,36062V2src1_hrc4_625.yuv1423,7777777812,1955520,408040,27239V2src1_hrc6_625.yuv1618,148148159,1695120,341090,24887V2src1_hrc8_625.yuv1812,925925936,7380720,26770,23128V2src1_hrc10_625.yuv11011,888888892,5538830,268780,20356V2src2_hrc2_625.yuv2233,5185185231,4927880,541730,46985V2src2_hrc3_625.yuv2346,4814814831,13130,709950,46535V2src2_hrc4_625.yuv2413,3333333320,2417260,274430,34432V2src2_hrc6_625.yuv268,81481481517,390450,227150,31721V2src2_hrc8_625.yuv287,07407407414,9145760,211330,29513V2src2_hrc10_625.yuv2103,4074074077,3523090,166470,23562V2src3_hrc2_625.yuv3248,0740740738,8527150,733140,56845V2src3_hrc3_625.yuv3350,6666666738,2446210,761670,55982V2src3_hrc4_625.yuv3432,1111111127,7332290,498480,42454V2src3_hrc6_625.yuv3622,3333333324,803230,386130,39159V2src3_hrc8_625.yuv3816,3333333323,2967470,345740,37544V2src3_hrc10_625.yuv31011,9629629616,330280,267010,30759V2src4_hrc2_625.yuv4236,1481481542,0415920,585280,61514V2src4_hrc3_625.yuv4355,0370370449,2838360,904460,72942V2src4_hrc4_625.yuv4439,703703738,3221860,623610,56091V2src4_hrc6_625.yuv4638,0370370436,8634570,611430,54053V2src4_hrc8_625.yuv4824,4074074132,465790,433290,48214V2src4_hrc10_625.yuv41012,8888888925,9181230,265480,40388V2src5_hrc2_625.yuv5238,6296296338,957790,619730,56995V2src5_hrc3_625.yuv5344,1851851940,0763130,689870,58609V2src5_hrc4_625.yuv5424,6666666723,1660020,416480,37406V2src5_hrc6_625.yuv5623,6296296320,5922130,42180,34778V2src5_hrc8_625.yuv5812,4074074113,7631520,275430,28531V2src5_hrc10_625.yuv5107,370370378,4183130,20220,24332V2src6_hrc2_625.yuv6222,4814814833,8101650,388520,49949V2src6_hrc3_625.yuv6327,0740740725,0049840,444570,39379V2src6_hrc4_625.yuv6413,1851851920,8893470,279830,35074V2src6_hrc6_625.yuv6614,4444444417,4182220,281060,31747V2src6_hrc8_625.yuv688,74074074115,4865590,237260,30011V2src6_hrc10_625.yuv6105,51851851911,5091920,177930,2669V2src7_hrc4_625.yuv7439,2592592645,2310790,599530,66412V2src7_hrc6_625.yuv7633,8518518543,1315190,550930,63163V2src7_hrc9_625.yuv7927,0740740739,5065350,451630,57784V2src7_hrc10_625.yuv71019,2592592634,4183810,356170,50749V2src8_hrc4_625.yuv8415,8518518540,4089930,325280,59095V2src8_hrc6_625.yuv8617,0370370438,5525740,327270,56418V2src8_hrc9_625.yuv8914,8518518535,5770340,303030,52297V2src8_hrc10_625.yuv81011,4814814830,2785360,263660,45484V2src9_hrc4_625.yuv9428,9629629630,5157780,476560,45775V2src9_hrc6_625.yuv9630,5185185226,9710270,499240,41577V2src9_hrc9_625.yuv9919,6666666723,3513550,391010,37601V2src9_hrc10_625.yuv91020,9259259317,8568610,371220,32152V2src10_hrc4_625.yuv10440,3333333343,6403770,704920,63942V2src10_hrc6_625.yuv10637,3333333340,5525020,582180,59305V2src10_hrc9_625.yuv10930,9259259336,7473910,497110,53893V2src10_hrc10_625.yuv101021,296296330,1610130,378540,45341V2src11_hrc1_625.yuv11150,2592592655,9099080,799190,84263V2src11_hrc5_625.yuv11535,5185185244,0499990,592560,64572V2src11_hrc7_625.yuv11718,703703726,8777540,343370,4147V2src11_hrc10_625.yuv111015,0740740723,4204770,305670,37674V2src12_hrc1_625.yuv12136,3333333343,8370970,614180,64244V2src12_hrc5_625.yuv12538,4444444440,3499030,66610,59008V2src12_hrc7_625.yuv12731,1111111137,2543830,532420,54594V2src12_hrc10_625.yuv121026,1481481528,9535640,447370,43887V2src13_hrc1_625.yuv13143,703703738,3336490,742250,56108V2src13_hrc5_625.yuv13543,296296334,2905540,667990,5058V2src13_hrc7_625.yuv13725,296296326,9900250,420650,41598V2src13_hrc10_625.yuv131015,8888888920,1814630,333810,34373
Anexo 3 Modelo 2
ÍNDICE
Página
1 Introducción 21
2 Medición objetiva de la calidad de vídeo a partir de la degradación de los bordes 22
2.1 PSNR de los bordes (EPSNR) 22
2.2 Ajustes posteriores 29
2.2.1 De énfasis de EPSNR 29
2.2.2 Consideración de los bordes borrosos 29
2.2.3 Ajuste 30
2.3 Precisión de registro 30
2.4 Diagrama de bloques del modelo 30
3 Datos objetivos 30
4 Conclusión 30
5 Referencias Bibliográficas 30






1 Introducción
La evaluación de la calidad de vídeo se ha realizado tradicionalmente con evaluadores que determinan subjetivamente la calidad de vídeo. La evaluación puede llevarse a cabo con vídeos de referencia o sin ellos. En la evaluación con referencias, los evaluadores contemplan dos vídeos: el vídeo de referencia (fuente) y el vídeo procesado que ha de compararse con el vídeo fuente. Tras comparar los dos vídeos, los evaluadores otorgan a los vídeos notas subjetivas. Por este motivo se le suele denominar prueba subjetiva de la calidad de vídeo. Aunque se considera que la prueba subjetiva es el método más preciso debido a que refleja la percepción humana, tiene varias limitaciones. En primer lugar, requiere varios evaluadores, motivo por el cual es lenta y costosa. Además, no puede llevarse a cabo en tiempo real. Por consiguiente, el desarrollo de métodos objetivos para la medición de la calidad de vídeo siempre ha suscitado un gran interés. Uno de los requisitos más importantes que debe satisfacer cualquier método objetivo de medición de la calidad de vídeo es proporcionar resultados de la calidad de funcionamiento coherentes para una amplia gama de secuencias de vídeo no utilizadas en la etapa de diseño. A tal efecto se ha desarrollado un modelo fácil de implementar, suficientemente rápido para las implementaciones en tiempo real y robusto frente a una amplia gama de degradaciones de vídeo. Este modelo es fruto de la colaboración entre la Yonsei University, SK Telecom y el Radio Research Laboratory, República de Corea.
2 Medición objetiva de la calidad de vídeo a partir de la degradación de los bordes
2.1 PSNR de los bordes (EPSNR)
El modelo para la medición objetiva de la calidad de vídeo es de referencia completa. O sea, se supone que se dispone de un vídeo de referencia. Al analizar la percepción por el hombre de la calidad de vídeo, se observa que el sistema visual humano es sensible a la degradación en torno a los bordes. Dicho de otro modo, cuando las zonas de los bordes de un vídeo son borrosas, los evaluadores tienden a otorgar puntaciones menores al vídeo aunque el error cuadrático medio global sea pequeño. Se observa además que los algoritmos de compresión de vídeo tienden a producir más artefactos en torno a las zonas de los bordes. De acuerdo con esta observación, el modelo proporciona un método de medición objetiva de la calidad de vídeo que mide la degradación en torno a los bordes. En este modelo, se aplica en primer lugar un algoritmo de detección de bordes a la secuencia de vídeo fuente para localizar las zonas de los bordes. A continuación, se mide la degradación de dichas zonas de bordes calculando el error cuadrático medio. A partir de dicho error se calcula la EPSNR del borde, que se utiliza como métrica de la calidad de vídeo tras el postprocesamiento.
En este modelo, es necesario aplicar primero un algoritmo de detección de bordes para localizar las zonas de los bordes. Se puede utilizar cualquier algoritmo de detección de bordes, aunque puede haber diferencias de menor importancia en los resultados. Por ejemplo, se puede utilizar cualquier operador gradiente para localizar las zonas de los bordes. Se han propuesto varios operadores gradiente. En muchos algoritmos de detección de bordes, la imagen de gradiente horizontal ghorizontal(m,n) y la imagen de gradiente vertical gvertical(m,n) se calculan previamente mediante operadores gradiente. A continuación, puede calcularse la imagen de gradiente de magnitud  EMBED Equation.3  del siguiente modo:
 EMBED Equation.3 
Por último, se aplica una operación de fijación de umbrales a la imagen de gradiente de magnitud  EMBED Equation.3  para determinar las zonas de los bordes. Dicho de otro modo, los píxeles cuyos gradientes de magnitud superen un cierto valor umbral se consideran zonas de bordes.
Las Figs. 711 ilustran el procedimiento anterior. La Fig. 7 muestra una imagen fuente. La Fig. 8 muestra la imagen de gradiente horizontal ghorizontal(m,n), obtenida por aplicación de un operador gradiente horizontal a la imagen fuente de la Fig. 7. La Fig. 9 muestra una imagen gradiente vertical gvertical(m,n), obtenida por aplicación de un operador gradiente vertical a la imagen fuente de la Fig. 7. La Fig. 10 muestra la imagen de gradiente de magnitud (imagen de bordes) mientras que la Fig. 11 muestra la imagen de bordes binarios (imagen máscara) obtenida por aplicación de umbrales a la imagen de gradiente de magnitud de la Fig. 10.
 EMBED Designer.Drawing.7 
 EMBED Designer.Drawing.7 
 EMBED Designer.Drawing.7 
 EMBED Designer.Drawing.7 

 EMBED Designer.Drawing.7 


Otra solución consiste en utilizar un procedimiento modificado para determinar las zonas de bordes. Por ejemplo, se puede aplicar en primer lugar un operador gradiente vertical a la imagen fuente, produciendo una imagen de gradiente vertical. A continuación se aplica el operador gradiente horizontal a la imagen de gradiente vertical, produciendo una imagen modificada por gradientes sucesivos (imagen de gradiente horizontal y vertical). Finalmente puede aplicarse una operación de fijación de umbrales a la imagen modificada por gradientes sucesivos para determinar las zonas de bordes. Dicho de otro modo, los píxeles de la imagen modificada por gradientes sucesivos que superan un determinado valor umbral, se consideran zonas de bordes. Las Figs. 1215 ilustran el procedimiento modificado. La Fig. 12 muestra una imagen de gradiente vertical gvertical(m,n), obtenida por aplicación de un operador gradiente vertical a la imagen fuente de la Fig. 7. La Fig. 13 muestra una imagen modificada por gradientes sucesivos (imagen de gradiente horizontal y vertical) obtenida por aplicación de un operador gradiente horizontal a la imagen de gradiente vertical de la Fig. 12. La Fig. 14 muestra la imagen de bordes binarios (imagen máscara) obtenida por aplicación de umbrales a la imagen modificada por gradientes sucesivos de la Fig. 13.
Hay que observar que ambos métodos pueden considerarse algoritmos de detección de bordes. Se puede escoger cualquier algoritmo de detección de bordes en función de la naturaleza de los vídeos y de los algoritmos de compresión. No obstante, unos métodos pueden funcionar mejor que otros.
 EMBED Designer.Drawing.7 
 EMBED Designer.Drawing.7 

 EMBED Designer.Drawing.7 
Así pues, en el modelo, se aplica en primer lugar un operador de detección de bordes, produciendo las imágenes de bordes (Figs. 10 y 13). A continuación se genera una imagen de máscara (imagen de bordes binarios) por aplicación de umbrales a la imagen de bordes (Figs. 11 y 14). Dicho de otro modo, los píxeles de la imagen de bordes cuyo valor sea inferior al umbral, te, se ponen a cero y aquellos cuyo valor sea igual o mayor que el umbral se ponen a un valor no nulo. Las Figs. 11 y 14 muestran ejemplos de imágenes máscara. Hay que observar que este algoritmo de detección de bordes se aplica a la imagen fuente. Aunque se pueda aplicar el algoritmo de detección de bordes a imágenes procesadas, resulta más preciso aplicarlo a las imágenes fuente. Dado que un vídeo puede contemplarse como secuencia de cuadros o campos, el procedimiento expresado puede aplicarse a cada uno de los cuadros o campos de los vídeos. Como el modelo puede utilizarse para vídeos basados en campos o vídeos basados en cuadros, el término «imagen» se utilizará para indicar ya sea un campo o un cuadro.
A continuación, se calculan las diferencias entre la secuencia de vídeo fuente y la secuencia de vídeo procesada, correspondiente a los píxeles no nulos de la imagen máscara. Dicho de otro modo, se calcula el error cuadrático de las zonas de bordes del cuadro l-ésimo del siguiente modo:
 EMBED Equation.3  (75)
siendo:
S l(i, j) : l-ésima imagen de la secuencia de vídeo fuente
P l(i, j) : l-ésima imagen de la secuencia de vídeo procesada
R l(i, j) :  l-ésima imagen de la secuencia de vídeo máscara
M : número de filas
N : número de columnas.
Cuando se implemente este modelo, se puede saltar la generación de la secuencia de vídeo máscara. De hecho, si no se crea la secuencia de vídeo máscara el error cuadrático de las zonas de borde del l-ésimo cuadro se calcula del siguiente modo:
 EMBED Equation.3  (76)
siendo:
Q l(i, j) : l-ésima imagen de la secuencia de vídeo de bordes
te : umbral.
Aunque en la ecuación (75) se utilice el error cuadrático medio para calcular la diferencia entre la secuencia de vídeo fuente y la secuencia de vídeo procesada, se puede utilizar cualquier otro tipo de diferencia; por ejemplo, se puede utilizar también la diferencia absoluta. En el modelo presentado a la prueba VQEG Fase II, se otorgó a te el valor 260 y se utilizó el algoritmo modificado de detección de bordes con el operador Sobel.
Este procedimiento se repitió para todas las secuencias de vídeo, calculándose el error cuadrático medio del borde del siguiente modo:
 EMBED Equation.3  (77)
siendo:
L : número de imágenes (cuadros o campos)
K : número total de píxeles de las zonas de bordes.
Por último, la PSNR de las zonas de bordes (EPSNR) se calculó del siguiente modo:
 EMBED Equation.3  (78)
siendo:
P : valor de cresta del píxel.
En el modelo, esta EPSNR se utiliza como nota básica de la calidad objetiva de vídeo. La Fig. 15 muestra el diagrama de bloques para el cálculo de la EPSNR.
2.2 Ajustes posteriores
2.2.1 De énfasis de EPSNR
Cuando el valor de EPSNR es superior a 35, parece que la EPSNR sobreestima la calidad perceptual. Por ello se utiliza el siguiente ajuste lineal de escala por tramos:
 EMBED Equation.3  (79)
2.2.2 Consideración de los bordes borrosos
Se ha observado que cuando los bordes son muy borrosos en los vídeos de baja calidad, los evaluadores tienden a otorgarles notas subjetivas menores. Dicho de otro modo, si las zonas de bordes de la secuencia de vídeo procesada son sustancialmente menores que las de la secuencia de vídeo fuente, los evaluadores otorgan puntaciones inferiores. Además, se observa que ciertas secuencias de vídeo tienen un número muy pequeño de píxeles con componentes de alta frecuencia. O sea, el número de píxeles de las zonas de bordes es muy pequeño. En consideración a estos problemas, se calculan las zonas de bordes de las secuencias de vídeo fuente y procesada y se modifica la EPSNR del siguiente modo:
 EMBED Equation.3 
 EMBED Equation.3  (80)
 EMBED Equation.3 
siendo:
MEPSNR : EPSNR modificada
EPcommon : número total de píxeles de bordes comunes en las secuencias de vídeo SRC y HRC (es decir, los píxeles de bordes que aparecen en las mismas posiciones)
EPsrc : número total de píxeles de bordes de la secuencia de vídeo fuente (SRC).
En algunas secuencias de vídeo, EPsrc puede ser muy pequeña. Si EPsrc es menor que 10000 píxeles (aproximadamente 10000/240 = 41,7 píxeles por cuadro para los vídeos de 525 y 8 s y aproximadamente 10 000/200 = 50 píxeles por cuadro para los vídeos de 625 y 8 s), el usuario puede reducir el umbral te de la ecuación (76) en 20 hasta que EPsrc sea mayor o igual que 10 000 píxeles. Si EPsrc es menor que 10000 píxeles a pesar de haber reducido te a 80, no se utiliza el ajuste posterior de la ecuación (80). En tal caso, la EPSNR se calcula con te = 60. Si se toma esta opción, el usuario puede eliminar la condición de que EPhrc/EPsrc  2) viene dada por:
 EMBED Equation.3 
donde el superíndice, T, indica la matriz transpuesta y el superíndice, –1, indica la matriz inversa.
Cuando se aplica el algoritmo central de ganancia y desplazamiento independientemente a cada uno de los tres canales, se obtienen seis resultados: ganancia Y, desplazamiento Y, ganancia CB, desplazamiento CB, ganancia CR, y desplazamiento CR.
6.3.2 Utilización de escenas
El algoritmo básico del § 6.3.1 puede aplicarse a secuencias de vídeo originales y procesadas con tal de que se hayan registrado espacial y temporalmente. Esta técnica basada en escenas divide la imagen en bloques adyacentes con niveles de intensidad desconocidos. Se recomienda un tamaño de subregión de 16 líneas × 16 píxeles para los cuadros (es decir 8 líneas × 16 píxeles para un campo Y NTSC o PAL y 8 líneas × 8 píxeles para CB y CR debido al submuestreo de los planos de imagen de color). Se calcula la media en el espacio de las muestras [Y, CB, CR] para cada subregión, o bloque, correspondiente original o procesada para formar una imagen espacialmente submuestreada. Todos los bloques seleccionados deben quedar dentro de la PVR.
6.3.2.1 Registro de las imágenes procesadas
Para mayor simplicidad, se supondrá encontrado el mejor registro espacial gracias a una de las técnicas expuestas en el § 6.1. Antes de la estimación de la ganancia y del desplazamiento de nivel, cada imagen procesada debe registrarse también temporalmente. Para el cálculo de la ganancia y del desplazamiento de nivel debe utilizarse la imagen original que mejor se alinee con la imagen procesada. Si el retardo de vídeo es variable, este registro temporal debe ejecutarse para cada imagen procesada. Si el retardo de vídeo es constante para la escena, el registro temporal sólo necesita ejecutarse una vez.
Para registrar temporalmente una imagen procesada, se crearán en primer lugar los campos (o cuadros en el vídeo progresivo) original y procesado, submuestreados espacialmente especificados en el § 6.3.2, tras corregir el desplazamiento espacial del vídeo procesado. Utilizando las imágenes Y submuestreadas, se aplicará a la función de búsqueda del § 6.1.4.3, pero efectuando esta búsqueda sobre todas las imágenes originales que queden dentro de la incertidumbre del registro temporal, U. Se utilizará el mejor registro temporal resultante para los tres planos de imagen, Y, CB, y CR.
6.3.2.2 Ganancia y desplazamiento de nivel de las imágenes registradas
Se utiliza una solución iterativa de mínimos cuadrados con una función de costo para contribuir a la minimización de la repercusión de los valores atípicos en el ajuste. Esto se debe a que los valores atípicos proceden normalmente de distorsiones y no de simples variaciones del desplazamiento de nivel y de la ganancia, y la asignación del mismo peso a estos valores atípicos distorsionaría el ajuste.
El siguiente algoritmo se aplica por separado a los N píxeles concordantes originales y procesados de cada una de las tres imágenes submuestreadas espacialmente [Y, CB, CR].
Paso 1: Utilizar la solución normal de mínimos cuadrados del § 6.3.1 para generar la estimación inicial del desplazamiento de nivel y ganancia:  EMBED Equation.3 .
Paso 2: Generar un vector de error, E, igual al valor absoluto de la diferencia entre las muestras procesadas auténticas y las muestras procesadas ajustadas:  EMBED Equation.3 .
Paso 3: Generar un vector de costos, C, que sea recíproco, elemento a elemento, del vector de errores, E, más un pequeño épsilon, (:  EMBED Equation.3 . El ( impide la división por cero y establece el peso relativo de un punto que esté en la línea ajustada al de otro que esté fuera de la línea ajustada. Se recomienda un ( de 0,1.
Paso 4: Normalizar el vector de costos C para la norma unitaria (es decir cada elemento de C se divide por la raíz cuadrada de la suma de los cuadrados de todos los elementos de C).
Paso 5: Generar el vector de costos C 2 que sea el cuadrado, elemento a elemento, del vector de costos C del Paso 4.
Paso 6: Generar una matriz diagonal N ( N de costos, C 2, que contenga los elementos del vector de costos, C 2, dispuesto sobre la diagonal, relleno el resto a ceros.
Paso 7: Utilizar la matriz diagonal de costos, C 2, del Paso 6, y ejecutar el ajuste de mínimos cuadrados ponderado en costo para determinar la siguiente estimación del desplazamiento de nivel y de la ganancia:  EMBED Equation.3 .
Paso 8: Repetir los Pasos 2 a 7 hasta que las estimaciones del desplazamiento de nivel y de la ganancia converjan con cuatro posiciones decimales.
Estos Pasos se aplican por separado al campo procesado uno y al campo procesado dos, para obtener las estimaciones de g y l. El campo uno y el dos deben examinarse por separado, debido a que no es necesario que los campos originales registrados temporalmente correspondan a un cuadro de la secuencia de vídeo original. Para el vídeo progresivo, los Pasos anteriores se aplican a todo el cuadro procesado al mismo tiempo.
6.3.2.3 Estimación de la ganancia y del desplazamiento de nivel para una secuencia de vídeo y HRC
El algoritmo descrito anteriormente se aplica a varios pares de campos originales y procesados concordantes, distribuidos cada F (frecuencia) cuadros de la escena (para vídeo progresivo, pares de cuadros originales y procesados). A continuación se aplica un filtro de mediana a las seis historias temporales de los desplazamientos de nivel y ganancias para obtener estimaciones medias para cada escena.
Si se han pasado varias escenas por el mismo HRC, el nivel de desplazamiento y la ganancia de las escenas se considerará idéntico. Así pues, el filtrado de los resultados obtenidos de varias escenas puede mejorar la validez y precisión de las mediciones del desplazamiento de nivel y de la ganancia. Los resultados globales del desplazamiento de nivel y de la ganancia del HRC pueden utilizarse entonces para compensar todo el vídeo procesado en dicho HRC.
6.3.3 Aplicación de las correcciones de la ganancia y del desplazamiento de nivel
Los algoritmos de registro temporal (véase el § 6.4) y la mayor parte de las características de calidad (véase el § 7) recomendarán la supresión de la ganancia aquí calculada. Para suprimir la ganancia y el desplazamiento de nivel del plano Y, se aplicará la siguiente fórmula a cada píxel procesado:
 EMBED Equation.3 
La corrección de la ganancia y del nivel de desplazamiento no se ejecuta en los planos de color (es decir CB y CR). Los errores de crominancia de percepción se capturan, en cambio, por la métrica del color. Los planos de imagen CB y CR pueden corregirse en ganancia y desplazamiento de nivel a los efectos de visualización.
6.4 Registro temporal
Los modernos sistemas digitales de comunicación de vídeo, suelen requerir varias decenas de segundo para procesar y transmitir el vídeo desde la cámara emisora hasta la pantalla receptora. Los retardos de vídeo excesivos impiden la eficacia de la comunicación bidireccional. Por consiguiente, los métodos objetivos de medición extremo a extremo del retardo de las comunicaciones de vídeo son importantes para los usuarios finales a efectos de la especificación y comparación de los servicios, y para que los proveedores de equipos y servicios optimicen y mantengan su oferta de productos. El retardo de vídeo puede depender de los atributos dinámicos de la escena original (por ejemplo, el detalle espacial, el movimiento) y del sistema de vídeo (por ejemplo de la velocidad binaria). Por citar un ejemplo, las escenas con mucho movimiento pueden sufrir más retardo de vídeo que aquéllas con poco movimiento. Por consiguiente, las mediciones del retardo de vídeo deben realizarse en servicio para poder ser representativas y precisas. Las estimaciones del retardo de vídeo son necesarias para alinear temporalmente las características del vídeo original y procesado representadas en la Fig. 19 antes de realizar las mediciones de calidad.
Algunos sistemas de transmisión de vídeo pueden proporcionar información de sincronización (por ejemplo, pueden etiquetarse los cuadros original y procesado con algún tipo de esquema de numeración de cuadros). En general, no obstante, debe medirse la sincronización entre las secuencias de vídeo original y procesada. Este apartado presenta una técnica de estimación del retardo de vídeo basada en los cuadros de vídeo original y procesado. Esta técnica se puede calificar como «basada en cuadros» por apoyarse en la correlación de imágenes de menor resolución, submuestreadas en el espacio y extraídas de las secuencias de vídeo original y procesado. Esta técnica basada en cuadros estima el retardo de cada cuadro o campo (en los sistemas de vídeo entrelazados). Estas estimaciones individuales se combinan para estimar el retardo medio de la secuencia de vídeo.
6.4.1 Algoritmo basado en tramas para estimar los retardos temporales variables entre las secuencias de vídeo original y procesada
En este punto se describe un algoritmo de registro temporal basado en cuadros. Para reducir la influencia de las distorsiones sobre el registro temporal, las imágenes se submuestrean espacialmente y se normalizan de modo que la varianza sea la unidad. Este algoritmo registra temporalmente cada imagen procesada por separado, localizando la imagen original más semejante. Algunas de estas mediciones individuales del registro temporal puede ser incorrecta pero estos errores tenderán a distribuirse aleatoriamente. Cuando se combinan las mediciones de retardo de una serie de imágenes por medio de un esquema de votación, la estimación global del retardo medio de una secuencia de vídeo llega a ser bastante precisa. Este algoritmo de registro temporal no utiliza porciones de escena en reposo o prácticamente sin movimiento, ya que las imágenes originales son aproximadamente idénticas entre sí.
6.4.1.1 Constantes que utiliza el algoritmo
BELOW_WARN: Umbral utilizado para examinar las correlaciones a fin de decidir si el máximo de correlación secundaria es suficientemente grande como para indicar registro temporal ambiguo. Se recomienda un BELOW_WARN de 0,9.
BLOCK_SIZE: Factor de submuestreo. Se especifica en líneas de cuadro verticalmente y en píxeles horizontalmente. Se recomienda un BLOCK_SIZE de 16.
DELTA: Los máximos secundarios de la curva de correlación que están dentro de DELTA de la máxima (mejor) correlación se ignoran. Se recomienda una DELTA de 4.
HFW: Mitad de la anchura del filtro utilizado para suavizar el histograma de los valores de registro temporal cuadro a cuadro. Se recomienda un HFW de 3.
STILL_THRESHOLD: Umbral utilizado para detectar escenas de vídeo en reposo (el registro temporal basado en tramas no puede utilizarse en secciones de vídeo en reposo). Se recomienda un STILL_THRESHOLD de 0,002.
6.4.1.2 Entradas al algoritmo
Una secuencia de N imágenes de luminancia de vídeo original: YO (t), 0 ( t < N 6.
Una secuencia de N imágenes de luminancia de vídeo procesado: YP (t), 0 ( t < N.
Factores de corrección de ganancia y desplazamiento para las imágenes de luminancia procesadas.
Información de registro espacial: desplazamiento horizontal y desplazamiento vertical. Para el vídeo entrelazado, el desplazamiento vertical de cada campo determina si el vídeo procesado requiere reencuadre.
Región válida de la secuencia de vídeo procesada (es decir PVR).
Incertidumbre (U ):  Número que indica la precisión del registro temporal inicial. La hipótesis del registro temporal inicial es que el registro temporal auténtico para YP (t) esta dentro de más menos (U – HFW) de YO (t), para todo 0 ( t  1,0, entonces VQMG = (1 + c)*VQMG / (c + VQMG), siendo c = 0,5.
Si se calcula VQMG del modo anterior, se obtendrán valores mayores o iguales que cero y un valor máximo nominal de uno. Ocasionalmente, VQMG puede ser mayor que uno en las escenas de vídeo extremadamente distorsionadas.
10 Referencias Bibliográficas
JAIN, A. K. [1989] Fundamentals of Digital Image Processing. Englewood Cliffs, NJ: Prentice-Hall Inc., p. 348357.
Norma SMPTE [1995a] SMPTE 125M. Television – Component Video Signal 4:2:2 – Bit-Parallel Digital Interface. Society of Motion Picture and Television Engineers, 595 West Hartsdale Avenue, White Plains, NY 10607.
Norma SMPTE [1995b] SMPTE Recommended Practice 187. Center, Aspect Ratio, and Blanking of Video Images. Society of Motion Picture and Television Engineers, 595 West Hartsdale Avenue, White Plains, NY 10607.
Norma SMPTE [1999] SMPTE 170M. Television composite Analog Video Signal – NTSC for Studio Applications. Society of Motion Picture and Television Engineers, 595 West Hartsdale Avenue, White Plains, NY 10607.
PINSON, M. y WOLF, S. [febrero de 2002] Video Quality Measurement User’s Manual. NTIA Hybook 021. National Telecommunications and Information Administration.
WOLF, S. y PINSON M. [12-13 de noviembre de 1998] In-service performance metrics for MPEG-2 video systems. Proc. Made to Measure 98 – Measurement Techniques of the Digital Age Technical Seminar, Conferencia Técnica patrocinada conjuntamente por la International Academy of Broadcasting (IAB), la UIT y la Technical University of Braunschweig (TUB), Montreux, Suiza.
WOLF, S. y PINSON, M. [septiembre de 1999] Spatial-temporal distortion metrics for in-service quality monitoring of any digital video system. Proc. SPIE International Symposium on Voice, Video, and Data Communications, Boston, MA.
WOLF, S. y PINSON, M. [julio de 2001] The relationship between performance and spatial-temporal region size for reduced-reference, in-service video quality monitoring systems. Proc. SCI/ISAS 2001 (Systematics, Cybernetics, and Informatics/Information Systems Analysis and Synthesis), p. 323328.
WOLF, S. y PINSON, M. [junio de 2002] Video Quality Measurement Techniques. NTIA Report 02392. National Telecommunications and Information Administration.



Anexo 5a Datos objetivos brutos de la VQM de la NTIA
El presente Anexo tiene por objeto divulgar la totalidad de los datos objetivos brutos de la VQM de la NTIA.
Resumen de datos brutos
Este modelo general desarrollado por la NTIA se diseñó originalmente para obtener valores en una escala nominal de 0 a 1, representando el 0 la ausencia de percepción de degradación y el 1 el máximo de degradación percibida. No obstante, el ejecutable en binario sometido a la prueba VQEG Fase II FRTV transformó los valores (0, 1) del modelo general a (0, 100) para hacerlos compatibles con la DSCQS. Como todos los valores del modelo deben ajustarse a (0, 1), se ha suprimido el factor multiplicativo de 100 (es decir la multiplicación por 100) para restaurar la escala original (0, 1) del modelo general.
Los valores del modelo general se han calculado utilizando los 8 s centrales de vídeo de cada corto, descartando los 10 cuadros suplementarios de vídeo al principio y al final de cada fichero de vídeo descrito en el plan de pruebas VQEG Fase II FRTV. Para las rutinas de calibración se utilizó una incertidumbre de 30 cuadros y una frecuencia de 15 cuadros (véase el § 6 del Anexo 5). Además, la SROI utilizada para calcular el valor de la VQM de cada corto se escogió del siguiente modo:
Paso 1: Para los sistemas de vídeo de 525 líneas, se utilizó una SROI por defecto de 672 píxeles × 448 líneas centrada en el cuadro de vídeo. Para los sistemas de 625 líneas, se utilizó una SROI por defecto de 672 píxeles × 544 líneas centrada en el cuadro de vídeo. Estas SROI por defecto pueden modificarse como se indica en los Pasos 2 y 3.
Paso 2: El modelo requiere 6 píxeles/líneas adicionales válidos en todos los lados de la citada SROI para que los filtros espaciales funcionen correctamente. Si la PVR (calculada automáticamente con arreglo al § 6.2 del Anexo 5) no es bastante grande para abarcar la SROI por defecto más 6 píxeles/líneas (Paso 1), se reduce la SROI en múltiplos de 8 píxeles/líneas únicamente en el sentido necesario (horizontal o vertical).
Paso 3: La SROI siempre se centra horizontalmente de modo que la muestra izquierda comience en un punto de muestreo de luminancia/crominancia de la Recomendación UITR BT.601 que se encuentre en la misma posición. La SROI se centra verticalmente de modo que cuando se divide en dos campos, se descarta el mismo número de líneas de la parte superior de cada campo. Si se ha reducido el tamaño de la SROI en el Paso 2, tal vez no sea posible centrar perfectamente la SROI en el cuadro de vídeo.
El soporte lógico de evaluación que implementa el modelo general y sus rutinas de calibración puede descargarse de:
 HYPERLINK "http://www.its.bldrdoc.gov/n3/video/vqmsoftware.htm" http://www.its.bldrdoc.gov/n3/video/vqmsoftware.htm
CUADRO 15
Datos objetivos brutos para 525 líneas
N.º OrigenN.º HRCNTIA: Proponente H11  0,660(1)120,347130,286140,178210,449220,246230,119240,061310,321320,167330,076340,049450,396460,280470,222480,183550,329560,217570,159580,115650,542660,266670,189680,139750,258760,161770,108780,076890,9118100,7178110,7218120,5268130,4248140,311990,8279100,4539110,5129120,2649130,1889140,1241090,66610100,25010110,37510120,12910130,07810140,1531190,51311100,53411110,40711120,16111130,14811140,1591290,60012100,41012110,47112120,24412130,17112140,1141390,53713100,42513110,34613120,21513130,18813140,169(1) Para la fuente 1, HRC 1, el soporte lógico de calibración entregado al VQEG provocó un error de registro espacial/ temporal que produjo la estimación incorrecta del vídeo procesado a reencuadrar (es decir lo desplazó en un campo, véase el § 6.1.2 en el Anexo 5). Para las otras escenas de HRC 1, el registro espacial/temporal se estimó correctamente. El § 6.1.5.7 del Anexo 5, recomienda el filtrado de mediana de los resultados de calibración en todas las escenas de un determinado HRC como método para producir estimaciones de calibración de mayor validez para un determinado HRC. No obstante, el plan de la prueba VQEG Fase II especificaba que todo el soporte lógico VQM debía producir una única estimación de calidad para cada corto por separado. Así pues el filtrado de mediana de los números de calibración en todas las escenas para un determinado HRC no estaba autorizado por el plan de prueba. De haberse autorizado el filtrado de mediana de los números de calibración, el soporte lógico VQM habría registrado correctamente este corto y la puntuación objetiva sin procesar habría sido 0,529.

CUADRO 16
Datos objetivos brutos para 625 líneas
N.º de fuenteN.º de HRCNTIA: proponente H120,421130,431140,264160,205180,1551100,123220,449230,473240,312260,260280,2262100,145320,472330,506340,308360,239380,1833100,146420,409430,458440,384460,354480,2804100,232520,470530,521540,260560,234580,1325100,083620,391630,364640,290660,252680,1816100,169740,422760,385790,3367100,270840,345860,311890,2808100,242940,344960,285990,2469100,1921040,4101060,3551090,31310100,2411110,7391150,4681170,19911100,2011210,5481250,4411270,36712100,3071310,5981350,4091370,32113100,277
Apéndice 1 Resultados de la prueba del Grupo de Expertos en calidad de vídeo FR-TV Fase II
1 Introducción
La calidad de funcionamiento de los modelos de calidad perceptual contemplados en esta Recomendación se valoró mediante dos evaluaciones paralelas. En la primera evaluación, se utilizó un método subjetivo estándar, el método DSCQS, para obtener los índices de calidad subjetivos del material de vídeo por grupos de observadores expertos. En la segunda evaluación, los índices objetivos se obtuvieron mediante modelos computacionales objetivos. Para cada modelo, se computaron varias métricas a fin de medir la precisión y coherencia con la que los índices objetivos predecían los subjetivos.
En este Apéndice se describe la porción de evaluación subjetiva de la prueba así como los resultados de los modelos computacionales objetivos presentados por los siguientes proponentes:
– Modelo 1 (British Telecom; identificado en VQEG FR-TV Fase II como proponente D).
– Modelo 2 (Yonsei University/Radio Research Laboratory/SK Telecom; identificado en VQEG FR-TV Fase II como proponente E).
– Modelo 3 (CPqD; identificado en VQEG FR-TV Fase II como proponente F).
– Modelo 4 (NTIA; identificado en VQEG FR-TV Fase II como proponente H).
Las pruebas subjetivas se llevaron a cabo en tres laboratorios independientes. En dos de ellos Communications Research Center (CRC, Canadá) y Verizon (Estados Unidos de América), se realizó la prueba con secuencias de 525/60 Hz mientras que en un tercer laboratorio, Fondazione Ugo Bordoni (FUB, Italy), se realizó la prueba con secuencias de 625/50 Hz.
En el Documento1 mencionado se presenta una descripción detallada de la prueba del Grupo de Expertos en Calidad de Vídeo FRTV Fase II.
2 Materiales de vídeo
Las secuencias de vídeo de prueba en los formatos de 525/60 y 625/50 líneas se ajustaban al formato de vídeo de componentes 4:2:2 de la Recomendación UIT-R BT.601 con una relación de formato de 4:3.
2.1 SRC y HRC
Para cada una de las pruebas con 525 y 625 líneas, se utilizaron 13 secuencias fuente (SRC) de distintas características (por ejemplo formato, información temporal y espacial, color, etc.) (véanse los Cuadros 17 y 18).
En ambas pruebas, se escogieron HRC representativos de condiciones típicas de la distribución secundaria de vídeo con calidad de televisión codificado digitalmente. En la prueba de 625 líneas se utilizaron 10 HRC; sus características se recogen en el Cuadro 19. En la de 525 líneas se utilizaron 14 HRC, sus características se recogen en el Cuadro 20.
Tanto en las pruebas de 625 líneas como en las de 525 líneas, las SRC y los HRC se combinaron en una matriz dispersa (véanse los Cuadros 2326).

CUADRO 17
Secuencias del formato 625/50 (SRC)
Número del SRCCaracterísticas1Vista del horizonte desde un barco en movimiento; producida en película de 16:9, pasada a telecine de 576i/502Bailarines en suelo de madera moviéndose con rapidez, con escaso detalle; originalmente capturado en formato D53Partido de balonvolea masculino en pista cubierta; capturado en formato D5 4Fútbol femenino en acción con enfoque rápido de cámara; capturado en D55Dibujos animados tradicionales de 12 fps; fuente pasada a película de 24 fps, pasada después a telecine de 576i/506Meridianos y paralelos del globo terráqueo en rotación lenta; capturada en DigiBetaCam7Movimiento rápido de la escena y de la cámara, con efectos de iluminación8Tocando la guitarra en primer plano, con efectos de luz cambiantes9Color, movimiento, detalle10Gran detalle, fondo con textura, movimiento11Color, movimiento, detalle12Partido de rugby en exteriores; movimiento, color13Movimiento, detalles, agua en movimiento14 (demo)Movimiento rápido de la escena y de la cámara, con efectos de iluminación15 (demo)Movimiento rápido de la escena y de la cámara, con efectos de iluminación16 (demo)Primer plano de un rostro seguido de toma panorámica de una obra





CUADRO 18
secuencias del formato 525/60 (SRC)
Número del SRCCaracterísticas1Partido de fútbol en exteriores, con color, movimiento y fondo basto2Paisaje otoñal con color detallado, zum lento3Dibujos animados con movimiento, color y cortes de escena4Escena de parque con gran detalle, con agua; procedente de una fuente de TVAD5Color y movimiento rápido; procedente de una fuente de TVAD6Color, gran superficie de agua; procedente de una fuente de TVAD7Partido de fútbol de aficionados, movimiento moderado; procedente de TVAD8Parque acuático; (DigiBetaCam)9Actividad en parque temático con movimiento moderado, gran detalle, zum lento; (DigiBetaCam)10Color, movimiento, iluminación moderadamente baja; (DigiBetaCam)11Dibujos animados tradicionales a 12 fps, pasado a película de 24 fps y pasada a telecine de 480i/6012Detalle de fuente en exteriores con zum de cámara; (DigiBetaCam)13Cambios de escena, de primeros planos de arranque de motor a tomas panorámicas lejanas, y viceversa; película original pasada a telecine de 480i/6014 (demo)Primer plano de rosa con brisa suave; movimiento, color y detalle; (DigiBetaCam)15 (demo)Gran detalle, escaso movimiento, procedente de TVAD16 (demo)Estatuas en rotación lenta, ramas de árbol en movimiento; (DigiBetaCam)
CUADRO 19
HRC 625/50
Número del HRCVelocidad binariaResoluciónMétodo Observaciones1768 kbit/sCIFH.263Pantalla completa (HRC15 de VQEG 1)21 Mbits/s320HMPEG2Proponente codificado31,5 Mbit/s720HMPEG2Codificado por FUB42,5 ®ð 4 Mbit/s720HMPEG2Puesto en cascada por FUB52 Mbit/s3/4MPEG2  HYPERLINK "mailto:sp@ml" sp@mlHRC13 de VQEG 162,5 Mbit/s720HMPEG2Codificado por FUB73 Mbit/stotalMPEG2HRC9 de VQEG 183 Mbit/s704HMPEG2Proponente codificado93 Mbit/s720HMPEG2Codificado por FUB104 Mbit/s720HMPEG2Codificado por FUB
CUADRO 20
HRC 525/60
Número del HRCVelocidad binariaResoluciónMétodoObservaciones1768 kbit/sCIFH.263Pantalla completa (HRC15 de VQEG 1)22 Mbit/s3/4MPEG2,  HYPERLINK "mailto:sp@ml" sp@mlHRC13 de VQEG 133 Mbit/stotalMPEG2HRC9 de VQEG 145 Mbit/s720HMPEG2Codificado por CRC52 Mbit/s704HMPEG2Codificado por CRC63 Mbit/s704HMPEG2Codificado por CRC74 Mbit/s704HMPEG2Codificado por CRC85 Mbit/s704HMPEG2Codificado por CRC91 Mbit/s704HMPEG2Proponente codificado; baja velocidad binaria combinada con alta resolución101 Mbit/s480HMPEG2Codificado por CRC; baja velocidad binaria, baja resolución111,5 Mbit/s528HMPEG2Proponente codificado; modulación MAQ64;
salida NTSC compuesta convertida en componentes124->2 Mbit/s720HMPEG2Proponente codificado; codificadores en cascada132,5 Mbit/s720HMPEG2Codificado por CRC144 Mbit/s720HMPEG2Proponente codificado; utiliza códec de soporte lógico
3 Metodología para la evaluación de la calidad de funcionamiento del modelo objetivo
Para las pruebas subjetivas se utilizó el método DSCQS de la Recomendación UITR BT.500. Para la prueba de 525 líneas, se recogieron las notas medias de opinión de diferencias (DMOS, difference mean opinion scores) para 63 combinaciones SRC × HRC. Para la de 625 líneas, se recogieron las DMOS para 64 combinaciones SRC × HRC. Se obtuvieron asimismo los datos objetivos de estas mismas combinaciones SRC × HRC para cada modelo computacional objetivo.
Para la evaluación del modelo, se ajustaron los datos subjetivos y se transformaron los datos objetivos sin linealidad de acuerdo con una escala variable entre 0 (indistinguible de la fuente) y 1. La transformación no lineal fue la siguiente:
DMOSp = b1/(1 + exp(–b2((VQR ( b3)))
siendo:
VQR : (índice de calidad de vídeo) valor real de salida del modelo computacional objetivo
DMOSp : valor transformado sin linealidad.
La calidad de funcionamiento de los modelos objetivos se evaluó en cuanto a tres aspectos de su capacidad de estimación de evaluación subjetiva de la calidad de vídeo:
– precisión de la predicción – capacidad de predecir los índices de calidad subjetivos con poco error;
– monotonía de la predicción – grado de concordancia de las predicciones del modelo con las magnitudes relativas de los índices de calidad subjetivos; y
– coherencia de la predicción – grado en el que se mantiene la precisión de la predicción del modelo en toda la gama de secuencias de prueba de vídeo, o sea robustez de su respuesta en relación con una diversidad de degradaciones de vídeo.
Estos atributos se evaluaron mediante siete métricas de calidad de funcionamiento descritas a continuación.
Métrica 1:  Coeficiente de correlación lineal de Pearson entre DMOSp y DMOS.
Métrica 2:  Coeficiente de correlación del orden del rango de Spearman entre DMOSp y DMOS.
La correlación de Spearman y la correlación de Pearson así como las demás estadísticas se calcularon para todas las combinaciones de SRC por HRC simultáneamente.
Métrica 3:  Relación de valores atípicos entre los «puntos atípicos» y el total de puntos N.
Relación de valores atípicos =ð (número total de valores atípicos)/N
donde un valor atípico es un punto para el que: ABS[ Qerror[i] ] > 2(DMOSStandardError[i].
Se utilizó dos veces el error estándar de la DMOS como umbral para definir un punto atípico.
Métricas 4, 5 y 6:  Estas métricas se evaluaron en base al método descrito en el Informe T1.TR.722001 [ATIS, 2001].
4. Error eficaz;
5. Potencia resolutiva; y
6. Errores de clasificación.
Obsérvese que en la evaluación de los modelos con arreglo a este método se ha omitido el procedimiento de calibración cruzada descrito en el mismo, ya que no es pertinente para las mediciones de la calidad de funcionamiento de los modelos individuales.
Métrica 7:  Esta métrica se basa en la prueba F. Se efectuaron dos mediciones de la prueba F. En la primera medición de F se utilizó el error cuadrático medio calculado a partir de los índices subjetivos individuales. El MSE se obtuvo para un modelo «nulo u óptimo», correspondiente a la DMOS observada y residuos asociados, y para cada uno de los modelos objetivos. Las pruebas F se llevaron a cabo para comparar el MSE del modelo nulo con el de cada modelo, y el MSE del modelo de mejor calidad de funcionamiento con el de los demás modelos. La segunda medición de F se basó en el MSE calculado a partir de los índices medios, es decir DMOS. Concretamente, se calcularon los MSE para cada modelo utilizando los residuos entre los DMOS predichos y observados. Se efectuaron pruebas F para comparar el MSE del modelo de mejor calidad de funcionamiento con el de los demás modelos.
4 Evaluación de los resultados
Los resultados de los cálculos de las métricas se presentan en los Cuadros 21 y 22, uno correspondiente a los datos de 525 líneas y el otro a los de 625 líneas.
La concordancia de las siete métricas de los cuadros es prácticamente perfecta. Si un modelo objetivo se comporta bien con arreglo a una métrica suele hacerlo igualmente con las demás métricas, y viceversa. Además, la clasificación de los modelos objetivos en base a las distintas métricas es esencialmente idéntica en cada uno de los dos formatos de vídeo. No obstante, los resultados de las dos pruebas (525 y 625) son semejantes aunque no idénticos. Hay algunos cambios de clasificación ostensibles entre un experimento y el otro.
Los datos subjetivos ajustados a escala utilizados para calcular estas métricas se muestran en los Cuadros 2326. Los correspondientes datos objetivos obtenidos de los cuatro modelos computacionales objetivos se presentan en los Anexos 25.
5 Datos de la PSNR
La PSNR es una métrica sencilla de la calidad de vídeo. La calidad de funcionamiento de las VQM puede compararse a la calidad de funcionamiento de la PSNR. La PSNR para las secuencias de prueba fue calculada por varios proponentes. Las métricas correspondientes a las PSNR más elevadas se presentan en los Cuadros 21 y 22.
CUADRO 21
Resumen de los análisis para 525 líneas
Número de líneaMétricaD525E525F525H525PSNR52511. Correlación Pearson 0,9370,8570,8350,9380,80422. Correlación Spearman 0,9340,8750,8140,9360,81133. Relación de valores atípicos33/63 =ð 0,5244/63 = 0,7044/63 = 0,7029/63 = 0,4646/63 = 0,7344. Error eficaz, 63 puntos de datos0,0750,110,1170,0740,12755. Potencia de resolución, delta VQM (tanto mejor cuanto menor)0,21770,27180,30740,20870,312566. Porcentaje de errores de clasificación (mínimo sobre delta VQM)0,18890,28930,31130,18480,318077. MSE del modelo/MSE del modelo óptimo 1,2621,591,681,2561,7958F = MSE del modelo MSE/MSE del proponente H 1,0051,2661,33811,4299MSE del modelo, 4219 puntos de datos0,024210,030490,032230,024090,0344210MSE del modelo óptimo, 4219 puntos de datos0,019180,019180,019180,019180,0191811MSE del modelo, 63 puntos de datos0,005590,012120,013650,005480,0161912F= MSE63 modelo/MSE63 proponente H1,022,2122,49112,954NOTA 1 – Las Métricas 5 y 6 se calcularon con el código Matlab( publicado en T1.TR.72-2001.
NOTA 2 – La Métrica 5 se calculó visualmente de los diagramas de dispersión de los documentos de salida.
NOTA 3 – Los valores de la Métrica 7 inferiores a 1,07 indican que el modelo no es distinto, en cuanto a fiabilidad, del modelo óptimo.
NOTA 4 – Los valores de la línea 8 superiores a 1,07 indican que el modelo tiene residuos sensiblemente mayores que el modelo proponente mayor, H en este caso.
NOTA 5 – Los valores de la línea 12 superiores a 1,81 indican que el modelo tiene residuos sensiblemente mayores que el mayor modelo proponente, H en este caso.

CUADRO 22
Resumen de los análisis para 625 líneas
Número de líneaMétricaD625E625F625H625PSNR62511. Correlación Pearson 0,7790,870,8980,8860,73322. Correlación Spearman 0,7580,8660,8830,8790,7433. Relación de valores atípicos28/64 =ð 0,4424/64 =ð 0,3821/64 =ð 0,3320/64 =ð 0,3130/64 =ð 0,4744. Error eficaz, 64 puntos de datos0,1130,0890,0790,0830,12255. Potencia de resolución, delta VQM (tanto mejor cuanto menor)0,3210,2810,2700,2670,31366. Porcentaje de errores de clasificación (mínimo sobre delta VQM)0,3050,2320,2040,1990,34277. MSE del modelo /MSE del modelo nulo1,6521,391,3031,3391,7738F = MSE del modelo/MSE del proponente H1,2681,06711,0281,3619MSE del modelo, 1728 puntos de datos0,029530,024840,023280,023930,0316810MSE del modelo nulo, 1728 puntos de datos0,017870,017870,017870,017870,0178711MSE del modelo, 64 puntos de datos0,01270,007860,006250,006930,0149312F= MSE64 del modelo/MSE64 del proponente F2,0321,25811,1092,389NOTA 1 – Las Métricas 5 y 6 se calcularon con el código Matlab( publicado en T1.TR.72-2001.
NOTA 2 – La Métrica 5 se calculó a ojo a partir de los diagramas de dispersión de los documentos de salida.
NOTA 3 – Los valores de la Métrica 7 inferiores a 1,12 indican que el modelo no es distinto, en cuanto a fiabilidad, del modelo óptimo.
NOTA 4 – Los valores de la línea 8 superiores a 1,12 indican que el modelo tiene residuos sensiblemente mayores que el modelo proponente mayor, F en este caso.
NOTA 5 – En el caso de 625 líneas con 1728 observaciones, el valor crítico de la estadística de F es 1,12.
NOTA 6 – Los valores de la línea 12 superiores a 1,81 indican que el modelo tiene residuos sensiblemente mayores que el mayor modelo proponente, F en este caso.









CUADRO 23
Datos subjetivos para todas las combinaciones HRC-SRC 525/60 – (valores de DMOS)
SRC (Imagen)HRC123456789101112131410,54023680,54832050,40240970,306352820,50255580,31133460,18817390,190734730,46827240,30888310,13003890,129329340,67420050,42508730,37626560,297229450,46825590,32030240,20717020,165275260,5690291*0,43709610,35917880,248216970,37963620,22769340,16444090,181956680,95133870,7897480,84059160,52215550,45720490,461410490,82629120,6603390,71001110,49217080,36565590,2960957100,90841710,59087840,73023760,33457030,25654590,2953144110,66758530,70549290,57611930,327610,3104950,331051120,78833710,62953010,68092880,36514020,27143560,2782449130,72111940,55457220,55254940,27087440,275490,2733771NOTA 1   El valor SRC =ð 6, HRC =ð 5 (*) se suprimió del análisis por superar los requisitos de registro temporal del plan de pruebas.

CUADRO 24
Datos subjetivos para todas las combinaciones HRC-SRC 625/50 – (valores de DMOS)
SRC (Imagen)HRC1234567891010,594610,644360,408040,341090,26770,2687820,541730,709950,274430,227150,211330,1664730,733140,761670,498480,386130,345740,2670140,585280,904460,623610,611430,433290,2654850,619730,689870,416480,42180,275430,202260,388520,444570,279830,281060,237260,1779370,599530,550930,451630,3561780,325280,327270,303030,2636690,476560,499240,391010,37122100,704920,582180,497110,37854110,799190,592560,343370,30567120,614180,66610,532420,44737130,742250,667990,420650,33381


















CUADRO 25
Datos subjetivos para todas las combinaciones HRC-SRC 525/60 – (valores de errores estándar)
SRC (Imagen)HRC123456789101112131410,021094990,02238580,02026540,020037720,020724240,01863530,01642960,017982330,020751640,0213360,01313010,014197740,02244790,02000940,02219450,021602250,02543510,02172780,01793960,01458136 0,02151590,01767660,018030870,01972040,01712240,01477120,018884380,0108920,01806870,01859470,02495370,02723490,025836290,01677110,0187020,02817080,02267760,01937880,0203533100,01443760,02635930,01712870,02023140,019960,018688110,01860460,01895710,02131370,01881850,0202920,0183653120,01751060,02238050,02160390,01927170,01830,0202472130,02132250,0230690,02388450,01967480,01877470,0201108NOTA 1 – Para convertirlos en desviaciones típicas, multiplicar por la raíz cuadrada del número de observaciones, 66.
NOTA 2 – El valor SRC = 6, HRC = 5 se suprimió del análisis por superar los requisitos de registro temporal del plan de pruebas.
CUADRO 26
Datos subjetivos para todas las combinaciones HRC-SRC 625/60 – (valores de los errores estándar)
SRC (Imagen)HRC1234567891010,0402550,0395720,0385670,0404320,0400140,03618320,0386830,0330270,0409570,0383010,0426180,03395630,0395020,0391110,0391090,0425530,0441510,03668540,0317620,0244080,0363750,0313710,029730,04291150,0342990,0447570,04070,035970,0337420,04127260,0406020,0400350,037070,0433410,0352890,04062170,0378940,0321560,0380340,03694680,0368190,0415630,0369880,03746790,0402890,0402650,040150,039649100,0302830,0383340,0379660,041339110,0347610,0348380,0417780,041516120,0373320,0369640,0312530,035114130,0352050,0383850,0383710,043687NOTA – Para convertirlos en desviaciones típicas, multiplicar por la raíz cuadrada del número de observaciones, 27.

6 Referencias Bibliográficas
ATIS [octubre de 2001] Technical Report T1.TR.72-2001 – Methodological Framework for Specifying Accuracy and Cross-Calibration of Video Quality Metrics, Alliance for Telecommunications Industry Solutions, 1200 G Street, NWn Suite 500, Washington DC.













 Doc. UIT-R 6Q/14 [septiembre de 2003] Final Report from the Video Quality Experts Group on the Validation of Objective Models of Video Quality Assessment, Phase II (FRTV2).
2 Esto no impide la implementación de métodos de medida para sistemas de vídeo unidireccional que utilicen entradas y salidas de vídeo compuesto. La especificación de la conversión entre el dominio de vídeo compuesto y el de componentes no figura en la presente Recomendación. En la Norma SMPTE 170M, por ejemplo, se especifica un método para realizar esta conversión en NTSC.
3 A veces es posible omitir la compensación de ganancia para reducir la complejidad computacional. No obstante, sólo se recomienda la omisión de la corrección de ganancia durante las primeras etapas del algoritmo de búsqueda iterativo, cuando el objetivo es encontrar el registro espacial aproximado (véanse, por ejemplo, los § 6.1.5.2 y 6.1.5.3).
4 El registro espacial hasta los 0,5 píxeles más próximos es suficiente para las mediciones de la calidad de vídeo descritas en este Anexo. Las técnicas de registro espacial de subpíxeles van más allá del propósito del presente Anexo.
5 En una posible excepción a esta duplicación, el desplazamiento espacial asociado a cero píxeles horizontalmente y más menos una línea de campo verticalmente podría quedar como más menos una línea de campo verticalmente. Son comunes los desplazamientos espaciales muy próximos a (cero, cero).
6 Cuando el vídeo entrelazado requiere reencuadre, las longitudes de las secuencias de vídeo original y procesada deben reducirse en uno para acomodar el reencuadre. Esto reducirá la longitud del fichero en un cuadro de vídeo con respecto al N especificado en la Fig. 20.
7 La normalización se salta cuando la desviación típica es inferior a uno para evitar la amplificación del ruido y la posibilidad de dividir por cero en las imágenes que contengan un nivel de intensidad plano o uniforme.
8 Existe la hipótesis implícita de que la distancia de observación como función de la altura de la imagen permanece fija (o sea, se utilizan distancias de observación menores para las imágenes más pequeñas). Pueden verse en el § 9 otras observaciones relativas a la distancia de observación supuesta.
9 Todas las duraciones temporales del presente Anexo estarán referidas al número equivalente de cuadros de vídeo de un sistema de vídeo de 30 fps. Por consiguiente, la duración temporal de 6 cuadros (F) se utiliza para representar tanto los 6 cuadros de un sistema NTSC (6/30) como los 5 cuadros de un sistema PAL (5/25). Además, 30 fps y 29,97 fps se utilizan indistintamente en este Anexo, ya que la pequeña diferencia en velocidad de cuadros no tiene repercusión alguna en el cálculo de la VQM.
10 Esta exposición de fHV13, aunque es cierta en general, resulta un tanto simplificada. Por ejemplo, cuando se encuentran determinadas formas, el comportamiento del filtro de fHV13 puede parecer un contrasentido (por ejemplo, una esquina formada por la unión de una línea vertical y otra horizontal se traducirá en energía diagonal.
11 Las correcciones de la ganancia y del desplazamiento no se aplican a los planos de imagen CB y CR. Véase el § 6.3.3.
12 Se utiliza un producto vectorial estándar de las características fCONT y fATI (es decir fCONT * fATI) para las características fp(s, t) procesada y fo(s, t) original en las funciones de comparación ratio_loss y ratio_gain descritas en el § 8.2.1. No obstante, para las funciones de comparación log_loss y log_gain las características procesada y original se calculan como log10[ fCONT] * log10[ fATI], y las funciones de comparación utilizan la resta (es decir fp(s, t) – fo(s, t) en vez de log10[ fp(s, t) / fo(s, t)]).
13 Obsérvese que el índice temporal, t, no indica aquí cuadros individuales (véase el § 7.1.1). En cambio, cada valor de t corresponde a regiones S-T con la misma amplitud temporal.

 PAGE 30  DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683

 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 5

 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 1







-  PAGE 117 -
6/39-E

 PAGE 44  DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683

 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 59







 FILENAME \p \* MERGEFORMAT C:\Comp\UIT-R\Rec\1683\1683-s.doc (168726)  SAVEDATE \@ DD.MM.YY 30.09.04  PRINTDATE \@ DD.MM.YY 30.09.04





-  PAGE 113 - 6/BL/17-S

 FILENAME \p \* MERGEFORMAT C:\Comp\UIT-R\Rec\1683\1683-s.doc (170080)  savedate \@ dd.MM.yy 30.09.04  printdate \@ dd.MM.yy 30.09.04

 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 113
 FILENAME \p \* MERGEFORMAT C:\Comp\UIT-R\Rec\1683\1683-s.doc (175637)  SAVEDATE \@ DD.MM.YY 30.09.04  PRINTDATE \@ DD.MM.YY 30.09.04




 PAGE 114  DOCPROPERTY "Header" \* MERGEFORMAT Rec. styleref hrefUIT-R BT.1683

 DOCPROPERTY "Header" \* MERGEFORMAT Rec. styleref hrefUIT-R BT.1683  PAGE 115














 PAGE 32  DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683


 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 33


 PAGE 44  DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683


 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 59


 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 111


 DOCPROPERTY "Header" \* MERGEFORMAT Rec.  styleref hrefUIT-R BT.1683  PAGE 113