>
Dudas
¿Qué diferencia hay entre la televisión analógica y la digital?
Última modificación: 13/02/2006
En los sistemas analógicos la información se codifica mediante la variación continua de una magnitud eléctrica. Por ejemplo, en la televisión analógica la imagen se compone de líneas horizontales (las famosas 625 líneas). La luminosidad a lo largo de una línea se traduce en una señal eléctrica de tensión proporcional a dicha luminosidad (el blanco equivale a la mayor tensión y el negro a la menor). Esto es válido para la televisión en blanco y negro. Para el caso del color, el procedimiento es algo más complejo.
En los sistemas digitales, en cambio, se codifican los valores de un número discreto de puntos (a diferencia del caso analógico, donde la variación es continua, como hemos dicho). Un ejemplo muy claro es una imagen JPG. Existe un número de puntos o píxeles que dan lugar a la resolución de la imagen (por ejemplo, 600x800) y en cada punto existen tres valores, correspondientes a los tres colores primarios (rojo, verde y azul). Dichos valores están comprendidos entre 0 y 255, de modo que se codifican con un byte. Un punto blanco se expresaría como (255, 255, 255) mientras que uno negro sería (0, 0, 0). Por tanto, una señal digital se compone de dichos valores, que se codifican empleando sólo dos símbolos: ceros y unos. En el caso del formato JPG se emplean además unos algoritmos que reducen sustancialmente la cantidad de información pero sin que la calidad percibida por las personas se vea muy afectada. El estándar empleado en la televisión digital (MPEG-2) comparte muchas características con el formato JPG, pero la complejidad es muy superior ya que se trata de codificar una sucesión de imágenes y no imágenes aisladas.
En una señal analógica, por ejemplo, una voz grabada en una cinta de audio, hay una variación continua con el tiempo, mientras que las señales digitales sólo consideran ciertos instantes (o ciertos puntos, en el caso de una imagen). El procedimiento mediante el que se consideran sólo esos puntos se denomina muestreo. Una vez conocido el valor en los puntos de muestreo debe "redondearse" para que se pueda codificar con uno de los valores permitidos (por ejemplo, un entero entre 0 y 255). Esta operación se denomina "cuantificación".