La historia del desarrollo de formatos de video (artículo más video)


Desde el siglo XIX, la gente comenzó a tener éxito en la creación de sistemas de imágenes en movimiento. Fenakistiskop, Kineograph, Praxinoscope: intentos primitivos pero exitosos de mostrarle al espectador el movimiento. A lo largo del siglo XX y más allá, se desarrollaron formatos de cine y video, cada vez mejores, más complejos, más baratos y más accesibles, dando como resultado el nacimiento de servicios de transmisión de video, donde puede ver un video interesante sobre esto. Para Giktims, lo preparé en el formato de un artículo y dejé un video a continuación.

El artículo es más conveniente por la presencia de enlaces para un conocimiento más detallado de formatos interesantes, y el video contiene muchas ilustraciones.

Muchas fotos

Al cine


En 1832, Joseph Plateau creó el fenacistiscope . El dispositivo tenía un disco giratorio, que debía examinarse a través del orificio. Los "cuadros" dibujados a intervalos regulares, que se reemplazan rápidamente entre sí, crean la ilusión de movimiento.

Se cree que Zootropus fue inventado por William George Horner en 1833, aunque se menciona un dispositivo similar en las crónicas chinas que datan de 180. Dentro del tambor hueco, se pintaron marcos en las paredes.

En 1868, John Burns Linnet patentó la palabra "cineógrafo" como el nombre de un dispositivo para pasar rápidamente páginas de papel con cuadros pintados de una película. Como los que pintaste en los campos de un cuaderno en la escuela.

En 1877, Emil Reynaud patentó el praxinoscopio . De hecho, es un zootrop con un prisma que refleja la imagen de tal manera que compensa la desviación del "marco" hasta el siguiente.

Desde el siglo XVII, existe la idea de un proyector. Solo entonces se le llamó linterna mágica y, por ejemplo, una vela con una chimenea encima se usó como fuente de luz en la estructura.


Tira de película


Entre los dispositivos que permiten grabar una imagen en movimiento a partir de cuadros, el cinetograma en 1891 utilizó una película de celuloide como dispositivo de almacenamiento.

En 1895, los hermanos Lumiere recogieron un montón de logros pasados ​​e hicieron cinematografía , que fue filmada para la famosa llegada del tren.


La velocidad de fotogramas se limitó a 16: el dispositivo utilizó un agarre confiable y enojado para cambiar los fotogramas bruscamente, y con tirones más frecuentes, la película se rasgó. Por la misma razón, no fue posible utilizar una película de más de 17 metros: el rollo pesado no quería girar tan rápido y la película se rasgó nuevamente.
En 1897, Woodville Latham resolvió este problema patentando su circuito . Es decir, crear un búfer entre la rotación continua del rollo de película y el mecanismo de salto, que cambia drásticamente los fotogramas.


Incluso entonces, la cuestión de las normas era grave para la industria. Durante los primeros diez años del siglo XX, el ancho de la película fue más o menos normalizado: esos mismos 35 mm. Resultó ser más difícil encontrar un único estándar para la perforación , en otras palabras, agujeros a lo largo de los bordes de la película, lo que permite que sea desplazado exactamente por un marco. Con agujeros no estándar atormentados hasta los años treinta e incluso cuarenta.



Hoy, la Sociedad de Ingenieros de Cine y Televisión CIMPTI es responsable de estandarizar los agujeros. Fue fundada en 1916, aunque los cineastas ya en 1908 intentaron llevar la perforación a un denominador. Los intentos de los cineastas para ahorrar dinero comprando películas no perforadas y de alguna manera escondiéndolas en sus propias máquinas o incluso dentro de la máquina de filmación condujeron no solo a incompatibilidades, sino también a una imagen de salto durante la reproducción. El punzonado normal de fábrica resuelve ambos problemas.

Cinta magnetica


En 1944, el emigrante ruso Alexander Ponyatov fundó la compañía AMPEX. En el 56, la compañía inventó la grabación de video entre líneas , que utilizaba cinta magnética en las bobinas.


En el mismo año, la BBC ya usó la tecnología para transmitir noticias en vivo. Es difícil sobreestimar la capacidad de grabar transmisiones para televisión, fue un gran avance. Es de la televisión que muchos formatos heredan el escaneo entrelazado .
En 59, Toshiba sugirió utilizar la minúscula oblicua de Norikazu Savazaki, inventada por los japoneses, en lugar de la minúscula transversal: las líneas ubicadas en ángulo con respecto al cabezal del video permitían, por ejemplo, pausar el video con la imagen congelada en la pantalla: en este formato, el cabezal de lectura se superpone a las líneas para Salida de una pantalla en cualquier momento.
En el 65, Ampex desarrolló una película en color.

En ese momento, la película se almacenaba en bobinas, lo que significa que el registro podría arruinarse fácilmente tocando la película con las manos. Y enhebrarlo en un aparato de reproducción era un proceso que requería comprensión, al igual que enhebrar una máquina de coser. Y si no ha sido más fácil con las máquinas de coser a lo largo de los años, entonces los casetes han cambiado la industria de la producción de videos.

De lo análogo a lo digital



El primer formato de cassette industrial fue el U-matic de Sony. Los profesionales de 1971 estaban contentos: los casetes vivían más que los carretes con película, tenían una resolución de 400 líneas y una calidad excelente gracias a una cinta ancha de casi dos centímetros (¾ pulgadas) y una alta velocidad de desplazamiento, y sonido de dos canales.
Para uso doméstico, el formato no encajaba: los casetes eran enormes, con un límite de 90 minutos. Las grabadoras eran aún más grandes. Entonces, a pesar de nuevas mejoras, el Sonya ¾ no conquistó el mundo.



Pero conquistó JVC, después de haber lanzado al mercado el 76 ° sistema de videocasete de video en casa. O simplemente VHS , que para el 84 se ha convertido en el formato principal para el video casero.
Los casetes con un ancho de cinta de 12.5 mm (½ pulgada) podrían almacenar hasta seis horas de video con una resolución de 240 líneas, aunque con mayor frecuencia almacenaron hasta tres horas. Los cassettes no tenían ninguna protección contra copia, lo cual ya era un buen argumento contra el uso del Betamax patentado, un formato rival de Sony, el heredero de U-matic.


Los jugadores de VHS eran más baratos. Además, Sonya calculó mal, prohibiendo vender pornografía en sus casetes.
En el año 83, se lanzó la famosa grabadora soviética Electronics VM-12. El mismo, con una ranura de cassette saltando, y lamido de Panasonic NV-2000.
Pero a pesar de que Betamax perdió la guerra por el mercado de usuarios, su versión Betacam se utilizó activamente en un nicho profesional. En la televisión, por ejemplo. Debido a que VHS no era adecuado para uso profesional: con cada regrabación de la cinta, la calidad disminuía y la distorsión aumentaba. Esto es una consecuencia de la grabación compuesta , que acumula la llamada diafonía . Se grabó una señal componente en Betakam: el video se dividió en canales de brillo y color, lo que redujo el desgaste y la distorsión durante el doblaje.

Era igualmente importante para los profesionales que las cámaras Betakam escribieran directamente en su cinta, y no había necesidad de tirar de cables a una grabadora separada. Y esto es comodidad y movilidad adicionales.

Betakam se desarrolló en paralelo con otros formatos, pero siempre fue una solución profesional.

Se rumorea que en algunos lugares todavía hay transmisiones de los casetes de Betakamov.

Nuestro VHS vivió bien hasta la llegada masiva de "home theaters" y DVD baratos, y en Occidente en ese momento aparecieron nuevos formatos.

Ocho años después del lanzamiento de VHS, Sony lanzó un competidor: Video-8 .


El formato era compacto: ocho es solo el ancho de la película. El formato dio una calidad ligeramente mejor que VHS con una resolución de 250 líneas. No debe confundirse con Super-8 del año 65: un formato popular de rodaje en casa en el que se usaba película. Pero los ocho no capturaron el mercado nacional de videos, aunque ganó algo de popularidad: estas pequeñas cintas convenientes encontraron su nicho, convirtiéndose en el estándar para las videocámaras Handycam . Es probable que tus padres tengan en algún lugar de la mesa un cassette con su boda.

S-VHS y Hi-8 reemplazados. La calidad del video ha crecido, los principios de grabación de señales han cambiado, la cobertura de la película ha mejorado, las cintas han dejado de ser óxido y se han convertido en polvo de metal.

S-VHS pasó de una señal compuesta a una de dos componentes: los canales de luminancia y color se escribieron por separado. La resolución ha crecido a 400 líneas. El formato comenzó con orgullo o con dudas llamados dispositivos semiprofesionales para la edición y transmisión profesional basados ​​en él. Los cassettes se parecían al VHS normal, y las grabadoras eran compatibles con versiones anteriores.

Hi-8 es la más alta calidad de formatos analógicos domésticos. Resolución - 420 líneas. El cassette se parece a Video-8.

La historia del desarrollo de formatos analógicos termina aquí, pero la historia de los videocasetes no termina. Es solo que ahora se está escribiendo una señal digital en casetes.

Pero primero, hablemos de discos . Que también almacenó primero video analógico.


Los primeros intentos de grabar video en un disco se hicieron a fines del siglo XIX.
La primera patente para dicho sistema, capaz de almacenar un poco más de un minuto de video, se registró en 1907.

A principios de los años setenta, Ted, de veinte centímetros, tenía entre cinco y diez minutos.
En el 78, un VISC de vinilo de 12 pulgadas (30 cm) almacenó una hora en cada lado, pero ni siquiera permitió que el video se detuviera.

El CED potencialmente exitoso fue planeado en el 64, y salió en el 81, inmediatamente desactualizado y falló.

El famoso Laserdisc de 30 centímetros localmente del año 78 mantuvo una hora en una resolución de 440 líneas. Además de los estados y Japón, no tuvo éxito en ninguna parte.

El VHD de 25 centímetros del año 83 mantuvo una hora al margen, pero no tuvo éxito y murió tres años después.

Los discos digitales comienzan con discos compactos. El primer formato adecuado fue el Video CD del '93, que produjo calidad VHS, pero no el códec MPEG1 más económico, sobre el cual un poco más tarde, limitó la duración de dicha grabación a una hora y cuarto. Bueno, tres años después salió un DVD y nadie pudo competir con él durante mucho tiempo.

Ahora volvamos a las cintas, que se han convertido en digitales.

Antes de eso, había módulos digitales en grabadoras y grabadoras. Por ejemplo, manipular la grabación de una señal componente requiere computación digital, lo que significa un procesador (al menos en el sistema de grabación), pero la señal se escribió en las cintas analógicas.

Ahora, en lugar de canales de brillo y color, las secuencias de datos digitales se escribían en los casetes, de lo contrario, todo era similar.

Y si para el espectador esto significó solo una mejora agradable en la calidad, para los profesionales de producción de video, el advenimiento de las tecnologías de grabación digital ha simplificado increíblemente la vida.

No puede dispersar especialmente un casete analógico, y puede dispersar un casete digital en cincuenta o incluso cien veces, sin perder la capacidad de leer una grabación. Esto simplifica enormemente la edición y reduce críticamente el tiempo desde el metraje hasta las grabaciones que están listas para su transmisión.

Y finalmente: una señal digital se puede copiar y sobrescribir (casi) tantas veces como desee, no se produce degradación: un dígito es un dígito.

El primer formato digital: D1 de Sony. Donde D - significa Digital, y 1 - significa que el primero. Apareció en el 86.


Curiosamente, los cassettes son muy similares a los cassettes del primer formato de video U-matic: también una película de ¾ de pulgada de ancho, además, óxido y no polvo de metal. El sistema proporcionó un flujo de datos de 270 Mbps. Es interesante que con los códecs modernos, el video en 8K normalmente se ve solo en 50, pero más sobre eso más adelante.

El formato implica codificar la señal del componente en 4: 2: 2 y fue muy apreciado por los profesionales por la abundancia de dispositivos convenientes para editar y procesar y la conveniencia del formato en sí.

El formato D2 no figura en la lista de Sony, sino de Ampex, aunque el primero participó en el desarrollo.


El formato resultó ser holístico: los casetes eran más baratos, las grabadoras conectadas con equipos analógicos sin DAC adicionales, pero la calidad era peor y el formato se agudizó para uso doméstico. Lo mejor que puede escuchar de los profesionales sobre D2: "Bueno, es mejor que el BHS".

D3 duplicó la grabación, haciendo que la producción de video sea más barata.

D4 no existía en el mercado.

D5 finalmente trajo alegría a los ojos de los profesionales: la codificación de 10 bits y la falta de compresión bloquearon las necesidades de D1. Su versión HD hizo posible elegir entre 1080 entrelazado y 720 progresivo con una frecuencia de hasta 30 fps.

D6 en el año 93 hizo posible escribir una secuencia en la locura por estándares de computadora 1.2 Gb / s sin compresión. Para la implementación normal de dicha densidad de datos, se desarrolló un nuevo sistema de corrección de errores. Y los aburridos formatos D terminan ahí.

En la misma 93, Sony lanzó Digital Betacam en el mercado.


El sucesor superpuso a D1 e hizo posible producir y procesar video de manera económica, formando un sistema modular de dispositivos compatibles. Y era compatible con versiones anteriores de Betacams antiguas. Los operadores y fabricantes del sistema de video se enamoraron.

En el 95, ella tenía un rival Digital-S .


También se llama D9 en una aburrida tradición digital. Los casetes parecían VHS. Un poco más tarde, apareció la versión HD. La señal fue codificada en el sistema DV.

DV o Digital Video es un grupo completo de formatos que han sido desarrollados colectivamente por Sony, Panasonic, Philips, Hitachi y JVC y que han influido mucho en el mercado desde el 95.


Los casetes en el marco de DV pueden tener varios factores de forma, incluso pequeños, en los que, posiblemente, se almacenan las segundas bodas de sus padres.

A través de DV, hacemos una transición perfecta de medios físicos a interfaces digitales y computadoras. Y el video digital tiene la capacidad de ser almacenado y transmitido como archivos.

Y eso significa que aparecen términos como códec y contenedor. Bueno, finalmente, dejamos de hablar sobre la resolución de las "líneas" en el formato de TV y comenzamos a hablar en el formato de píxel de la computadora.

Archivos y transmisiones


Un contenedor es un formato de archivo o flujo de datos en el que los datos se codifican de una manera.

El códec es un codificador y decodificador. Lo que transforma los datos. En el caso de los medios, los códecs están diseñados para comprimir el flujo de datos y, a menudo, lo hacen con pérdidas.

Dentro de los formatos DV, el contenedor puede ser AVI, Quicktime o el MXF menos conocido. Los códecs dentro de estos contenedores y formatos pueden ser diferentes.

Si hablamos de compresión de video, hay una regla general: cuanto más avanzado esté el código, más pequeño puede ser el flujo de datos o el tamaño del archivo, pero se necesitarán más recursos para la reproducción con una calidad de grabación subjetivamente igual.

El desarrollo de códecs tuvo lugar en paralelo con el crecimiento del rendimiento de la computadora.

En 1988, apareció el códec H.261 . Pocos han oído hablar de él, aunque fue en él donde aparecieron los conceptos de marcos de referencia, transformaciones de vector de bloque y otras tecnologías que ahora se utilizan en todos los códecs populares.
Es decir, el video no se almacena como una secuencia de cuadros, como en la película. El codificador analiza el video, que encuentra un cambio brusco en la imagen, por ejemplo, el comienzo de una nueva escena, y guarda dicho cuadro, que se llama marco de referencia. Y hasta que el siguiente marco de referencia describa solo los cambios en este marco a lo largo del tiempo, dividiendo la imagen en bloques.

En el 93º Grupo de Expertos en Imágenes en Movimiento (MPEG), formado por la Organización Internacional de Normalización (ISO), desarrolló un grupo de estándares de compresión MPEG-1 .

Con respecto a H.261, fue posible construir cambios no solo a partir del marco de referencia pasado, sino también a partir del siguiente; y también codifica alguna sección aislada del resto.


En 96, apareció MPEG-2 . Fue él quien más tarde codificó los DVD , se puede imaginar la escala de distribución. El entrelazado volvió al juego, y nada fundamentalmente nuevo.


En DVD-video necesita detenerse en detalle. Estos discos aparecieron en el lejano 96 y, en 2003, se convirtieron en el principal formato de video de consumo.


Las películas se grabaron con una resolución de 720 × 576 píxeles, que coincide con el formato D1. Al mismo tiempo, la compresión permitió reducir la tasa de bits, es decir, el flujo de datos, hasta 9.8 Mbit / s, lo que le permitió escribir películas en discos con una capacidad de 4.7 GB. Formato de codificación: 4: 2: 0, con una disminución en la resolución de los canales de color: este truco le permite reducir el tamaño del archivo sin afectar en gran medida la calidad de la imagen, ya que el canal de brillo permanece en su resolución original.

El tercer MPEG no existe por separado; todos sus chips fueron absorbidos por el segundo. Tampoco tiene nada que ver con mp3 . Comenzaron a desarrollarlo aproximadamente a la par con el segundo, apuntando a tasas de bits más altas, pero luego resolvieron todas sus tareas dentro del marco de MPEG2.

98 - aplausos a la piratería o MPEG-4 .


Primero, el códec DivX patentado ayudó a grabar el DVD en CD , luego su contraparte abierta, Xvid . La calidad era, por supuesto, mucho peor que el DVD.
Pero la película de una hora y media ocupaba 700 MB y en el auge cero de la piratería cinematográfica estaba vinculada precisamente a estos códecs. Si había películas en la computadora, eran películas de este formato, con raras excepciones.

Y a partir de 2003, comienza la modernidad. El Equipo Conjunto de Video, bajo el patrocinio del omnipresente Grupo de Expertos en Imagen en Movimiento, presentó el códec H.264 , que codificó el video en la parte inferior de la publicación.


Bueno, casi, después de todo, se ha finalizado desde entonces, y YouTube generalmente superó mi video en VP9 =) Por ejemplo, en 2007, se lanzó un complemento para H.264 - SVC (Codificación de video escalable), que no solo complicaba la decodificación y así , , .Lo más probable es que haya visto imágenes en Internet en un jeep progresivo cuando se cargan no de arriba a abajo, sino primero en las cajas , y luego se resuelven mejor hasta que se cargan por completo. Aquí hay una historia similar. Con la ventaja de que los dispositivos que necesitan emitir video en una resolución inferior a la de la película pueden ahorrar recursos en la decodificación de capas adicionales.

Y el códec es realmente intensivo en recursos. Contiene muchas tecnologías avanzadas en las que, por desgracia, no soy fuerte. Sin embargo, hoy en día, incluso los teléfonos hacen frente con éxito al video FullHD en este formato, mientras que los mejores utilizan 4K.

Al mismo tiempo, la tasa de bits de dicho video en 1080p fluctúa alrededor de 2 Mbit / s, y aún menos sin sonido. Y el hecho de cuánto puede reducir la cantidad de datos al aumentar correctamente el volumen y la complejidad de los cálculos todavía me sorprende.

En 2006, aparecieron las ruedas Bluray .


En dos años, expulsaron a su rival HD-DVD . Aún vivo Las bases de datos fueron desarrolladas por un consorcio completo de grandes empresas. Los discos son de una o dos capas, con una capacidad de 25 y 50 GB, respectivamente. El video para ellos está codificado en MPEG-2, MPEG-4, H.264 y en el nuevo códec de Microsoft VC-1 .

Para los HD-DVD, los valores de capacitancia eran un poco más modestos (15 y 30 GB), pero también podían ser de doble cara. El conjunto de códecs es el mismo.

Al mismo tiempo, el futuro se acerca lentamente. A muchos les gustaría conocerlo frente al códec VP9 gratuito , pero lo más probable es que sea la sonrisa corporativa H.265 , que también se llama HEVC. ¿Qué puedo decir, con el próximo =)


En serio, ambos códecs encontrarán su lugar. Ya hoy puede ver inserciones de video en sitios que se implementan en el formato abierto de WebM , que usa VP9 u 8. Y dado que Google solo fuerza el uso de VP9, ​​YouTube también admitirá ambos códecs nuevos.

Ambos códecs no son revolucionarios, pero esta es otra ronda de tecnología de video. El video en H.264, y en VP8, y en H.265, y en VP9 se ven geniales. Solo los dos últimos son más pequeños y tienen un techo más alto. Otra pregunta es cuánto más rápido o más lento se codificará el video en nuevos formatos, por lo que los productores de contenido modestos, como Slaylama, también serían convenientes. Sí, y estos códecs no tienen competidores especiales, porque hoy nuevamente es importante si los dispositivos pueden decodificar el hardware de video: su teléfono inteligente extraerá fácilmente algunos Theora de código abierto, pero se descargará mucho más rápido. Por lo tanto, nuevamente tenemos el bien y el mal, Coca-Cola y Pepsi, Android y iPhone, VP9 y H.265.

Source: https://habr.com/ru/post/es409073/


All Articles