jueves, 11 de abril de 2019

Vídeo analógico (vídeo)


Conceptos básicos sobre vídeo

Conceptos de Vídeo analógico Durante 1965 las televisiones ya utilizaban de forma habitual el vídeo. Las primeras grabaciones que se efectuaron sobre soporte magnético de películas se produjeron hacia 1970.

La grabación en vídeo el cual se podía borrar con facilidad, volver a grabar, se tradujo en un formato de grabación de bajo coste comparándolo con otros procedimientos de laboratorio, esto condujo a que el vídeo fuese una herramienta auxiliar excelente para la realización de películas.

En esta sección definiremos el funcionamiento del vídeo analógico y el vídeo digital, además de otros conceptos.

Señal del video

La señal de vídeo se origina a partir de la conversión de variaciones de intensidad de luz por cambios de intensidad eléctrica. Todo esto se produce cuando existen materiales fotosensibles.

La imagen de vídeo se forma partiendo de la reproducción de una serie de imágenes por segundo. Con esta sucesión de imágenes a una determinada frecuencia, se logra la sensación de movimiento (framerate). La velocidad a través el cual se visualizan las imágenes se denomina framerate, y es equivalente al número total de imágenes (frames) mostradas en un segundo.

5 frames por segundo 
 
 

Imagen de vídeo

luminancia y crominancia La información que se encuentra en la señal de vídeo en cada uno de sus frames es de dos tipos, por un lado existe el nivel de luz representando cada punto de imagen y por otro los tonos de color.

Luminancia y Crominancia

Luminancia: Es la que recibe la información con toda la intensidad luminosa y se representa la imagen en blanco y negro con todos los tonos mediante la escala de grises. No contiene información sobre los colores de la imagen.


Crominancia: Comprende los canales RGB, es decir rojo, verde y azul, representa la combinación de los tres colores primarios.
 

Sistema de vídeo compuesto

Este estándar es el que se utiliza en sistemas de vídeo VHS. Tiene dos señales independientes, en una existe la información de luminancia, mientras que en la otra contiene la crominancia.

El vídeo compuesto tiene una calidad inferior a otros sistemas debido a la facilidad con la que se pierde o deteriora la señal, al mezclarse las señales de crominancia y luminancia.

La resolución con la que emite este sistema de vídeo en el televisor es de 625 líneas horizontales x 220 líneas verticales.



Sistema de vídeo por componentes

Imagen televisor Este formato codifica el canal de luminancia y crominancia, además de separar los colores primarios RGB. Las tres señales de vídeo se registran de forma independiente a través de la cinta de video durante el proceso de grabación, para ello se precisan tres cables, cada uno de ellos transporta una señal

Este sistema hace que la imagen tenga una excelente calidad.

La resolución de este sistema es de 625 líneas horizontales por 700 líneas verticales.

Sistemas de transmisión televisivos: NTFS, PAL y SECAM

Satélite Actualmente existen tres estándares televisivos a nivel mundial, el NTFS, PAL y SECAM. La diferencia entre ellos estriba en la velocidad en la que se emiten los fotogramas y su resolución.

Cada país tiene uno de los tres sistemas de transmisión televisiva. Con ello queremos indicar que si utilizamos algún estándar o tipo de transmisión que se utilice en otro país que no sea el nuestro, deberemos realizar la conversión correspondiente al estándar que utiliza nuestro país, para que podamos visualizar la producción filmada correctamente.

Todos los aparatos utilizados, cámaras de filmación de vídeo, televisiones, etc., se encuentran acordes con el sistema de transmisión estándar propio de cada país. En el caso de PC u ordenadores, se encuentran preparados para visualizar varios sistemas.

Sistema de vídeo RGB o S -Vídeo

Sistema RGB o denominado también Y-C, Y(luminancia) y C(crominancia).Este formato de vídeo se caracteriza porque codifica la información por separado, es decir tiene un canal para la luminancia y otro para la crominancia.

También se denomina S-Vídeo, sistema de vídeo por separado.

Una excelente ventaja de este formato es la alta calidad que muestra el mismo, debido a la separación de ambos canales.

El vídeo se emite a una resolución de 625 líneas horizontales x 420 líneas verticales.

Sistema RGB vídeo 
 
 

Como se forman los sistemas de televisión analógica

El televisor consta de un tubo catódico, este emite una serie de rayos de electrones que barren la pantalla, de arriba hacia abajo y de izquierda a la derecha. Estos rayos de electrones van formando una serie de líneas en el televisor horizontales y verticales, escaneando toda la pantalla, a un número determinada frecuencia por segundo.

Todo este trazado de líneas es lo que forman los distintos sistemas de transmisión televisivos, PAL, NTFS y SECAM.

Dependerá del número de líneas trazadas y fotogramas por segundo para determinar un sistema u otro.

Tubo catódico de la imagen en color

Células fotosensibles

El tubo de la imagen en color, lleva incorporados tres cañones de electrones, uno para cada color primario, rojo, verde y azul. La ráfaga emitida por cada cañón, pasa por un soporte perforado que lo dirige a cada punto luminiscente de su correspondiente color y hacerlo activo con su distinto nivel de brillo.

Sistema televisivo NTFS

El estándar NTFS, o más bien traducido como: National Televisión Systems Committee, es el que se utiliza los países de Japón y Estados Unidos.

La forma de transmisión en NTFS, es de 525 líneas en la pantalla a una velocidad de unos 30 fotogramas por segundo o imágenes mostradas por segundo (fps), también se denomina (frame rate), velocidad de los fotogramas.

En lo referente a maquinas informáticas ordenadores, encontraremos vídeos en el sistema NTFS da 29,97 fps, no de 30.

Sistema NTFS

Sistema PAL

Sistema PAL

El sistema PAL es el estándar utilizado en Europa, Australia, China y Suramérica, con lo cual España utiliza este sistema de transmisión. El sistema PAL responde a las siglas Phase Alernating Line.

El sistema PAL emite 625 líneas a través de una serie de ráfagas producidas por electrones sobre la pantalla del televisor a una velocidad o frecuencia de 25 fotogramas o imágenes por segundo o fps

Sistema SECAM

Sistema Secam

El sistema SECAM es el que se utiliza en los países de FRANCIA y JAPÓN. SECAM viene de las siglas "Séquentiel Couleur avec Mémoire" en francés o "Color secuencial con memoria".

La transmisión televisiva en SECAM, se forma escaneando la pantalla del televisor a 625 líneas y a una frecuencia de 25 frames por segundo.

Este sistema es compatible con el sistema PAL, ya que utilizan los mimos formatos de escaneo y velocidades en los frames, la diferencia es la forma de cómo se codifica el color. Con esto queremos decir que podemos reproducir filmaciones en aparatos de sistema SECAM o a la inversa.

Edición Lineal

Edición lineal Existen varias formas para editar el video, la edición lineal y la no lineal.

La edición lineal es la que se ha utilizado tanto el en cine como en el vídeo analógico.

Esta forma de edición no permite cortar un fotograma de forma libre sin ningún orden, se sigue de forma secuencial la filmación. Por ejemplo si queremos retocar o eliminar un fotograma que se encuentra en el intervalo 200, debemos pasar del 1 al 199 y cortarlo y luego volver a juntarlo. Esto conlleva una pérdida de tiempo a la hora de editar un vídeo.

Edición no Lineal

La forma no lineal es la utilizada por la tecnología digital. Esta forma de edición permite ordenar los frames en el orden que deseemos. Podemos tratar cualquier fotograma o cuadro de imagen de forma directa sin necesidad de seguir toda la secuencia, independiente de la forma y orden de cómo hemos grabado el vídeo.

Si deseemos eliminar el fotograma 200 no precisamos pasar antes del 1 al 199, sino que directamente accedemos al 200 y lo cortamos o eliminamos no y necesitamos enlazar con el próximo fotograma, como el sistema lineal.

Edición no lineal


Fuente: http://www.digitalfotored.com/videodigital/videoanalogico.htm

Vídeo digital, digitalización edición y exportación (vídeo)


Digital video El sistema de video digital se maneja a través del ordenador. La información que se procesa es una serie valores establecidos y entendibles por el ordenador, basados en ceros y unos, conocida como BIT.

La tecnología digital ha contribuido fuertemente en el tratamiento de la imagen y sonido a la obtención de un producto final de alta calidad.

En este apartado, desarrollaremos diferencias entre el vídeo digital y el vídeo analógico, el proceso de digitalización del vídeo digital, edición, difusión, y compresión digital entre otros conceptos.


Diferencias entre Vídeo digital y el analógico

Existen una serie de diferencias y ventajas notables entre el vídeo digital y analógico, entre ellas definimos algunas de ellas:

Primera: En el sistema de vídeo digital la calidad de imagen se encuentra totalmente independiente, solamente se ve afectada durante el proceso de digitalización de la misma. En el sistema analógico depende de la calidad de la cinta de vídeo, el reproductor, etc.

Segunda: El sistema digital permite el sistema de edición no lineal, podemos editar las imágenes y el sonido de forma más rápida sin seguir ningún orden. En cambio en el sistema de video analógico la edición sigue el criterio lineal, ya que depende de un soporte de cinta magnética y conlleva seguir un orden en la secuencia de filmación.

Tercera: Los colores en la edición de vídeo analógico se encuentra limitado a la hora de reproducir una imagen en los niveles de contraste y brillo. En el video digital utiliza los tres colores primarios, haciendo que los colores de la imagen se definan de forma más exacta.

Cuarta: En el sistema de vídeo digital, la realización de copias no presentan ninguna clase de perdida en calidad, pudiéndose realizar tantas copias como queramos, en cambio en el sistema analógico la calidad depende del número de copias y grabaciones además de otros componentes externos.

Tratamiento vídeo digital: Digitalización

Para digitalizar un vídeo, precisamos partir de una señal o bien analógica o bien digital y directa.

Digitalizar, quiere decir convertir nuestro vídeo a lenguaje máquina, es decir capturarlo (pasarlo de nuestra cámara al ordenador) y colocarlo dentro de nuestro ordenador o PC partiendo de una señal u otra.

Edición del vídeo digital

Edicion video digital El proceso de edición del vídeo digital no es ni más ni menos que el tratamiento de este vídeo que hemos capturado a nuestro ordenador. Durante este proceso, realizaremos corte a los fotogramas que deseemos presentar a nuestra filmación al igual que la incorporación del sonido que deseemos. Este apartado de edición lo ampliaremos durante el desarrollo de este capítulo.

Los formatos de video con los que podemos editar son los siguientes:

AVI, MJPEG, MPEG2, DVD, QUICKTIME, entre otros.

Difusión del vídeo digital

Difusión: El último proceso que se realiza en el tratamiento del vídeo digital, es la difusión, publicación o grabación ya sea en soporte CD, DVD o a través de Internet por la Red.

Los formatos de difusión que nos podemos encontrar: MPEG, MPEG-2, MPEG-4 con sus diferentes códecs (concepto que ampliaremos más adelante) DivX, Xvid, etc.


Editar un vídeo digitalmente

El proceso de digitalización mencionado anteriormente es el proceso en el cual se procesa la información de nuestra cámara de vídeo al ordenador. Esta información se registra en forma de dígitos, 0 y 1, sistema binario que comprende el ordenador.

Podemos digitalizar de dos formas, una desde una señal analógica y otra desde una señal digital.

Digitalizar desde medios analógicos

Cuando trabajamos con tecnología basada en señales electromagnéticas, la señal de vídeo analógico se transforma a un formato digital, para que nuestro PC pueda guardar y procesar la información de forma adecuada.

Para ello precisamos de una tarjeta capturadora analógica que disponga de una entrada de video compuesto, o vídeo separado o por componentes

Digitalizar desde señal analógica

Cable I.Link Cuando queremos digitalizar información desde una tecnología digital una miDV u otra cámara digital, la información ya está procesada en forma de dígitos binarios (lenguaje máquina), con lo cual se traslada directamente al ordenador sin necesidad de ser traducida a lenguaje digital, ya que se encuentra en el mismo lenguaje que entiende la máquina.

Esta capturación se realiza mediante una tarjeta capturadora con entrada (Firewire) o denominado también cable de fuego. A esta entrada se denomina I.LINK, un sistema de comunicación de alta velocidad basado en el estándar IEE1394, el cual permite transmitir a tiempo real sonido e imagen sin ningún tipo de perdida.

Método de compresión vídeo digital

Una vez hemos digitalizalizado un vídeo, nos implica un proceso de compresión, ya que de lo contrarío nos ocuparía mucho espacio en el disco duro de nuestro ordenador. Debemos tener presente que un vídeo sin comprimir puede alcanzar 1megabyte (MB) de espacio de nuestro disco. Y a una velocidad de 25 fps, cada segundo de nuestro video ocuparia 25 MB/segundo con lo cual necesitaríamos mucho espacio en nuestro pc tan sólo para pocos segundos.

Normalmente cuando el vídeo se ha de editar, la digitalización se realiza a máxima calidad, para evitar pérdidas en la calidad.

Existen dos tipos de compresión de vídeo intra-frame o inter-frame

Tipo de compresión por intra-frame

Intraframe

El intra-frame o compresión espacial, comprime cada fotograma por separado. El intra-Fame son las imágenes completas (Keyframes). Este método es de mayor calidad, lo que hace que ocupe más espacio.

Un ejemplo de tipo de compresión de este método es el AVI

Tipo de compresión por inter-frame

Interframe: www.techonline.com

El inter-frame, es aquel método que comprime a partir de similitudes entre los fotogramas. Este método tiene menor calidad.

En este método de compresión podemos citar del tipo MPEG

MPEG, Formato de compresión de vídeo digital

Este estándar de compresión fue desarrollado por Moving Picture Experts Group, o dicho de otra forma, expertos en imágenes en movimiento.

El método de compresión que utiliza es el de similitud de contenidos, si percibe una parte común a todo guarda un ejemplar eliminando el resto. De esta manera se consigue una reducción de espacio.

Este formato se clasifica en: MPEG-1, MEPG-2, MEPG-3 Y MPEG-4

MPEG1

Es te formato de compresión de vídeo digital, surgió durante el año 1991. Su calidad se parece al del sistema VHS.

La principal finalidad de este tipo de formato de compresión fue el de poder colocar el vídeo digital en un soporte muy conocido para todos nosotros, el CD-ROM. Su tamaño es de 1,5 mega bits por segundo y se presentaba a una resolución de 352 x 240 píxeles NTFS o 352 x 288 en PAL. Actualmente este formato se utiliza bastante para visualizar vídeos por internet.

MPEG2, utilizado por la televisión digital y el DVD

dvd El MPEG2 aparece en 1994 y es uno de los formatos de compresión que ofrece mayor calidad de imagen, alcanza a su vez una velocidad en la transmisión de datos de 3 a 10 Mbits de ancho de banda

Este formato ofrece la transmisión de ficheros de vídeo digital a pantalla completa o broadcast.

El MPEG2, es el utilizado por la televisión digital y para la codificación del DVD de vídeo

Trabaja con resoluciones desde 352 x 480 y 1920 x 1080 píxeles o 720x576 (PAL) y 720x480 (NTSC).

MPEG3

El MPEG3, se desarrolló para la televisión digital de alta calidad aunque el formato MPEG2 también cumplía perfectamente esta función. El formato MPEG3 tiene mayor ancho de banda que el MPEG2 y se optó por la utilización finalmente del formato MPEG2. Por este motivo el proyecto orientado en el MPEG3 se abandonó.

MPEG4, formato para DivX y Xvid

Divx Uno de los codecs utilizados en este formato son los famosos, DivX y XviD. Una de las grandes ventajas que ofrece este formato es una muy buena calidad, muy parecida al del formato DVD, a cambio de un factor de compresión mucho más elevado que otros formatos, dando como resultado archivos o ficheros más comprimidos que otros e ideales para poder transmitir los datos a través de Internet.

Utiliza una resolución de 176 x 144 píxeles.

MPEG7

MPEG7, este formato está en proyecto, cómo el estándar que más se utilizará en Internet y televisiones interactivas.

Este formato codificará además de la imagen y sonido datos en lenguaje XML.

MPEG7 servirá de gran ayuda para el avance de la nueva televisión interactiva con introducción de buscadores de contenidos, búsquedas de audiovisuales etc.


Formato AVI

Formato avi AVI, de las siglas (Audio video Interleave) que quiere decir audio y vídeo entrelazado, es el formato de Windows desarrollado por Microsoft. Las pistas de audio y vídeo se encuentran grabadas de forma consecutiva en varias capas. Se ha ido alternando la grabación entre imagen y sonido, pero de una forma tan rápida que nuestros sentidos, tanto el oído cómo vista lo perciben de forma paralela.

AVI un formato de archivo que puede guardar datos en su interior codificados de diversas maneras y que utiliza diferentes codecs que aplican diferentes factores de compresión.

AVI DV tipo-1 y DV Tipo-2 o formato DV (Digital Video)

AVI DV tipo-1 y AVI DV tipo-2, son dos versiones de Microsoft, en que cada una de ellas tiene un tipo de codec (codificador o decodificador) que han utilizado para almacenar los datos.

Las videocámaras digitales hacen sus grabaciones en formato DV directamente en formato digital, para después ser editadas en nuestro ordenador.

El formato AVI es el formato que encontraremos guardado en nuestro ordenador tras captura de datos de nuestro video cámara digital DV.

DV (Digital Vídeo)

El formato DV responde a las siglas de "Digital vídeo", este formato es el que utilizan las videocámaras digitales para la grabación y transferencia de datos.

Toda la información que graba nuestra cámara en formato DV, es en lenguaje binario, unos y ceros. La transferencia de los datos a nuestro ordenador no necesita traducirse de ninguna forma, porque la videocámara ya los tiene digitales tal como los entiende el ordenador.

El DV contiene vídeo y sonido y a través de el, podemos almacenar más de 60 minutos de vídeo. El sonido se encuentra en formato de 16 bits PCM muy parecido a la calidad de una Compact Disc y el vídeo se encuentra con un factor de compresión muy elevado con lo que ocupa poco espacio y guardando la calidad de la imagen.

Utiliza un sistema entrelazado.

Transferencia datos en formato DV al ordenador

Capturar DV Para conectar nuestra cámara al ordenador y realizar la transferencia de datos citados anteriormente en formato DV necesitamos:

Un puerto FireWire o Cable de fuego, por la velocidad en la tasa de transferencia de datos que puede llegar a alcanzar. Este puerto fue desarrollado por Apple. Más tarde se estandarizó al formato DV y con el nombre IEEE 1394 o i.Link, mini-DV.

Existen diferentes tipos de cable FireWire.

Sino disponemos de este puerto en nuestro ordenador, podemos instalarlo, mediante una tarjeta controladora PCI.

Fuente: http://www.digitalfotored.com/videodigital/videodigital.htm








Sonido (introducción)

El sonido

El sonido El sonido es una de las partes muy importantes en una película cinematográfica, en una filmación o grabación de vídeo.

A través del sonido podemos captar muchas cosas sin verlas. El sonido nos informa de forma directa lo que se nos quiere transmitir, es decir el contenido de un mensaje, una sensación, una visión en cambio la imagen muestra lo que ocurre.

Los humanos somos más tolerantes con la visión y aceptamos con más facilidad un error, que el oído con el sonido.

En esta sección hacemos un poco de referencia del concepto de sonido, el oído humano, muestreo del sonido, niveles de grabación. Algunas sistemas de sonido, y demás materiales que se emplean para trabajar con el.

Como se forma el sonido

El sonido viaja en forma de ondas y a través del aire. Cuando mayor es la onda más fuerte es el sonido.

La onda se forma por la presión provocada por los objetos que vibran, desplaza partículas de aire creándose la onda. Esta onda llega al tímpano de nuestro oído y vibra. Esta vibración es lo que oímos y definimos cómo sonido.

La onda de las partículas de aire forma una onda de sonido.

Visualización de las ondas de sonido

Si por ejemplo lanzamos un objeto al agua, una piedra, o simplemente el salto de una rana al agua, vemos que se forman unas ondas en el agua. Las ondas se mueven hacia fuera desde el punto que se lanzo el objeto y lo hace a una velocidad constante, a esta velocidad la denominamos "frecuencia" y a una altura determinad por el tamaño del objeto lanzado. El agua se mueve o desplaza por la presión que crea el impacto del objeto lanzado, ese movimiento en el agua son lo que denominaríamos las ondas en sonido.

Longiud onda y la frecuencia

La altura de la onda representa su volumen, que queda determinado por la potencia de la fuente de sonido, o la fortaleza de la vibración que creó la onda de presión.

Siguiendo el anterior ejemplo de lanzar un objeto al agua, cuando mayor sea el objeto lanzado, mayor serán las ondas que se crearan en el agua.

La longitud de una onda se denomina longitud de onda, y en número de ondas que se recogen en un mismo punto en un espacio de tiempo, se denomina frecuencia de la onda, y esta se mide en Hercios (HZ o KHZ). El oído humano capta un intervalo de frecuencias de 20 HZ y 20.000 HZ.

Las frecuencias bajas de 20 Hz, se denominan infrasonidos y las frecuencias más altas 20.000 Hz, se definen como ultrasonidos.

Imagen longitud de onda


Como se convierte el sonido en digital

El sonido digital es un poco más complejo que el analógico, ya que no se almacena mediante oscilaciones de onda, sino que se ha de convertir en ceros y unos, lenguaje digital (código binario o máquina).

El proceso de digitalización precisa la grabación de la altura actual de la onda de sonido a intervalos regulares. La longitud de estos intervalos se denomina, tasa de muestreo, a ese proceso se define como muestrear. Cada nivel o pico es una muestra y cuando las coloca todas juntas ordenadas forman una representación digital de la onda de sonido.

Imagen de la forma de una onda de sonido digital

Forma de onda en sonido digital 

El sonido importado a un programa se representa como onda de sonido. Los picos representan la amplitud o intensidad del sonido durante un espacio de tiempo.

A la conversión del sonido de analógico a digital, se denomina Analog Digital Conversión o Conversión Analógico Digital.

Formatos de sonidos digitales

Una vez se ha producido la conversión del sonido a formato digital, obtenemos varios formatos "Codecs". Algunos de ellos los mencionamos en el apartado anterior sobre codecs.

Recordamos algunos de ellos: MP3, WMA, AC3.

Hercios, frecuencia muestreo

Al convertir el sonido de analógico a digital, se tiene en cuenta dos factores la frecuencia de muestreo y el nivel o cuantización de este muestreo.

La frecuencia de muestreo quiere decir, durante cuanto espacio de tiempo vamos hacer muestreo de la señal. El nivel de cuantificación, quiere decir que número de niveles habrán en cada espacio de tiempo.

Muestreo, pulsos por segundo

La tasa de muestreo se expresa en Hercios, que son las muestras o pulsos por segundo.
Por ejemplo si tenemos un archivo de sonido de 40 Khz., hacemos referencia al tiempo que existe entre muestra y muestra. 40 Khz. (khercios) se traduce en 40.000 hercios, muestras por segundo (Un Khz. equivale a 1000 hercios).

Ley Nyquist

Teoría Nyquist

Existe una ley descubierta por Nyquist, que dice que si la tasa de muestreo es dos veces la frecuencia más alta que contiene el sonido, este se puede muestrear o samblear el audio, sin pérdida de calidad.

Poniendo por ejemplo la frecuencia más alta que podemos escuchar es de 20 Khz. (20.000 hz). Esto se traduce a que si muestreamos un sonido a 40 KHZ, nadie notará la diferencia entre un sonido original a un sonido muestreado. Los discos compactos contienen sonido muestreado a 40 Khz., un nivel máximo de muestreo, dando como resultado una copia digital perfecta.

Niveles de muestreo del sonido digital

Como hemos definido anteriormente, las muestras de cada invervarlo se convierten en un nivel. Dependiendo de la cantidad de información que haya en cada muestreo, existirán más o menos niveles. La tarjeta de sonido es la que almacenará en ceros y unos la información, en código binario.

Se utilizan varias longitudes de este código binario, de 8, 16, 24 o 32 bits.

Por ejemplo la señal muestreada a 8 bits, es (2 elevado a 8) esto se traduce a 256 niveles distintos.

Un ejemplo es el de los famosos CDS de música, presentan un muestreo de 16 bits, esto representa 65.536 niveles distintos y 44.1 Khz., por segundo.

Crear un buen audio para nuestro vídeo

Grabar audio Mientras nos encontramos realizando una grabación en vídeo, la mayoría nos olvidamos de la gran importancia que tiene el sonido y desgraciadamente es la parte que menos importancia prestamos.

Tener un buen sonido es tan importante cómo la filmación de las imágenes, en cualquier trabajo de vídeo. Un buen sonido sube la calidad de nuestras imágenes mientras que un mal sonido, las estropea.

Si queremos filmar un vídeo en exteriores, añadir música, grabar conversaciones entrevistas, uno de los elementos ideales para ello son los micros.

Existen diferentes clases de micros, vamos a citar algunos de ellos y sus características y su función principal.

El micrófono es un transductor

El micrófono es un aparato que capta ruido. El micro nos permite realizar una conversión entre las variaciones de presión y variaciones de nivel en una corriente eléctrica.

El micrófono convierte las variaciones de presión del aire "ondas sonoras", en variaciones mecánicas, impulsos eléctricos de corriente eléctrica. De esta forma podemos guardar y manipular sobre algún dispositivo o soporte en formato analógico o digital. A este proceso se denomina modulación. Finalmente estos impulsos eléctricos se vuelven a transformar en ondas de presión a través de los altavoces, por ello se define al micrófono como transductor.

Sensibilidad del micrófono

Micrófono

El voltaje que produce cada unidad de presión sonora es lo que definimos sensibilidad del micrófono.
Existen varias clases de micrófonos, un punto que deberemos tener en cuenta es la sensibilidad al sonido que proceda de varias direcciones distintas. Existen métodos profesionales que permiten tener varios micros, uno de ellos el sistema modular del K6.

Diagrama polar del micrófono

El diagrama polar del micrófono es el que muestra la sensibilidad con la que puede captar el sonido según el ángulo con que este incida.

Los micrófonos pueden tienen su direccionalidad y pueden ser, omnidireccionales, cardioides y direccionales.

El micro omnidireccional: Son aquellos que mantienen una igualdad en la sensibilidad en todos los ángulos de incidencia. Sino nos importa de donde viene el ruido de nuestra grabación, utilizaremos un micro omnidireccional. Además otra de las ventajas que supone esta clase de micro es que no tenemos que apuntar hacia la persona o fuente de sonido que pretendemos grabar.

Micro cardioide

El micro cardioide: Es aquel que alcanza la máxima sensibilidad en la parte delante y menor en resto. Es decir graba delante y por los costados. Este tipo de micro es adecuado para grabar voces, ya que ignora bastantes ruidos de los alrededores.

Micro direccional

Micro supercardioide
El micro direccional: Se caracteriza porque no permite que se acerquen demasiado al personaje, entonces se utiliza el supercardioide.

Este micro es el más utilizado en equipos de vídeo.

Este micro direccional rechaza en gran medida las señales procedentes de la verbereación no deseada.

Clases de micrófonos: Corbata

Micro de corbata El micro de corbata o también denominado lavalier, es un micrófono ideal para la captura de las conversaciones, diálogos, se utiliza mucho en los estudios televisivos, en los informativos. Su construcción es sencilla pero los resultados son excelentes. Se ha de tener en cuenta no grabar el sonido del roce del micro con la ropa del entrevistado.

Graba sonido en todas las direcciones, y esta exento de fuente de corriente externa.

Tiene una frecuencia de 30 a 20.000 hz. Su importe de compra alcanza los 160 euros.

Micrófono de pistola

Micrófono de pistola Este micrófono es un cardioide. Se conecta a la cámara a través de un pie, y un pequeño acoplamiento de energía.

Al unir la unidad de energía junto con el micro, este ofrece una frecuencia de 40 a 20.000hz.

Este equipo, es ideal para grabar en zonas al aire libre, espacios que precisamos tener un buen nivel de sonido para compensar la distancia de la fuente de sonido. Es aconsejable introducir un filtro de bajos, para eliminar cualquier ruido provocado por el viento algún roce.

Podemos encontrarlo en el mercado por 290 euros aproximadamente.

Micrófonos externos

Micrófono externo Este tipo de micrófono es ideal para grabar el sonido de una sala o habitación. Es muy indicado para utilizarse con cámaras de video y se conecta a traves de una zapata, reduce de forma eleva el ruido y motor de la misma.

Incluye cortavientos y una fuente de energía interna. Ofrece una frecuencia de 150 a 170.000 hz. Su precio de compra oscila entre los 200 euros.

Grabadora MiniDisc

Grabadora MiniDisc Sony MZ-NH1 Las grabadoras MiniDisc son una excelente opción. Se les puede acoplar micrófonos semiprofesionales. Captan la grabación en calidad CD, excelente formato para video doméstico y bandas sonoras.

Otra característica importante es que son muy manejables, de bajo peso y bajo coste. Su precio de coste se encuentra entr los 440 euros.





Fuentes: http://www.digitalfotored.com/videodigital/sonido.htm

Codecs (vídeo y audio)

Codec

La palabra codec se traduce de las palabras codificador y decodificador. Un codec no es ni más ni menos que una serie de funciones algoritmicas necesarias para comprimir un archivo, a este proceso de compresión se le denomina "codificación" y descomprimir o decodificar los datos de audio y vídeo.

Esto quiere decir que si queremos reproducir un vídeo digital y no tenemos instalado el códec con el que se han codificado los datos no podremos visualizarlo correctamente en nuestro PC, deberemos buscar los codecs y tenerlos instalados.

No ocurre lo mismo si reproducimos un vídeo a través de un reproductor DVD doméstico, dependerá de los formatos que reconozca el DVD para poder reproducirlos con sus respectivos codecs.

Algoritmos de los códecs


Los codecs utilizan diferentes algoritmos, algunos són muy rápidos a la hora de codificar, en cambio otros son muy lentos.

Algunos de los algoritmos más conocidos de los codecs:

Microsoft, Indeo, Cinepack, M-JPEG, DivX, Xvid. Cada unos de ellos se diferencia por su forma de codificación


Clases de codecs: Vídeo y audio

Los codecs que utiliza el Vídeo y que ya hemos hecho referencia en el capítulo anterior, el MPEG-1 y MPEG-2, y los de formato contenedor AVI. Los de la clase MPEG-4 con los codecs Xvid i DivX.

Codecs utilizados para su reproducción en internet en formato DV (digital video), los de los reproductores Windows Media de Microsoft, Real Media y QuicKTime.

Los codecs que utilizan en el Audio, uno de los más conocidos es el MP3 o Layer3. Es uno de los codecs de audio más utilizado por el MPEG-1. Otro codec el que responde a las siglas AAC, Advanced Audio Coding, se dice que será el futuro formato que más se utilizará.

WMA, de Windows Media Audio o el AC3, sonido Dolby Digital utilizado en las películas.

Existen muchos más codecs, sólo hemos mencionados algunos de ellos.

Instalación y comprobacion de los codecs

Una vez hemos comprobado los codecs que contiene nuestro vídeo, debemos localizarlos por vía Web o a través del fabricante, e iniciar el proceso de instalación a nuestro PC.

La instalación de los codecs es sencilla, bastará con iniciar la descarga o instalación en el ejecutable de codec o paquetes de codecs.

Actualmente no hablamos de instalar solamente un codec de forma individual, sino que nos encontramos con una serie de paquetes de codecs, que nos ayudaran a solucionar alguno que otro problema.

Codec packs y donde descargarlos

Relacionamos algunos de los paquetes de codecs más comunes:

K-Lite Codec Pack Es uno de los paquetes de codecs más populares, se presentan en diversas versiones: Full, Standard.

La versión (Standard) es la más recomendable ya que tiene varias utilidades además de los codecs más comunes, de entre ellos encontramos los de: DivX, 3ivD, Windows Media, etc.

** Descarga el K-Lite Codec Pack en http://www.codecguide.com

Codec elisoft codec-pack

Codec elisoft-codec-pack Elisoft Codec Pack, Es una enciclopedia de codecs, filtros y otras utilidades para la optimización y edición. Con la instalación de este paquete de codecs podremos reproducir cualquier formato de audio y vídeo.


Fuente: http://www.digitalfotored.com/videodigital/denicioncodec.htm

Resoluciones de vídeo para youtube

Podemos colgar vídeos en You Tube en diferentes calidades. Aquí teneis algunas opciones con diferentes indicaciones para exoportar vuestros vídeos con la calidad más adecuada.

FULL 1080p HD
Audio: Stereo, 44KHz, 1411kbps
Resoluciones: 1920×1080, 1920×800, 23.97fps, Progressive
Formato de Salida de Video: MPEG4 Video (H264)
Formato de Salida de Audio: AAC/40
Formato de Descarga de Video: MP4

720p HD
Audio: Stereo, 44,1KHz, 1411kbps
Resoluciones: 1280×720, 1280×534, 29.9fps, 16:9, 8bits, Progressive
Formato de Salida de Video: MPEG4 Video (H264)
Formato de Salida de Audio: AAC/40
Formato de Descarga de Video: MP4

480p HD
Audio: Stereo, 44,1KHz
Resoluciones: 864×368, 640×480, 23.97fps, Progressive
Formato de Salida de Video: MPEG4 Video (H264)
Formato de Salida de Audio: AAC/40
Formato de Descarga de Video: FLV

360p HD 
Audio: Stereo, 44,1KHz
Maxima resolución: 640×272, 23.97fps, Progressive
Formato de Salida de Video: MPEG4 Video (H264)
Formato de Salida de Audio: AAC/40
Formato de Descarga de Video: FLV
 

Los mejores conversores de video para Mac y Pc

Conversores de video para PC

Format factory 

Conversor multifuncional y gratis, convierte todo tipo de archivos y es uno de los más completos. Tiene una gran multitud de opciones para elegir el formato de salida permitiéndote ajustar la calidad entre baja, media y
alta.

Video to video converter

Soporta más de 200 formatos de salida entre los que están los más convencionales AVI, MPEG, MP4. MKK H.264… Te permite hacer conversiones de varios archivos a la vez, lo que viene muy bien si tenemos varios archivos para convertir en el mismo formato, podríamos utilizar esta alternativa. Fácil e intuitivo. Si hay algo malo de esta aplicación es que si no tienes un ordenador potente te será más complicado funcionar con él ya que dispara un gran uso de la RAM en tu CPU al hacer esta conversión de formatos.

Freemake video coverter

Diseño más actual que los anteriores, gratuito también y con una buena usabilidad. Cada archivo no sólo se puede convertir sino que también se puede editar. En las pruebas realizadas ha estado un poco inestable, cerrándose el software en determinados momentos pero la valoración aun así, es positiva.

Easyvid Video converter

Conversor rápido y eficaz. Todo está muy a mano, visualizando todos los botones necesarios para la conversión en un abrir y cerrar de ojos. Si quieres cosas simples este programa te será bastante útil, puedes cortar vídeos y hasta insertar subtítulos. Por poner algo en contra del programa podría decir que falta alguna especie de tutoría o ayuda más extenso en su info.


Conversores de video para MAC

Total Video Converter Mac Free

Da igual el origen del video o del audio. Este conversor gratuito convertirá ese archivo con un simple drag and drop y darle al botón actualizar. Así de fácil y rápido es este conversor conocido por los usuarios de MAC.
Tiene una peculiaridad y es que se integra directamente con el iTunes y permite que el proceso sean aún más rápido y fácil de hacer. Algo en contra de este software es que en algunos archivos no se nos da la opción de hacer vista previa para poder visualizar el archivo antes de ser convertido, lo que dificulta a la hora de cortar un clip concreto si es lo que deseamos.

Handbrake

Buen conversor gratis para hacer que tus películas en formatos enormes se conviertan en visualizables en un iPad o en el appletv, puedes también añadir subtítulos, crear nuevos canales de audio y editar el fragmento o clip de tu video. En contra diré que otros software tienen muchos más formatos de salida que éste, pero si lo que buscamos está en él, será entonces una buena opción.

Free video converter

Innumerables opciones de salida en este conversor gratuito, muy fácil e intuitivo pero sin vista previa de los archivos antes de la conversión. Por lo tanto si tienes claro lo que quieres exportar y no quieres editar el clip, ésta es una muy buena opción. Destacar que puedes convertir varios archivos a la vez.

Miro video converter

Otro conversor gratuito pero en inglés, si no tienes problema con el idioma, es una gran alternativa, muy visual y efectiva. añade tu video, escoge el dispositivo de salida y el programa se encarga de todo. No puedes convertir varios vídeos a la vez.

Prácticas 3ª Evaluación (presentación: miércoles 15/04/2019)

P1. Sinopsis de Monstruoso
P2. Analisis fílmico de la película elegida por cada una
P4. Descripción del personaje de cada uno (estereotipo, arquetipo y evolución)
P5. Pequeño guión literario y técnico para un corto usando los personajes trabajados.

P6. EL CORTO (Realización de un corto una vez revisadas las propuestas) :
  1. Sinopsis.
  2. Storyline.
  3. Story board
  4. Guón literario-diálogos.
  5. Guión técnico

*Lee y revisa los apuntes para hacer los ejercicios (especialmente las últimas entradas en Temas)
** Busca inspiración en películas y cortos para desarrollar los ejercicios.
***Haz una entrada para cada ejercicio.

Examen el día 9 de mayo de 2019 a las 10:20h

Formatos cinematográficos (cine)

El formato cinematográfico se rige a dos ideas complementarias y a la vez diferentes, ya que una se refiere al tamaño de la película utilizada, a los milímetros del negativo (formato de película) y la otra describe la zona que realmente utilizamos de la película, la parte impresionable del negativo (formato de exposición). También tenemos que tener en cuenta el formato de proyección, que hace referencia a la compresión del formato de exposición a la hora que proyectamos un film. Este proceso se realiza para eliminar pequeños defectos que podrían afectar a la película.1​está limpiando

Formatos de película

El formato de película hace referencia a las dimensiones totales de la película que se utiliza, contando con el espacio que ocupa la imagen, el sonido (si lo hay) y las perforaciones.

 
Película de 35mm original, sin espacio para el sonido. Relación de aspecto de 1:33.

Historia de los formatos de película

La historia de los formatos de película se inicia con el formato más famoso entre el sector: el formato estándar o comercial, que fue impulsado por William Kennedy Dickson y Thomas Alva Edison en el año 1889 y que se basaba en una película de 35mm de ancho con ocho perforaciones, cuatro a cada lado. Este formato se compone de una capa de nitrato de celulosa y de unas perforaciones que difieren según su positivado o su condición de negativo. El formato 35mm es muy versátil en la práctica, hecho que propulsó varias modificaciones en el negativo, como su adaptación al color y al sonido.2​ El 35mm es uno de los formatos más usados en todo el mundo por los cineastas, juntamente con el formato 70mm y 16mm.3

Este último formato fue introducido por la compañía de Eastman Kodak en el año 1923, y se estableció como alternativa al formato 35mm, que era sumamente más caro. El formato 16mm se consagró como primer formato el área del cual daba acceso a una proyección con garantías: su tamaño y luminosidad eran suficientes para una sala de cine estándar. Este formato contiene solamente una perforación, situada entre dos fotogramas consecutivos.

El formato 70mm se desarrolló en el año 1995, y estuvo destinado inicialmente a proyecciones espectaculares, en pantalla grande. Usualmente, este formato contiene cinco perforaciones a cada lado de la película, pero existen variaciones que optan por formatos más cuadrados (entre ocho y diez perforaciones a cada lado).

Además de estos formatos, a lo largo de la historia del cine también ha habido otros formatos de película como el formato 9,5mm, 55mm, 65mm, Súper 8.

Tabla de formatos de película4

Formato Año País Creador/a/es/as Características
35mm 1889 Estados Unidos de América William Kennedy Dickson, Thomas Alva Edison Cuatro perforaciones en cada lado de la película.
70mm 1894 Gran Bretaña Birt Acres Cinco perforaciones en cada lado de la película, excepto variaciones.
17.5mm 1898 Gran Bretaña Birt Acres Dos perforaciones en cada lado, una al centro y varias en la línea de separación de los fotogramas.
28mm 1912 Francia Compañía Pathé Tres perforaciones en cada lado (Estados Unidos de América y Canadá). Tres perforaciones en la izquierda y una en la derecha en Europa.
9.5mm 1912 Francia Compañía Pathé Una sola perforación en la parte central del fotograma.
16mm 1923 Estados Unidos de América Compañía Eastman Kodak Una perforación entre dos fotogramas consecutivos.
8mm 1933 Estados Unidos de América Compañía Eastman Kodak Una perforación en cada lado del fotograma.
Súper 8 1965 Estados Unidos de América Compañía Eastman Kodak Una perforación en el centro de un lado del fotograma.

Formatos de exposición

Comparativa de las tres relaciones de aspecto más comunes. La azul (2.39:1) y la verde (1.85:1) son usadas en el cine. La roja (4:3) hace referencia a la televisión tradicional. Actualmente, la televisión utiliza el formato panorámico (16:9).
 
Comparativa de las tres relaciones de aspecto más comunes. La azul (2.39:1) y la verde (1.85:1) son usadas en el cine. La roja (4:3) hace referencia a la televisión tradicional. Actualmente, la televisión utiliza el formato panorámico (16:9).

Este formato responde a la parte del negativo que es usada de la película, la zona impresionable del negativo. Está ligado al formato del celuloide, ya que determinamos el formato según las dimensiones de este y las dimensiones de la ventana de exposición.

Nos podemos referir al formato de exposición de dos maneras: según el producto formal de sus dimensiones en milímetros o según el cociente entre su anchura y su altura, lo que denominamos relación de aspecto5.
 
Una vez el formato de 35mm pierde su condición de formato estándar (ya que aparecen formatos nuevos), los formatos se identifican más con sus dimensiones, respecto a los milímetros de su ventana de exposición.

Los formatos de película suelen requerir de varios formatos de exposición: Del formato 35mm nace el formato full-frame y el 1.33, el formato usado en el cine mudo, donde la imagen ocupaba totalmente el cuadrado de la película, ya que no tenía que dejarse espacio para la banda sonora. El formato 35mm responde a una proporción 4:3, que tiene una forma parecida a un cuadrado, ya que sus dimensiones son de 18mm x 24mm. Su relación de aspecto es de 1.33.6

Incorporación del sonido

Una vez aparece el sonido en el cine, en el año 1927, surge la necesidad de dejar un espacio en el fotograma para incluir los diálogos, los sonidos y la banda sonora. La pista óptica lateral que proporcionaban las películas de exposición con sonido triunfaron por encima de los discos sincronizados que se vendían con las películas mudas.7​ La altura del formato de 35mm se reduce (queda en 16mm x 22mm), hecho que hace aumentar su relación de aspecto a 1.37, afectando su resolución visual.8​ Además, la película se tenía que proyectar a 24 fotogramas por segundo, con la finalidad de que el sonido tuviera una calidad adecuada.9​ De esta necesidad nace el formato académico, consagrado como formato 1.37 una vez aparece la televisión.
Asimismo, podemos decir que, en sus inicios, el cine usa el formato 1.37, formato casi igual al 4:3, que se usaba en televisión.
Panorama de Robert Barker, que sirvió de inspiración para los arquitectos en un intento de combatir la televisión e innovar el cine. De aquí saldrán los formatos panorámicos.

Respuesta ante la televisión

Desde el Crac del 29, la industria tiene a reducir costes: utiliza formatos de exposición de menor anchura para ahorrar. Pero, cuando aparece la televisión en el año 1955 y se instala en las casas, el cine sufre una grave decadencia, ya que la televisión puede ofrecer a los espectadores lo que el cine en las salas de proyección.
Como respuesta, los estudios decidieron atacar a la televisión impulsando el cine en color (en aquella época la televisión solo era en blanco y negro), el sonido estereofónico y los formatos panorámicos, sinónimo de construir pantallas de cine más grandes, para poder ofrecer a los espectadores algo que la televisión no podía darles.10
Panorama de Robert Barker, que sirvió de inspiración para los arquitectos en un intento de combatir la televisión e innovar el cine. De aquí saldrán los formatos panorámicos.
Esto hizo cambiar las pantallas de las salas donde se proyectaban películas, y supuso graves problemas arquitectónicos a los edificios que albergaban cines. Gracias al conocimiento adquirido de Robert Barker, los arquitectos optaron por alargar los laterales de la pantalla para hacer la pantalla más grande. Hoy en día se mantienen los formatos panorámicos en las salas de cine.
Los formatos panorámicos son diferentes a cada lado del océano: mientras que en Europa el fotograma tiene una relación de aspecto de 1.66, en los Estados Unidos de América tiene una relación de aspecto de 1.85, superando todos los formatos basados en el 35mm.
Las pantallas panorámicas comenzaron a surgir gracias a la aparición del Cinemascope, que también era fruto del formato de 35mm. Su relación de aspecto es de 2.35. A partir de entonces, se introdujeron formatos como el VistaVision, el Cinerama, Panavision, Technirama, Formato polyvision, IMAX, entre otros.

Tabla de formatos de exposición

Formatos Características Medidas Formato de película Relación de aspecto
full-frame Original de las películas mudas, formato parecido a un cuadrado. Ocupa toda la película. 18mm x 22mm 35mm 4:3
Formato académico También conocido como formato 1.37 TV. Se usa en copias destinadas generalmente a televisión. Nace como respuesta a la entrada del sonido en el cine. 16mm x 22mm - 1.37
Formato de cine panorámico europeo
Formato apaisado para cine. Se añade letterbox /pillarbox a la hora de trasladar un film a la televisión. 13,25mm x 22mm - 1.66
Formato de cine panorámico americano Formato apaisado para cine. Se añade letterbox /pillarbox a la hora de trasladar un film a la televisión. 11,85mm x 22mm - 1.85
Cinerama Formato panorámico abandonado el 1963. - 35mm 2.59
Cinemascope Formato panorámico introducido el 1953. 18.66mmm x 22mm 35mm 2.35
Vistavision Formato panorámico creado por Paramount Pictures. - - 3:2
IMAX Formato panorámico de resolución y definición muy elevada. 69,6mm x 48,5mm 70mm 1.43
Digital 3D Formato panorámico para percibir la imagen tridimensional-mente. - - -

Tabla de formatos de exposición según su relación de aspecto

Formatos Características
1:1 Formato que se parece a una fotografía polaroid. Raramente se usa en cine.
3:2 (1.50:1) Se usa generalmente en fotografía. El formato Vistavision lo usaba.
4:3 (1.33:1) También conocido como formato estándar por excelencia hasta la aparición de los formatos panorámicos. Usado en las televisiones tradicionales, conjuntamente con el formato 1.37 TV.
5:3 Formato del cine panorámico europeo. Parecido a la sección áurea.
1.85:1 Formato del cine panorámico americano y británico.
16:9 (1.78:1) Formato estándar utilizado en la televisión de alta definición. Parecido a una pantalla de cine.
12:5 (2.39:1) Formato estándar del film de 35mm anamórfico a partir del 1970.
2.59:1 Formato panorámico del Cinerama.
2.76:1 Formato ultrapanorámico usado en films de 65mm.
12:3 (4.00:1) Formato usado en el sistema Polyvision.

Adaptación a la televisión

La televisión tradicional no siguió las incorporaciones que hizo el cine a la hora de establecer nuevos formatos panorámicos. La televisión se reafirmó en el formato 4:3. Este hecho supuso un problema en el momento en que una película quería emitirse por televisión.

 
Fotograma ajustado al formato de la televisión (4:3) mediante la técnica de pan and scan.
 
Fotograma ajustado al formato de la televisión (4:3) mediante la técnica de pan and scan.
Las primeras soluciones a esta problemática fueron ajustar el formato en vertical, cosa que llevó a hacer desaparecer la sensación panorámica. Consistía en suprimir los laterales del fotograma, sustituyéndolos por unas barras negras, perdiendo más de un 30% de la imagen. Este efecto se conoce como pan and scan. En Europa, solucionaban el problema centrando una sola vez la película entera, hecho que llevaba a burlar la composición escogida por el/la directora/a. En los Estados Unidos de América, en un intento de huir de este único encuadre, los cines contrataban a un operador que se encargaba de encuadrar el plano cada vez.11

Con la entrada del videodisco y del vídeo doméstico (VHS) en la década de los años 80, las televisiones optan por ajustarse más al formato de la obra original. Pudieron conseguirlo gracias a un proceso de conversión de formatos, en los cuales se incluyen el proceso Letterbox y Pillarbox.12​ El primer proceso consistía en añadir al fotograma dos barras negras arriba y abajo, proporcionando un curioso estiramiento de la imagen que permitía verla en totalidad (o casi). El segundo proceso añadía estas barras, denominadas mattes, en cada extremo.13

Actualmente, la proyección de películas concebidas en formato panorámico en las televisiones no supone ningún tipo de problemática, ya que las pantallas planas de hoy en día tienen mayoritariamente una relación de aspecto de 16:9, derivada de los formatos de vídeo digital en alta definición, como el formato HD 720 o 1080. Entonces, para reproducir películas concebidas en formato panorámico de 1.85 (formato americano) o en un formato Cinemascope (2.39) se tendrá que usar la técnica Letterbox.14​ En cambio, para reproducir películas concebidas en formato panorámico 1.66 (formato europeo) o académico (1.37), se utilizará el proceso Pillarbox.15​ Estos procesos se harán para mantener la relación de aspecto y para no distorsionar la imagen cinematográfica.

Líneas narrativas de los formatos de exposición

Es indudable que los formatos de exposición condicionan la percepción que recibimos a la hora del visionado. Podemos argumentar que si los asistentes de la primera proyección cinematográfica (28 de diciembre de 1895)16​ hubiesen visto la película de los hermanos Lumière en formato 1:1, la leyenda urbana (o no) de que huyeron de la sala al ver el tren, no sería tan exagerada.

En la década de los años cincuenta, la industria, establecida en Hollywood, abandonó los formatos cuadrados para pasar a formatos más panorámicos, más fílmicos. Se atribuye esta categoría ya que el espectador vincula visualmente los formatos cuadrados a la televisión, y los formatos panorámicos al cine. La visión humana es panorámica, ya que de la manera en que los humanos tenemos los ojos puestos en la cara, vemos más en horizontal que el vertical. Los formatos panorámicos consiguen una mejor inmersión visual.17

No obstante, muchos directores optan por formatos panorámicos con la intención de contextualizar detalladamente. Una puesta en escena titánica y colosal en formato panorámico ayudará a la narrativa de la película y condicionará totalmente al espectador, cosa que un formato cuadrado no conseguiría. Destacamos, por ejemplo, Dersu Uzala, de Akira Kurosawa, donde se utiliza un formato panorámico para remarcar la relación que el protagonista tiene con la naturaleza y la importancia de esta para el personaje.

Actualmente, los formatos más cuadrados no se utilizan demasiado, en comparación a su uso antes de los años cincuenta. Cuando se utiliza este formato, mayoritariamente se rige a cuestiones narrativas, de estética o de temática.18Gust Van Sant, por ejemplo, usa el formato académico en su película Elephant para crear una sensación de aislamiento y de desgana por parte de los personajes.19
Si ya es escasa la producción en formato cuadrado, es prácticamente nula la producción en formato 1:1, parecido a una fotografía polaroid. No obstante, hay directores que lo usan para explotar en totalidad todos los límites narrativos del lenguaje cinematográfico. Este es el caso de Mommy, película de Xavier Dolan, concebida en una relación de aspecto de 1:1, que se rige a cuestiones estéticas y temáticas que juegan a favor de la ficción. El director utiliza este formato para encerrar a los personajes en una especie de cárcel que crea el encuadre, y que acentúa el estado emocional de los protagonistas.20

La sensación que uno puede tener al ver un film en formato 1:1 se parece a estar visionando una película en vertical o en un Smartphone.21​ La gran innovación de la película aparece cuando, a mediados de la película, una vez el estado emocional de los personajes ha mejorado, el propio protagonista con sus manos cambia el encuadre y pasamos a un formato 16:9, que vuelve a cerrarse cuando aparecen los problemas de nuevo. El cambio de formato dentro de una película se perfila como la nueva herramienta narrativa que las generaciones futuras de directores van a usar.22
De aquí surge una problemática: plataformas en línea de multimedia y distribuidoras de DVD intentan reprimir los formatos originales de estos films y pasarlos a formatos panorámicos, más fílmicos, adaptables y con más mercado.

Como ejemplos, citamos Annie Hall, de Woody Allen (rodada en 4:3) y Mommy, de Xavier Dolan (1:1), que se han quejado públicamente de la "censura de formatos" que hace la versión en DVD23​y Netflix24​respectivamente.

Fuente: https://es.wikipedia.org/wiki/Formato_cinematogr%C3%A1fico

Funcionamiento del sensor (fotografía digital)

El sensor de una cámara digital es una auténtica obra de ingeniería. Está formado por millones de celdas fotosensibles, cada una de ellas de tamaño microscópico: Cómo funciona el sensor de una cámara digital
Piensa que cuando nos hablan de megapíxels se corresponde con los millones de píxels (celdas) que forman parte del sensor de nuestra cámara. Por ejemplo una cámara con un sensor APS-C (aprox. 23 x 15 mm) de 20Mpx tiene 12 millones de celdas fotosensibles con un tamaño de unos 4 micrómetros (1 micrómetro es la milésima parte de 1 milímetro).

Cuando tomamos una foto, cada píxel del sensor analiza la luz que le llega: una pequeñísima parte de la imagen de la escena que queremos fotografiar.
Funcionamiento del sensor de una cámara digital
Cada celda incluye un fotodiodo que convierte la luz en electricidad. Además incluye la electrónica necesaria para que cada elemento funcione de forma independiente y para poder leer la información de cada píxel cada vez que hacemos una foto. En la mayoría de los sensores actuales, cada celda incluye además una pequeña lente individual para concentrar la luz en la superficie sensible. ¿Imaginas el tamaño de esas micro-lentes?
Las celdas sólo pueden detectar la intensidad de la luz (número de fotones a lo largo de un determinado tiempo), no el color. Los sensores incluyen filtros que descomponen la luz en tres componentes: rojo, verde y azul. En la mayoría de los sensores se utiliza un filtro o mosaico de Bayer, de tal forma que unas celdas reciben sólo la luz correspondiente a la componente roja, otras sólo la componente azul y otras sólo la componente verde. En los sensores Foveon la distribución es diferente, pero el principio de funcionamiento es el mismo.
Cada fotodiodo (elemento fotosensible de la celda) funciona como un panel solar: recibe fotones que, al interactuar con los átomos del material, generan electrones. Es decir, convierten luz en electricidad.

Estructura sensor CMOS - BSI

Actualmente la mayoría de los sensores están basados en tecnología CMOS (Complementary Metal-Oxide-Semiconductor). Sobre el material fotosensible se añade la circuitería, compuesta por capas de zonas aislantes (óxidos) y metal.
El método tradicional de fabricación consiste en hacer ‘crecer’ la circuitería hacia arriba sobre el sustrato de silicio, y sobre esta estructura electrónica se coloca el filtro de bayer y la estructura de micro-lentes. La parte electrónica ocupa una superficie muy pequeña pero incluso así, parte de la luz se refleja o se absorbe en estas capas y no llega al material fotosensible.
Los sensores BSI (Back-Side Illuminated sensor) se basan en un método de fabricación diferente: toda la circuitería y estructura CMOS va colocada en la parte inferior del material fotosensible. Es como si diéramos la vuelta al sensor y lo iluminamos por la parte de atrás, aunque el nombre posiblemente no es muy afortunado y suele llevar a confusión. En cualquier caso, esta estructura consigue una mejora apreciable de rendimiento, ya que no se pierden fotones en las capas superiores. Este método de fabricación es más caro y hasta ahora sólo se aplicaba a sensores de pequeño tamaño, pero a medida que se abaratan los costes va estando disponible en los sensores más grandes.

Hemos comentado que cada fotodiodo recibe una de las componentes (roja, verde o azul) pero desde el punto de vista del fotodiodo es simplemente luz (fotones), así que para los ejemplos de funcionamiento que vienen a continuación da igual si es luz blanca o filtrada. Imagina que retiramos el filtro Bayer de la parte superior y nos quedamos con una imagen en blanco y negro de la escena, donde cada celda del sensor se corresponde con un pixel de la imagen.
La celda del sensor funciona de la siguiente forma: cuando pulsamos el disparador de la cámara para hacer una foto abrimos el obturador y dejamos pasar fotones que llegan al fotodiodo. El fotodiodo los va convirtiendo en electrones, que se acumulan en un pequeño depósito (condensador). Cuando se cierra el obturador de la cámara (deja de pasar luz) cada celda del sensor tendrá un determinado nivel de electrones, en función de la cantidad de fotones que ha recibido ese trocito de la imagen.


Funcionamiento de un fotodiodo de cámara digital


Si una celda no tiene electrones querrá decir que no ha recibido ningún fotón (zona oscura de la imagen). Si una celda tiene su depósito lleno de electrones se corresponderá con una zona blanca de la imagen.

La electrónica de la cámara se encarga de leer una por una todas las celdas del sensor. Y a cada uno de esos niveles le asigna un valor numérico. Por ejemplo en un sensor de 8 bits se asignará un valor entre 0 (negro) y 255 (blanco). En un sensor de 12 bits habría unos 4.000 niveles distintos para cada píxel del sensor.

Finalmente el procesador de la cámara utiliza toda esa información para generar el fichero de imagen y lo guarda en la tarjeta de memoria.
Fíjate que en el ejemplo de arriba aparecen unos electrones ‘extra’ que no se han generado a partir de los fotones, sino que se han generado por otros efectos, por ejemplo debido a efectos térmicos para simplificar.

Por el momento piensa que esos electrones invitados (ruido) son poquísimos comparados con los electrones que se han generado a partir de la luz de la escena. Más adelante los tendremos en cuenta.
Vamos a imaginar ahora que la celda representa la luz media de la escena que queremos fotografiar. Las cámaras tienen dos parámetros que permiten controlar la cantidad de luz que llega al sensor: la apertura del diafragma y el tiempo de exposición.

El diafragma es como una ventana, se puede regular para que deje pasar mucha luz o poca luz. Imagina que en la escena hay mucha luz, hay muchos fotones (ejemplos a y b), y queremos obtener un determinado nivel de ‘claridad’ en nuestra foto.

Podemos cerrar más el diafragma y dejar abierto el obturador un cierto tiempo, o podemos abrir el diafragma y abrir el obturador sólo un instante. Lo importante es el número de fotones que llegan al fotodiodo.

Sensor de cámara digital y cantidad de luz

En los ejemplos c y d hay menos luz en la escena. Si queremos el mismo nivel de claridad tendremos que dejar más tiempo abierto el obturador para que lleguen los mismos fotones que antes.
Si dejamos abierto el obturador durante el tiempo suficiente (incluso si hay poquísima luz) llegará un momento en que todas las celdas estarán llenas. Correspondería a una foto totalmente quemada, totalmente blanca.

Se puede jugar con la apertura y el tiempo de exposición en diferentes combinaciones para dar el mismo resultado en lo que respecta a los niveles luminosidad de la foto. Cuando la escena tiene mucha luz o muy poca luz habrá combinaciones de diafragma y tiempo de exposición que no serán adecuadas (nos saldrían las fotos quemadas -sobreexpuestas- o muy oscuras -subexpuestas)
Imagina que queremos hacer una foto en una escena con muy poca luz. Si se trata de una escena estática podemos subir el tiempo de exposición (minutos, horas incluso) para que vayan entrando poco a poco los escasos fotones que hay en el exterior.

Sensor de cámara con poca luz

Pero si queremos fotografiar una escena en movimiento con muy poca luz tenemos un problema. Si dejamos abierto el obturador mucho tiempo la foto saldrá movida (porque la escena cambia a lo largo de ese tiempo) y si programamos un tiempo de disparo muy corto entrarán muy pocos fotones: nos quedará una foto muy oscura (subexpuesta).

Para intentar resolver estas situaciones, los fabricantes de sensores dan la opción de forzar la sensibilidad normal de las celdas. Es lo que se conoce en las cámaras como parámetro ISO. A medida que cambiamos el parámetro ISO en nuestra cámara y vamos subiendo de valor, lo que hacemos es aumentar un factor de multiplicación interno.

como_funciona_sensor_camara_digital_06

Aunque en el ejemplo hemos dibujado una única celda, el efecto multiplicador se aplica a todas las celdas a la vez. Es decir se ‘amplifica’ la luz de toda la escena, pero no por métodos ópticos sino por métodos electrónicos. Se hace un escalado de los valores de cada celda.

¿Te acuerdas de los electrones invitados que habíamos comentado más arriba?. Sí, seguro que ya sospechabas que tendrían un papel en esta historia, y es el papel de ‘malos de la película’.

En el proceso de captar una imagen aparecen varias fuentes de ruido: ruido fotónico, ruido térmico, ruido de muestreo en los convertidores analógico/digital, etc. Simplemente hay que quedarse con la idea de que se van a generar electrones que no tienen nada que ver con la información de la escena.
Cuando llegan al sensor muchos fotones, la relación entre la información y el ruido es muy alta (la cantidad de ruido es despreciable con respecto a la cantidad de señal o información). Cuando llegan pocos fotones de la escena la cantidad de ruido es proporcionalmente más grande.

¿Qué ocurre cuando forzamos la sensibilidad (ponemos un ISO alto)?. Pues que multiplicamos la información que nos llega de la escena, pero también multiplicamos el ruido. Si la proporción entre señal (información) y ruido no es despreciable, al amplificar todo (señal + ruido) estamos haciendo más visible esa proporción. A medida que subimos ISO las imágenes resultantes aparecerán cada vez más granuladas.

Ten en cuenta que subir ISO no genera ruido, el ruido ya estaba allí. Lo que hacemos al subir la sensibilidad de forma ‘artificial’ es que el ruido se hace más evidente con respecto a la información útil de la escena.

Fuente: http://quecamarareflex.com/como-funciona-el-sensor-de-una-camara-digital/