Trabajo N°8
Alumno : Jorge olivero
Profesor : Fabricio de titto
Curso : 3ro A
Año : 2019
1) ¿Qué es una imagen digital?
2) ¿Cómo esta formada?
3) ¿A qué se llama píxel?
4) Definir: brillo, foco, contraste, gama.
5) Explicar los formatos de imagen: BMP, jpg, gif, tiff,
6) ¿Cuándo es conveniente usar uno u otro formato?
7) ¿Cómo funciona una cámara de digital?
8) como se forman las imagenes en 3D
9)Cuales son los programas se usan para imagenes 3D
10) Explicar los formatos de video digital
11) como son las resoluciones de videos y como estan formado
12) que es el video: On Deman
1- Una imagen digital o gráfico digital es una representación bidimensional de una imagen a partir de una matriz numérica, frecuentemente en binario (unos y ceros). Dependiendo de si la resolución de la imagen es estática o dinámica, puede tratarse de una imagen matricial (o mapa de bits) o de un gráfico vectorial. El mapa de bits es el formato más utilizado en informática.
Las imágenes digitales se pueden obtener de varias formas:
• Por medio de dispositivos de conversión analógica-digital como los escáneres y lascámaras digitales.
• Directamente mediante programas informáticos editores de mapas de bits y dibujo vectorial, como por ejemplo realizando dibujos con el ratón (informática) o tableta digitalizadora gráfica incluyendo el lápiz óptico, por otro lado mediante un programa de renderización 3D a mapa de bits.
Las imágenes digitales se pueden modificar mediante filtros, añadir o suprimir elementos, modificar su tamaño, etc. y almacenarse en un dispositivo de grabación de datos como por ejemplo un disco duro.
• SVG para gráficos vectoriales, formato estándar del W3C (World Wide Web Consortium)
2) La mayoría de formatos de imágenes digitales están compuestos por una cabecera que contiene atributos (dimensiones de la imagen, tipo de codificación, etc.), seguida de los datos de la imagen en sí misma. La estructura de los atributos y de los datos de la imagen es distinto en cada formato.
Además, los formatos actuales añaden a menudo una zona de metadatos ("metadata" en fotografía (Escala de sensibilidad, flash, etc.) Estos metadatos se utilizan muy a menudo en el formato extensión cámaras digitales y videocámaras.
3-Pixels» redirige aquí. Para el cortometraje, véase Pixels (cortometraje).
Para la película, véase Pixels (película de 2015).
Ampliacióe pueden apreciar los n de una zona de una imagen donde spixeles.
Un píxel o pixel,1 plural píxeles (acrónimo delinglés picture element, ‘elemento de imagen’), es la menor unidad homogénea en color que forma parte
Ampliando lo suficiente una imagen (zoom) en la pantalla de una computadora, pueden observarse los píxeles que componen la imagen. Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de la densidad, en lo referente al área.
En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se codifica mediante un conjunto de bits de longitud determinada (es la llamada profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite hasta 256 variaciones de color (28 posibilidades binarias), de 0 a 255. En las imágenes llamadas de color verdadero, normalmente se usan tres bytes (24 bits) para definir el color de un píxel; es decir, en total se puede representar un total de 224 colores, esto es 16 777 216 variaciones de color. Una imagen en la que se utilicen 32 bits para representar un píxel tiene la misma cantidad de colores que la de 24 bits, ya que los otros 8 bits son usados para efectos de transparencia.
Para poder visualizar, almacenar y procesar la información numérica que se representa de cada píxel, se debe conocer, además de la profundidad y brillo del color, el modelo de colorque se está utilizando. Por ejemplo, el modelo de color RGB (Red-Green-Blue) permite crear un color compuesto por los tres colores primarios según el sistema de mezcla aditiva. De esta forma, en función de la cantidad de cada uno de ellos que se use en cada píxel será el resultado del color final del mismo. Por ejemplo, el color magenta se obtiene mezclando el rojo y el azul, sin componente verde (este byte se pone en cero). Las distintas tonalidades del mismo color se obtienen variando la proporción en que intervienen ambas componentes (se altera el valor de esos dos bytes de color del píxel). En el modelo RGB lo más frecuente es que se usen 8 bits para representar la proporción de cada una de las tres componentes de color primarias. De esta forma, cuando una de las componentes vale 0, significa que ella no interviene en la mezcla y cuando vale 255 (28 – 1) significa que interviene aportando el máximo de ese tono, valores intermedios proveen la intensidad correspondiente.
La mayor parte de los dispositivos que se usan con una computadora (monitor, escáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo), excepto los que aportan tintes, como las impresoras, que suelen usar el modelo CMYK (modelo sustractivo).
Para la película, véase Pixels (película de 2015).
Ampliacióe pueden apreciar los n de una zona de una imagen donde spixeles.
Un píxel o pixel,1 plural píxeles (acrónimo delinglés picture element, ‘elemento de imagen’), es la menor unidad homogénea en color que forma parte
Ampliando lo suficiente una imagen (zoom) en la pantalla de una computadora, pueden observarse los píxeles que componen la imagen. Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de la densidad, en lo referente al área.
En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se codifica mediante un conjunto de bits de longitud determinada (es la llamada profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite hasta 256 variaciones de color (28 posibilidades binarias), de 0 a 255. En las imágenes llamadas de color verdadero, normalmente se usan tres bytes (24 bits) para definir el color de un píxel; es decir, en total se puede representar un total de 224 colores, esto es 16 777 216 variaciones de color. Una imagen en la que se utilicen 32 bits para representar un píxel tiene la misma cantidad de colores que la de 24 bits, ya que los otros 8 bits son usados para efectos de transparencia.
Para poder visualizar, almacenar y procesar la información numérica que se representa de cada píxel, se debe conocer, además de la profundidad y brillo del color, el modelo de colorque se está utilizando. Por ejemplo, el modelo de color RGB (Red-Green-Blue) permite crear un color compuesto por los tres colores primarios según el sistema de mezcla aditiva. De esta forma, en función de la cantidad de cada uno de ellos que se use en cada píxel será el resultado del color final del mismo. Por ejemplo, el color magenta se obtiene mezclando el rojo y el azul, sin componente verde (este byte se pone en cero). Las distintas tonalidades del mismo color se obtienen variando la proporción en que intervienen ambas componentes (se altera el valor de esos dos bytes de color del píxel). En el modelo RGB lo más frecuente es que se usen 8 bits para representar la proporción de cada una de las tres componentes de color primarias. De esta forma, cuando una de las componentes vale 0, significa que ella no interviene en la mezcla y cuando vale 255 (28 – 1) significa que interviene aportando el máximo de ese tono, valores intermedios proveen la intensidad correspondiente.
La mayor parte de los dispositivos que se usan con una computadora (monitor, escáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo), excepto los que aportan tintes, como las impresoras, que suelen usar el modelo CMYK (modelo sustractivo).
4-
Brillo:
A instancias de la Física, el brillo corresponde a la cantidad de flujo luminoso emitido. Esta luminosidad estará relacionada con el número de partículas por unidad de superficie y también por unidad de tiempo que hayan en un haz de luz.
En el campo de la Astronomía el brillo será la cantidad de potencia emitida en todas las direcciones por un cuerpo celeste. Mientras tanto, el brillo dependerá de la magnitud absoluta que presente el astro; el valor no es constante en tiempos realmente largos, porque es común que la estrella vaya cambiando su luminosidad según el estado en el cual se encuentre. También, dentro de este contexto, nos encontramos con el brillo superficial, que será aquel brillo aparente que ostentan los objetos astronómicos extensos, tales como las galaxias y los universos.
Por otro lado, cuando se habla de brillo, se puede estar haciendo referencia a la propiedad física que describe la forma en que la luz interactúa con la superficie de una roca, cristal, mineral y por tanto es capaz de reflejarse en ella. Este brillo dependerá de tres factores: la absorción que el mineral tenga de cada color, el perfecto pulido en las caras y el índice de refracción del mineral en cuestión.
En este sentido, hay tres tipos de brillos: brillo metálico (producido por aquellas sustancias opacas), brillo no metálico (lo producen aquellas sustancias transparentes) y brillo submetálico (el que ostentan las sustancias opacas cuando son gruesas, pero que en el caso de exfoliarse las láminas finas serán transparentes).
Foco:
En óptica geométrica un foco es el punto donde convergen los rayos de luzoriginados desde un punto en el objeto observado.1 Aunque el foco es conceptualmente un punto, físicamenteel foco tiene una extensión espacial, llamada círculo borroso. Este enfoque no ideal puede ser causado poraberraciones ópticas en la imagen. En ausencia de aberraciones de importancia, el menor círculo borroso posible es el disco de Airy, el cual es causado por difracción de la apertura delsistema óptico. Las aberraciones tienden a hacerse peores en la medida en que aumenta el diámetro de la apertura, mientras que el disco de Airy es menor en aperturas grandes.
Una imagen, o punto de imagen, se dice que está en foco si la luz de los puntos del objeto es convergida lo más posible en la imagen, y fuera de foco si la luz no es bien convergida. El límite entre esto es algunas veces definido usando un criterio denominado círculo de confusión. Si un haz de rayos estrecho que se propaga en la dirección del eje óptico incide sobre la superficie esférica de un espejo o una lente delgada, los rayos se reflejan o refractan de forma que se cortan, o parecen cortarse, en un punto situado sobre el eje óptico. La distancia entre ese punto (foco) y el espejo o lente se denomina distancia focal. Si las dos superficies de una lente no son iguales, ésta puede tener dos distancias focales, según cuál sea la superficie sobre la que incide la luz.
Constrate:
El contraste se define como la diferencia relativa en la intensidad entre un punto de una imagen. Un ejemplo simple es el contraste entre un objeto de brillo constante sobre un fondo de un brillo constante. Si ambas superficies tienen el mismo brillo, el contraste será nulo y si el conjunto está en tonos de gris, el objeto será tanto física como perceptiblementeindistinguible del fondo. Según se incrementa la diferencia en brillo el objeto será perceptiblemente distinguible del fondo una vez alcanzado el umbral de contraste, que se sitúa alrededor del 0,3 % de diferencia.
Gama:
En la teoría del color, la gama de color de un dispositivo, o proceso, usado para la creación de un color, es la proporción del espacio de colorque se puede representar con ese dispositivo o proceso, ya que existen limitaciones físicas que hacen imposible que cualquier dispositivo reproduzca toda la información de color visible por el ser humano. También se podría definir como el lugar geométrico de los puntos del plano matiz-saturación que se pueden representar mediante un dispositivo o técnica.
Generalmente, la gama de color se especifica en el plano de la gráfica matiz-saturación-luminosidad. Muchos sistemas pueden producir colores con una amplia gama de intensidades dentro de su gama de color. Además, para los sistemas de colores sustractivos, tales como los sistemas usados en la impresión, el rango disponible de intensidad, en la mayoría de las ocasiones no tiene sentido fuera del contexto de su iluminación, puesto que el color visible en toda representación sustractiva es siempre dependiente de la fuente de luz que está iluminando al objeto.
El término gama proviene del campo de la música. En el contexto musical viene a significar el conjunto de tonos que se usan para componer una melodía musical. En la jerga de la informática, es común encontrar la palabraGamut, la cual es un préstamo del inglés, que tiene el mismo significado y sentido que la palabra en español; por lo tanto, se hace preferible utilizar la palabra ya existente en la lengua antes que utilizar un anglicismoinnecesario.
Cuando ciertos colores no se pueden mostrar dentro de un modelo particular de color, se dice de ellos que están fuera de gama. Por ejemplo, el rojo puro que pertenece al modelo de color RGB (acrónimo inglés de Red Green Blue, es decir Rojo, Verde, Azul) está fuera de gama en el modelo de color CMYK (Cyan Magenta Yellow and Key, Cian, Magenta, Amarillo, y negro); de la misma manera, es imposible obtener el amarillo de la gama CMYK dentro del esquema de color RGB, en ambos casos por razones técnicas.
En el campo de la ingeniería de reproducción del color, un dispositivo que por si solo es capaz de reproducir, completamente, el espacio de color visible es algo similar al santo grial, ya sea en una pantalla o en un impresora. Las modernas técnicas permiten hacer muy buenas aproximaciones a la gama del espectro visible, pero la complejidad de estos sistemas no les hace dispositivos prácticos. Que se diga de un dispositivo que es bastante bueno, viene a decir que la limitada percepción humana no es capaz de distinguir las limitaciones o carencias de éste, a la hora de la reproducción del color.
El modelo de color más conveniente para el proceso digital de imagen es el modelo RGB, y es el ideal cuando el producto se va a representar en web o en pantalla solamente. Para obtener una imagen impresa lo más fiel posible, es necesario transformar la imagen del espacio de color original RGB al espacio de color CMYK, puesto que la conversión entre gamas, dependiendo de los dispositivos a utilizar, no es lineal ni reversible. Durante este proceso, los colores RGB que están fuera de gama se deben convertir, de alguna manera, en valores aproximados que estén dentro de la gama CMYK.
Existen múltiples algoritmos de transformación para la conversión, pero ninguno de ellos es completamente perfecto, ya que esos colores están, simplemente, fuera de los objetivos de las capacidades del dispositivo de impresión. Lógicamente, la capacidad del algoritmo para efectuar la transformación es una variable crítica para la calidad del producto final
5-
El formato de archivo BMP (bitmap, mapa de bits) es propiedad de Microsoft y sólo se utiliza en el sistema operativo Windows, para guardar sus imágenes digitales. Este sistema de archivo puede guardar imágenes de 24 bits (millones de colores), 8 bits (256 colores) y menos.En esta clase de archivos puede seleccionarse una compresión RLE (Run Length Encoding) sin pérdida de calidad.
JPEG (JPG): Es uno de los formatos más utilizados actualmente y está soportado por la mayoría de programas que trabajan con imágenes. Es en el que suelen guardar las imágenes la mayoría de las cámaras digitales. Es un formato adecuado para guardar imágenes fotográficas porque ocupan poco espacio al comprimir la imagen con pérdidas. Entre otras técnicas, aprovecha las deficiencias de la visión humana para eliminar información y producir un fichero más pequeño, de ahí lo de compresión con pérdidas.
El grado de compresión, y por tanto de pérdida de calidad, es ajustable. A mayor nivel de compresión mayor pérdida de calidad pero menor tamaño de archivo y viceversa. La compresión también puede dar lugar a errores conocidos como ruido.
Cada vez que se abre un fichero JPEG con un editor de imagen y se vuelve a grabar se produce una pérdida de calidad. Por ello conviene convertir las fotos a un formato sin pérdida antes de retocarlas y volver al JPEG cuando se desee guardar el resultado final.
Del estándar JPEG han salido variantes como JPEG2000 que comprimen la imagen sin pérdida, aunque estos formatos son menos utilizados.
JPEG es un formato muy utilizado también en Internet para imágenes fotográficas.
GIF: Es uno de los formatos más extendidos en Internet. Los gráficos e imágenes se guardan con un esquema de color indexado con un máximo de 256 colores. Incorpora transparencia (partes de la imagen que dejan ver lo que hay debajo) que se considera un color más, en lugar de como un canal alfa. Utiliza compresión sin pérdidas y puede generar archivos muy pequeños. Su pega es la cantidad limitada de colores.
El formato GIF tiene la posibilidad de guardar varias imágenes en un mismo archivo lo que permite la creación de pequeñas películas formadas por secuencias de imágenes que se suceden a intervalos determinados y pueden repetirse en un bucle. A esta característica se le conoce com GIF animado.
Este formato se usa mucho en internet para figuras pequeñas, iconos y logotipos por su pequeño tamaño.
Para la compresión usa un formato propietario que inicialmente era gratuito pero por el que ahora el propietario cobra derechos, lo que supuso un frenazo a su uso.
TIFF: TIFF son las siglas de Tagged Image File Format. Es un formato gráfico de los llamados "universales".Es un tipo de archivo estándar para guardar imágenes de alta calidad, ya que es compatible con los sistemas operativos Windows, Linux, Mac, etc. Se encuentra reconocido por muchos programas de retoque y edición gráfica, tales como Paint Shop Pro, Adobe, Quark, Corel etc.Por lo tanto, si tenemos alguna duda sobre como enviar un archivo para su impresión o edición, optaremos por el formato universal TIFF, para que se pueda abrir y editar sin problemas.Al almacenar un archivo en formato TIFF, este lo guarda con 48 bits de color incluyendo capas y canales alfa.

Las cámaras fotográficas digitales cuentan con una serie de elementos que le proporcionan a la misma la habilidad de tomar fotografías, del mismo modo en que lo hacían sus antecesoras de película
7-Una cámara digital es una cámara fotográfica que, en vez de captar y almacenar fotografíasen película química como las cámaras fotográficas de película fotográfica, recurre a lafotografía digital para generar y almacenar imágenes.
Las cámaras digitales modernas generalmente son multifuncionales y contienen dispositivos capaces de grabar sonido y/o video además de fotografías. Actualmente se venden más cámaras fotográficas digitales que cámaras con película.1
La primera cámara fotográfica completamente digital que registraba imágenes en un archivo de computadora fue probablemente el modelo DS-1P de Fuji, en 1988, que grababa en una tarjeta de memoria interna de 16 MB y utilizaba una batería para mantener los datos en la memoria. Esta cámara fotográfica nunca fue puesta en venta en los Estados Unidos. La primera cámara fotográfica digital disponible en el mercado fue la Dycam Model 1, en 1991, que también fue vendida con el nombre de Logitech Fotoman. Usaba un sensor CCD, grababa digitalmente las imágenes, y disponía de un cable de conexión para descarga directa en la computadora.3 4 5
En 1991, Kodak lanzó al mercado su modelo DCS-100, el primero de una larga línea de cámaras fotográficas profesionales SLR de Kodak que fueron basadas, en parte, en cámaras para película, a menudo de marca Nikon. Utilizaba un sensor de 1,3 megapixeles y se vendía en unos $13.000.
La transición a formatos digitales fue ayudada por la formación de los primeros estándaresJPEG y MPEG en 1988, que permitieron que los archivos de imagen y vídeo se comprimieran para su almacenamiento. La primera cámara fotográfica dirigida a consumidores con una pantalla de cristal líquido en la parte posterior fue la Casio QV-10 en 1995, y la primera cámara fotográfica en utilizar tarjetas de memoria CompactFlash fue la Kodak DC-25 en 1996.
El mercado para las cámaras fotográficas digitales dirigidas al consumidor estaba formado originalmente por cámaras fotográficas de baja resolución. En 1997 se ofrecieron las primeras cámaras fotográficas para consumidores de un megapixel. La primera cámara fotográfica que ofreció la capacidad de registrar clips de vídeo pudo haber sido la Ricoh RDC-1 en 1995.
En 1999 con la introducción del Nikon D1, una cámara fotográfica de 2.74 megapixeles, que fue una de las primeras SLR digitales, la compañía se convirtió en un fabricante importante, y, con un costo inicial de menos de $6.000, era asequible tanto para fotógrafos profesionales como para consumidores de alto perfil. Esta cámara fotográfica también utilizaba lentes Nikon F, lo que significaba que los fotógrafos podrían utilizar muchas de las mismas lentes que ya tenían para sus cámaras de película.
En 2003 se presentó la Digital Rebel de Canon, también conocida como la 300D, una cámara fotográfica dirigida a consumidores de 6 megapixeles y la primera DSLR que tenía un costo inferior a $1.000.
En 2008 se presentó en la Feria de Alemania, una cámara LEICA de medio formato con una resolución de 37 megapixeles.
Las cámaras digitales modernas generalmente son multifuncionales y contienen dispositivos capaces de grabar sonido y/o video además de fotografías. Actualmente se venden más cámaras fotográficas digitales que cámaras con película.1
La primera cámara fotográfica completamente digital que registraba imágenes en un archivo de computadora fue probablemente el modelo DS-1P de Fuji, en 1988, que grababa en una tarjeta de memoria interna de 16 MB y utilizaba una batería para mantener los datos en la memoria. Esta cámara fotográfica nunca fue puesta en venta en los Estados Unidos. La primera cámara fotográfica digital disponible en el mercado fue la Dycam Model 1, en 1991, que también fue vendida con el nombre de Logitech Fotoman. Usaba un sensor CCD, grababa digitalmente las imágenes, y disponía de un cable de conexión para descarga directa en la computadora.3 4 5
En 1991, Kodak lanzó al mercado su modelo DCS-100, el primero de una larga línea de cámaras fotográficas profesionales SLR de Kodak que fueron basadas, en parte, en cámaras para película, a menudo de marca Nikon. Utilizaba un sensor de 1,3 megapixeles y se vendía en unos $13.000.
La transición a formatos digitales fue ayudada por la formación de los primeros estándaresJPEG y MPEG en 1988, que permitieron que los archivos de imagen y vídeo se comprimieran para su almacenamiento. La primera cámara fotográfica dirigida a consumidores con una pantalla de cristal líquido en la parte posterior fue la Casio QV-10 en 1995, y la primera cámara fotográfica en utilizar tarjetas de memoria CompactFlash fue la Kodak DC-25 en 1996.
El mercado para las cámaras fotográficas digitales dirigidas al consumidor estaba formado originalmente por cámaras fotográficas de baja resolución. En 1997 se ofrecieron las primeras cámaras fotográficas para consumidores de un megapixel. La primera cámara fotográfica que ofreció la capacidad de registrar clips de vídeo pudo haber sido la Ricoh RDC-1 en 1995.
En 1999 con la introducción del Nikon D1, una cámara fotográfica de 2.74 megapixeles, que fue una de las primeras SLR digitales, la compañía se convirtió en un fabricante importante, y, con un costo inicial de menos de $6.000, era asequible tanto para fotógrafos profesionales como para consumidores de alto perfil. Esta cámara fotográfica también utilizaba lentes Nikon F, lo que significaba que los fotógrafos podrían utilizar muchas de las mismas lentes que ya tenían para sus cámaras de película.
En 2003 se presentó la Digital Rebel de Canon, también conocida como la 300D, una cámara fotográfica dirigida a consumidores de 6 megapixeles y la primera DSLR que tenía un costo inferior a $1.000.En 2008 se presentó en la Feria de Alemania, una cámara LEICA de medio formato con una resolución de 37 megapixeles.
8-(tres dimensiones). En computación, las tres dimensiones son el largo, el ancho y la profundidad de una imagen. Técnicamente hablando el único mundo en 3D es el real, la computadora sólo simula gráficos en 3D, pues, en definitiva toda imagen de computadora sólo tiene dos dimensiones, alto y ancho (resolución).
En la computación se utilizan los gráficos en 3D para crear animaciones, gráficos, películas, juegos, realidad virtual, diseño, etc.
Creación de gráficos en 3D
El proceso de la creación de gráficos tridimensionales comienza con un grupo de fórmulas matemáticas y se convierte en un gráfico en 3D. Las fórmulas matemáticas (junto con el uso de objetos externos, como imágenes para las texturas) describen objetos poligonales, tonalidades, texturas, sombras, reflejos, transparencias, translucidez, refraxiones, iluminación (directa, indirecta y global), profundidad de campo, desenfoques por movimiento, ambiente, punto de vista, etc. Toda esa información constituye un modelo en 3D.
El proceso de transformación de un modelo en 3D hacia una imagen 3d es llamado renderización (rendering).
Por lo general, la computadora debe contar con una placa aceleradora de 3D para la renderización de gráficos en 3D. La placa aceleradora es un dispositivo que ayuda al microprocesador a la realización de la renderización, pues suele ser un proceso pesado.
El resultado de una renderización puede ser una imagen 3d estática o una animación 3d.
9-Se entiende por diseño 3D al conjunto de técnicas que permiten proyectar en tres dimensiones. El primer paso consiste en idear los objetos, construcciones y piezas tridimensionales antes de modelarlas o construirlas. Con la aparición de los gráficos asistidos por computadora, el diseño 3D pasó a ser casi de uso exclusivo en los entornos del lenguaje de las computadoras.
En el diseño 3D se puede apreciar dos elementos: “diseño” y “3D”. Cuando se habla de diseño, se está haciendo referencia a la acción de dibujar o proyectar, así como a la creación de signos. Por otro lado, cuando se hace referencia a 3D se está haciendo referencia a las tres dimensiones. Es decir, un entorno en el que los ejes del plano cartesiano van más allá de X e Y para incluir también el eje Z.
Tipos de diseños 3D
Modelado 3D:
El modelado 3D consiste en la construcción, a partir de las líneas de un plano técnico o un boceto, de un modelo o prototipo de representación tridimensional en los ejes X, Y y Z.
Renderizado:
Se denomina renderizado (también conocido como rendering) al proceso de generar una imagen mediante el cálculo de iluminación GI aplicado a un modelo 3D.
10-MPEG : Moving Pictures Expert Group (Mpeg1,Mpeg2,Mpeg4)
AVI: Es el formato estandar pero el de más peso. (Xvid o Divx)
WINDOWS MEDIA: Formato desarrollado por Microsoft.(.Mpeg4 o .asf)
MOV: Formato desarrollado por Apple. Necesario Quicktime para leerlo. Poco peso.Ideal para Web (.m4v o .mov)
FLV: Formato de Adobe Flash. Utiliza codec Sorensen Spark. (.flv)
11- Conceptos básicos de vídeo
Dimensiones.
Es el tamaño del video (ancho x alto) expresado en píxeles cuando se visualiza al 100%, sin agrandar ni reducir. Los reproductores pueden mostrar un video a pantalla completa o con una ampliación del 200%, 300%, etc. En estos casos el video pierde calidad de imagen y esta pérdida depende del formato de archivo. Un video AVI puede tener cualquier ancho y alto mientras que los estándares de VideoCD son 352 x 288 y de DVD 720 x 576.
Codec.
Acrónimo de "codificación/decodificación". Un códec es un algoritmo especial que reduce el número de bytes que ocupa un archivo de video. Los archivos codificados con un códec específico requieren el mismo códec para ser decodificados y reproducidos. Algunos de los códecs más utilizados para el formato AVI son: DivX, XviD, CinePak, Intel Indeo 5, DV, etc.
Velocidad de transmisión (bitrate).
El bitrate define la cantidad de espacio físico (en bits) que ocupa un segundo de duración de ese video. El video tendrá más calidad cuanto mayor sea su bitrate y el archivo que lo contiene tendrá mayor peso. El bitrate puede ser fijo o variable. El bitrate variable consigue mayor calidad de imagen porque recoge más calidad en escenas muy cargadas o con mucho movimiento y ahorra en aquellas más estáticas.
Fotogramas por segundo.
Un video resulta de la exposición imágenes o fotogramas uno detrás de otro. Un parámetro de la calidad del video es el número de fotogramas por segundo que muestra durante su reproducción. Este valor oscila entre 15 y 30. Por ejemplo los vídeos en DVD en Europa exhiben 25 fotogramas por segundo (25 fps).
Fotogramas Clave.
Cuando se aplica un códec de compresión a un video, se suele producir cierta pérdida de la información de sus fotogramas. Algunos fotogramas (los fotogramas clave) se almacenan completamente en el archivo comprimido, mientras que el resto sólo se guardan parcialmente. En la descompresión, estos fotogramas intermedios se reconstruyen a partir de los fotogramas clave.
Sistemas de televisión.
NTSC (National Television Standards Comité = Comité Nacional de Estándares de Televisión). Cada fotograma está formado por 525 líneas y reproduce 30 fotogramas por segundo. Se utiliza en América del Norte, Centroamérica, Japón, etc.
PAL (Phase Alternation Line = Línea Alternada en Fase): El vídeo PAL tiene 625 líneas por fotograma y 25 fotogramas por segundo. Es el sistema más extendido actualmente en Europa.
SECAM (Séquentiel Couleur à Mémoire = Color secuencial con memoria). Muestra 625 líneas y 25 fotogramas por segundo. De origen francés, ha perdido mercado en Europa a favor del sistema PAL.
Proporción o ratio de aspecto.
Es la proporción entre la anchura y altura de un video. Cuando se reproduce un video se suele mantener por defecto esta proporción para evitar deformación de las imágenes. Por este motivo cuando se elige la visualización a pantalla completa, aparecen franjas negras arriba y abajo. Es habitual una relación 4:3 para los
videos domésticos (352x288 píxeles, por ejemplo) mientras que en DVD se suele trabajar con ratios de 16:9.
12-Vídeo bajo demanda o Televisión a la carta.
Sistema de visionado personalizado de contenidos audiovisuales que permite al espectador ver una película o programa en el momento que desea. Puede ser visto directamente en el televisor si tiene conexión a internet por streaming, o descargado a un ordenador, disco duro, grabadora de disco digital o reproductor portátil para ver la copia almacenada.
Es el sistema alternativo a los tradicionales alquileres de películas. Contiene las funciones básicas de vídeo, como la opción de detener el programa y reanudarlo a voluntad, llevarlo hacia delante y hacia atrás, ponerlo a cámara lenta o en pausa. Como en el caso de pago por visionado (Pay Per View o PPV), el espectador dispone de una amplia oferta de programas para visualizar o realizar un pago por ciertos programas.
En los sistemas de streaming basados en disco se necesita un procesamiento adicional, ya que los archivos separados de avance rápido y retroceso deben ser almacenados en unidades de disco duro. En cambio, los sistemas basados en memoria pueden ejecutar estos sistemas directamente desde la memoria RAM por no necesitar almacenamiento adicional.
Los servicios de descarga VOD son posibles en lugares con conexión vía cable (óptico o coaxial) o bien ADSL.
Existes dos formas de distribución:
A través de LAN se consigue una distribución mucho más rápida a los usuarios.
A través de WAN la respuesta es más lenta, pero el alcance es más amplio.
Comentarios
Publicar un comentario