martes, 29 de noviembre de 2016

5.3 Animación por computadora

La animación es la simulación de un movimiento, creada por una serie de imágenes o cuadros.
La animación por computadora se puede definir como un formato de presentación
de información digital en movimiento a través de una secuencia de imágenes o cuadros creadas o generadas por la computadora.

Características de la Animación 3D

La animación por computadora permite crear escenar “realmente” tridimensionales, en una escena animada por computadora es posible cambiar el ángulo de la cámara y ver otra parte de la escena. Se pueden reutilizar partes de la animación por separado.
Una animación se ve más realista si variamos el peso y el tamaño de los objetos. Para cambiar el peso es necesario cambiar el tiempo que tarda en moverse. Mientras más pesado su masa es mayor y es necesario aplicar mayor fuerza para moverlo.
Es necesario pensar en la forma como se moverán los objetos. Cada movimiento se realiza por una razón. Es necesario conocer las formas en que actúan los cuerpos.
En la animación en tres dimensiones debe considerarse la forma en que se detiene los cuerpos. Al animar a un personaje es conveniente que si se va a detener, alguna parte de su cuerpo se siga moviendo ligeramente, como la cabeza o un brazo.
Hay tres fases que componen una acción: La anticipación de la acción, la acción en sí y la reacción a la acción.

Técnicas de animación

La animación en acetatos (cel animation), la animación basada en cuadros (flipbook animation) y la animación en sprite.

Animación Basada en Cuadros
Para hacer una secuencia, se van filmando las imágenes cuadro por cuadro y luego estos se unen para formar la animación. Es posible formar bibliotecas de movimientos de cada parte del cuerpo de la animación para de esta forma combinarlas y hacer animaciones diferentes.

Animación Basada en Sprites
Se refiere a animaciones de objetos sobre fondos estáticos, es decir, lo que cambia son los personajes.

Key Framming
Se refiere a establecer posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora por medio de interpolación matemática.

Rotoscopiado
Se obtienen la posición y el ángulo de los puntos clave de imágenes reales y se trata de hacer converger los modelos en computadora con ellos.

Motion Control
Consiste en obtener posiciones clave de manera automática a partir de un actor real por medio de dispositivos que se conectan a su cuerpo.

Wavelets
Significa “pequeñas ondulaciones”. Esta técnica permite que en una sola imagen se compriman una gran cantidad de datos para que al acercarse a ella, se vayan viendo los detalles.

Técnicas de Pixar
El proceso que utiliza Pixar [12] para crear sus animaciones se compone de cuatro etapas principales: Desarrollo (crear el guión de la historia), preproducción (se direccionan los retos técnicos), producción (creación de la película) y post producción (pulir los últimos detalles).

5.2 Vision por computadora

La visión es un medio para un fin – conocer el mundo observándolo – la visión artificial tiene como medio para adquirir el conocimiento un instrumento de cómputo. El tema de visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión artificial”.

Los primeros experimentos de cómputo para desarrollar sistemas artificiales para la visión de máquinas comenzaron con amplia variedad en grados de complejidad, han sido usados en muchas áreas diversas tales como ofimática, medicina, detección remota por satélite, y en el mundo industrializado y militar. Los usos han sido muchos y variados.

A la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes.

Las imágenes son imágenes digitales: son representaciones discretas (es decir, ellas tienen valores distintos en los puntos regularmente muestreados) y son representaciones cuantificadas (es decir, cada valor es un valor del número entero).

La visión artificial incluye muchas técnicas que son útiles para si mismas. Más significativamente, sin embargo, la visión artificial se refiere al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre, y para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.

5.1 Procesamiento de imágenes

En el procesamiento digital de imágenes se distinguen dos niveles principales de manera general:

  • Procesamiento de imágenes a bajo nivel
  • Muy poco uso de conocimiento respecto al contenido de las imágenes.
  • Comúnmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel: adquisición de la imagen, pre-procesamiento, segmentación de la imagen, descripción y clasificación de objetos.
  • Entendimiento de imágenes a alto nivel
  • Existe la capacidad de realizar toma de decisiones respecto al contenido de las imágenes.

El procesamiento de imágenes está dado por un conjunto de operaciones llevadas a cabo sobre las imágenes a fin de realizar mediciones cuantitativas para poder describirlas.

Una característica es un atributo usado para hacer decisiones respecto a objetos en la imagen. Algunos atributos son naturales y se definen mediante la apariencia visual de la imagen, los artificiales, son el resultado de operaciones realizadas a la imagen.
Una imagen f(x,y) está dada por sus coordenadas espaciales y su brillo, y es representada matemáticamente en una matriz.
Las herramientas para la adquisición de imágenes transforman la imagen visual de un objeto físico y sus características intrínsecas en un conjunto de datos digitalizados, usados para procesarla.
El procesamiento digital de imágenes tiene diversas aplicaciones y problemas:

  • Representación
  • Transformación
  • Modelado
  • Restauración
  • Reconstrucción
  • Análisis
  • Comprensión de datos

Se define como ruido cualquier entidad en las imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar a cabo.
Las técnicas de filtraje son transformaciones de la imagen píxel a píxel, que dependen de los niveles de gris de los píxeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas máscaras, que son aplicadas sobre la imagen. Los filtros sirven para suavizar o realzar detalles de la imagen, o minimizar efectos de ruido.

Filtro gaussiano. Este filtro implementa máscaras que intentan imitar la forma de una gaussiana: G(x,y) = e - (x + y)² / 2σ², donde x, y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribución asociada.
Filtro mediana (rango de vecindades). El objetivo del filtro mediana es reducir el empañamiento de los bordes. Este filtro reemplaza el píxel actualmente analizado en la imagen por la mediana del brillo con respecto a los vecinos más cercanos.
Filtro de suavizado direccional (preservación de bordes). La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes. Que se calcula en varias direcciones según la ecuación:
I’ (x,y) = 1/Nθ(k,l)∈EθΣΣ I(x-k, y-l).
Filtro de suavizado conservador. Esta técnica de reducción del nivel de ruido emplea un algoritmo de filtración simple y rápido que sacrifica su poder de eliminación de ruido a cambio de preservar el detalle espacial de la frecuencia en una imagen, removiendo píxeles aislados con un valor muy alto o muy bajo.
Realce de contraste. Tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. El contraste entre dos objetos se puede definir como la razón entre sus niveles de gris medios. La manipulación de contraste consiste en una transferencia radiométrica en cada píxel.
Filtro paso bajo es empleado para remover ruido de alta frecuencia espacial en una imagen digital. La reducción del ruido mediante el filtro de paso bajo se lleva a cabo mediante una cancelación de las variaciones más rápidas entre píxel y píxel.
Filtro paso alto opera mediante el análisis de los valores de cada píxel y cambiando estos de acuerdo a los valores de los píxeles vecinos. El filtro paso alto realza detalles de la imagen.
Filtro SUSAN (Smallest Univalue Segment Assimilating Nucleus). Preserva la estructura de la imagen alisando únicamente sobre los píxeles que se encuentran dentro de la región del píxel analizado (píxel central). Este filtro integra los mejores aspectos de los métodos de reducción de ruidos existentes incluyendo la preservación de bordes. 

En el análisis de objetos dentro de las imágenes resulta esencial distinguir entre el objeto de interés y el resto de la imagen. Una de las técnicas más conocidas es la segmentación mediante la detección de bordes.
La detección de bordes es la aplicación de un algoritmo con esté proposito que dará como resultado un contorno. Su objetivo es obtener imágenes cuya salida muestre píxeles de mayor intensidad en los valores que detecten transiciones cercanas.
Alguno de los algoritmos de detección de bordes más comunes son:
Técnicas basadas en el gradiente: Operador de Roberts, Operador de Sobel, Operador de Prewitt, Operador Isotrópico.
Operadores basados en cruces por cero: Operador de Marr-Hildreth, Detector de Canny.


Los operadores basados en el gradiente son píxeles con un alto gradiente. Un rápido índice de cambio de intensidad dada por el ángulo del vector gradiente puede observarse en los píxeles de los bordes.

Un píxel de borde se describe por: Intensidad del borde (magnitud del gradiente) y dirección del borde (ánglo del gradiente).

Operador de Roberts. Utiliza las direcciones diagonales para calcular el vector gradiente mediante máscaras.

Operador de Sobel. Calcula la magnitud del gradiente mediante: M√ sx² + sy²

Operador de Prewitt. Expande la definición del gradiente en una máscara de 3x3 para se más inmune al ruido, utiliza la misma ecuación que Sobel, pero con constante c = 1.

Operador Isotrópico. Intenta llegar a un equilibrio entre operador Prewitt y Sobel. Prewitt proporciona detección para bordes verticales y horizontales, y Sobel detección de bordes diagonales.

4.3 Tecnicas de sombreado


INTENSIDAD CONSTANTE
En ciertas condiciones, un objeto con superficies planas puede sombrearse en forma realista utilizando intensidades de superficie constantes. En el caso donde una superficie se expone solamente a la luz ambiente y no se aplican diseños, texturas o sombras de superficie, el sombreado constante genera un a representación exacta de la superficie.
Una superficie curva que se representa como un conjunto de superficies planas puede sombrearse con intensidades de superficie constante, si los planos se subdividen la superficie se hace lo suficientemente pequeños.

La siguiente figura muestra un objeto modelado con sombreado constante.


Con este método, la intensidad se calcula en un punto interior de cada plano y toda la superficie se sombrea con la intensidad calculada. Cuando la orientación entre planos adyacentes cambia en forma abrupta, la diferencia en intensidades de superficie puede producir un efectos áspero o irreal. Podemos alisar las discontinuidades de intensidad sobre cada superficie de acuerdo con algún esquema de interpolación.


Sombreado de gouraud
Este esquema de interpolación de intensidad, creado por gouraud, elimina discontinuidades en intensidades entre planos adyacentes de la representación de una superficie variando en forma lineal la intensidad sobre cada plano de manera que lo valores de la intensidad concuerden en las fronteras del plano. En este método los valores de la intensidad a lo largo de cada línea de rastreo que atraviesan una superficie se interpolan a partir de las intensidades en los puntos de intersección de con la superficie.

La siguiente figura demuestra este esquema de interpolación.




Este proceso se repite con cada línea que pasa por el polígono. En este método de interpolación primero deben aproximarse las normales a la superficie en cada vértice de un polígono. Esto se logra promediando las normales a la superficie para cada polígono que contiene el punto de vértice, como se muestra en la siguiente figura. Estos vectores normales de los vértices se utilizan entonces en el modelo de sombreado para generar los valores de intensidad de los vértices.
Un ejemplo de un objeto de sombreado con el método de Gouraud.


Sombreado de phong este método creado por phong bui tuong también se conoce como esquema de interpolación de vector normal despliega toques de luz mas reales sobre la superficie y reduce considerablemente el efecto de la banda de mach




Aprecia la franja obscura que aparece justo a la derecha del gradiente, y la franja blanca que aparece justo a la izquierda de éste.


El sombreado de phong primero interpola los vectores normales en los puntos limite de una línea de rastreo. Puede hacerse mejoras a los modelos de sombreado de gouraud determinando la normal aproximada a la superficie en cada punto a lo largo de una línea de rastreo y calculando después la intensidad mediante el uso del vector normal aproximado en ese punto. 








ALGORITMO DE TRAZO DE RAYAS
 
Puesto que podría generarse un número infinito de puntos de intensidad sobre las diversas superficies de una escena, un buen método para determinar las intensidades especulares en posiciones visibles de la superficie consiste en trazar rayas hacia atrás desde la posición de visión hasta la fuente de luz. Comenzando desde la posición de visión, la raya que atraviesa cada pixel en el plano de visión se traza hacia atrás a una superficie de la escena tridimensional. Esta técnica, conocida como trazo de rayas, se ilustra en la siguiente figura.

Cuando se encuentran objetos transparentes en el proceso del trazo de rayas, las contribuciones de intensidad de la reflexión especular se toma en cuenta. En una superficie transparente, la raya se divide en los dos componentes que se muestran en la siguiente figura. Cada raya se traza después en forma individual hacia su fuente.




Después que se ha procesado una raya para determinar todas las contribuciones de intensidad especular, se fija la intensidad del pixel correspondiente. La figura siguiente muestra dos vistas de una escena generada con técnicas de trazo de rayas.




Superficies fractales
Para determinar niveles de intensidad para los diversos puntos de la superficie de un objeto fractal se necesita algún método para determinar las normales a la superficie. Un método para realizar esto consiste en representar a un fractal como un número de planos pequeños con un conjunto de normales a la superficie para cada plano.


Fronteras de superficies con anti seudónimos
Las líneas y las aristas de polígonos pueden aliarse con técnicas de anti seudónimos que ajustan posiciones de pixeles o bien fija las intensidades de los pixeles de acuerdo con el porcentaje de área-pixel cubierta en cada punto. Pueden aplicarse métodos de anti seudónimos semejantes para alisar las fronteras de una escena que contiene un conjunto de superficies.

4.1 Relleno de poligonos

Polígono es una figura básica dentro de las representaciones y tratamiento de imágenes bidimencionales y su utilización es muy interesante para modelar objetos del mundo real.
En un sentido amplio, se define como una región del espacio delimitada por un conjunto de lineas (aristas) y cuyo interior puede estar rellenado por un color o patrón dado.


CASOS DE RELLENO SEGÚN SU COMPLEJIDAD

El caso mas sencillo de relleno es el triangulo.
Luego sigue el relleno de polígonos convexos de N-lados.
Relleno de polígonos cóncavos.



MÉTODO DE RELLENO DE POLÍGONOS CON COLOR

  • SCAN-LINE
  • INUNDACIÓN
  • FUERZA BRUTA
  • PATRÓN


SCAN-LINE

Fila a fila van trazando lineas de color entre aristas.

Para scan-line que cruce el polígono se busca en la intersección entre las lineas de barrido y las aristas del polígono.
Dichas intersecciones se ordenan y se rellenan a pares.




LINEA DE BARRIDO


Es valido para polígonos cóncavos como convexos. Incluso para si el objeto tiene huecos interiores.
Funcionan en el trozo de lineas horizontales, denominadas lineas de barridos, que intersectan un numero de veces, permitiendo a partir de ella identificar los puntos que se consideran interiores al polígono.


INUNDACIÓN

Empieza en un interior y pinta hasta encontrar la frontera del objeto.
Partimos de un punto inicial (x,y), un colo de relleno y un color de frontera.
El algoritmo va testeando los píxeles vecinos a los ya pintados, viendo si son frontera o no.
No solo sirven para polígonos, sino para cualquier área curva para cualquier imagen AE se usan los programas de dibujo.



FUERZA BRUTA

Calcula una caja contenedora del objeto.
Hace un barrido interno de la caja para comprobar c/pixel este dentro del polígono.
Con polígonos simétricos basta con que hagamos un solo barrido en una sección y replicar los demás pixeles.
Requiere aritmética punto-flotante, esto lo hace preciso y costoso.




RELLENO MEDIANTE UN PATRÓN

Un patrón viene definido por el área rectangular en el que cada punto tiene determinado color o novel de gris. Este patrón debe repetirse de modo periódico dentro de la región a rellenar. Para ello debemos establecer una relación entre los puntos del patrón y los pixeles de la figura. En definitiva debemos determinar la situación inicial del patrón respecto a la figura de tal forma que podamos establecer una correspondencia entre los pixeles interiores al polígono y los puntos del patrón.




ALTERNATIVAS PARA LA SITUACIÓN INICIAL DEL PATRÓN


Consiste en situar el punto asociado a la esquina superior izquierda del patrón en un vértice del polígono.

Considerar la región a rellenar en toda la pantalla y por lo tanto el patrón se citua en el origen de esta (esquina superior izquierda).

3.4 Lineas y superficies curvas


Las ecuaciones de los objetos con límites curvos se pueden expresar en forma paramétrica o en forma no paramétrica. El Apéndice A proporciona un resumen y una comparación de las representaciones paramétricas y no paramétricas. Entre los múltiples objetos son útiles a menudo en las aplicaciones gráficas se pueden incluir las superficies cuadráticas, las supercuádricas, las funciones polinómicas y exponenciales, y las superficies mediante splines. Estas descripciones de objetos de entrada se teselan habitualmente para producir aproximaciones de las superficies con mallas de polígonos.

La necesidad de representar curvas y superficies proviene de modelar objetos “from scratch” o representar objetos reales. En este último caso, normalmente no existe un modelo matemático previo del objeto, y el objeto se aproxima con “pedazos” de planos, esferas y otras formas simples de modelar, requiriéndose que los puntos del modelo sean cercanos a los correspondientes puntos del objeto real.
La representación no paramétrica de una curva (por ejemplo, en dos dimensiones) puede ser implícita, y = f(x) O bien explícita, f(x, y) = 0

La forma implícita no puede ser representada con curvas multivaluadas sobre x (por ejemplo, un círculo), mientras que la forma explícita puede requerir utilizar criterios adicionales para especificar la curva cuando la ecuación tiene más soluciones de las deseadas.

Representación paramétrica.

Una representación paramétrica (por ejemplo, de una curva bidimensional) tiene la forma P(t) = ( x(t), y(t) )T t1 <= t <= t2
La derivada o vector tangente es
P’ (t) = ( x’(t), y’(t) )T

El parámetro t puede reemplazarse mediante operaciones de cambio de variable, y frecuente se normaliza de modo que t1 = 0 y t2 = 1. Aunque geométricamente la curva aparece equivalente, una operación de este tipo normalmente modifica el comportamiento de la curva (esto es visible al comparar sus derivadas).

3.3 Transformaciones tridimensionales

El escalado, la traslación y la rotación son transformaciones lineales, ya que los nuevos puntos se calculan a partir de combinaciones lineales de las componentes de los puntos originales.

Se define TRANSFORMACIÓN AFÍN a una combinación de transformaciones lineales aplicadas a un objeto.

Cada transformación vendrá representada por una sola matriz, que se obtendrá multiplicando las matrices de cada una de las transformaciones, y en el mismo orden en el que queremos que se apliquen.

Una escena 3D se define por los puntos, planos y líneas que lo componen. Como son 3 dimensiones, se necesita un tercer eje, siendo estos el eje X, Y y Z. El sentido de estos queda definido por la regla de la mano derecha.

La regla de la mano derecha determina la dirección positiva del eje Z cuando se conoce la dirección de los ejes X y Y en un sistema de coordenadas 3D.

Cualquier punto se describe entonces como una terna de valores (x, y, z)



Las transformaciones 3D son extensiones de las transformaciones en dos dimensiones, por tanto, en 3-D, aplicando la misma regla, habrá que pasar a matrices 4x4



















3.2 Visualizacion de objetos

La representación tridimensional es conveniente cuando la visualización de una tercera magnitud, típicamente la elevación del terreno, resulta útil para la interpretación de los datos que se quieren mostrar. Se presentan a continuación algunos de los usos más comunes.




PROYECCIONES

Existen dos métodos básicos para proyectar objetos tridimensionales sobre una superficie de visión bidimensional. Todos los puntos del objeto pueden proyectarse sobre la superficie a lo largo de líneas paralelas o bien los puntos pueden proyectarse a lo largo de las líneas que convergen hacia una posición denominada centro de proyección. Los dos métodos llamados proyección en paralelo y proyección en perspectiva, respectivamente, se ilustran. En ambos casos, la intersección de una línea de proyección con la superficie de visión determinada las coordenadas del punto proyectado sobre este plano de proyección. Por ahora, se supone que el plano de proyección de visión es el plano z = 0 de un sistema de coordenadas del izquierdo.





PROYECCIÓN EN PARALELO

Una proyección en paralelo preserva dimensionar relativas de los objetos y esta es la técnica que se utiliza en dibujo mecánico para producir trazos a escala de los objetos en las dimensiones. Este método sirve para obtener vistas exactas de varios lados de un objeto, pero una proyección en paralelo no ofrece una presentación realista del aspecto de un objeto tridimensional.




Las vistas formadas con proyecciones en paralelo se pueden caracterizar de acuerdo con el angulo que la dirección de proyección forma con el plano de proyección. Cuando la dirección de proyección es perpendicular al plano de proyección, se tiene una proyección ortogonal.Una proyección que no es perpendicular al plano se denomina proyección oblicua.




PROYECCIÓN ORTOGONAL

La Proyección ortogonal es aquella cuyas rectas proyectantes auxiliares son perpendiculares al plano de proyección (o a la recta de proyección), estableciéndose una relación entre todos los puntos del elemento proyectante con los proyectados.

Existen diferentes tipos:

  • Vista A: Vista frontal o alzado
  • Vista B: Vista superior o planta
  • Vista C: Vista derecha o lateral derecha
  • Vista D: Vista izquierda o lateral izquierda
  • Vista E: Vista inferior
  • Vista F: Vista posterior





Las ecuaciones de transformación parea efectuar una proyección paralela ortogonal son directas.Para cualquier punto (x, y, z), el punto de proyección (Xp, Yp, Zp) sobre la superficie de visión se obtiene como Xp=X, Yp=y, Xp=0.

PROYECCIÓN OBLICUA. 

Es aquella cuyas rectas proyectantes auxiliares son oblicuas al plano de proyección, estableciéndose una relación entre todos los puntos del elemento proyectante con los proyectados.




Una proyección Oblicua se obtiene proyectando puntos a lo largo de líneas paralelas que no son perpendiculares al plano de proyección. La figura muestra una proyección oblicua de un punto (x, y, z) por una línea de proyección a la posición (xp, Yp).




PROYECCIONES PERSPECTIVA

Para obtener una proyección en perspectiva de un objeto tridimensional, se proyectan puntos a lo largo de líneas de proyección se interceptan en el de centro de proyección.
En el centro de proyección está en el eje z negativo a una distancia d detrás del plano de proyección. Puede seleccionarse cualquier posición para el centro de proyección, pero la elección de una posición a lo largo del eje z simplifica los cálculos en las ecuaciones de transformación. 
Podemos obtener las ecuaciones de transformaciones de una proyección en perspectiva a partir de las ecuaciones paramétricas que describen la línea de proyección de esta línea.
X’ = x –xu
Y’ = y- yu
Z’ = z-(z + d) u

El parámetro u toma los valores de 0 a 1 y las coordenadas (x’, y’, z’) representan cualquier posición situada a lo largo de la línea de proyección. Cuando u = 0.





Las ecuaciones producen el punto P en las coordenadas (x, y, z). En el otro extremo de la línea u = 1 y se tienen las coordenadas del centro de proyección, (0, 0,-d). Para obtener las coordenadas en el plano de proyección. Se hace z’ = 0 y se resuelven para determinar el parámetro u:
Este valor del parámetro u produce la interacción de la línea de proyección con el plano de proyección en (xp, yp, 0). Al sustituir las ecuaciones, se obtienen las ecuaciones de transformación de perspectiva.
Mediante una representación en coordenadas homogéneas tridimensionales, podemos escribir la transformación de la perspectiva en forma matricial.




Las coordenadas de proyección en el plano de proyección se calculan a partir de las coordenadas homogéneas como:
[xp yp zp 1] = [xh/w yh/w zh/w 1]
Cuando un objeto tridimensional se proyecta sobre un plano mediante ecuaciones de transformaciones de perspectiva, cualquier conjunto de líneas paralelas del objeto que no sean paralelas al plano se proyectan en líneas convergentes.


3.1 Representación de objetos en tres dimensiones

El diseño ayudado por ordenador representa un gran ahorro de esfuerzo y tiempo. Además se consiguen resultados extraordinarios con respecto a los procedimientos clásicos de diseño. Los programas de diseño industrial o arquitectónico admiten tres maneras de representación de objetos.


  • Modelos bidimensionales del objeto o parte de él. Se reproducen separadamente las diferentes caras, planos o cortes para ser estudiados y modificados. Normalmente se utiliza una representación formal del objeto, obteniendo sus vistas desde diferentes puntos de visualización. Se denominan vistas principales de un objeto, a las proyecciones ortogonales del mismo sobre 6 planos, dispuestos en forma de cubo. También se podría definir las vistas como, las proyecciones ortogonales de un objeto, según las distintas direcciones desde donde se mire. Si situamos un observador según las seis direcciones indicadas por las flechas, obtendríamos las seis vistas posibles de un objeto. 

  • Modelos tridimensionales que incluyan únicamente un conjunto de puntos y líneas en el espacio. Estos modelos se llaman “wireframe” o alambrado (armazón de alambre). El objeto así representado rota en diferentes ángulos para su estudio o transformación definitiva. Existen varias formas de representación en modo wireframe: 
    • 1. Representación alambrica: Activa este modo de sombreado. 
    • 2. Representación alambrica det: Se muestran bordes alámbricos e iluminación 
    • 3. Área de trabajo: Muestra los objetos como área de trabajo solamente. El área de trabajo se define como la caja más pequeña que abarca completamente un objeto.

  • Modelos sólidos que incluyen el dibujo de superficies y son los más completos y complejos. 
    • 1. Suavizado + Resaltes: Activa este modo de sombreado, que permite ver la homogeneidad e iluminación de los objetos. También puede presentar mapas en la superficie de objetos. Esto sucede mapa a mapa, pero puede presentar tantos mapas como desee simultáneamente en el visor. Los mapas sólo aparecen en objetos que tienen coordenadas de mapeado. 
    • 2. Suavizado: Muestra suavizado, pero no resaltes 

Espacio tridimensional 


El espacio 3D es un espacio matemático virtual creado por el programa de diseño 3D. Este espacio está definido por un sistema cartesiano de tres ejes: X, Y, Z. El punto donde salen las líneas virtuales que definen los ejes se llama origen y sus coordenadas son (0, 0, 0). En este espacio virtual se crean, modifican y disponen los diferentes objetos tridimensionales que van a componer la escena. 



Fundamentos básicos del modelado en 3D 

El 3D es una mera representación de coordenadas, que conforman estructuras envueltas por una textura. 
Por tanto, primero se deben construir un modelo, para ello hay técnicas de modelado comunes, en las cuales se encuentran: 


  • 1. Estructuras Predefinidas: Aquellas estructuras ya armadas por el sistema. Existen tres tipos: 
  1. Primitivas: caja, cono, esfera, geo esfera, cilindro, tubo, anillo, pirámide, tetera y plano. 
  2. Primitivas Extendidas: hedra, nudo toroide, caja "redondeada", cilindro "redondeado", tanque de aceite, capsula, sprindle, forma L, gengon, forma c, anillo ondulado, hose, prisma. 
  3. Librerías: son formas armadas, disponibles en 3d Max 7; puertas, ventanas, árboles, escaleras. 
  • 2. Box Modeling: Como su nombre lo indica, es el modelado de figuras complejas a través de una caja. Empleando un modificador de mallas, Edith Mesh, podrán ir extendiendo la caja, convirtiéndola en otra cosa. 
  • 3. NURBS Modeling: Es una técnica para construir mallas de alta complejidad, de aspecto orgánico ó curvado, que emplea como punto de partida splines (figuras 2d) para mediante diversos métodos, crear la malla 3d anidando los splines. 


Renderizado


El renderizado es un proceso de cálculo complejo desarrollado por un ordenador destinado a generar una imagen 2D a partir de una escena 3D. Así podría decirse que en el proceso de renderización, la computadora "interpreta" la escena 3D y la plasma en una imagen 2D. 

La renderización se aplica a los gráficos por ordenador, más comúnmente a la infografía. En infografía este proceso se desarrolla con el fin de imitar un espacio 3D formado por estructuras poligonales, comportamiento de luces, texturas, materiales, animación, simulando ambientes y estructuras físicas verosímiles, etc. Una de la partes más importantes de los programas dedicados a la infografía son los motores de render los cuales son capaces de realizar técnicas complejas como radiosidad, raytrace (trazador de rayos), canal alpha, reflexión, refracción, iluminación global, etc. 

Cuando se trabaja en un programa de diseño 3D por computadora, no es 
posible visualizar en tiempo real el acabado final deseado de una escena 3D compleja ya que esto requiere una potencia de cálculo demasiado elevada. Por lo que se opta por crear el entorno 3D con una forma de visualización más simple y técnica y luego generar el lento proceso de renderización para conseguir los esultados finales deseados. 


Proyecciones

En dos dimensiones, las operaciones de visión transfieren puntos bidimensionales en el plano coordenado mundial a puntos bidimensionales en el plano de coordenadas del dispositivo. Las definiciones de objetos, sujetados contra el marco de una ventana, se delinean en un puerto de visión (viewport). Estas coordenadas de dispositivo normalizadas se convierten después en coordenadas de dispositivo y el objeto se despliega en el dispositivo de salida. 
 
En tres dimensiones, la situación es un poco más complicada, ya que ahora tenemos algunas alternativas como la forma en que se van a generar las vistas. Podríamos visualizar una escena desde el frente, desde arriba o bien desde atrás. También podríamos generar una vista de lo que observaríamos si estuviéramos parados en medio de un grupo de objetos. Además, las descripciones tridimensionales de objetos deben proyectarse en la superficie de visión plana del dispositivo de salida. 

La visualización en nuestro caso significa información del mundo real en la pantalla. La visualización 2D son las operaciones de transferencia de puntos bidimensionales en el plano coordenado del mundo en el plano coordenado del dispositivo. 

Existen dos métodos básicos para proyectar objetos tridimensionales sobre una superficie de visión bidimensional. Estas dos maneras, dependen de si todos los puntos del objeto pueden proyectarse sobre la superficie a lo largo de líneas paralelas o bien los puntos pueden proyectarse a lo largo de líneas que convergen a una posición denominada centro de proyección. En ambos casos, la intersección de una línea de proyección con la superficie de visión determina las coordenadas del punto proyectado sobre este plano de proyección. 

Proyecciones

2.5 Ventana y puerto de visión

Un área rectangular que se especifica en coordenadas mundiales se denomina ventana. El área rectangular en el dispositivo de despliegue en el cual se coloca la ventana se llama puerta de visión. La figura ilustra el trazo o planimetría de la selección de una imagen que queda dentro del área de ventana en una puerta de visión designada. Esta planimetría se llama transformación de la visión o bien transformación de normalización.



Los límites de la ventana se especifican en coordenadas mundiales. Las coordenadas de dispositivo normalizadas se usan con mayor frecuencia para la especificación de la puerta visión, aunque las coordenadas del dispositivo pueden emplearse si hay solamente un dispositivo de salida en el sistemas. Cuando se usan coordenadas de dispositivo normalizadas, el programador considera el dispositivo de salida como aquel que tiene valores coordenados dentro del intervalo de 0 a 1.

Las posiciones de coordenadas que se expresan en coordenadas de dispositivo normalizadas deben convertirse a las coordenadas del dispositivo antes de que un dispositivo de salida específico haga el despliegue. Una rutina específica del dispositivo se incluye en paquetes de gráficas con este fin. La ventaja de emplear coordenadas de dispositivo normalizadas es que el paquete de gráficas es considerablemente independiente del dispositivo. Pueden utilizarse distintos dispositivos de salida ofreciendo los conductores adecuados del dispositivo.

Cambiando la posición de la puerta de visión, los objetos pueden desplegarse en diferentes posiciones en un dispositivo de salida. Asimismo, variando el tamaño de las puertas de visión, el tamaño y las proporciones de los objetos pueden alterarse. Cuando se trazan en forma sucesiva ventanas de diferentes tamaños en una puerta de visión, pueden lograrse efectos de acercamiento. Conforme las ventanas se hacen pequeñas, un usuario puede lograr el acercamiento de alguna parte de una escena para visualizar detalles que no se muestran con las ventanas mayores.

Analógicamente, puede obtener un panorama general más amplio realizando un acercamiento de una sección de escena con ventanas cada vez más mayores. Los efectos de toma panorámica se producen moviendo o desplazando una ventana de tamaño fijo a través de una imagen grande.

2.4 Representación matricial

En las aplicaciones de diseño y de creación de imágenes, realizamos traslaciones, rotaciones y escalaciones para ajustar los componentes de la imagen en sus posiciones apropiadas. En este tema consideramos cómo se pueden volver a formular las representaciones de la matriz de modo que se pueden procesar de manera eficiente esas secuencias de transformación. Es posible expresar cada una de las transformaciones básicas en la forma de matriz general con las posiciones de coordenadas P y P’ representadas como columnas de vector.
Con las representaciones de matriz podemos establecer una matriz para cualquier secuencia de transformaciones como una matriz de transformación compuesta al calcular el producto de la matriz de las transformaciones individuales. La creación de productos de matrices de transformación a menudo se conoce como concatenación o composición de matrices.
  • Traslaciones
Se se aplican dos vectores de traslación sucesivos (tx1, t y1) y (tx2 , t  y2 ) en la posición de coordenadas P, la localización transformada final P, la localización transformada final P’ se calcula como: P'=T(t x2,t2)·T(tx1,ty1)·P}{=T(tx2, 2)·T(t x1,t y1)}{·P
Donde se representan P y P’ como vectores de columna de coordenadas homogéneas. Podemos verificar este resultado al calcular el producto de la matriz para las dos agrupaciones asociativas. Asimismo, la matriz de transformación compuesta para esta secuencia de transformaciones.
  • Rotaciones
Dos rotaciones sucesivas que se aplican en el punto P producen la posición transformada P'=R(θ2)·R(θ1){·P}=R(θ2){· (θ1)}·P
Al multiplicar las dos matrices de rotación, podemos verificar que dos rotaciones sucesivas son aditivas
  • Escalamiento
La siguiente figura ilustra una secuencia de transformación para producir escalación con respecto de una posición fija seleccionada (xf,f) al utilizar una función de escalación que sólo puede escalar en relación con el origen de las coordenadas
 
Propiedades de concatenación
La multiplicación de matrices es asociativa. Para tres matrices cualesquiera A, B y C, el producto matricial A·B·C se puede llevar a cabo al multiplicar primero a por B o multiplicar primero B por C:2.35.A · BC=( A· B)·C =A·( B·C)
Por tanto, podemos evaluar los productos matriciales al utilizar una agrupación asociativa ya sea de izquierda a derecha o de derecha a izquierda. Por otro lado, los productos de la transformación tal vez no sean conmutativos. En general el producto matricial A·B no es igual que B·A. Esto significa queremos trasladar y girar un objeto, debemos tener cuidado sobre el sentido en que se evalúa la matriz compuesta.