jueves, 30 de junio de 2016

SEMANA 16

Aplicaciones de la Teledetección 
 
 Las aplicaciones de la Teledetección son múltiples y por tratarse de una tecnología reciente, todavía están en proceso de desarrollo.
Las disciplinas que actualmente más utilizan las informaciones de los satélites son: geografía, biología, edafología, geología, agronomía, oceanografía, cartografía y arqueología.

Ejemplos de aplicaciones de la Teledetección
Algunas de las aplicaciones de la Teledetección más destacadas son:
  • Estudio de la erosión de playas y arenales.
  • Inventario regional del medio ambiente para hacer estudios de impacto ambiental.
  • Cartografía geológica para la explotación de recursos minerales y petroleros.
  • Control de la acumulación de la nieve y de los cambios previsibles en la disponibilidad de energía hidroeléctrica.
  • Seguimiento del movimiento de icebergs en zonas polares.
  • Estimación de modelos de escorrentía y erosión del suelo.
  • Inventario del agua superficial.
  • Análisis en tiempo real de masas nubosas de escala media y pequeña.
  • Medidas de aguas superficiales y humedales para evaluar la situación del hábitat para aves acuáticas.
  • Verificación de contenidos de salinidad en las principales corrientes de agua.
  • Cartografía térmica de la superficie del mar.
  • Verificación y control de la calidad del agua, turbidez y contenido de algas.
  • Control de las corrientes marinas.
  • Cartografía de la cobertura vegetal del suelo.
  • Evaluación de condiciones de estrés en la vegetación, por lo efectos de la sequía o la deforestación.
  • Cartografía de áreas quemadas y seguimiento de los procesos de repoblación natural.
  • Cartografía e inventario de la cobertura y uso del suelo.
  • Selección de rutas óptimas para nuevas vías de comunicación.
  • Control de pastizales para el estudio de los efectos de la sequía y del exceso de pastoreo.
  • Cartografía e inventario de cultivos por especies.
  • Agricultura de precisión: predicción del rendimiento de cultivos y del momento óptimo para las cosechas
La mayor parte de las aplicaciones arriba reseñadas no son exclusivas de la teledetección espacial, aunque el uso de ésta permite reducir los costes y el tiempo en obtener resultados.
Las figuras de esta página ilustran algunos de los usos menos conocidos de la Teledetección. Clicando sobre las imágenes accederás a la fuente de la información.
 
Explotación de recursos naturales
Expansión urbana
Esta imagen muestra los puntos de nueva urbanización (en rojo) de la ciudad de Roma entre los años 1995 y 2000. Las zonas de color blanco señalan las zonas urbanas construidas antes de 1995. Fuente: Proyecto Urbex-ESA
Navegación y rescate marítimos
Arqueología y Teledetección

SEMANA 15

Procesamiento digital de imágenes

Ejemplos de filtrado sobre una imagen.
El procesamiento digital de imágenes es el conjunto de técnicas que se aplican a las imágenes digitales con el objetivo de mejorar la calidad o facilitar la búsqueda de información.

Proceso de filtrado[editar]

Es el conjunto de técnicas englobadas dentro del preprocesamiento de imágenes cuyo objetivo fundamental es obtener, a partir de una imagen origen, otra final cuyo resultado sea más adecuado para una aplicación específica mejorando ciertas características de la misma que posibilite efectuar operaciones del procesado sobre ella.
Los principales objetivos que se persiguen con la aplicación de filtros son:
  • Suavizar la imagen: reducir la cantidad de variaciones de intensidad entre píxeles vecinos.
  • Eliminar ruido: eliminar aquellos píxeles cuyo nivel de intensidad es muy diferente al de sus vecinos y cuyo origen puede estar tanto en el proceso de adquisición de la imagen como en el de transmisión.
  • Realzar bordes: destacar los bordes que se localizan en una imagen.
  • Detectar bordes: detectar los píxeles donde se produce un cambio brusco en la función intensidad.
Por tanto, se consideran los filtros como operaciones que se aplican a los píxeles de una imagen digital para optimizarla, enfatizar cierta información o conseguir un efecto especial en ella.
El proceso de filtrado puede llevarse a cabo sobre los dominios de frecuencia y/o espacio.

Filtrado en el dominio de la frecuencia[editar]

Ejemplo de filtrado en el dominio de la frecuencia.
Los filtros de frecuencia procesan una imagen trabajando sobre el dominio de la frecuencia en la Transformada de Fourierde la imagen. Para ello, ésta se modifica siguiendo el Teorema de la Convolución correspondiente:
  1. se aplica la Transformada de Fourier,
  2. se multiplica posteriormente por la función del filtro que ha sido escogido,
  3. para concluir re-transformándola al dominio espacial empleando la Transformada Inversa de Fourier.
Teorema de la Convolución (frecuencia): 
F(u,v): transformada de Fourier de la imagen original.
H(u,v): filtro atenuador de frecuencias.
Como la multiplicación en el espacio de Fourier es idéntica a la convolución en el dominio espacial, todos los filtros podrían, en teoría, ser implementados como un filtro espacial.Etapas filtrado dominio frecuencia.jpg Etapas del procesamiento de imágenes en el dominio de la frecuencia.

Tipos[editar]

Filtros en el dominio de la frecuencia y espacio.
Existen básicamente tres tipos distintos de filtros que pueden aplicarse:
  • Filtro paso bajo: atenúa las frecuencias altas y mantiene sin variaciones las bajas. El resultado en el dominio espacial es equivalente al de un filtro de suavizado, donde las altas frecuencias que son filtradas se corresponden con los cambios fuertes de intensidad. Consigue reducir el ruido suavizando las transiciones existentes.
  • Filtro paso alto: atenúa las frecuencias bajas manteniendo invariables las frecuencias altas. Puesto que las altas frecuencias corresponden en las imágenes a cambios bruscos de densidad, este tipo de filtros es usado, porque entre otras ventajas, ofrece mejoras en la detección de bordes en el dominio espacial, ya que estos contienen gran cantidad de dichas frecuencias. Refuerza los contrastes que se encuentran en la imagen.
  • Filtro paso banda: atenúa frecuencias muy altas o muy bajas manteniendo una banda de rango medio.

Ventajas[editar]

  • Método simple y sencillo de implementar.
  • Fácil asociación del concepto de frecuencia con ciertas características de la imagen; cambios de tonalidad suaves implican frecuencias bajas y cambios bruscos frecuencias altas.
  • Proporciona flexibilidad en el diseño de soluciones de filtrado.
  • Rapidez en el filtrado al utilizar el Teorema de la Convolución.

Desventajas[editar]

  • Se necesitan conocimientos en varios campos para desarrollar una aplicación para el procesamiento de imágenes.
  • El ruido no puede ser eliminado completamente.

Filtrado en el dominio del espacio[editar]

Las operaciones de filtrado se llevan a cabo directamente sobre los píxeles de la imagen. En este proceso se relaciona, para todos y cada uno de los puntos de la imagen, un conjunto de píxeles próximos al píxel objetivo con la finalidad de obtener una información útil, dependiente del tipo de filtro aplicado, que permita actuar sobre el píxel concreto en que se está llevando a cabo el proceso de filtrado para, de este modo, obtener mejoras sobre la imagen y/o datos que podrían ser utilizados en futuras acciones o procesos de trabajo sobre ella.
Los filtros en el dominio del espacio pueden clasificarse en:
  • Filtros lineales (filtros basados en kernels o máscaras de convolución).
  • Filtros no lineales.
El concepto de kernel se entiende como una matriz de coeficientes donde el entorno del punto (x,y) que se considera en la imagen para obtener g(x,y) está determinado por el tamaño y forma del kernel seleccionado. Aunque la forma y tamaño de esta matriz es variable y queda a elección de cada usuario, es común el uso de kernels cuadrados nxn. Dependiendo de la implementación, en los límites de la imagen se aplica un tratamiento especial (se asume un marco exterior de ceros o se repiten los valores del borde) o no se aplica ninguno. Es por ello, que el tipo de filtrado queda establecido por el contenido de dicho kernel utilizado. Filtrado espacial kernel.jpg
Aplicación de un kernel.
Para realizar un filtrado en el dominio del espacio se realiza una convolución (barrido) del kernel sobre la imagen. Para ello se sigue el Teorema de Convolución en el espacio: g(x,y) = h(x,y) * f(x,y)
  1. Cada píxel de la nueva imagen se obtiene mediante el sumatorio de la multiplicación del kernel por los píxeles contiguos:
    g(x,y) = ∑∑ f(i,j) w(i,j)
  2. Generalmente se divide sobre cierto valor constante para normalizar que suele obtenerse de la suma de los valores del kernel empleado.

Tipos[editar]

Ejemplo de filtrado promedio con filtro 5x5.
  • Filtro paso bajo (suavizamiento): utilizados para eliminar ruido o detalles pequeños de poco interés puesto que sólo afecta a zonas con muchos cambios. La frecuencia de corte se determina por el tamaño del kernel y sus coeficientes. Se emplean diversos kernels:
    • Promedio: promedio de píxeles vecinos (kernel de unos).
    • Paso bajo en frecuencia.
    • Media: reemplaza cada píxel por el valor medio de sus contiguos.
    • Mediana: sustituye por el valor de la mediana de los píxeles vecinos (normalmente se comporta mejor que el de promedio).
    • Gaussiano: aproximación a la distribución gaussiana.
  • Filtro paso alto (atenuamiento): intensifica los detalles, bordes y cambios de alta frecuencia, mientras que atenúa las zonas de tonalidad uniforme. Esto permite una mejor identificación posterior de los objetos que se encuentren en la imagen, puesto que el brillo se hace mayor en las zonas con frecuencias más altas, al mismo tiempo que se oscurecen las zonas de frecuencias bajas. Es común la aparición de ruido tras el proceso.
  • Realce de bordes por desplazamiento y diferencia: sustrae de la imagen original una copia desplazada de la misma. Así, es posible localizar y hacer resaltar los bordes existentes y que se quieran obtener según el modelo de kernel aplicado:
    • Horizontal.
    • Vertical.
    • Horizontal/Vertical (diagonal).
Imagen original, y resultante tras filtros Laplaciano y Sobel.
  • Realce de bordes mediante Laplace: este tipo de filtros realza los bordes en todas direcciones (los resultados que se obtienen pueden considerarse como una “suma” de los obtenidos tras aplicar todos los modelos del tipo anterior). En esta ocasión se trabaja con la segunda derivada, que permite obtener unos mejores resultados, a pesar del aumento del ruido que se produce en la imagen.
  • Resalte de bordes con gradiente direccional: empleado para destacar y resaltar con mayor precisión los bordes que se localizan en una dirección determinada. Trabaja con los cambios de intensidad existentes entre píxeles contiguos.
  • Detección de bordes y filtros de contorno (Prewitt y Sobel): al igual que los anteriores, se centra en las diferencias de intensidad que se dan pixel a pixel. Son utilizados para obtener los contornos de objetos y de este modo clasificar las formas existentes dentro de una imagen. Este tipo de filtros requieren un menor coste computacional.

Tratamiento de imagen por procesamiento de punto[editar]

Se trata de la mejora de la imagen considerando los métodos de procesamiento que se basan sólo en la intensidad de píxeles individuales. En lo que sigue llamaremos r y s a la intensidad de los píxeles antes y después del procesado. A continuacion se presentan ejemplos de tratamiento de imagen por procesamiento de punto utilizando el software de acceso libre ImageJ:
Negativo imagen grafica.jpg
-Negativos de imágenes: La idea de esta transformación es invertir el orden de blanco a negro, de forma que la intensidad de la imagen de salida disminuya conforme la intensidad de la imagen de entrada aumente. Mediante ImageJ es sencillo realizar el negativo de una imagen. Ésta se conseguiría a partir de la Lookup Table, Invert LUT.
Imagen original
Negativo de la imagen
Image j 1.jpg
-Aumento del contraste:
Contraste aumento.jpg
La idea del aumento de contraste consiste en incrementar el rango dinámico de los niveles de gris de la imagen que se está procesando. La ubicación de los puntos (r1,s1) y (r2,s2) controla la forma de la función de transformación.
A partir de la opción "Calibrate" del ImageJ , diseño la función de transformación siguiente que me permite incrementar el contraste de la imagen original.
Imagen original mamografia
Image j 2.jpg
Imagen contrastada
-Compresión del rango dinámico: Puede ocurrir que el rango dinámico de una imagen procesada excede la capacidad del dispositivo de presentación por lo que sólo veremos las partes más brillantes de la imagen. Una manera de comprimir el rango dinámico en realizar una transformación de este tipo:
Compresion rango dinamico.jpg
s=C·log(1+| r | )
Utilizando de nuevo el ImageJ, podemos diseñar una función de la forma anterior que nos permita comprimir el rango dinámico de una imagen. En este caso se ha utilizado el Plugin "Expresion NT" , definiendo una función de la forma:
s=100.log(1+| r | )
Imagen original
Image j 3.jpg
Imagen despues de transformacion
-Fraccionamiento del nivel de gris: Si se desea destacar un rango específico del nivel de gris de una imagen. se puede por ejemplo adjudicar un valor alto a todos aquellos niveles de gris del rango de interés y uno bajo a los restantes.
-Fraccionamiento de los planos de bits: A veces puede desearse destacar la contribución que realizan a la imagen determinados bits específicos en vez de un rango determinado, es lo que se consigue con esta transformación.


SEMANA 14

ESTRUCTURA DE LOS DATOS:

  
representación de datos raster 
El modelo raster es un método para el almacenamiento, el procesado y la visualización de datos geográficos . Cada superficie a representar se divide en filas y columnas, formando una malla o rejilla regular. Cada celda ha de ser rectangular, aunque no necesariamente cuadrada. Cada celda de la rejilla guarda tanto las coordenadas de la localización como el valor temático. La localización de cada celda es implícita, dependiendo directamente del orden que ocupa en la rejilla, a diferencia de la estructura vectorial en la que se almacena de forma explícita la topología. Las áreas que contienen idéntico atributo temático son reconocidas como tal, aunque las estructuras raster no identifican los límites de esas áreas como polígonos en sí.
Los datos raster son una abstración de la realidad, representan ésta como una rejilla de celdas o píxeles (ver figura 9), en la que la posición de cada elemento es implícita según el orden que ocupa en dicha rejilla. En el modelo raster el espacio no es continuo sino que se divide en unidades discretas. Esto le hace especialmente indicado para ciertas operaciones espaciales como por ejemplo las superposiciones de mapas o el cálculo de superficies.
Las estructuras raster pueden implicar en ocasiones un incremento del espacio de almacenamiento, ya que almacenan cada celda de la matriz sin tener en cuenta si se trata de una entidad o simplemente de un espacio “vacío”.
tamaño y resolución de la celdilla/pixel
Pixel es la abreviatura de las palabras “picture element”. Es usada frecuentemente en teledetección para referirse a cada unidad de una imagen. En los SIG raster nos referimos a veces al pixel como la celda o el elemento base de una rejilla. El pixel/celda se refiere a la unidad mínima de información de una imagen o un mapa raster. Es el elemento más pequeño al que un dispositivo de visualización puede asignarle de forma independiente un atributo como es el color.
Tamaño del pixel y número de filas y columnas:
"El tamaño del pixel debe ser la mitad de la longitud más pequeña que sea necesario representar " Star and Estes (1990). A mayor tamaño de la celda, menor será el número de filas y columnas de la malla que cubre la superficie.

estructuras de datos raster
enumeración exhaustiva (figura 9)
En esta estructura de datos el valor de cada pixel se registra individualmente, de forma que no se aplica ningún método de compresión cuando el mismo valor numérico aparece reiteradas veces seguidas.
codificación por grupos de longitud variable "run-length" (figura 10Es un método de compresión de imágenes. En el caso de que existan celdas contigüas con valores numéricos idénticos, esta estructura compacta la información. En vez de registrar el valor de cada celda individualmente, para cada fila se recoge el valor temático que existe y el número de celdas con dicho valor. Si sólo existe una celda con ese valor el tamaño se duplica, pero se reduce considerablemente en el caso de tres o más celdas idénticas. Cuanto mayores y más frecuentes sean las series de datos repetitivos, mayor compresión se logrará. Esta técnica es especialmente útil para codificar imágenes monocromo o binarias (Chrisman, 1997).

Figura 9. Enumeración exhaustiva

Figura 10. Codificación "run-length"

ventajas e inconvenientes de los modelos de datos raster y vectorial
 
raster
vectorial
precisión gráfica
cartografía tradicional
volumen de datos
topología
operaciones de cálculo
actualización
variación espacial continua
integración
variación espacial discontinua

entrada de datos
Para más información consulta el módulo Entrada de Datos Geográficos

La entrada de datos en un SIG raster se puede realizar a partir de:
Imágenes de Satélite
Digitalización manual  
  • Puntos
  • Líneas
  • Polígonos
  • Digitalización semi-automática
    Barredor óptico o escáner
    Rasterización de datos vectoriales
    rasterización de datos vectoriales
    Es el procedimiento a través del cual se convierten datos vectoriales (puntos, líneas y polígonos) a formato raster, formados éstos por celdas (píxeles) con un valor temático discreto en cada una. Es más sencillo que el procedimiento contrario, la conversión de datos raster a formato vectorial.
    vectorización de datos raster
    Es el procedimiento que convierte una imagen formada por celdas en un archivo vectorial. Puede o no incluir la creación de topología.
    Para más información consulta el módulo Análisis Espacial Raster
    Pincha aquí para descargarte toda la teoría aparecida en este módulo


    Píxel

    Ampliación de una zona de una imagen donde se pueden apreciar los pixeles.
    Un píxel o pixel,1 plural píxeles (acrónimo del inglés picture element, ‘elemento de imagen’), es la menor unidad homogénea en colorque forma parte de una imagen digital.

    Concepto[editar]

    Ampliando lo suficiente una imagen (zoom) en la pantalla de una computadora, pueden observarse los píxeles que la componen. Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de la densidad, en lo referente al área.
    En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se codifica mediante un conjunto de bits de longitud determinada (la profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite hasta 256 variaciones de color (28 posibilidades binarias), de 0 a 255. En las imágenes llamadas de color verdadero, normalmente se usan tres bytes (24 bits) para definir el color de un píxel; es decir, en total se pueden representar unos 224 colores, esto es 16.777.216 variaciones de color. Una imagen en la que se utilicen 32 bits para representar un píxel tiene la misma cantidad de colores que la de 24 bits, ya que los otros 8 bits son usados para efectos de transparencia.
    Para poder visualizar, almacenar y procesar la información numérica representada en cada píxel, se debe conocer, además de la profundidad y brillo del color, el modelo de color que se utiliza. Por ejemplo, el modelo de color RGB (Red-Green-Blue) permite crear un color compuesto por los tres colores primarios según el sistema de mezcla aditiva. De esta forma, según la cantidad de cada uno de ellos que se use en cada píxel será el resultado del color final del mismo. Por ejemplo, el color magenta se logra mezclando el rojo y el azul, sin componente verde (este byte se pone en 0). Las distintas tonalidades del mismo color se logran variando la proporción en que intervienen ambas componentes (se altera el valor de esos dos bytes de color del píxel). En el modelo RGB lo más frecuente es usar 8 bits al representar la proporción de cada una de las tres componentes de color primarias. Así, cuando una de las componentes vale 0, significa que ella no interviene en la mezcla y cuando vale 255 (28 – 1) significa que interviene dando el máximo de ese tono, valores intermedios proveen la intensidad correspondiente.
    La mayor parte de los dispositivos que se usan con una computadora (monitorescáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo), excepto los que aportantintes, como las impresoras, que suelen usar el modelo CMYK (modelo sustractivo).

    Profundidad de color[editar]

    Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits (224 colores, 8 bits por canal de color) o con 48 bits (248 colores); en fotografía avanzada y digitalización de imágenes profesional se utilizan profundidades aún mayores, expresadas siempre en valores de bits/canal de color en lugar de la suma de los tres canales. Los primeros son los más utilizados, reservando el de 8 bits para imágenes de alta calidad pero en tonos de grises, o bien con 256 colores en paleta seleccionada para baja calidad colorimétrica; el de 24 bits es el más común y de alta calidad, se lo utiliza en la mayoría de las imágenes fotográficas.

    Múltiplos habituales[editar]

    Megapíxel[editar]

    Un megapíxel o megapixel (Mpx) equivale a 1 millón de píxeles, a diferencia de otras medidas usadas en la computación en donde se suele utilizar la base de 1024 para los prefijos, en lugar de 1000, debido a su conveniencia respecto del uso del sistema binario. Usualmente se utiliza esta unidad para expresar la resolución de imagen de cámaras digitales; por ejemplo, una cámara que puede tomar fotografías con una resolución de 2048 × 1536 píxeles se dice que tiene 3,1 megapíxeles (2048 × 1536 = 3.145.728).
    La cantidad de megapíxeles que tenga una cámara digital define el tamaño de las fotografías que puede tomar y el tamaño de las impresiones que se pueden realizar; sin embargo, hay que tener en cuenta que la matriz de puntos está siendo distribuida en un área bidimensional y, por tanto, la diferencia de la calidad de la imagen no crece proporcionalmente con la cantidad de megapíxeles que tenga una cámara, al igual que las x de una grabadora de discos compactos.
    Las cámaras digitales usan componentes de electrónica fotosensible, como los CCD (del inglés Charge-Coupled Device) o sensores CMOS, que graban niveles de brillo en una base por-píxel. En la mayoría de las cámaras digitales, el CCD está cubierto con un mosaico de filtros de color, teniendo regiones color rojo, verde y azul (RGB) organizadas comúnmente según el filtro de Bayer, así que cada píxel-sensor puede grabar el brillo de un solo color primario. La cámara interpola la información de color de los píxeles vecinos, mediante un proceso llamado interpolación cromática, para crear la imagen final.
    Dimensiones de imagen según proporción y cantidad de pixeles
    Para saber el número total de píxeles de una cámara, basta multiplicar el ancho de la imagen máxima que puede generar por el alto de la misma -desactivando previamente elzoom digital-; también es posible dividir el número de píxeles de ancho entre el número correspondiente al alto, y conocer la proporción de la imagen obtenida. Aquí se presenta una lista de las resoluciones comunes de cámaras digitales basándose en esta relación de aspecto:
    MegapíxelesTamaño imagen 3:2 (Píxeles)Tamaño imagen 4:3 (Píxeles)
    0,3671x447632x474
    11224x8161155x866
    1,21341x8941265x949
    21733x11551633x1225
    32121x14142000x1500
    42450x16332309x1732
    52739x18262581x1936
    5,32820x18802659x1994
    63000x20002828x2121
    6,33074x20492899x2174
    83464x23093265x2449
    103873x25823652x2739
    124242x28284000x3000
    144583x30554320x3240
    154743x31624472x3354
    164899x32664619x3464
    185196x34644899x3674
    205477x36515164x3873
    215613x37425292x3969
    225745x38305416x4062
    246000x40005657x4243
    256123x40825773x4330
    286480x43206111x4583
    306708x44726324x4743
    326929x46196532x4899
    347142x47616733x5050
    357245x48306831x5123
    367349x48996928x5196
    397649x50997211x5408
    407746x51647303x5477
    448124x54167660x5745
    488486x56578000x6000
    508661x57748165x6124

    Gigapíxel[editar]

    Un gigapíxel (Gpx) equivale a un millardo o mil millones de píxeles, utilizando la base 1000 de los prefijos del sistema internacional, en vez de la base 1024 ISO/IEC 80000 oprefijo binario utilizados normalmente en el entorno de la informática. Usualmente se utiliza esta unidad para expresar la resolución de imagen de cámaras digitales.
    Existen cámaras digitales capaces de realizar fotografías en gigapíxeles, como por ejemplo la ARGUS-IS de la Agencia de Proyectos de Investigación Avanzados de Defensa(DARPA)2 y la "super cámara" desarrollada por David Brady y su equipo de ingenieros de la Universidad de Duke