La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Control de errores en Datos Geográficos

Presentaciones similares


Presentación del tema: "Control de errores en Datos Geográficos"— Transcripción de la presentación:

1 Control de errores en Datos Geográficos
Carlos López Vázquez

2 Enfoque Existen cursos de Control de Calidad
Típicamente para Ingeniería Industrial o Química Métodos concebidos para productos tangibles Apuntan a: Cadenas de producción en serie Medir atributos de la Calidad Detectar problemas rápidamente… Actuar eliminando la causa Con datos es un poco más difícil…

3 Con datos… Muchas veces no salen de una cadena
Ejemplos: Mapa de una ciudad Catastro urbano Contraejemplos: Datos meteorológicos Series o colecciones cartográficas Imágenes satelitales Lo normal es que ya estén recogidos o generados No incidiremos en su creación 

4 Problemas… Problemas principales: Problemas secundarios:
¿Cómo saber si un dato/registro está bien? ¿Nos afecta? Si está mal: ¿cómo asignarle un sustituto? Problemas secundarios: ¿Cómo medir la Exactitud? ¿Cómo comunicar la Calidad? Una vez lograda, ¿cómo mantener la Calidad en una producción en serie? Por cierto… ¿Qué es exactamente Calidad?

5 Anecdotario… Ilustra algunos ejemplos de la vida real
Barbas del vecino arder… Son ejemplos geográficos; hay muchos más en otras áreas

6 Fuente: P. Fisher (1999) El BMW último modelo… En Alemania, 1998 un BMW se precipitó en el río Havel en el embarcadero de un ferry El dueño seguía fielmente las instrucciones de un sistema GPS con mapas instalado a bordo El mapa decía “puente” y debió decir “ferry” From The Observer 27/12/98 A German montorist has paid the price for following orders without question: he drove his BMW into the Havel river after obediently following instructions beamed to its satellite-guided navigation system on his dashboard. Oblivious to stop signs, never mind the river stretched out before him, the 57 year old driver from Hamburg unhesitatingly continued on his journey, past a stop sign, down a ferry ramp and then into the Havel. Sedately his BMW sank in about four metres of water. Neither he nor his passenger was hurt in the accident, but traffic on the river had to be stopped for about two hours while divers were fishing out his car. 'You can't always blindly rely on technology,' said a coastguard, showing unusual Teutonic restraint. The accident happened on Christmas Day, when the couple went out for a drive and came to Caputh in eastern Germany, where a ferry operates across the river. However, that crucial piece of information was not stored in the satellite-steered navigation system of their BMW. Displayed on the dashboard, it uses signals from satellites to indicate the precise position of a vehicle on an electronic map. Unfortunately, the BMW's map showed the presence of a bridge when it should have indicated a ferry. As a result, the driver ignored the warnings of the real world - signs, people shouting, flashing red lights, that sort of thing - placing his faith instead on its electronic counterpart. He was rewarded for his belief by being dumped in the water.'

7 Embajada china en Belgrado
Bombardeada por la OTAN en 199X por error Los mapas decían que era una instalación serbia Había sido… ¡antes! Tres muertos, roces, etc.

8 Derrame de petróleo Punta del Este, Uruguay en febrero de 1997
Escollo de 24 mt. no figuraba en las cartas náuticas oficiales Un petrolero se lo llevó por delante Los protagonistas principales fueron: un escollo sumergido a 24 mt. que no figuraba en las cartas náuticas y el petrolero de nombre San Jorge de 230 mt de eslora que cargaba toneladas de petróleo crudo repartidas en doce tanques, tres de los cuales sufrieron la avería. Se derramaron una cifra no establecida que se sitúa entre 200 a 3000 toneladas todo esto 40 km al Sureste de Punta del Este (Maldonado - Uruguay). El desastre del San Jorge Otro hecho destacable ocurrió en el verano de 1997, cuando Uruguay vivió uno de sus peores desastres ambientales. El 8 de Febrero el buque tanque San Jorge chocó contra una roca en las afueras del Río de la Plata, en las proximidades del centro turístico Punta del Este. Como consecuencia de la colisión el petrolero comenzó a perder crudo, formándose enormes manchas de hasta más de 30 kilómetros de largo. Muchas de ellas derivaron hacia mar afuera, mientras que una parte se dirigió a la costa, alcanzando varias playas en las proximidades de Punta del Este y la Isla de Lobos. En un inicio las autoridades gubernamentales minimizaron totalmente el desastre, hasta que el 11 y 12 de Febrero aparecen las playas empetroladas, lo que desata una enorme reacción pública. Para muchas personas el problema era en primer lugar turístico, y por lo tanto económico, ya que se temía que la enorme masa de visitantes dejara las playas esteñas. Muchos argumentos invocados apuntaron a la necesidad de indemnizaciones y subsidios desde el Estado. Frente a esa embestida las autoridades comienzan una primera serie de tareas dedicadas esencialmente a limpiar las playas llegando a movilizar a unidades del ejército con ese fin. Se repitieron las declaraciones de que ese tipo de acciones estaban controlando la crisis, con lo que la discusión pública perdió intensidad. Una segunda reacción pública se inicia el 24 de Febrero, con el crudo en la Isla de Lobos. Esa isla es uno de los principales centros de reproducción de las dos especies de lobos marinos presentes en Uruguay (el lobo fino o de dos pelos, y el lobo ordinario). Meses más tarde se sabría que murieron 4500 lobos como producto del derrame. Un estudio de esta crisis muestra en todo su despliegue las contradicciones frente al tema ambiental que caracterizan al Uruguay. En el seno del Estado, se hicieron evidentes las superposiciones de potestades como los vacíos pendientes. El Ministerio del Ambiente aunque posee ese nombre en realidad tiene limitadas competencias en esta materia, y a pesar de ello emitió muchas declaraciones; por otro lado, el Ministerio de Ganadería, que tiene a su cuidado el Parque Nacional de las Islas platenses y oceánicas (que incluye a la Isla de Lobos), guardó silencio; mientras que el vocero del Poder Ejecutivo terminó siendo el Ministro del Interior. Similares problemas se vivieron con INAME y la Prefectura Nacional Naval. En el espacio de la opinión pública la escena fue dominada por los lobos marinos. Sin embargo los impactos ambientales del derrame actuaron sobre todo el ecosistema, afectando a otras especies como los peces (un recurso comercial de importancia del país), aguas vivas, algas, y demás seres vivientes marinos. Esos otros componentes del ecosistema fueron olvidados en muchas de las discusiones. Otro flanco de la discusión discurrió en el campo económico. Los empresarios turísticos insinuaron el pedido de indemnizaciones, mientras que el gobierno bregaba por una indemnización monetaria ante los armadores, que trepaba a más de 4 millones de dólares. Pero como se comentó para el caso constitucional, es obvio que el pago en dinero es insuficiente para atender el daño ecológico. La información a la opinión pública sufrió intensos vaivenes. Por un lado, el Ministro de Turismo llegó a acusar a la "prensa sensacionalista" de distorsionar la magnitud del derrame. Por otro, el gobierno brindaba comunicados donde se retaceaba la información, y en dos ocasiones dio por terminada la crisis para tener que volver a aceptar, días más tarde, que el buque seguía derramando petróleo y nuevas manchas llegaban a nuestras costas. Las contradicciones en la información también fueron abonadas por la prensa, cuyo papel debería analizarse con mayor detenimiento, ya que prevalecían los titulares sensacionalistas. Todos estos componentes desembocaron en incertidumbres como la imprecisión sobre el volumen de petróleo derramado, donde se manejaron cifras que van de 150 toneladas a 200 mil toneladas (el buque en realidad perdió de 5 mil a 6 mil toneladas de crudo). La participación ciudadana en las acciones también fue condicionada, en especial por las resistencias de la dirección de INAPE frente a la demanda de algunos grupos ciudadanos de trabajar en el rescate de lobos marinos empetrolados.

9 Huracán Katrina ¿Y si se equivocan?

10 Más casos marítimos 1980, Canadá. El Sea Fever pierde un marinero en una tormenta El pronóstico decía que la tormenta no llegaría donde llegó El error se debió a una boya meteorológica fuera de servicio El litigio por U$S 3.2 millones fue ganado Management Information Systems Quarterly Volume 10, Number 1, March, 1986 A special burden is placed on the accuracy of information when people rely on it for matters of life and death, as we increasingly do. This came to light in a recent $3.2 million lawsuit charging the National Weather Service for failing to predict accurately a storm that raged on the southeast slope of Georges Bank in As Peter Brown steered his ship - the Sea Fever - from Hyannis Harbor toward his lobster taps near Nova Scotia, he monitored weather conditions using a long range, single sideband radio capable of receiving weather forecasts at least 100 miles out to sea. The forecasts assured him that his destination area near Georges Bank, although it might get showers, was safe from the hurricane-like storm that the weather bureau had predicted would go far to the east of his course. So kept to his course. Soon, however, his ship was engulfed in howling winds of 80 knots and waves cresting at 60 feet. In the turbulence Gary Brown, a crew member, was washed overboard. The source of the fatal error was failure of a large scale information system which collects data from high atmosphere balloons, satellites, ships, and a series of buoys. This data is then transmitted to a National Oceanographic and Atmospheric Administration computer which analyzes it and produces forecasts. The forecasts, in turn, are broadcast widely. The forecast Peter Brown relied on when he decided to proceed into the North Atlantic was in error because just one buoy - station Georges Bank - was out of service. As a result the wind speed and direction data it normally provided were lost the computer model. This caused the forecast trajectory of the storm to be canted by several miles, deceiving skipper Peter Brown and consequently sending Gary Brown to his death. Fuente: Richard O. Mason (1986)

11 Hay casos más antiguos…
El canal de Suez existió en la época faraónica Napoleón no lo reconstruyó porque se creía que Δh≈6 mts. Esa diferencia requería esclusas, etc. En realidad son 80 cm La India podría haber caído en otras manos… y la historia hubiese sido diferente

12 ¿Ud. quisiera estar en esta lista?
¿No? ¡No se pierda este curso!

13 Temario ¿Por qué tanto? Definiendo la Calidad Comunicando la Calidad
Midiendo la Exactitud Mejorando la Exactitud Manteniendo la Calidad Total previsto: 30 horas 4 hs 6 hs 12 hs

14 Definiendo la Calidad (4 hs.)
Hay que comenzar por el principio Terminología, jerga, etc. Quizá sea familiar al público (en parte…) Dar contexto de datos geográficos Estándares recientes Informatización pervasiva Revolución en varias profesiones Lo que es de alta calidad para uno …

15 Comunicando la Calidad (4 hs.)
¿Alguien ha escuchado de la INDE? ¿Alguien ha escuchado de metadatos? ¿Alguien ha visto algún metadato? Veremos qué es, cómo interpretarlo y qué buscar en relación a Calidad Revisaremos los estándares vigentes

16 Midiendo la Exactitud (6 hs.)
¿Qué métodos o estándares se aplican? Caso posicional: Los que saben son uds. Revisaremos algún estándar vigente Caso temático: Hay métodos pero … Veremos criterios académicos Servirá para saber Si tenemos que preocuparnos (problem dependent!) Si efectivamente mejoramos…

17 Mejorando la Exactitud (12 hs.)
Tema muy nuevo Ámbito académico (1996, 1998,…) Grupo pequeño Tema demasiado técnico Journals estadísticos no lo publican mucho Journals temáticos (p.ej. Meteorológicos) lo ignoran ¿A quién le importa? Productor del dato Usuario del dato (sufrido usuario debí decir…) Constituye el núcleo duro del curso

18 Mejorando la Exactitud (cont.)
Las preguntas básicas son: ¿Cómo detectar un dato malo? ¿Cómo corregirlo? La segunda es más trillada: interpolación, mínimos cuadrados, etc. La primera… tiene cola ¿Existe un (único) valor correcto? ¿Es accesible? ¿A qué precio? ¿Cómo hago? ¿Lo que dijo Juan, no será para peor?

19 Manteniendo la Calidad (4 hs.)
¿Cómo asegurar niveles estables de error? Importante para: Compradores de datos a proveedores externos Productores de datos Académicos (of course…!) Tema nuevo en Agrimensura: típico y tradicional de Industriales o Químicos Veremos estándares, métodos, etc.

20 Referencias y materiales
Ariza, 2002 López et al., 1999 CD con material vario PPT con “transparencias” PDF consultados Informes de proyecto Tesis Páginas y sitios web íntegros Quizá algo de software Etc….

21 Módulo 1: Definiendo la Calidad
Carlos López Vázquez

22 Plan Definiendo la Calidad Exactitud vs. Precisión
Componentes de la Calidad

23 Algunos problemas técnicos…
Por ejemplo: dar coordenadas a objetos cómo crear representaciones digitales cómo procesar esas representaciones Hay otros… error, incertidumbre, escala, resolución… Complexivamente: Calidad de datos Es probable que la audiencia esté familiarizada con algunos problemas básicos de tipo técnico, como ser: Georreferenciación (dar coordenadas a objetos) Estructuras de datos (cómo crear representaciones digitales de datos espaciales) Algoritmos (cómo procesar esas representaciones digitales para generar resultados útiles) Éstos no son los únicos problemas técnicos que hay en un GIS, pero de los no mencionados quizá la Accuracy (¿Exactitud?) sea el más importante. Bajo él se considera la Calidad de Datos, el Error, la Incertidumbre, la Escala, Resolución y Precisión de datos espaciales lo que afecta las formas en que pueden ser usados e interpretados Todos los datos espaciales son inexactos en alguna medida, pero en general se representan en la máquina con más cifras significativas de las necesarias. Es necesario considerar: ¿Qué tan bien esas estructuras digitales representan el mundo real? ¿Qué tan bien los algoritmos producen el valor correcto?

24 ¿Qué es Calidad? RAE: Propiedad o conjunto de propiedades inherentes a una cosa que permiten apreciarla como igual, mejor o peor que las restantes de su especie Otra definición: ISO 9000 Grado en que un conjunto de características inherentes cumple con los requisitos (necesidades o expectativas establecidas, generalmente implícitas). El Diccionario de la RAE dice que Calidad es “Propiedad o conjunto de propiedades inherentes a una cosa que permiten apreciarla como igual, mejor o peor que las restantes de su especie” Algunas consecuencias de esta definición son: La calidad no se limita a una única propiedad del objeto Lo inherente hace a algo que no puede separarse de la cosa; ello no implica ni requiere que sea obvio. Entre los inherentes hay factores explícitos e implícitos. Por ejemplo, se puede esperar que un coche tenga un consumo menor a 1 lt/10 km. Sin embargo, rara vez se señalará entre los requisitos que el vehículo pueda transportar pasajeros, ya que ello es obvio. Al apreciarla y compararla se está introduciendo algo que es propio al observador, y por lo tanto subjetivo. Por lo tanto, para un observador un objeto será de alta Calidad mientras que podría pasar que para otro no lo sea Hasta no hace mucho, la Calidad se consideraba simplemente como la adecuación del producto a las especificaciones establecidas. El concepto ha avanzado para incluir la totalidad de las características que le confieren una aptitud para satisfacer necesidades explícitas o implícitas (Fitness for use). La ISO 9000:2000 la define como el grado en que un conjunto de características inherentes cumple con los requisitos (necesidades o expectativas establecidas, generalmente implícitas). Requiere un observador Inseparable, aunque no necesariamente obvio Establece una relación de orden No se limita a un único aspecto

25 Evolución histórica Artesanal Calidad del producto Calidad del proceso
Calidad del diseño Control Total de Calidad Círculos de Calidad Fuente: Ariza 2002 Cap. 1 La calidad es un tópico que ha estado presente desde tiempos inmemoriales. Ya en el siglo II los chinos tenían requerimientos para la fabricación del papel, ingreso a gremios, etc. El concepto sin embargo ha ido cambiando con el tiempo, y muy aceleradamente en los últimos 200 años. Se pueden distinguir varios períodos: Artesanal: Previo a la revolución industrial. Dos características a señalar: a) alta capacitación de los operarios y b) contacto directo entre el operario y el cliente. Calidad del Producto: Los operarios se agrupan en grandes talleres y aparece la producción en serie. Se pierden las dos características antes mencionadas pero en contrapartida se bajan sensiblemente los costos de producción. La normalización de los productos pasa a ser imprescindible con el fin de evitar el re-trabajo. Aquí aparece la definición clásica de Calidad: Adecuación a las especificaciones. Se centra en el producto y no se sabe ni dice nada del proceso Calidad del Proceso: Hoy denominada Gestión de Calidad. Se aplica intensivamente la estadística para controlar los productos y predecir cuándo van a dejar de cumplir las especificaciones. Aparecen las Normas Británicas (1935) y las Mil Std americanas. Hay dos familias de controles: los aplicados durante el proceso de producción y los aplicables como control de recepción. Calidad del Diseño: Motivado por problemas de fiabilidad, y de desajuste entre lo que los clientes quieren y lo que los ingenieros creen que los clientes quieren (¡) se incorporan ambos conceptos a la Calidad. ¡El consumidor es el rey! La evolución de los conceptos se acelera Control Total de Calidad: La idea es integrar diferentes sectores de la empresa (desarrollo, mantenimiento y mejora de calidad, etc.) para bajar costos satisfaciendo plenamente a los clientes. Círculos de Calidad: Grupos de personas próximas a una actividad que se reúnen para analizar y proponer mejoras. Funciona bien con japoneses: en otros lados… Calidad Total: Tuvo un par de acepciones. Al principo, era equivalente a Mejora Continua. Ahora se le entiende como una filosofía que junta enfoques del negocio como tal, y de la producción. Pone un gran énfasis en los RRHH como principal activo de la empresa. Certificaciones y Premios: Son un reconocimiento documental y público que una empresa sigue una norma. Pueden ser para productos o para procesos de la empresa. La más popular es la familia ISO 9000 Calidad Total Certificaciones y premios

26 Exactitud vs. Precisión
Exactitud (Geodetic Glossary): Es una cercanía de los resultados, cálculos o estimaciones a los valores verdaderos o valores que se acepta son verdaderos El idioma español… Precisión ≠ Exactitud Hay varias “Precisión” Precisión (NCGIA Core): Se define como el número de cifras decimales o de dígitos significativos de una medida Precisión (Geodetic Glossary): En estadística, una medida de la tendencia de un conjunto de números aleatorios a agruparse alrededor de un número determinado por el conjunto

27 Ilustrando Exactitud vs. Precisión
Preciso Impreciso Exacto Inexacto

28 Más sobre Exactitud… A veces no hay “valor verdadero…”
E(x) no es lo mismo que E(f(x))… Ej.: MDE vs. Pendientes Hay Exactitud alta y baja No son sólo medidas. Comparar: Un valor exacto (α+β+γ=180) Una unidad convencional (metro patrón) Un valor que se asume más exacto (monolito)

29 Precisión (NCGIA) Suele ser >>Exactitud Herencia informática…
Cifras significativas ≠ Cifras previstas Es fácil confundirse PC/ARCINFOSingle Precision Algunos GISSólo Integer Es un error relativo Más relacionada con Resolución Usada por Burroughs, 1986 y otros No es la definición más moderna, ni la más apropiada

30 Precisión (Geodetic Glossary)
Tiene en cuenta la repetibilidad +Precisión -Varianza Un aspecto clave: Precisión depende sólo del juego de datos En cambio la Exactitud no Para confundir más… “Nivelación de alta precisión” Es la definición que usaremos

31 Los problemas son… Cómo medir la Exactitud
¡Repetir las medidas no ayuda! Cómo se propaga la Exactitud Cómo no atribuir más Exactitud de la correcta Es un problema del lado del usuario

32 Otro concepto: Resolución
Mezclable con Precisión (NCGIA) Se distinguen tres casos: Espacial Temática Temporal No abundaremos… Otros términos a manejar incluyen a la Resolución (Ariza). De ella se pueden distinguir tres posibles: Resolución espacial: El tamaño del menor elemento que puede ser distinguido o separado de sus partes constituyentes o del conjunto al que pertencen. En los sistemas vectoriales se refiere a la mínima unidad cartografiable, mientras que en los raster se refiere al tamaño del pixel Resolución temática: Debe distinguirse entre datos cuantitativos y cualitativos. El primero es similar a la resolución espacial; el segundo se refiere a la adecuación o precisión en la definición de las clases. Resolución temporal: se refiere a la duración temporal (un intervalo) del muestreo, que se asume será inferior al período requerido para que el fenómeno observado cambie sensiblemente. Ariza advierte que la Resolución temporal no está relacionada con la frecuencia de muestreo (p22). Veregin ( dice que: Resolution (or precision) refers to the amount of detail that can be discerned in space, time or theme. Resolution is always finite because no measurement system is infinitely precise, and because databases are intentionally generalized to reduce detail (Veregin and Hargitai, 1995). Resolution is an aspect of the database specification that determines how useful a given database may be for a particular application. High resolution is not always better; low resolution may be desirable when one wishes to formulate general models. Resolution is linked with accuracy, since the level of resolution affects the database specification against which accuracy is assessed. Two databases with the same overall accuracy levels but different levels of resolution do not have the same quality; the database with the lower resolution has less demanding accuracy requirements. (For example, thematic accuracy will tend to be  higher for general land use/land cover classes like “urban” than for specific classes like “residential”.)

33 Plan Definiendo la Calidad Exactitud vs. Precisión
Componentes de la Calidad

34 Componentes de la Calidad
Recogida en varios estándares CEN/TC 287 ISO/TC 211 USGS 1994 ISO 19113 Hay muchos elementos comunes Exactitud Posicional Exactitud Temática Consistencia lógica Completitud Linaje

35 Exactitud Posicional Definida como la cercanía a la posición verdadera
Usualmente involucra coordenadas Convención: 0.5 mm a la escala del plano Ej.: 0.5/(1/10000)=0.5*105mm=50m En general: 0.5/escala ¿Escala? ¡Regla para el mundo en papel! Cifras significativas… Ej.: 1:24.000; (x,y)=( , ) mts. Error=0.5/(1/24000)=12.0 mts  sólo valen algunos dígitos (1.2345x105,9.8765x105)

36 ¿Y si no hay/hubo papel? Se debe declarar la “Exactitud” ¿Cómo?
La posición de los puntos difiere de la verdadera en menos de X mts. Pregunta: ¿Cuáles puntos? ¿Todos? USGS: En el 90% de los casos, la posición difiere de la verdadera en menos de X mts. Aparece el percentil 90% No asume una distribución a priori BSI: La desviación estandar del error es menos de X mts. ¿Cómo interpretar la declaración? ¿Cómo verificarla?

37 Cómo interpretar… Según USGS

38 Cómo verificarla… Tres alternativas:
Usar una fuente de mayor Exactitud GPS Mapa de mayor escala Volver a los datos originales Usar evidencia interna Tamaño de los defectos Calcular la Exactitud propagando… 0.5 mm por aquí, 1 mm por allá… Será desarrollado en detalle luego

39 Exactitud de Atributos
También definida como cercanía al valor verdadero Atención: el tiempo ahora pesa más Aparece la Vigencia ¿Cómo se expresa la Exactitud? Depende del tipo de dato: Atributos continuos Ej.: MDE, pluviometría, etc. Parecido al caso posicional Ej.: La elevación tiene un error menor a 1 mt Podrían estar categorizados (imágenes RGB, etc.) Atributos categóricos

40 Para Atributos Categóricos
Definir “cercanía” es diferente… Está definido el “≠”, pero no el “-” Podría estar definido el “>” Hay otras diferencias ¿Existe un “verdadero valor”? ¿Cómo son las categorías? ¿Apropiadas? ¿Suficientemente detalladas? ¿Bien definidas?¿Nítidas? También será analizado en detalle luego

41 Cómo verificarla… Hay varias alternativas
Construyendo una matriz de confusión Presume una inspección binaria Existen índices para caracterizarla Usando Métodos Difusos La inspección ahora no es binaria Aún bajo investigación Otros índices Los hay, pero son algo simples… En cualquier caso, se hace Prueba de Hipótesis Aún no está recogido en los estándares

42 Consistencia Lógica ¿Es la BD consistente con sus definiciones?
Geométricas: Una etiqueta y sólo una por polígono Todo polígono con etiqueta Todo punto es de un polígono Ningún arco que se cruza con otro sin cortarse Tiene topología Temáticas: Los atributos están dentro del rango La Consistencia Lógica se mide en % de cumplimiento

43 Más sobre Consistencia…
¿Fueron todas las capas obtenidas…? Misma escala, mismas hipótesis, mismos procesos… ¿Fueron todas las capas editadas…? Mismos criterios (overshoots, tolerancias,…) ¿Fueron todas las capas obtenidas simultáneamente? Hora, estación, año, etc. (lo que corresponda) Data is consistent if all of it has been measured / gathered following the same guidelines and using the same methods. Unfortunately, if the methods used were not recorded, it may be difficult to know whether or not a particular data set is consistent. For example, imagine that two researchers both visit the Atherton Tablelands area near Cairns to record sitings of cassowaries (a native rainforest bird). One researcher uses a handheld GPS unit and corrects the bird positions using signals from a nearby base station. The other researcher also uses a handheld GPS unit, but does not correct the positions. So, the bird positions taken by the first researcher are going to be much more accurate than those of the second researcher, and this difference should be taken into account if the two data layers are to be used together in the same analysis.

44 Completitud Difícilmente medible No hay una definición formal
“…Dado el Modelo Cartográfico, la BD y la Realidad, los objetos que deberían estar efectivamente están…” Calidad depende del Modelo Cartográfico Ej.: Incluir líneas de 30kV o más La BD está completa, aunque falten las de 6.3kV Podría ser por Atributos El objeto está, pero incompleto Ej.: Falta la profundidad de un pozo No hay métricas consensuadas

45 Linaje Es un registro de historia de la BD Responde a preguntas como:
¿Cómo fue digitalizada? ¿A partir de qué documentos? ¿Cuándo fueron recogidos los datos base? ¿Qué agencia u organización recolectó los datos? ¿Qué pasos u etapas se utilizaron para procesar los datos originales? ¿Con qué precisión fueron efectuados los cálculos (o qué error tenían los resultados numéricos)? El Linaje es usualmente un indicador útil de Exactitud No hay métricas consensuadas

46 Hay otros también relevantes…
Vigencia Accesibilidad Pertinencia o Relevancia Son considerados en algunos estándares de metadatos Veremos de qué se trata

47 Vigencia ¡Pero son de 1965! ¿Están los datos actualizados?
Ej.: uso de tierra con fines de agricultura ¡Pero son de 1965! Here’s an example of data where you might worry about how timely it is (how long ago it was created). The map above shows the percentage of land in each country of the world that is devoted to agriculture. However, this data was gathered in 1965! Unless you were doing an historical study, you’d want to be very careful how you use this information to make statements about land use today. If you could, you’d want to get hold of some more current data. Formato OK, Resolución OK, Completitud OK etc….

48 Otro ejemplo… Población urbana, México 1990
Here’s another example. The above map shows the percentage of people living in cities in Mexico in This data is much more up to date, although Mexico does have a high birth rate, so if you could get more current data you’d want to try. ¿1965 vs. 1990? Puede ser mejor 1965…

49 Accesibilidad… Que los datos existan…
Data accessibility just refers to how easy or hard it is for people to access and use a particular set of spatial data. The example above is of course a worst case scenario. Other roadblocks to accessibility can be proprietary software formats (as previously discussed) or legal restrictions on how data can be used. There is a movement in GIS in recent days called ‘Open GIS’ that is trying to set standards for transferring data between systems and software formats. Also, governments (led by the US) have been developing data quality and transfer standards. The first effort in the US was called the SDTS -Spatial Data Transfer Standard. Australia is developing similar standards. The problem with these is that they require so much effort on the part of the person creating GIS data that they are often ignored. Burocracia, formatos exóticos, etc.

50 Pertinencia o Relevancia
Ciertos datos pueden no aportar nada… A veces se descubre; a veces no Modelos importados Condiciones locales Estadística tramposa; un ejemplo: Idea: Búsqueda de individuos con mayor Respuesta a promociones ≠ Ídem con mayor propensión a pagar!!! Ejemplo tomado de “Miner Inconveniences: How to Avoid Data Errors” Set clear objectives. Too often novice marketers will become really excited about a response rate to a particular offer, but those customers won't subsequently buy anything. Worse, they might not pay for the things they do buy. "You've got to know what you want to happen at the end of the day," Koslowsky said. He gave an example of a credit card company using a model that accurately predicted who would respond. The problem was, the company didn't consider the credit "rule": The more likely a potential credit customer is to respond, the less likely his chance of repaying.

51 Módulo 1: Definiendo la Calidad
Carlos López Vázquez


Descargar ppt "Control de errores en Datos Geográficos"

Presentaciones similares


Anuncios Google