You are on page 1of 267

Prof. Edgar Serna M.

Editor

Geoinformática aplicada con


Aprendizaje Basado en Problemas

Medellín – Antioquia 2017


Instituto Antioqueño de Investigación
Serna, M.E. (Editor)
Geoinformática aplicada con Aprendizaje Basado en Problemas
Editorial Instituto Antiqueño de Investigación, 2017
Medellín, Antioquia

Investigación Científica
ISBN: 978-958-59127-7-9

Geoinformática aplicada con Aprendizaje Basado en Problemas


Serie Procesos Formativos
© Instituto Antioqueño de Investigación

Edición: diciembre 2017


ISBN: 978-958-59127-7-9
Publicación electrónica gratuita

Diseño: Instituto Antioqueño de Investigación


Edición: Editorial IAI

Copyright © 2017 Instituto Antioqueño de Investigación (IAI)TM. Except where otherwise noted, content in this publication
is licensed under Creative Commons Licence CC BY-NC-SA 4.0.

Global Publisher: Instituto Antioqueño de Investigación (IAI)


Cover Designer: IAI, Medellín, Antioquia.
Editorial Instituto Antioqueño de Investigación is trademarks of Instituto Antioqueño de Investigación. All other trademarks
are property of their respective owners.

The information, findings, views, and opinions contained in this publication are responsibility of the author and do not
necessarily reflect the views of Instituto Antioqueño de Investigación (IAI), and does not guarantee the accuracy of any
information provided herein.

Diseño, edición y publicación: Editorial IAI


Instituto Antioqueño de Investigación
http://fundacioniai.org
contacto(AT)fundacioniai.org

© 2017 Instituto Antioqueño de Investigación


Medellín, Antioquia
Editor
Prof. Edgar Serna M.

Geoinformática aplicada con


Aprendizaje Basado en Problemas
ISBN: 978-958-59127-7-9

Compiladores
Helena Pérez G.
Carlos A. Castro C.
Yuliana Castrillón M.
Germán M. Valencia H.
Juan C. Valdés Q.

Editorial Instituto Antioqueño de Investigación

Medellín – Antioquia
2017
PRESENTACIÓN
Este libro es producto del proyecto de investigación Diseño e implementación de objetos virtuales de
aprendizaje basados en problemas, para la formación específica en Sistemas de Información Geográfica
de Código Abierto OPENGIS y Software Libre FOSS (Free and Open Source Software). El propósito de este
texto es exponer metódicamente el análisis y la solución de problemas con componente geoinformático
(adquisición, almacenamiento, procesamiento y despliegue de geodatos), para apoyar el logro de
capacidades en los procesos de formación en las áreas de Sistemas de Información Geográfica (SIG),
Geoinformática y afines, de la misma manera que proponer problemas cuyo proceso de análisis y
solución puedan generar ideas de investigación y nuevas temáticas de trabajo en el aula.
Para estructurar contenidos interactivos sobre temas de geoinformática, que luego se puedan
empaquetar como objetos de aprendizaje de fácil uso, se requiere conformar equipos de trabajo con
especialistas en diferentes áreas de la geoinformática para que diseñen problemas contextualizados,
de interés para el estudiante y para la industria, que exijan trabajo cooperativo, justificación y
explicación de suposiciones y toma de decisiones por parte de los estudiantes; además, que motiven a
comprender nuevos conceptos, relacionen el tema con el entorno, con preguntas iniciales motivadoras,
generen controversia, vínculos con conocimientos previos y respuestas y soluciones diversas.
Para responder a estas características, en el libro se adopta el modelo de competencias Geospatial
Management Competency Model (GTCM), desarrollado por The Urban and Regional Information
Systems Association (URISA), en el que se busca desarrollar competencias personales, académicas, del
lugar de trabajo, de la industria, específicas y de gestión. Por otro lado, si bien contiene problemas que
exponen el proceso de análisis y presentan una solución, también se pueden adecuar en el aula para
obtener otras soluciones de manera colaborativa y contextualizada, y para diferentes disciplinas, tal
como lo sugiere el concepto de Aprendizaje Basado en Problemas (ABP). Los autores de los capítulos
diseñaron los problemas teniendo en cuenta las áreas del modelo GTCM y contemplando competencias
gruesas, tales como manejo, generación, procesamiento y análisis de datos, manejo de software,
administración de proyectos, generación de productos y programación, con las correspondientes
habilidades que se deben adquirir.
El texto sirve de apoyo para cursos de pregrado y posgrado en los que se requiera solucionar
problemas con componentes geoinformáticos. Por ejemplo, Ingeniería Ambiental (cartografía y
topografía, hidráulica e hidrología, ordenamiento territorial, evaluaciones ambientales, geomática,
gestión ambiental, modelación de recursos naturales en aire, en agua y en suelo), Ingeniería Industrial
(logística, estrategia de operaciones, mercadeo), Ingeniería de Sistemas (nuevas tecnologías SIG,
programación Python SIG, diseño y desarrollo de software, bases de datos espaciales), Ingeniería
Multimedia (desarrollo de contenidos de aprendizaje interactivos), Ingeniería Electrónica (monitoreo
remoto y telemetría) e Ingeniería de Sonido (modelamiento y mapeo del ruido ambiental). Igualmente,
para cursos en especializaciones en Sistemas de Información Geográfica y en Maestría en
Geoinformática.
Si bien el libro es producto de un proyecto de investigación, el proceso de creación también una
investigación en sí misma, no sólo por reunir a 27 especialistas en áreas y temas de la geoinformática,
sino porque fue necesario diseñar un modelo para adecuar el ABP, como estrategia didáctica para
interacción en el aula, a un documento escrito con su correspondiente plantilla de evaluación.
Adicionalmente, se necesitará un nuevo proyecto para diseñar y desarrollar contenidos interactivos en
el área de la geoinformática, adoptando y adecuando prácticas ágiles de la Ingeniería del Software, pero
con la autorización de los autores y diseñadores de los problemas presentados en este libro.

3
PRÓLOGO
El establecimiento de la geoinformática como disciplina tecnológica madura, propició el
surgimiento de nuevas formas de ver y entender los elementos y procesos que se presentan en la
naturaleza. Este hecho se soporta en la posibilidad que tienen los gestores del territorio y los
fenómenos que en él ocurren de unir datos y métodos con el objetivo de representar, analizar, entender
y modelar fenómenos que son variables en el tiempo y en el espacio, haciendo uso de objetos espaciales
explícitos y capacidades de almacenamiento, integración, procesamiento y análisis que ofertan los
Sistemas de Información Geográfica e instrumentos como los sensores remotos.
No obstante, la obtención de soluciones fiables para problemas asociados al territorio es permeada
por las características de la información, las técnicas de modelamiento y las capacidades y
conocimientos del o los analistas, condiciones que, en muchos casos, se pueden cumplir débilmente o
cubrir de forma incompleta o desactualizada.
Conscientes de esta problemática la Editorial Instituto Antioqueño de Investigación y los autores de
los capítulos, presentan a la comunidad académica este libro en el que se aborda de forma pedagógica,
sintética y articulada el tratamiento de algunos problemas de toma de decisiones en contextos
espaciales, recorriendo total o parcialmente la cadena: Datos–Modelos–Conocimiento-Decisiones–
Impactos. De esta manera se constituye no sólo en un libro de texto, sino también en una obra de
experiencias investigativas al servicio del aula, además, es una guía de buenas prácticas para los
estudiosos de los fenómenos espaciales.
En mi condición de docente, investigador y directivo de instituciones de educación superior es para
mí un gusto y un orgullo presentar este documento, que estoy seguro es un paso al frente en la difusión
y conocimiento de la geoinformática en nuestro país y para la comunidad latinoamericana.

John F. Escobar M.
Doctor en Ingeniería
Profesor Facultad de Ingeniería UdeA
Rector Politécnico Colombiano Jaime Isaza Cadavid

4
CONTENIDO
PRESENTACIÓN------<3
PRÓLOGO------<4
CONTENIDO------<5
INTRODUCCIÓN------<12

PARTE I
CONTEXTO METODOLÓGICO------<14

Carlos A. Castro C., Juan C. Valdés Q., Helena Pérez G.


CAPÍTULO 1 - Metodología de la investigación------<15

PARTE II
EL APRENDIZAJE BASADO EN PROBLEMAS PARA LA SOLUCIÓN DE PROBLEMAS CON COMPONENTE
GEOINFORMÁTICO------<19

Germán M. Valencia H., Helena Pérez G., Carlos A. Castro C., Claudia E. Durango V., Carolina Arias M.
CAPÍTULO 2 – Geoinformática------<20

1. Introducción
2. Historia
3. La formación en geoinformática
4. Habilidades y destrezas requeridas en geoinformática
Referencias

Beatriz E. Arias V.
CAPÍTULO 3 - Enseñanza Basada en Problemas: Un análisis didáctico------<29

1. Introducción
2. La Enseñanza Basada en Problemas
2.1 Formas de organización de la enseñanza basada en problemas
2.2 Medios y mediaciones en la enseñanza basada en problemas
2.3 Estrategias didácticas del ABP
Referencias

Helena Pérez G., Carlos A. Castro C., Yuliana Castrillón M.


CAPÍTULO 4 - El Aprendizaje Basado en Problemas y la Geoinformática------<39

1. Introducción
2. Herramienta de apoyo para la interpretación y análisis de problemas
2.1 Formulación y estructuración del problema
Referencias

PARTE III
ADQUISICIÓN Y EDICIÓN DE GEODATOS------<45

Claudia E. Durango V., Helena Pérez G.


CAPÍTULO 5 - Problema 1. Edición de geodatos------<46

1. Planteamiento del problema


2. Desarrollo del problema
3. Reto
Referencias

5
Helena Pérez G., Yuliana Castrillón M.
CAPÍTULO 6 - Problema 2. Análisis de la calidad de los datos------<51

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Selección de datos útiles
2.2 Análisis de la calidad de los datos
2.3 Corrección de los errores encontrados
3. Reto

Sergio A. Giraldo M.
CAPÍTULO 7 - Problema 3. Incorporación de información de campo al sistema de información------<55

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Descargar la información del GPS y transformar los datos
2.2 Realizar ajuste manual a los puntos del archivo shp con la información del mojón geodésico
3. Reto

Oscar D. Quintero Z., Germán M. Valencia H.


CAPÍTULO 8 - Problema 4. Corrección de vacíos de información (voids) a partir de la aplicación de promedios
de diferencia de altura entre superficies de elevación------<62

1. Planteamiento del problema


2. Desarrollo del problema
2.1 DEM del área de trabajo
2.2 Identificación y separación de los voids del DEM_10.img
2.3 Conversión y edición de datos
2.4 Creación del área de influencia entre voids
2.5 Creación de corredores de influencia entre capas vectoriales
2.6 Creación de corredores sobre los dos DEM
2.7 Extracción de información ráster del DEM Segmento_zona.img
2.8 Definición de la diferencia entre corredores
2.9 Creación de malla de puntos para corredores e información ráster
2.10 Obtención de valores de diferencia en elevación en los corredores
2.11 Aplicación de uniones espaciales a los datos 1
2.12 Cálculo del promedio de cada polígono y exportación y edición de datos de atributos
2.13 Unión de datos de tabla
2.14 Aplicación de uniones espaciales a los datos 2
2.15 Cálculo de la diferencia de elevación definitiva
2.16 Generación de la nueva superficie continua ráster
3. Reto
Referencias

PARTE IV
ESTRUCTURACIÓN Y ALMACENAMIENTO DE GEODATOS------<78

Julián D. Giraldo O., Carlos A. Castro C., Nixon A. Aristizábal N., Claudia E. Durango V.
CAPÍTULO 9 - Problema 5. No desarrolladores usando Arcpy------<79

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Abordaje convencional
2.2 Proceso general de la solución
3. Desarrollo metodológico
3.1 Esquema de la interface de la solución

6
3.2 Diseño de la secuencia de instrucciones
3.3 Construcción de la interface gráfica
3.4 Identificación de las instrucciones Arcpy
3.5 Identificación de parámetros
3.6 Construcción del código en Python
3.7 Programación de la interface gráfica
4. Aplicación de la metodología
4.1 Esquema de la interface de la solución
4.2 Diseño de la secuencia de instrucciones
4.3 Construcción de la interface gráfica de la solución
4.4 Identificación de las instrucciones Arcpy
4.5 Identificación de parámetros
4.6 Construcción del código en Python
5. Reto

Carlos A. Castro C., Juan C. Valdés Q., Helena Pérez G.


CAPÍTULO 10 - Problema 6. Diseño de geodatabase: Caso manzanas Medellín------<93

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Diseño conceptual - Modelo Entidad Relación
2.2 Diseño lógico - Modelo Relacional
2.3 Diseño físico - Modelo Relacional
2.4 Diseño físico filegeodatabase
2.5 Diseño físico Oracle
2.6 Diseño físico Sqlserver-arcgisserver-Arcgis Desktop
2.7 Consultas Geodatabase Manzanas Medellín
3. Retos
Referencias

Carlos A. Castro C., Julián D. Giraldo O., Juan C. Valdés Q., Germán M. Valencia H., Helena Pérez G.
CAPÍTULO 11 - Problema 7. Diseño de geodatabase caso agencia------<104

1. Planteamiento el problema
2. Desarrollo del problema
2.1 Diseño conceptual-Modelo Entidad Relación
2.2 Diseño lógico - Modelo Relacional
2.3 Diseño físico -Modelo Relacional
2.4 Diseño modelo físico con Arccatalog de Arcgis 10.x
3. Retos
Referencias

PARTE V
PROCESAMIENTO DE GEODATOS------<115

Juan C. Valdés Q., Carlos A. Castro C., John F. Escobar M.


CAPÍTULO 12 - Problema 8. Análisis de datos espaciales para la caracterización de parámetros
geomorfométricos en cuencas hidrográficas------<116

1. Planteamiento del problema


2. Desarrollo del problema
3. Análisis de datos de entrada
3.1 Obtención de MDE por red de triángulos irregulares
3.2 Obtención de MDE por interpolaciones bilineales
3.3 Obtención de MDE a partir de un sensor aster astgtm
4. Análisis y selección del modelo digital de elevaciones
5. Reto
Referencias

7
Oscar A. Gómez C., Daniel Horfan Álvarez, Libardo A. Londoño C.
CAPÍTULO 13 - Problema 9. Análisis geoespacial para el cálculo de alternativas de ruta en proyectos de
infraestructura lineal------<130

1. Planteamiento del problema


2. Resumen del proceso
2.1 Preguntas que se podrán resolver al final del ejercicio
2.2 Conocimientos básicos que el estudiante debe tener antes de abordar el presente ejercicio
2.3 Caso hipotético
2.4 Marco contextual
3. Desarrollo del problema
3.1 Definir los criterios de evaluación
3.2 Identificar las variables o capas de información por cada criterio
3.3 Configurar el entorno de trabajo
3.4 Clasificar las capas con valores de susceptibilidad ambiental
3.5 Convertir a ráster y reclasificar valores de susceptibilidad
3.6 Calcular susceptibilidades por componente
3.7 Calcular susceptibilidad general
3.8 Calcular costos acumulados
3.9 Calcular corredores de alternativas
4. Retos
Referencias

John F. Escobar M., Juan C. Valdés Q.


CAPÍTULO 14 - Problema 10. Métodos de análisis espacial exploratorio en contextos de información escasa-
-----<149

1. Planteamiento del problema


2. Modelo de evidencias binarias - Solución dicotómica
3. Desarrollo del problema
3.1 Modelo de evidencias binarias - Solución ponderada
3.2 Métodos jerárquicos ponderados
4. Reto
Referencias

Libardo A. Londoño C., Julio E. Cañón B.


CAPÍTULO 15 - Problema 11. Simulación espaciotemporal de la concentración de PM10 mediante
Geoestadística y Modelos Autorregresivos de Rezago Distribuido------<157

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Caracterización espacial de PM10 usando algoritmos de interpolación geoestadísticos
3. Aspectos conceptuales de los métodos de autorregresivos con rezago distribuido
3.1 Modelo de regresión espacio temporal propuesto
3.2 Análisis de los resultados de las mejores configuraciones del modelo general propuesto
3.3 Cálculo de mapas de estimación de PM10 para cada mes del año
4. Reto
Referencias

Sergio Marulanda O., Luis A. Tafur J.


CAPÍTULO 16 - Problema 12. Volumen de un embalse a partir de datos batimétricos dispersos------<172

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Método 1: TIN
2.2 Método 2: Topotoraster

8
3. Análisis de resultados
3.1 Resultados modelo TIN
3.2 Resultados modelo Topotoraster
4. Conclusiones
Referencias

José L. Duque P., Julián A. Duque L., Libardo A. Londoño C.


CAPÍTULO 17 - Problema 13. Cálculo beneficio de plusvalía------<180

1. Planteamiento del problema


2. Conceptos básicos de plusvalía
2.1 Normatividad general de la plusvalía
3. Métodos para calcular los avalúos y la incidencia del incremento del terreno
3.1 De comparación o de mercado
3.2 Técnica residual
4. La liquidación del efecto plusvalía
4.1 Análisis a partir de los diferentes ajustes del POT municipal
5. Desarrollo del problema
5.1 Aplicación de los métodos de avalúo masivo para el cálculo de la plusvalía
5.2 Procedimiento metodológico específico para el cálculo de la plusvalía en Colombia
5.3 Procedimiento para el levantamiento de datos económicos en campo
5.4 Cálculo definitivo de la plusvalía vigente en el municipio
6. Análisis general sobre la plusvalía por cambio de norma en los POT municipales
6.1 Temor en el uso de los instrumentos normativos para el financiamiento del POT
6.2 Reglamentación de los índices de ocupación y de índices de construcción
6.3 Incidencias del POT rural en la plusvalía
6.4 Incidencia de la ley 388 de 1997 en el cobro de la participación en plusvalía
7. Consideraciones generales para el cálculo de la plusvalía
7.1 Áreas con cambio de norma en el antes y después en los suelos de expansión urbana
7.2 Consideraciones generales sobre la plusvalía en el área rural
7.3 Características de la plusvalía en el área urbana, área suburbana y de parcelaciones
8. Resultados finales sobre el cálculo de la plusvalía en el cambio de ordenamiento territorial
8.1 Del trabajo de campo y de diferentes fuentes de información
8.2 Del cálculo de p2 y escenarios e1 y e2
8.3 De los resultados de la plusvalía en el escenario 2
8.4 De la escogencia del escenario adecuado e2
9. Reto
Referencias

Jonathan Ochoa V., Claudia E. Durango V., Luis A. Tafur J.


CAPÍTULO 18 - Problema 14. Mapa Estratégico de Ruido para cuantificar afección por ruido en la población-
-----<202

1. Planteamiento del problema


2. Evaluación del ruido ambiental: Mapas de ruido
2.1 Glosario
2.2 Revisión de conceptos previos
3. Desarrollo del problema
3.1 Identificar los geodatos requeridos para la generación de mapas estratégicos de ruido
3.2 Adquirir y actualizar los geodatos requeridos para la generación del MER
3.3 Evaluar la calidad de los geodatos requeridos para la generación del MER
3.4 Definir el geoalmacenamiento necesario para la generación del MER
3.5 Exportar los geodatos al software de simulación de ruido
3.6 Importar las capas temáticas y datos tabulares provenientes del software de simulación
3.7 Geovisualizar los mapas estratégicos de ruido
4. Retos
Referencias

9
Carlos A. Castro C., Helena Pérez G., Gabriel E. Taborda B., Julián D. Giraldo O.
CAPÍTULO 19 - Problema 15. Determinación de sitios de encuentro para emergencias------<2013

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Definir el problema y determinar el tipo de conocimiento buscado
2.2 Determinar la estructura de la jerarquía de toma de decisiones desde la parte superior
3. Reto
Referencias

Conrado A. Serna U., Carlos E. Betancourt L.


CAPÍTULO 20 - Problema 16. Diseño de rutas de patrullaje policial con análisis de puntos de incidencia criminal-
-----<219

1. Planteamiento del problema


2. Proceso de solución
2.1 Fase 1. Configuración de la Red Vial
2.2 Fase 2. Mapas Temáticos en relación con los hotspot
2.3 Fase 3. Optimización y determinación de rutas
3. Desarrollo del problema
3.1 Fase 1 - Configuración de la malla vial (Network Dataset) y Comprobación Topológica
3.2 Fase 2 - Mapa de Concentración Punto – Hotspot
3.3 Fase 3. Optimización y Rutas determinadas por Entropía Cruzada
4. Análisis de resultados
5. Conclusiones
6. Retos
Referencias

PARTE VI
DESPLIEGUE DE GEODATOS------<233

Helena Pérez G., Yuliana Castrillón M.


CAPÍTULO 21 - Problema 17. El mapa como herramienta de comunicación------<234

1. Planteamiento del problema


1.1 Principios de diseño cartográfico
2. Desarrollo del problema
2.1 Capas de información
2.2 Construcción del mapa
3. Retos
Referencias

Sergio A. Castrillón I., Carlos A. Castro C., Helena Pérez G.


CAPÍTULO 22 - Problema 18. Uso de herramienta ESRI para la publicación y visualización de información
geográfica------<242

1. Planteamiento del problema


2. Desarrollo del problema
2.1 Capas de información
2.2 Publicación de servicio
2.3 Desarrollo de visor
3. Reto
Referencias

Julio C. Arias B., Claudia E. Durango V.


CAPÍTULO 23 - Problema 19. Despliegue de información en un servidor geográfico------<251

1. Planteamiento del problema

10
1.1 Contexto
2. Desarrollo del problema
2.1 Instalación de un servidor geográfico
2.2 Configuración de un servidor geográfico
2.3 Fuentes de datos
2.4 Publicación de información geográfica
2.5 Visualización desde herramienta desktop
3. Reto
Referencias

PARTE VII
SEMBLANZA DE LOS AUTORES DE CAPÍTULOS------<263

11
INTRODUCCIÓN
Geoinformática es tanto una ciencia como una tecnología, cuyo objetivo es reunir, analizar,
interpretar, distribuir y usar información geoespacial. Para ello, integra una amplia gama de disciplinas
relacionadas con la información espacial, reunidas para crear una imagen detallada y comprensible del
mundo físico y del lugar que ocupa la humanidad en él. Por otro lado, el surgimiento de la percepción
remota satelital y el desarrollo de los Sistemas de Posicionamiento Global (GPS) y de Información
Geográfica (SIG), forjaron cambios significativos en la topografía y la conformación de mapas del
mundo y del universo. Para atender las exigencias de este contexto, la academia y la industria reunieron
estas áreas bajo la denominación general de Geoinformática.
Entonces, este concepto y área de investigación se ha asimilado en la comunidad como el arte, la
ciencia y la tecnología orientados a adquirir, almacenar, procesar, producir, presentar y difundir
geoinformación. Además, se convirtió en un poderoso conjunto de herramientas para trabajar con
datos espaciales del mundo real que se utiliza en la investigación y el desarrollo en diversas disciplinas,
debido a que, como tecnología de la información, ofrece la posibilidad de recolectar, almacenar,
analizar y difundir datos espaciales y no-espaciales. En este texto se conjuga todo esto y se presentan
y solucionan problemas con diferentes niveles de estructuración, aplicando una innovadora
conjugación de ingenio y capacidad a través de la conjunción de la Geoinformática y el Aprendizaje
Basado en Problemas. El libro se encuentra organizado de la siguiente manera:

1. Parte I. Contexto metodológico. Donde se describe la metodología de investigación aplicada en el


proceso que origina el libro. Los capítulos son:
1. Metodología de la investigación.

2. Parte II. El Aprendizaje Basado en Problemas para la solución de problemas con componente
geoinformático. En la que se describe la base conceptual del ABP como estrategia didáctica en el
aula y la geoinformática como una ciencia integradora y multidisciplinar en el uso de técnicas y
herramientas, requeridas para el estudio de los problemas sociales a partir de la adquisición,
manejo, almacenamiento, análisis, modelación y publicación de la información geo referenciada,
o geodatos (en formato digital). Igualmente, se presenta una integración entre ABP y las
necesidades de formación en geoinformática, para facilitar el diseño de problemas con
componentes geoinformáticos y como rúbrica para facilitar la evaluación. Los capítulos en este
tema son:
2. Geoinformática.
3. Enseñanza Basada en Problemas: Un análisis didáctico.
4. El Aprendizaje Basado en Problemas y la geoinformática.

3. Parte III. Adquisición y edición de geodatos. Donde se presenta, analiza y propone la solución a
problemas con diferentes niveles de estructuración, asociados al proceso de búsqueda de los
requerimientos de información y utilizando tecnologías tales como Sensoramiento Remoto
(GNSS) (teledetección, cámaras métricas digitales, etc.) y Personal Digital Assistant (PDA) con
software para la captura directa de datos en campo, que incluyen capacidades para SIG. Para que
los datos sean útiles deben cumplir con los estándares de calidad y las condiciones mínimas
exigidas por la solución del problema, lo que incluye procesos de topología, escala y precisión,
entre otros. Los capítulos son:
5. Problema 1. Edición de geodatos.
6. Problema 2. Análisis de la calidad de los datos.

12
7. Problema 3. Incorporación de información de campo al Sistema de Información Geográfica.
8. Problema 4. Corrección de vacíos de información (voids) a partir de la aplicación de promedios
de diferencia de altura entre superficies de elevación.

4. Parte IV. Estructuración y almacenamiento de geodatos. En la que se presenta, analiza y propone


solución a problemas con diferentes niveles de estructuración, asociados al proceso que requiere
de un modelo conceptual, un modelo lógico y un modelo físico, que implica el almacenamiento
de la información en un repositorio con un formato de intercambio estandarizado (base de datos,
archivo multimedia, imagen, entre otros). Los capítulos de la sección son:
9. Problema 5. No desarrolladores usando Arcpy.
10. Problema 6. Diseño de geodatabase: Caso manzanas Medellín.
11. Problema 7. Diseño de geodatabase caso agencia.

5. Parte V. Procesamiento de geodatos. Presenta, analiza y propone solución a problemas con


diferentes niveles de estructuración, asociados al proceso de diseño de modelos geoinformáticos
para el procesamiento de los geodatos. Estos modelos deben garantizar la información suficiente
para la solución del problema y se pueden aplicar técnicas de geoestadística, interpretación, geo
procesamiento, programación y, en general, análisis de variables espaciales, con el apoyo de
software especializado. Los capítulos en este tema son:
12. Problema 8. Análisis de datos espaciales para la caracterización de parámetros
geomorfométricos en cuencas hidrográficas.
13. Problema 9. Análisis geoespacial para el cálculo de alternativas de ruta en proyectos de
infraestructura lineal.
14. Problema 10. Métodos de análisis espacial exploratorio en contextos de información escasa.
15. Problema 11. Simulación espaciotemporal de la concentración de pm10. mediante
geoestadística y modelos auto-regresivos de rezago distribuido.
16. Problema 12. Volumen de un embalse a partir de datos batimétricos dispersos.
17. Problema 13. Cálculo beneficio de plusvalía.
18. Problema 14. Mapa estratégico de ruido para cuantificar afección por ruido en la población.
19. Problema 15. Determinación de sitios de encuentro para emergencias.
20. Problema 16. Diseño de rutas de patrullaje policial con análisis de puntos de incidencia
criminal.

6. Parte VI. Despliegue de geodatos. Donde se presenta, analiza y propone solución a problemas con
diferentes niveles de estructuración, asociados al proceso de comunicación de la información,
mediante el cual los datos se llevan a mapas, datos estadísticos y resúmenes técnicos para la toma
de decisiones, y pueden ser presentados en formatos análogos o digitales (geoservicios en la web,
visores de escritorio, entre otros). Los capítulos son:
21. Problema 17. El mapa como herramienta de comunicación.
22. Problema 18. Uso de herramientas ESRI para publicación y visualización de información
geográfica.
23. Problema 19. Despliegue de información en un servidor geográfico.

13
PARTE I

CONTEXTO METODOLÓGICO

Debemos admitir con humildad que, si bien el número es puramente un producto de nuestra mente, el
espacio tiene una realidad fuera de ella, de modo que no podemos prescribir completamente sus
propiedades a priori.
Carl Friedrich Gauss (1777–1855)

Todo proceso investigativo se lleva a cabo aplicando una metodología, seleccionado de entre las
existentes, que se estructura de acuerdo con los objetivos trazados y productos esperados de cada
proyecto. Este caso no es la excepción y, como libro resultado de investigación, requiere una
presentación detallada de la metodología aplicada. A continuación, se describe el contexto
metodológico que aplicaron los investigadores para realizar la investigación que genera el presente
texto.

14
CAPÍTULO 1

Metodología de la investigación
Carlos A. Castro C.
Juan C. Valdés Q.
Helena Pérez G.

Geoinformática aplicada con Aprendizaje Basado en Problemas es producto del proyecto de


investigación Diseño e implementación de objetos virtuales de aprendizaje basados en problemas, para
la formación específica en Sistemas de Información Geográfica de Código Abierto OPENGIS y Software
Libre FOSS (Free and Open Source Software). En este proyecto se utilizó el proceso de Ingeniería del
Software para Desarrollar Objetos de Aprendizaje ISDOA (SEDLO en inglés), desarrollado por Serna,
Castro y Botero [1], y que se presenta en la Figura 1.

Figura 1. Ciclo de vida ISDOA [1]

En este modelo se propone un conjunto de fases y procesos repetibles, utilizados para diseñar y
desarrollar una solución que satisfaga alguna necesidad; además, que permita definir el alcance de un
proyecto, cumplir con los requisitos y lograr la aprobación del producto final por las partes interesadas.
Normal y lógicamente, un modelo de ciclo de vida para objetos de aprendizaje debe iniciar con el
Análisis de la necesidad y la Ingeniería de Requisitos, continuar con el Diseño y concluir con el
Desarrollo y la Implementación, de tal manera que el resultado sea una experiencia de aprendizaje que
responda a las necesidades de las partes interesadas y de quien patrocina su desarrollo.
Dado que el objetivo es diseñar y desarrollar una solución que satisfaga alguna necesidad, el
proyecto de investigación definió como método de aproximación a la necesidad el diseño de un
problema real o teórico, que se puede resolver con la utilización de Sistemas de Información Geográfica.
Los problemas fueron diseñados por especialistas en geoinformática, quienes también plantearon las
condiciones necesarias que debía cumplir el objeto de aprendizaje que se quería desarrollar y luego,
sobre la base del problema, se aplica el modelo ISDOA desde la fase de análisis e ingeniería de
requisitos, pasando sucesivamente a las demás fases.
Con base en los requerimientos de aprendizaje y los elementos pedagógicos y didácticos, definidos
en la fase de Análisis e Ingeniería de Requisitos, se redacta un problema ligado íntimamente a los
contenidos, que permita la adquisición de habilidades procedimentales con alto nivel conceptual. Cada
problema debe motivar el interés del usuario del objeto, estar contextualizado con su realidad y
permitirle revisar los conceptos, los objetivos de aprendizaje y las competencias requeridas. Además,

15
el diseño del problema requiere análisis previos acerca de los estilos de aprendizaje, del público
objetivo y de las competencias y los objetivos de aprendizaje identificados [1, 2], momento en el que se
origina la disertación sobre el Aprendizaje Basado en Problemas y cómo relacionarlo con el aprendizaje
de la geoinformática, situación que da origen al libro que se presenta.
El propósito de este texto es exponer, metódicamente, el análisis y solución de problemas con
componente Geoinformático (adquisición, almacenamiento, procesamiento y despliegue de los
geodatos), con el fin de apoyar el logro de capacidades en los procesos de formación en las áreas de
Sistemas de Información Geográfica, Geoinformática y afines, así como proponer problemas cuyo
proceso de análisis y solución generen ideas de investigación y nuevas temáticas para trabajo en el aula
en modalidad presencial, bimodal y virtual.
Desde lo conceptual y metodológico se realizan dos apuestas innovadoras: 1) sobre la aplicación de
los principios del ABP de forma escrita, ya que esencialmente es una estrategia pedagógica diseñada
para el aula y donde existe interacción entre el profesor y un grupo de estudiantes para la construcción
del conocimiento; y 2) la división de las acciones y procedimientos, necesarios para la solución de
problemas con componente geoinformático, en cuatro etapas o momentos asociados a unas
competencias y necesidades de aprendizaje específicas. Para la primera se parte de considerar que,
según el proceso de enseñanza y las herramientas didácticas escogidas, el contenido se puede
presentar a los estudiantes de diversas formas. En el caso del ABP se refiere a presentarlo de manera
deductiva, esto quiere decir que se presenta en el marco de un contexto, que puede ser situacional o
espacial, proposicional o procedimental, teórico o metateórico, [3]; por lo tanto, será necesario que el
estudiante devele los elementos necesarios en un proceso, tomar decisiones, modelar situaciones y
plantear diferentes formas de razonamiento, con el fin de comprender el mundo que le rodea.
A partir de esta consideración, dentro de la estructura de cada problema se presenta un
planteamiento que tiene como objetivo poner en consideración el contenido que se quiere abordar en
el proceso de enseñanza. Pero, como se expresó anteriormente, la forma de presentarlo varía de
acuerdo con la intencionalidad de quien diseña el problema, por lo que no existe una única directriz o
forma de hacerlo; lo importante es que la opción escogida, sea situacional, proposicional,
procedimental, etc., corresponda con el objetivo de aprendizaje y las competencias a desarrollar.
Es importante resaltar que no se debe igualar el proceso investigativo de un problema con la
estrategia que utiliza el docente para llevar al estudiante a la construcción y comprensión del problema,
aunque en el proceso didáctico esto se construya al mismo tiempo. La investigación ocurre cuando los
estudiantes se preguntan qué se necesita para comprender, solucionar y mejorar una situación
particular (problema), mientras que las estrategias didácticas se refieren a planes de acción
intencionada que pone en marcha el docente de forma sistémica para lograr determinados fines
formativos.
Como se conoce, uno de los retos afrontados en este libro es presentar el ABP de forma escrita y no
construida en el aula, por lo que era necesario inducir el proceso de investigación en cada problema.
Para esto se propone utilizar dentro de la estructura de cada problema un diagrama de Gowin o V de
Gowin, como instrumento de investigación-aprendizaje. La V de Gowin ayuda a identificar los
componentes del conocimiento, esclarecer sus relaciones e interpretarlos de forma clara y compacta
[4]. Cabe anotar que existen múltiples herramientas que se pueden aplicar para apoyar este proceso
de investigación del problema, tales como los mapas mentales o mapas conceptuales, entre otros. El
propósito del uso de la V de Gowin en este libro es presentar, a manera de ejemplo, una forma
propuesta por el diseñador del problema sobre cómo realizar el proceso de investigación.
Además del planteamiento y el análisis por medio de la herramienta V de Gowin, cada problema
presenta un desarrollo, que pretende mostrar la propuesta que el diseñador hace para abordar la

16
estrategia didáctica, entendida como las acciones intencionadas hacia el aprendizaje. En este punto es
fundamental aclarar que el desarrollo del problema no se refiere a la solución paso a paso del mismo,
puesto que en este libro se considera el desarrollo del problema como la forma de expresar los
conceptos y enseñanzas que se esperan abordar en la aplicación del ABP y que desarrollan las
competencias. En la práctica del ABP, en el aula surgirían del desarrollo propio del problema por parte
del grupo de estudiantes con mayor o menor intervención del docente, pero como la apuesta es el ABP
escrito, la estrategia didáctica hay que expresarla de forma aplicada.
Teniendo claro que, estrictamente hablando, el desarrollo del problema no es una solución del
problema y que el planteamiento del problema no tiene una forma única de ser presentado, desde la
metodología ABP existen variantes en su implementación relacionadas con la taxonomía y los objetivos
de aprendizaje. La taxonomía se refiere a la forma de presentar el problema y la estrategia didáctica,
mientras que los objetivos de aprendizaje tienen que ver con las capacidades y competencias que se
pretendan desarrollar. De la combinación de estas características resulta una necesidad de explicar y
desarrollar detalladamente o no el planteamiento del problema y el desarrollo del mismo.
De la forma como se presenta el contenido y la estrategia didáctica sugerida, que obedece a una
taxonomía y a unos objetivos de aprendizaje específicos para cada problema, aparece la tipología de
problemas y que aquí se clasifican según el desarrollo de su estructura e intencionalidad. Los
problemas se clasifican en completamente estructurados, parcialmente estructurados y poco
estructurados, haciendo una alusión directa a la forma como serian implementados con un grupo de
estudiantes. En el caso de implementar el ABP en el aula, el tipo de problema, la cantidad de
información suministrada por el problema y el grado de intervención del docente para el abordaje,
tanto del proceso de investigación como la solución del problema, varían de acuerdo con la dinámica,
la intención y los objetivos que se persiguen. Esto lleva a la interpretación escrita del proceso ABP, que
se ve representado en la cantidad de datos, detalles y orientaciones que se presentan en cada problema;
por lo tanto, la ausencia de información, datos o explicaciones procedimentales no puede ser entendida
como una estructuración deficiente del problema, porque la ausencia o presencia de información, datos
y explicaciones obedece únicamente al grado de estructuración que el diseñador desea sugerir.
Entonces, se puede afirmar que cada problema presentado en este libro se compone de cuatro
partes: 1) introducción, que es un cuadro resumen donde se expresan explícitamente las características
desde la taxonomía y objetivos de aprendizaje del problema, además de la V de Gowin como una forma
de inducir el proceso investigativo que se requiere y presentar los conceptos y temas a trabajar. 2)
Planteamiento del problema que, según el grado de estructuración que se diseñó, contendrá mayor o
menor cantidad de información, ya que desde la metodología ABP la información necesaria para el
problema varía de acuerdo con los alcances del proceso de investigación que deben desarrollar los
estudiantes. 3) Desarrollo, donde se introducen los procesos, aplicaciones y procedimientos sugeridos
como soporte a la estrategia didáctica; el desarrollo del problema también está asociado al nivel de
estructuración del mismo, presentando mayor o menor especificidad en lo procedimental y
metodológico. 4) El reto, ya sea como una variación del problema o como una posibilidad de nuevos
problemas o temas de investigación.
Si bien los problemas planteados en el libro exponen el proceso de análisis y presentan un proceso
de investigación y un desarrollo sugerido por el diseñador, estos problemas se pueden implementar en
el aula y, debido al carácter dinámico y de construcción colectiva del ABP, se podría obtener otras
soluciones de manera colaborativa, contextualizada y para diferentes disciplinas, tal como lo sugiere el
ABP desde sus principios y aplicaciones.
Este libro, además de presentar una estructura específica e intencionada en cada uno de los
problemas, también tiene una estructura general que obedece a la segunda apuesta innovadora y que
tiene que ver con la agrupación de las acciones y procedimientos necesarios para la solución de

17
problemas, con componente geoinformático en cuatro etapas o momentos. Esta agrupación se ve
reflejada en las partes que constituyen la estructura general del texto.
Las etapas o momentos se definen a partir del modelo de competencias desarrollado por The Urban
and Regional Information Systems Association (URISA), denominado Geospatial Management
Competency Model (GTCM), es decir, competencias personales, competencias académicas,
competencias del lugar de trabajo, competencias de la industria, competencias específicas y
competencias de gestión, como base para pensar en las necesidades de aprendizaje y en las
competencias y capacidades que se deben desarrollar entorno a la geoinformática y los sistemas de
información geográfica.
Los autores de los capítulos diseñaron los problemas teniendo en cuenta las áreas del modelo GTCM,
que contempla competencias gruesas como manejo de datos, generación de datos, procesamiento de
datos, análisis de datos, manejo de software, administración de proyectos, generación de productos y
programación, con las correspondientes habilidades que deben ser adquiridas, lo que lo convierte en
un libro de apoyo a los cursos de pregrado y posgrados que requieren solución de problemas con
componente geoinformático. Por ejemplo, en Ingeniería Ambiental (cartografía y topografía, hidráulica
e hidrología, ordenamiento territorial, evaluaciones ambientales, geomática, gestión ambiental,
modelación de recursos naturales en aire, en agua y en suelo), Ingeniería Industrial (cursos de
logísticas, estrategia de operaciones, mercadeo), Ingeniería de Sistemas (nuevas tecnologías SIG,
electiva programación Python, diseño y desarrollo de software, bases de datos espaciales), Ingeniería
Multimedia (desarrollo de contenidos de aprendizaje interactivos), Ingeniería Electrónica (monitoreo
remoto y telemetría) e Ingeniería de sonido (modelamiento y mapeo del ruido ambiental). Igualmente,
para todos los cursos de la Especialización en Sistemas de Información Geográfica y la Maestría en
Geoinformática.
Si bien el libro es producto de un proyecto de investigación, el proceso de creación también fue una
investigación en sí misma, no sólo por reunir 27 especialistas en áreas y temas de la Geoinformática,
sino también porque fue necesario diseñar un modelo para adecuar el ABP como estrategia didáctica
para interacción en el aula de clase, a un documento escrito con su correspondiente plantilla de
evaluación; adicionalmente, se realizó un desarrollo investigativo frente a las competencias y
habilidades necesarias en los procesos de aprendizaje de geoinformática y Sistemas de Información
Geográfica.
Teniendo este libro como resultado de investigación, y considerando que su origen está ligado a la
generación de objetos de aprendizaje, el paso a seguir es un nuevo proyecto para diseñar y desarrollar
contenidos interactivos en el área de la geoinformática, adoptando y adecuando prácticas ágiles de la
Ingeniería del Software y con la autorización de los diseñadores de los problemas.

Referencias

[1] Serna, E., Castro, C. & Botero, T. (2012). SEDLO: Software Engineering for Developing Learning Objects.
proceedings 6th Euro American Conference on Telematics and Information Systems. Valencia, España.
[2] Castro, C. , Serna, E. & Taborda, G. (2012). A proposed design of Learning Objects. Proceedings 6th Euro
American Conference on Telematics and Information Systems. Valencia. España.
[3] Du, X., Graaff, E. & Kolmos, A. (2009). Research on PBL Practice on Engineering Education. Sense:
Netherlands.
[4] Gowin, B. (2004) Aprendiendo a aprender. Madrid: Casa del libro.

18
PARTE II

EL APRENDIZAJE BASADO EN PROBLEMAS PARA LA SOLUCIÓN


DE PROBLEMAS CON COMPONENTE GEOINFORMÁTICO

Un ser humano es parte de un todo, llamado por nosotros universo, una parte limitada en el espacio-
tiempo, pero se experimenta a sí mismo, a sus pensamientos y sentimientos como algo separado del
resto, una especie de ilusión óptica de su conciencia. Este engaño es una especie de prisión para
nosotros, que nos restringe a nuestros deseos personales y afectos por algunas personas más cercanas.
Nuestra tarea debe ser liberarnos de esta prisión ampliando nuestros círculos de compasión para
abrazar a todas las criaturas vivientes y a toda la naturaleza en su belleza.
Albert Einstein (1879–1955)

En la Parte II de este libro se describen dos componentes fundamentales cuya utilización


conjunta hace parte de los objetivos de la investigación de la cual se genera. Por un lado, el
Aprendizaje Basado en Problemas, una tendencia que se ha hecho popular en los procesos de
capacitación debido a las ventajas que presenta, en relación con otras que se podrían
considerar con tiempo y vigencia cumplidos. Por otro lado, la Geoinformática, una reciente
área del conocimiento que, para lograr sus objetivos formativos, requiere modelos y procesos
revolucionarios para que los estudiantes se interesen en ella y la puedan aplicar en la
resolución de problemas reales.

19
CAPÍTULO 2

Geoinformática
Germán M. Valencia H.
Helena Pérez G.
Carlos A. Castro C.
Claudia E. Durango V.
Carolina Arias M.

1. Introducción

Durante siglos la humanidad ha generado datos para explicar los fenómenos físicos que nacen a
partir de las interacciones entre la tierra, los océanos, las aguas continentales, la atmósfera, la flora, la
fauna, los cuerpos celestes y el hombre. Pero la capacidad de encontrar, acceder, integrar e interpretar
estos datos se obstaculiza debido a los volúmenes y la heterogeneidad con los que se generan. Con los
avances en la computación científica las ciencias que estudian estos fenómenos han podido
transformar las maneras de entender el mundo, por medio de enfoques innovadores para la
interoperabilidad, el análisis, el modelado, la integración de bases de datos heterogéneas con datos de
diferentes escalas espaciales y temporales y con capacidades de visualización en procesos de análisis.
Esfuerzos que dieron origen a lo que hoy se conoce como Geoinformática.
La Geoinformática surgió para hacerles frente a los problemas, cada vez más grandes y frecuentes,
que tienen implicaciones sociales, que requieren enfoques integradores e innovadores para la captura,
el almacenamiento, el análisis y modelamiento, y el despliegue de diversos conjuntos de datos
geoespaciales. Esta ciencia abarca los sistemas geodésicos de referencia, de posicionamiento global y
de información geográfica, además de la fotogrametría, la teledetección y cartografía, así como la
topografía de la era digital. Se basa en teorías matemáticas, físicas, químicas, astronómicas, de la
geodesia física y de tecnología satelital, a la vez que utiliza herramientas de gestión de bases de datos,
de gráficos por computador y de Inteligencia Artificial. Su aplicación es habitual en cartografía,
topografía y gestión de datos espaciales en diferentes áreas, tales como agricultura, geografía, ciencias
ambientales, oceanografía, agricultura, geología, geofísica, ingeniería civil, economía, arquitectura,
ecología, biología y muchas otras.

2. Historia

En 1854, John Snow fue uno de los primeros investigadores en asociar la información cartográfica
básica y los datos levantados en campo con casos de cólera y, con ese cruce de información, se pudo
identificar el vector de la enfermedad pozos de agua. El prototipo SIG desarrollado por Snow es el
ejemplo más temprano encontrado desde el punto de vista gráfico, que permitió ubicar con precisión
un pozo de agua contaminado como la fuente causante del brote y marcó un hito histórico en el
desarrollo de la Geoinformática.
A principios del siglo XX se desarrolló el concepto de fotografía análoga, en el que los mapas se
separaban en capas; con la aparición de los primeros computadores se desarrollaron técnicas de
relación de variables cartográficas, con lo que el Departamento Federal de Silvicultura y Desarrollo
Rural de Canadá desarrollo el primer Sistema de Información Geográfica (Canadian Geographic
Information System, CGIS), que servía para recoger, analizar y manipular información del Inventario

20
de Tierras de Canadá (Canada Land Inventory, CLI); en 1964 se estructuró el Laboratorio de
Computación Gráfica y Análisis Espacial en Harvard Graduate School of Design (LCGSA), donde se
desarrollaron importantes conceptos teóricos en el manejo de datos espaciales; en los años 70, el
gobierno de Estados Unidos pone en órbita el sistema de satelital para la ubicación en tierra de
elementos con interés militar; una década después aparecen el software comercial, liderado por MyS
Computing, más tarde conocida como Intergraph, Environmental Systems Research Institute (ESRI), y
Computer Aided Resource Information System (CARIS) que utilizaron el conocimiento y la experiencia
de los investigadores del CGIS y del LCGSA.
En los años 90 se inicia una etapa comercial para profesionales y, debido a la generalización de los
computadores personales, los SIG se empezaron a difundir a nivel del usuario doméstico, además, el
gobierno de Estados Unidos libera la tecnología GPS para fines civiles. A finales del siglo XX y principios
del XXI el escenario comercial lo domina la empresa ESRI, con un direccionamiento del software SIG
enfocado a la segmentación de públicos y con aplicaciones que permiten resolver necesidades de
manera específica. Por su parte, el software libre toma fuerza, sobre todo en el sector académico, pero
con la dificultad de que, al tratar de resolver necesidades puntuales de gran nivel, se requieren altos
conocimientos de programación enfocada a objetos y de lenguajes de programación tales como C++,
Java y Python.
Actualmente, el escenario alrededor de la evolución de la Geoinformática está marcado por los
desarrollos hardware, que determinan el nivel de avance en SIG; las imágenes de satélite que cubre las
diferentes zonas de la tierra determinan la aparición de nuevos formatos de lectura, que requieren
despliegue a través de software multipropósitos; la aparición de las tabletas exige la programación de
software con condiciones específicas, para que el despliegue en mapas de información
georreferenciada sea una tarea que consuma pocos recursos informáticos; se cuenta con
constelaciones de satélites en el espacio para la georreferenciación de entidades del mundo real (Global
Posision System GPS, Glosnass, Galileo, Compas), que requieren la inter operatividad y el postproceso;
aparecen modelos matemáticos que se integran a los SIG mediante diferentes formas de computación
avanzada (en paralelo que utiliza varios procesadores); las necesidades de información están migrando
a Internet y, por este motivo, existen una amplia variedad de geoportales que permiten socializar los
geodatos más ágilmente; surgen tecnologías laser, como el Lidar, acopladas a vehículos utilitarios en
tierra o aerotransportados, que permiten el levantamiento de información en tiempo real sobre
interacciones en la cobertura terrestre, el agua o la atmosfera.

3. La formación en geoinformática

En este enfoque la Geoinformática se define como una ciencia integradora y multidisciplinar en el


uso de técnicas y herramientas requeridas para el estudio de los problemas sociales, a partir de la
adquisición, el manejo, el almacenamiento, el análisis, la modelación y la publicación de la información
georeferenciada o geodatos (en formato digital). Este concepto se separa del de Geomática, en la forma
en que la información se vuelve el elemento más importante para hacer frente a los problemas de las
ciencias de la tierra, de lo humano o de la ingeniería en sus diferentes disciplinas. Para la Geomática el
elemento principal es la técnica utilizada para el levantamiento del dato sobre la superficie terrestre.
A nivel internacional se evidencia importantes centros de enseñanza en Geoinformática o en áreas
a fines, por ejemplo, España cuenta con 13 universidades que ofrecen 19 programas de posgrado,
máster, especialización en SIG, teledetección, geodesia y/o cartografía; en Estados Unidos existen
alrededor de 350 universidades, instituciones universitarias y entidades que otorgan grados
académicos superiores en el área de la Geoinformática y en Europa más de 120 programas de
formación de alto nivel en la temática. De acuerdo con ESRI, en 2012 en el mundo había alrededor de
556 programas universitarios de formación en tecnologías de la gestión de la información espacial.

21
Estas estadísticas son lideradas por los Estados Unidos, la Unión Europea, Japón, China y Australia,
mientras que Latinoamérica y África presentan las estadísticas más bajas. En Colombia, la Universidad
Distrital Francisco José de Caldas en convenio con el Instituto Geográfico Agustín Codazzi, la
Universidad Antonio Nariño, la Universidad de Manizales, la Universidad Nacional con el programa de
Geomática, la Universidad de Antioquia con la especialización en Medio Ambiente y Geoinformática y
la Universidad de San Buenaventura con los programas de Especialización en Sistemas de Información
Geográfica y la Maestría en Geoinformática, lideran la formación en este campo.
Por otro lado, existen eventos académicos, tales como Urban Environmental Pollution, Convención
y Feria Internacional de Información y Seminario de Geoinformación, en los que se reitera la
importancia del uso de las tecnologías geoespaciales para responder las nuevas y crecientes
necesidades de la humanidad, en cuanto al estudio de fenómenos geográficos y donde, además, se
plantea la necesidad de Integrar las TIC con las ciencias ambientales, lo mismo que la formación en
áreas tales como la teledetección satelital, los sistemas de información geográfica, la geoestadística y
el modelamiento espacial, entre otros.

4. Habilidades y destrezas requeridas en geoinformática

Desde hace décadas el estudio de las habilidades, destrezas y capacidades, que permiten desarrollar
estudios en Geoinformática, es objeto de análisis con mirada crítica, como se demuestra en textos tales
como The essential skills to succeed in a GIS career de 2009, Geospatial Technology Competency Model
de 2010, GIS Sixth Sense White Paper de 2011, GIS Career Webinar: Top 5 Skills You Need to be Successful
in a GIS Career de 2011, Three Basic Skills de 2011 y 15 Retos para el cartógrafo y la paradoja de los
mapas invisibles, donde se abordan de forma detallada y con el objetivo de ayudar a la comunidad
académica en la construcción de los planes de estudios respectivos.
En el marco sugerido en estos trabajos se relacionan habilidades específicas y blandas, tales como
habilidades SIG; habilidades de programación; habilidades de base de datos; gestión y diseño de
proyectos; capacidad de trabajo con datos; compresión de los fundamentos geográficos; habilidades de
pensamiento espacial; curiosidad; adaptabilidad; comunicación; habilidades de resolución de
problemas; capacidad de auto-capacitación en herramientas, flujos de trabajo y procedimientos;
trabajo en equipo; investigar/leer/aprender/estudiar/contribuir con base en la curiosidad y la
responsabilidad; y capacidad de comunicación efectiva, entre otras [1, 2].
En este sentido, The Urban and Regional Information Systems Association (URISA) desarrolló un
modelo de competencias requeridas, en el que las clasifican dependiendo del sector en el que se
requiere al profesional en Geoinformática: académicas, laborales y personales. Además, define una
metodología para abordar las necesidades que tiene el sector externo (industria, gobierno, servicios),
de acuerdo con el tipo de profesional requerido [3, 4]. Geospatial Technology Competency (GTCM)
presenta un modelo de competencias en tecnologías geoespaciales, donde define que esta área es un
amplio conjunto de tecnologías, entre las que se incluye: mecanismos de almacenamiento;
recuperación y análisis de datos; tecnologías de captura; tecnologías de ingeniería de geocapas, que
combinan elementos de diseño (CAD) con inteligencia específica de ubicación; tecnologías al servicio
de los datos; y resultados de análisis al cliente final por medio de entornos tradicionales
cliente/servidor o cliente Web.
Este modelo consiste en nueve niveles (Figura 1), donde los tres primeros están conformados por
las competencias fundamentales y especifican los comportamientos generales laborales; los niveles 4
y 5 son las competencias técnicas, que se diferencian de acuerdo con industria y sus sectores; los
niveles 6 al 8 son competencias relacionadas con ocupaciones específicas para la publicación online; y
el nivel 9 representa las competencias de gestión asociada con las ocupaciones [3-5].

22
Figura 1. Resumen de Modelo de Competencias según GTCM (Adaptado de [3])

El modelo GTCM se soporta en un documento desarrollado por profesores de geoinformática de


todo el mundo, con aportes económicos y académicos de las Universidades de Boston, Massachusetts,
Harvard, Cambridge, ITC y Denver, y de entidades gubernamentales tales como NASA y EPA, entre
otras. El documento especifica las competencias necesarias para el éxito en el trabajo en la industria
geoespacial, desde las más generales de eficacia personal a las más específicas sectoriales [3, 5].
Las competencias de ocupación, necesidades y gestión se describen en el Modelo de Competencias
de Gestión Geoespacial (GMCM), en el que se especifican 74 esenciales y 18 de área, caracterizadas para
trabajar en la industria geoespacial. Este modelo se caracteriza por presentar seis niveles de
competencias (Figura 2) y se utiliza como guía para ayudarles a los profesionales, profesores y
capacitadores a desarrollar los requerimientos profesionales desde los programas académicos [3, 5].

Figura 2. Resumen de Modelo de Competencias URISA (Adaptado de [3])

El análisis de las competencias específicas en el área de la Geoinformática lleva a realizar una


búsqueda dentro de cada una de las áreas de formación, destacándose la necesidad abordar el proceso
de formación teniendo en cuenta no solamente las competencias requeridas, sino también su relación
con el proceso de resolución de problemas con componente geoinformático. En las Figuras 3 a 10 se
muestra la lista de las necesidades de formación definidas por áreas [3, 4, 6].

23
Figura 3. Competencias Adquisición de Datos

Figura 4. Competencias Generación de Datos

24
Figura 5. Competencias Procesamiento de datos

Figura 6. Competencias Análisis de Datos

25
Figura 7. Competencias Manejo de Software

Figura 8. Competencias Administración de Proyectos

Figura 9. Competencias Generación de Productos

26
Figura 10. Competencias Programación

La integración de competencias le permite al profesional solucionar los problemas de acuerdo con


el contexto, los recursos y al momento histórico. Para la solución de un problema que incluya la
Geoinformática se necesita aplicar un proceso con las fases de adquisición, manejo, análisis y
despliegue, que necesariamente no se desarrollan secuencialmente, ni integran todas las competencias
definidas, tal como se describe en la Figura 11. Este proceso fue interpretado y adaptado dentro de la
construcción de conocimiento por parte de los autores, teniendo en su experiencia acumulada por más
de 15 años de trabajar en el tema.

Figura 11. Fases para solucionar un problema con componente geoinformático

1. Adquisición y edición. Se levantan los requerimientos de información utilizando tecnologías tales


como Sensoramiento Remoto (GNSS) (teledetección, cámaras métricas digitales, etc.) y Personal
Digital Assistant (PDA) con software para la captura directa de datos en campo, que incluye

27
capacidades para SIG. Para que los datos sean útiles deben cumplir con los estándares de calidad
y las condiciones mínimas exigidas por la solución del problema, entre los que se incluye
procesos de topología, escala y precisión, entre otros.
2. Estructuración y almacenamiento. En la que se requiere un modelo conceptual, un modelo lógico
y un modelo físico, e implica el almacenamiento de la información en un repositorio con un
formato de intercambio estandarizado (base de datos, archivo multimedia o imagen, entre otros).
3. Modelado y análisis. Se debe garantizar la información suficiente para la solución del problema y
se pueden aplicar técnicas de geoestadística, interpretación, geoprocesamiento, programación
de software y, en general, análisis de variables espaciales con el apoyo de software especializado.
4. Despliegue. Proceso de comunicación de la información con el que los datos son llevados a mapas,
datos estadísticos o resúmenes técnicos para la toma de decisiones, y pueden ser presentados en
formatos análogos o digitales (geoservicios en la web o visores de escritorio, entre otros).

En la Tabla 1 se presenta la relación entre las fases para la solución de problemas con componente
geoinformático y las competencias gruesas, requeridas para abordar la solución, donde el ABP se
presenta como una de las posibles estrategias para que los estudiantes las adquieran.
Tabla 1. Integración de competencias gruesas con el modelo de proceso geoinformático
Competencia Gruesa Proceso Geoinformático
Manejo de datos, generación de datos, manejo de software Adquisición y Edición de Geodatos
Procesamiento de datos, manejo de software Estructuración almacenamiento de geodatos
Análisis de datos, manejo de software, programación, generación
Modelado y Análisis de Geodatos
de productos, administración de proyectos
Generación de productos, manejo de software Despliegue de Geodatos

Referencias

[1] Wilson, J. (2014). Geographic information science and technology body of knowledge 2.0 - Final Report.
Pasadena: USC Dornsife Institute.
[2] Babinski, G. (2012). Nine steps to a highly successful geospatial industry carrer. Seattle: King country GIS
user group.
[3] Babinski, G. (2012). Develops the geospatial management competency model GMCM for USDOLETA.
proceedings of URISA GIS conference. Tacoma, USA.
[4] Albrecht, J. (2016). Towards a theory of GIS program management. In Onsrud, H. & Kuhn, W. (Eds.),
Advancing Geographic Information Science: The Past and Next Twenty Years (pp. 79-90). USA: GSDI
Association press.
[5] DiBiase, D. et al. (2006). Geographic information science and technology body of knowledge. Washington:
Association of American Geographers.
[6] Johnson, A. (2010). UCGIS Body of knowledge, proposed and unanticipated benefits and possible future
initiatives. In proceedings seventh European GIS education seminar. Serres, Greece.
[7] Ahearn, S. & Skupin A. (2016). From body of knowledge to base map: managing domain knowledge through
collaboration and computation. In Onsrud, H. & Kuhn, W. (Eds.), Advancing Geographic Information Science:
The Past and Next Twenty Years (pp. 65-78). USA: GSDI Association press.

28
CAPÍTULO 3

Ensenanza Basada en Problemas: Un analisis didactico


Beatriz E. Arias V.

1. Introducción

En este capítulo se presenta una reflexión didáctica acerca de la relación entre teoría y práctica,
teniendo en cuenta que la didáctica abarca un campo amplio y complejo de la enseñanza y que, de
acuerdo con Klafki [1], es el complejo total de las decisiones, presuposiciones, fundamentaciones y
procesos de la decisión sobre todos los aspectos de la enseñanza. Po lo tanto, enseñar va más allá de
transmitir un conocimiento o de poner de manifiesto una serie de estrategias tecnológicas, aunque
hagan parte de este quehacer. Esta tarea debe propender por la formación integral del sujeto
necesitado de educación, permitiéndole la comprensión y la reflexión desde su propia historicidad y
del mundo que lo rodea. Específicamente, la enseñanza basada en problemas es una estrategia que
permita integrar la praxis a la comprensión de la teoría.
Por otro lado, también hay que reconocer que la pregunta por la enseñanza es una de las más
complejas, pero también una de las más importantes en la medida que se constituye en la base misma
de la didáctica y que amerita la reflexión y el estudio permanente, cuando el propósito de la educación
superior esta puesto en cumplir con el papel crítico-constructivo y teórico-formativo de la universidad,
en una sociedad en constante transformación. La didáctica crítica constructiva, como subcampo de la
pedagogía crítica y fundamentada en los principios de la antropología–pedagógica, observa a la
persona como un ser necesitado de educación, en permanente construcción y formación que, además,
tiene conciencia de su carencia, y capaz de auto-biografiarse e historiarse. La educación superior debe
responder a esta tarea tomando distancia de posiciones instrumentales, meramente instructivas, y
asumiendo a su vez la tarea formativa.
En el marco de la pedagogía crítica, la enseñanza, como pregunta central de la didáctica, solamente
se puede explicar en su relación directa con la formación categorial. Para Speck y Whele [2], la
formación define el camino que debe recorrer un ser humano, sin salirse de su mundo, en el proceso
de humanización; pues el hombre, por naturaleza, es un ser social, activo y comunicativo. Por lo que un
sujeto aislado de la sociedad no se forma, porque es en la interacción con su contexto y su cultura que
se crea y recrea, se conoce y reconoce al otro y a los otros. Pero ¿quién determina esa formación? O ¿se
puede pensar que cada individuo determina su propia formación? La didáctica crítica constructiva
plantea la necesidad de formar seres humanos capaces de auto-determinarse, perfectibles y en
continua construcción, es decir, seres inacabados que necesitan educarse constantemente y que, por lo
tanto, deben desarrollar la capacidad de aprender a dirigir su propio proceso de aprender.
Desde luego, y de acuerdo con Kalfki [3], citado por Runge [4], la formación es una categoría
fundamental en el ser humano y un elemento articulador de la didáctica. En este sentido, la enseñanza
tiene como fin lograr que los sujetos se apropien de su realidad, procurando su propio mejoramiento,
reconociendo la existencia del otro y respetándolo como sujeto pensante.
De ahí que su propuesta sea una didáctica teórico-formativa que trabaja contenidos para encontrar
su carácter formativo, pero que no se queda únicamente en el contenido como tal, sino que enfatiza en
el contenido formativo, es decir, en lo que forma y transforma, donde está la tarea pedagógica del
profesor, que se encarna en él, que se hace praxis y que solamente de esta manera es capaz de darlo
todo para ser ese instrumento formador y transformador de sí mismo, de los otros y de sus entornos.

29
En relación con la intencionalidad del contenido la didáctica crítica plantea que, a través de la
práctica, los actores del proceso formativo pueden alcanzar una conciencia crítica en y de su contexto,
como una forma de responder a los problemas que cada saber disciplinar les permite leer en el mundo,
de manera que les implica reflexión consciente y responsable. Esta mirada de la didáctica crítica les
promueve a cuestionar y desafiar las creencias y prácticas para llevarlos a la modificación de su
contexto, en la medida en que se integran en la enseñanza principios tales como participación,
comunicación, humanización, transformación y contextualización. Para Giroux [5], el contexto es el
espacio geográfico donde el sujeto realiza sus acciones y, lo que un individuo interioriza a través del
proceso de socialización, depende del contexto en el que está inmerso. Así mismo, interactúa e
interpreta de diferente manera la realidad en la que vive y, según sea sus interpretaciones, así actúa.

2. La Enseñanza Basada en Problemas

Para responder específicamente a las necesidades que presenta el país en relación con la formación
de profesionales, la educación superior en Colombia exige que los profesores transformen las
concepciones acerca de cómo se establece la relación entre la teoría y la práctica, en el proceso de
enseñanza-formación, porque su tarea no se limita únicamente a transmitir información, sino que le
exige un campo complejo de acciones conectadas directamente con el desarrollo de capacidades, que
impliquen potenciar el pensamiento cognitivo sofisticado, y prácticas de enseñanza basadas en la
investigación, para lo que el contenido es un elemento clave. Es decir, todo proceso de enseñanza
encierra en sí mismo un contenido y la exposición del profesor ante los estudiantes, pero no es un
contenido neutro porque, al exponerlo, él mismo se vuelve contenido ante los estudiantes, lo que da
sentido al primer significado de enseñar, como el acto de ponerse en signo para otros.
De esta manera, el contenido se puede presentar a los estudiantes de diversas formas y, aunque el
propósito de este capítulo no describirlas todas, el objetivo es a presentar el contenido de manera
deductiva. Para hacerlo, es importante tener en cuenta que el contenido se presenta en el marco de un
contexto, que puede ser situacional, espacial, proposicional, procedimental, teórico o meta teórico [6],
por lo tanto, es necesario que el estudiante devele los elementos necesarios en el proceso: tomar
decisiones, modelar situaciones y plantear diferentes formas de razonamiento, con el fin de
comprender el mundo que le rodea. Lo más importante de este tipo de enseñanza es buscar que el
estudiante se sienta parte del mundo y que, a su vez, responda a las necesidades que éste le plantea.
La Enseñanza Basada en Problemas (EBP) es una estrategia de enseñanza-aprendizaje
fundamentada en el enfoque constructivista, caracterizada por generar conflicto cognitivo en los
estudiantes y movilizar estructuras de pensamiento; además, se apoya en los principios del enfoque
del constructivismo social, en la medida que propicia el trabajo en grupos como mediación social del
aprendizaje y usa problemas del mundo real como contexto. EBP enfatiza en la investigación que ocurre
cuando los estudiantes, trabajando en equipo, se indagan por lo que necesitan para comprender,
solucionar y mejorar una situación en particular. En tal sentido, recoge los siguientes principios del
constructivismo:
1. El entendimiento con respecto a una situación de la realidad surge de las interacciones con el
medio ambiente.
2. El conflicto cognitivo, porque al enfrentar cada situación nueva estimula su aprendizaje.
3. El conocimiento se desarrolla mediante el reconocimiento y aceptación de los procesos sociales
y de la evaluación de las diferentes interpretaciones individuales del mismo fenómeno [7].

Aunque la introducción de la enseñanza basada en problemas en la universidad empieza con


algunas experiencias en los años 90 en Norteamérica, en las últimas décadas se ha incrementado las

30
experiencias en universidades colombianas, especialmente en programas de medicina, ciencias
sociales, ciencias básicas y humanidades. Las investigaciones de Coll [7], Bermejo y Pedraja [8], Pozo
[9] y Arnaiz [10] demuestran que la enseñanza basada en problemas transforma el rol de los profesores
y desarrolla responsabilidad en los estudiantes, a la vez que mejora la relación entre ambos y aumentan
la motivación de los estudiantes por el aprendizaje, porque perciben que lo que aprenden tiene relación
directa con la realidad y porque participan activamente en la solución de problemas.

2.1 Formas de organización de la enseñanza basada en problemas

Antes de relacionar estas formas, es conveniente aclarar que la enseñanza basada en problemas es
una estrategia didáctica [1], metódica, una forma de organización de la enseñanza que incluye los fines,
la intención del contenido, la metódica y las mediaciones, mientras que el Aprendizaje Basado en
Problemas (ABP) es una metodología centrada en el estudiante. Por eso es que en la teoría del ABP y
en sus formas de implementación se encuentran diferentes estrategias, desde problemas muy
estructurados [11], hasta los totalmente desestructurados, con los que estudiante recibe solamente
algunas asesorías o el acompañamiento de un tutor. De acuerdo con esto, en este trabajo se plantean
cuatro estrategias para organizar la enseñanza basada en problemas, mediante la combinación de dos
fundamentales: por un lado, el nivel de prescripción presentado por el profesor o desde el modelo
didáctico que tenga la institución y, por otro lado, la complejidad de las preguntas en relación con el
orden proposicional, procedimental, teórico o metateórico. La relación entre las categorías no es
unidireccional ni unívoca, sino multidireccional y variable, tal como se observa en la Tabla 1.
Tabla 1. Caracterización de los problemas
Nivel de prescripción Nivel de complejidad
Macroproyectos transversales de niveles Preguntas proposicionales: descriptivas, caracterizadoras
Proyectos transversales por nodos o núcleos temáticos Preguntas procedimentales: establecer la relación del saber hacer
Proyectos extrínsecos Preguntas teóricas: fundamentar el qué con el hacer
Preguntas meta teóricas: fundamentar epistémicamente el cómo
Proyectos intrínsecos
con el qué.

1. Macroproyectos transversales de niveles. Se diseñan a partir de preguntas problematizadoras,


orientadoras o generadoras, que transversan los contenidos o intencionalidades formativas de
un nivel de formación en un programa, cuando el plan de estudios está diseñado por problemas.
Este diseño es altamente estructurado y está prescrito desde los profesores o quien esté
encargado de la parte didáctica. La idea es que los facilitadores, quienes están a cargo directo de
los estudiantes, sean los que diseñen los problemas, los estudien en profundidad para darles la
mayor complejidad de acuerdo con los niveles de formación, los amplíen en relación con la
complejidad proposicional, procedimental, teórica o metateórica, y que preparen todos los
recursos antes de plantearlos a los estudiantes.
Esta propuesta didáctica permite dar cumplimiento a las dimensiones universitarias de docencia,
investigación y extensión, y de responder a los problemas actuales de la sociedad, propiciar la
participación del estudiante, desarrollar el pensamiento crítico y complejo, alentar el trabajo en
grupos colaborativos, la responsabilidad compartida y la capacidad de investigación.

2. Proyectos transversales por nodos o núcleos temáticos. La articulación de problemas de esta


manera obedece a los objetos de conocimiento de los programas de formación que,
generalmente, tienen una estructura curricular en la que organizan los contenidos por áreas o
campos disciplinares y asignaturas, que se construyen sobre discursos epistemológicos que
determinan los objetos de conocimiento. Es posible que algunos problemas se logren tejer entre
varios objetos de conocimiento que convergen o se encuentran, por ejemplo, las ciencias básicas

31
no sólo tienen objetos de conocimiento comunes, sino que a nivel procedimental se necesitan
mutuamente, y lo mismo se podría decir de las áreas de formación humana o de comunicación.
Al igual que el caso anterior, el problema lo deben diseñar los profesores que trabajan
directamente con los estudiantes, de tal forma que puedan prepararlo de acuerdo con los niveles
de formación y los niveles de complejidad de las preguntas problematizadoras.

3. Proyectos extrínsecos. También son responsabilidad de los profesores que orientan cada
asignatura. Consisten en preguntas problematizadoras que surgen de los programas que van a
desarrollar y las deben responder los estudiantes gradualmente, en la medida en que se acercan
a la teoría o que establecen relación entre ella y la práctica, o que requieran fundamentar
epistémicamente unas praxis.

4. Proyectos extrínsecos. Son aquellos problemas que surgen desde los intereses y necesidades de
los estudiantes al abordar objetos de conocimiento en los diferentes campos disciplinares, áreas
o asignaturas. Pueden surgir también por grupos a partir de los ejes generadores planteados en
los macroproyectos de los diseños didácticos del programa o de los cursos; aquí lo importante es
que la construcción de las preguntas problematizadoras se hacen desde los estudiantes y el nivel
de complejidad la determina su nivel de formación.

2.2 Medios y mediaciones en la enseñanza basada en problemas

Toda enseñanza en sí misma es una mediación, en este sentido ...en la perspectiva, que nos es propia,
la propuesta didáctica se concibe como un aspecto particular, formal o institucional, de los procesos
generales de mediación formativa, que constituyen el desarrollo y el funcionamiento humanos [12]. Sin
embargo, en la implementación de las metódicas o estrategias didácticas, en este caso en la enseñanza
basada en problemas, existen unas herramientas que actúan como mediadoras en el proceso de la
enseñanza y que ayudan en la comprensión de los problemas, en la organización de la información para
diseñar modelos de resolución del problema, a organizar procedimientos y a concretar acciones.
Estas estrategias son un conjunto de acciones intencionadas que se proyectan y se ponen en marcha
de forma ordenada para alcanzar un propósito determinado [13]. Las estrategias didácticas se refieren
a planes de acción intencionada que pone en marcha el profesor, de forma sistémica, para lograr fines
formativos específicos en los estudiantes. Se componen de tres elementos [14]: finalidades, contenidos
y concepción que se tiene del estudiante, y a su vez guían el establecimiento de técnicas y actividades.
Es importante considerar que no se debe igualar el proceso investigativo de un problema con la
estrategia que utiliza el profesor para lograr que el estudiante construya y comprenda el problema,
aunque en el proceso didáctico esto se edifique al mismo tiempo, porque la enseñanza basada en
problemas, como estrategia didáctica, es una mediación que forma en la investigación [8].
Por otro lado, hay que aclarar que las similitudes entre investigación y estrategia se producen,
esencialmente, porque en ambas se aplica la lógica científica, es decir, el enfoque científico del
fenómeno (didáctico en este caso), al estudiarlo e influir sobre él de forma rigurosa y objetiva, en su
constante dinámica y en su relación con otros fenómenos [14]. A continuación, se presentan algunas
de esas estrategias que sirven de apoyo en el proceso con los estudiantes, tanto en las áreas de ciencias
básicas como en las sociales.
1. Diagrama V de Gowin o V Heurística. En las últimas décadas, la epistemología ha puesto en
evidencia que el conocimiento, lejos de ser producido algorítmicamente, es el resultado de la
relación dinámica entre lo que el investigador conoce y los instrumentos y recursos que dispone
para la comprensión del fenómeno estudiado [15]. Palomino [15], citando a Kuhn, afirma que,
actualmente, se está viviendo una etapa de ciencia revolucionaria en el campo de la investigación

32
educativa, que posibilita la superación mecánica del método científico a través del
constructivismo, aunque no se puede considerar como un paradigma dominante y único.
Además, citando a Mellado y Carracedo, resalta que el conocimiento científico es construido por
la inteligencia humana en un contexto generalmente social, teniendo en cuenta el existente y por
actos creativos en los que la teoría precede a la observación [19]. Por esta razón, y haciendo uso
de las explicaciones que ofrece la teoría del aprendizaje significativo [20], el diagrama V es un
recurso metodológico que permite ver el proceso investigación-aprendizaje (producción de
conocimiento) de manera dinámica y flexible, de tal manera que la investigación se puede
considerar como una manera de generar estructura de significados, es decir, relacionar
conceptos, acontecimientos y hechos [18].
Al intentar establecer una analogía entre la investigación científica y la construcción de
conocimiento, es posible encontrar que el diagrama de Gowin, específicamente por ser una
herramienta metacognitiva, les permite a estudiantes y docentes dar sentido al mundo del
conocimiento y su construcción, o reconstrucción, de manera dinámica, no-lineal y algorítmica,
tal como se pretende desde un método científico. Porque explicita la relación entre lo que se
conoce como dominio conceptual, con los recursos que se pueden emplear para enfrentar la tarea
del conocimiento y el dominio metodológico [17]. De la misma manera, y empleándolo
adecuadamente en el aula, el diagrama se puede constituir en un potente instrumento de
investigación y aprendizaje debido a sus elementos epistémicos. Estos elementos de la V de
Gowin posibilitan la interrelación entre el dominio conceptual (conceptos, principio, teorías) y
el dominio metodológico (registros, transformaciones, afirmaciones) implícitos en un modelo de
resolución de problemas, a fin de producir conocimiento [21].
Al tratarse de un recurso heurístico y una herramienta metacognitiva, el diagrama se puede
configurar de la manera que resulte más útil [16], porque el valor de una técnica heurística radica
en la utilidad que demuestre al ser empleada, en todo caso, es recomendable que se mantenga la
esencia de las interrogantes que dieron origen a este recurso [15]. Considerando lo anterior, el
profesor puede realizar los ajustes necesarios al diagrama, con la finalidad de favorecer el
aprendizaje de los estudiantes de tal manera que responda a su evolución cognitiva.
Palomino [15] relaciona el diagrama V de Gowin como un instrumento de investigación y
aprendizaje y afirma que es un recurso diseñado para ayudarles a los estudiantes y profesores a
captar el significado del material que se aprende. Además, cita a Novak [16] y Gowin [17], para
quienes es un método que permite entender la estructura del conocimiento y el modo en que se
produce. Palomino, propone el diagrama V como una herramienta que se puede emplear para
analizar críticamente un trabajo de investigación, así como para extraer o desempaquetar el
conocimiento y emplearlo con fines instruccionales [18]. En este sentido el diagrama se diseña
planteándose los siguientes interrogantes:
1. ¿Cuál es la pregunta determinante?
2. ¿Cuáles son los conceptos clave?
3. ¿Cuáles son los métodos de investigación que se utiliza?
4. ¿Cuáles son las principales afirmaciones de conocimiento?
5. ¿Cuáles son los juicios de valor? [16]

De acuerdo con los diferentes tipos de problemas que se pueden desarrollar en el aula, tales como
intrínsecos, extrínsecos, por origen de las preguntas y transversales de nivel o de aula en relación
con su nivel de estructura en el currículo, la pregunta determinante (pregunta central), como la
denomina Gowin [17], es la que identifica el fenómeno estudiado de modo que se pueda
descubrir, medir o determinar algo al responderla. Los conceptos, teorías, leyes, definiciones que
permitan abordar la exploración, descripción o comprensión del problema, serán parte del

33
proceso que permite abordar el problema. Por otra parte, Palomino [15] afirma que los métodos
de investigación son los pasos, técnicas y recursos que se emplearán en la ejecución de la
investigación, y que tienen como finalidad responder a la(s) pregunta(s) central(es) que se
traducirán en las afirmaciones de conocimiento.
Para él, los juicios de valor hacen referencia al significado, utilidad e importancia del
conocimiento logrado, además, afirma que el diagrama V es una herramienta que le permite al
estudiante aprender y comprender. En didáctica este tipo de herramientas se convierten en
dispositivos metacognitivos que posibilitan la comprensión del cómo se aprende y se procesa la
información. El conocimiento no es descubierto sino construido por las personas, tiene una
estructura que se puede analizar [7] y la V de Gowin (Figura 1) ayuda a identificar sus
componentes, a esclarecer sus relaciones y a interpretarlas de forma clara y compacta [17].

Figura 1. V de Gowin [17]

Lo que hace [15] es explicar el esquema del diagrama V, describiendo que los acontecimientos y
objetos (fuentes y evidencia) que serán estudiados, están en el vértice de la V, como se observa
en la Figura 1, puesto que se considera que es donde se inicia la producción del conocimiento. A
continuación, se ubican las preguntas centrales que identifican el fenómeno de interés que se
estudia. Los métodos, estrategias e instrumentos para la implementación de la investigación, que
posibilitarán la respuesta a las peguntas centrales y la comprensión el acontecimiento estudiado,
quedarán expresados en los registros, transformaciones y las afirmaciones de conocimiento (los
datos obtenidos se interpretan a la luz del bagaje conceptual del investigador) [15]. Las
afirmaciones de conocimiento son el resultado de la investigación, sobre las que se plantea las
afirmaciones de valor [17] que hacen referencia al valor práctico, estético, moral o social del
acontecimiento estudiado.
La estructura pone en evidencia la estrecha relación entre el pensamiento y la acción, donde se
evidencia que el dominio conceptual y el metodológico se influyen mutuamente, ya que los
recursos metodológicos o procedimientos empleados son influenciados por las ideas, conceptos

34
y teorías que posee el investigador. De acuerdo con Palomino [15], para Gowin, una vez definida
la pregunta del problema, la parte conceptual es el espacio donde se registran conceptos, leyes,
teorías o principios, que permitan definir, explorar, describir o abordar el problema. Estos
elementos constituyen el corpus teórico de lo que se investiga y, sin él, sería imposible llegar a
su comprensión. En este sentido, el diagrama es una herramienta metacognitiva, pues este tipo
de dispositivos le permiten al estudiante establecer la relación entre la teoría y la práctica [18].
Por otro lado, al abordar un problema y una vez fundamentado en teorías, leyes o principios que
permitan definirlo y explorarlo, será necesario recoger información, registrarla, presentar
modelamientos o formas de razonamiento del problema y, en este caso, se ubican en la parte
metodológica del diagrama [17]. Para palomino [15], es un proceso de registrar datos en bruto
recolectados y que, al ser procesados mediante estadísticas, gráficos, tablas o mapas
conceptuales, se convierten en transformaciones que, posteriormente, posibilitarán el
planteamiento de las afirmaciones. Estas últimas son influenciadas por lo que el investigador ya
conoce, es decir, están en estrecha relación con los componentes del lado izquierdo.
▪ Elaboración de un diagrama V. El proceso consiste en seis pasos [15], tal como se observa
en la Tabla 2.
Tabla 2. Pasos para elaborar un diagrama V [15]
Paso Descripción
En el vértice se ubica el acontecimiento que será estudiado. En la parte central, se plantean las interrogantes de
1 estudio o la pregunta problematizadora que, no son simples preguntas, sino que están en estrecha relación con
el tema de investigación.
2 Se determina los registros y transformaciones que se realizarán para desarrollar la investigación.
Se precisa las teorías, principios, leyes y conceptos que permitirán la comprensión e interpretación de los datos
3
recogidos (registros y transformaciones).
Desarrollada la investigación, sobre la base del conocimiento conceptual y con las transformaciones a mano, se
4
plantea las afirmaciones de conocimiento sobre el acontecimiento o tema estudiado.
Logrado el conocimiento del acontecimiento motivo de estudio, se plantea el valor práctico, estético, moral o
5
social de la investigación, es decir, las afirmaciones de valor.
Finalmente, se invita a los investigadores a tomar conciencia de que su visión del mundo motiva y orienta sus
6 acciones como tal, es decir, determina la selección de recursos (teóricos y metodológicos) para comprender los
acontecimientos estudiados, ya que la racionalidad que motiva sus actos se encuentra inmersa en una filosofía.

La aplicación juiciosa del diagrama permite no solamente la comprensión de los


problemas, sino que potencia otras formas de adquisición del conocimiento, a través de
procesos de redescripción del conocimiento implícito, que permiten actuar sobre la
realidad [9]. Es decir, el estudiante no sólo comprende la teoría, sino que la comprende, en
relación con los problemas reales que vive, la organiza, la redescribe y resignifica
aportando otras formas de modelación o de razonamiento que contribuyan a la
transformación de la realidad.

2. Mapas conceptuales. Planteados por Novak [16], son estrategias fundamentales en el desarrollo
del pensamiento categorial, a la vez que una estrategia de aprendizaje dentro del
constructivismo, que produce aprendizajes significativos al relacionar los conceptos de manera
ordenada, caracterizados por su simplificación, jerarquización e impacto visual. Para Ausubel
[20], la mayor parte del aprendizaje formal es relativamente arbitrario y no sustantivo, por tal
motivo los estudiantes utilizan la repetición para aprender conocimientos declarativo,
procedimental y actitudinal [7].
Para el autor, el aprendizaje significativo pone énfasis en la creación, evolución y relación entre
los conceptos y plantea que existen diversas formas de construirlo, sin embargo, todas estas
formas se basan en los aprendizajes que ya se tienen, es decir, para Ausubel [7]: Uno aprende de

35
lo que ya sabe. Por esta razón, al abordar una teoría, un texto o un problema, los primeros niveles
de significación o de comprensión del asunto están sustentados en los aprendizajes previos, en
los conceptos anteriormente adquiridos, construidos o resignificados. En este sentido la
construcción de un mapa conceptual, como una relación jerárquica, organizada y estructurada
de lo que comprendemos en un proceso de lectura, dependerá de la comprensión en términos de
significación que hacemos de lo que estamos leyendo o interpretando; por lo tanto, está
sustentado en lo que ya se sabe sobre el asunto. Por esta razón no hay mapas conceptuales
iguales, cuando los elaboran individuos diferentes. De acuerdo con Novak [16], las características
de un buen mapa conceptual son:
▪ Jerarquización. Para jerarquizar es necesario ordenar los conceptos más generales e
inclusivos en la parte superior y, mediante una diferenciación progresiva, en la parte
inferior se ubican los conceptos más específicos [16].
▪ Impacto visual. El mapa se debe elaborar con tal pulcritud que se contemple limpieza,
espacios, claridad, ortografía, por eso se debe diseñar varias veces hasta corregir todos los
errores que se puedan presentar. También se recomienda usar óvalos, ya que son más
agradables a la vista que los triángulos y los cuadrados [16].
▪ Simplificación. Igualmente, el mapa debe presentarse de manera simple de tal manera que
se escojan los conceptos más importantes, haciendo una diferenciación del contenido y
localizando la información central de la que no lo es para una mejor comprensión. Esos
conceptos deben relacionarse con palabras de enlace o conectores lógicos, que darán
sentido a nuevas relaciones conceptuales. Por tanto, se puede decir que los mapas
conceptuales fomentan la creatividad y facilitan la participación [17].

Por otro lado, existen los mapas mentales que son diagramas utilizados para representar
palabras, ideas, tareas, u otros conceptos ligados y dispuestos radialmente alrededor de una
palabra clave o de una idea central. Se utiliza para generar, visualizar, estructurar y clasificar
taxonómica las ideas, además, como ayuda interna para el estudio, organización, solución de
problemas, toma de decisiones y escritura [22]. Estas representaciones se realizan de acuerdo
con relaciones de orden semántico, donde las conexiones se presentan de manera radial, no
lineal, para estimular un acercamiento reflexivo para cualquier tarea de organización de datos,
eliminando el estímulo inicial de establecer un marco conceptual intrínseco apropiado o
relevante al trabajo específico [22].
Estos mapas son similares a una red semántica o modelo cognoscitivo, pero sin restricciones
formales en las clases de enlaces usados. Los elementos se arreglan intuitivamente, según la
importancia de los conceptos, y se organizan en agrupaciones, ramas o áreas, en una forma
gráfica que puede ayudar a la memorización. Son un diagrama que se construye de manera
personal o grupal y sistematizada, utilizando palabras clave, colores, lógica, ritmo visual,
números e imágenes. Se centran en conceptos y se estructuran de manera jerárquica, iniciando
con los conceptos gruesos y descendiendo a los particulares con conectores específicos
(proposiciones). Un mapa mental no tiene una estructura o un orden preestablecido, puede
constar de una palabra o imagen central o concepto, en torno a la cual se dibujan entre cinco y
diez ideas principales que se refieren a la misma. Luego, a partir de cada palabra derivada, se
dibujan a su vez otras cinco o diez ideas principales que se refieren a cada una de ellas [22].
Aparentemente, ambos mapas son similares, pero las dos herramientas, aunque ayudan al
procesamiento de la información y favorecen la comprensión y los procesos cognitivos
necesarios para aprender de manera segura, cumplen funciones diferentes en el proceso
metacognitivo. De acuerdo con Tamayo [22], el mapa mental busca y exige imágenes para su

36
construcción, con funciones variadas, algunas nemotécnicas y otras para reducir las palabras
manteniendo un concepto o idea compleja y para buscar nuevas conexiones. Las imágenes
conectan rápidamente con otras ideas afines, por lo que parte de la potencia del mapa mental
está en su capacidad visual de generar nuevas conexiones y retener las ideas en el hemisferio
visual del cerebro. En otras palabras, un mapa mental es una forma de equilibrar las ideas con
dibujos, números y muchas otras cosas [22].

2.3 Estrategias didácticas del ABP

De acuerdo con la teoría del aprendizaje significativo [20], los aportes de Novak [16] y Novak y
Gowin [17] las estrategias didácticas para potenciar la enseñanza basada en problemas son:
▪ De sensibilización: relatos de experiencias, visualizaciones, contextualizaciones.
▪ Para favorecer la atención: comunidades de indagación, ejemplificaciones, ilustraciones,
anécdotas.
▪ Para favorecer la adquisición de la información: presentación de objetivos, organizadores,
elementos de anclaje, mapas mentales, cartografía conceptual.
▪ Para favorecer la personalización de la información: articulación del proyecto de vida,
facilitación de la iniciativa y la crítica.
▪ Para la recuperación de la información: redes semánticas, lluvia de ideas.
▪ Para favorecer la cooperación: aprendizaje en equipo, investigaciones en equipo, grupos
colaborativos, técnicas de comunicación (foros, debates, Phillips 6-6).
▪ Para favorecer la transferencia de la información: pasantías (visitar empresas, organizaciones),
práctica empresarial o social,
▪ Para favorecer la actuación: simulaciones, estudio de casos [15].

Por su parte, Palomino [15] plantea algunos principios para tener en cuenta en la selección de una
estrategia didáctica:
1. Actividad: Posibilitar la participación del estudiante
2. Reflexividad: El estudiante debe ser capaz de reflexionar sobre el qué, para qué, cómo, cuándo,
por qué.
3. Inclusión: Los estudiantes deben trabajar integrados desde los diferentes niveles de
competencia.
4. Adecuación: Debe ser adecuada para las características de los estudiantes.
5. Pertinentes: Debe responder a situaciones y conocimientos del mundo real.
6. Congruencia: Debe tener una estrecha coherencia con las competencias.
7. Motivación: Debe contener aspectos curiosos, retadores, creativos y novedosos.

Referencias

[1] Klafki, W. (1976). Zur Verhaltmis Zwischen Didaktik und Nfethodik. Zeitscrift fuer Paedagogik 22, pp. 23-
35.
[2] Speck, J. & Wehle, G. (1981). Conceptos fundamentales de pedagogía. Barcelona: Herder.
[3] Kalfki. W. (1995). On the problem of teaching and learning contents from the standpoint of critical-
constructive Didaktik. In Gundem, B. & Hopmann, S. (Eds.), Didaktik and/or Curriculum (pp. 187-200).
Berlin: Kiel.
[4] Runge, A. (2008). Ensayo sobre pedagogía. Bogotá: Universidad Pedagógica Nacional.

37
[5] Giroux, H. (1990). Los profesores como intelectuales - Hacia una pedagogía crítica del aprendizaje.
Barcelona: Paidós.
[6] Du, X. (2009). Research on PBL Practice on Engineering Education. Netherlands: Sense.
[7] Coll, C. (1991). Aprendizaje escolar y construcción del conocimiento. Buenos Aires: Paidós.
[8] Bermejo, F. & Pedraja, M. (2008). La evaluación de competencias en el ABP y el papel del portafolio. En
García, J. (Ed.), El aprendizaje basado en problemas en la enseñanza universitaria (pp. 91-111). Murcia:
Editum.
[9] Pozo, J. (2009). Adquisicón del conocimiento. Madrid: Morata.
[10] Arnaiz, P. (2011). Experiencias de innovación educativa. Zaragoza: Books Google.
[11] Barrows, L. (1986). La enseñanza basada en problemas. Madrid: Morata.
[12] Bronckart, J. (2006). La transposición didáctica en las intervenciones formativas. En Faundez, A., Mugrabi,
E. & Sánchez, A. (Eds.), Desarollo de la educación y educación para el desarrollo integral (pp. 33-55).
Medellin: Editorial Universidad de Medellin.
[13] Van Dick, T. (1978). La ciencia del texto. Buenos Aries: Paidós.
[14] Avanzini, G. (2008). La pedagogía hoy. México: FCE.
[15] Palomino, W. (2003). El diagrama V de Gowin como estrategia de enseñanza. Cusco: Quillabamba.
[16] Novak, J. (1998). Learning, creating, and using knowledge: Concept Maps as facilitative tools in schools and
corporations. New York: Mahwah.
[17] Novak, J. & Gowin, B. (2004). Aprendiendo a aprender. Madrid: Casa del libro.
[18] Moreira, M. (2003). Contribuciones a la enseñanza de las ciencias básicas. Barcelona: Moreira.
[19] Mellado, V. & Carracedo, D. (1993). Contribuciones de la filosofía de las ciencias a la didáctica de las
ciencias. Enseñanza de las ciencias 11(3), pp. 331-339.
[20] Ausubel, D. (1983). Aprendizaje significativo. México: Tirillas.
[21] Escudero, C. (2002). Resolución de problemas de cinemática en nivel medio: Estudio de algunas
representaciones. Revista Brasilera de Pesquisa en Educacao em Ciencias 2(3), pp. 5-25.
[22] Tamayo, J. (2008). Los mapas mentales como estrategias metacognitivas. Manizales: Universidad Nacional
de Colombia.

38
CAPÍTULO 4

El Aprendizaje Basado en Problemas y la Geoinformática


Helena Pérez G.
Carlos A. Castro C.
Yuliana Castrillón M.

1. Introducción

A partir de las consideraciones realizadas por Barrows [1], el desarrollo de problemas para la
aplicación de las metodologías ABP tienen dos características principales: la taxonomía y los objetivos
de aprendizaje. El primero considera la forma de estructuración o presentación de los hechos y el grado
de intervención del profesor en el desarrollo o solución del problema, mientras que el segundo se
concentra en las habilidades, capacidades o conocimientos que deben desarrollar los estudiantes.
▪ La taxonomía. Desde la taxonomía de los problemas se señala el grado de estructuración como la
forma en que se presenta el problema. Puede existir problemas altamente estructurados y con
alto grado de detalles, hasta problemas que no presentan datos y dejan a cargo del estudiante su
definición como requisito previo para el análisis y la solución. Uno de los objetivos de este libro
es presentar problemas diversos, desde los altamente estructurados hasta los poco
estructurados. Los primeros tienen mayor énfasis en el aprendizaje de las herramientas y
conceptos fundamentales y los otros en el manejo de conceptos más profundos.
Algunos de estos problemas estarán altamente estructurados, cuya redacción orienta al
estudiante a seleccionar los conceptos y las herramientas que le permitirán el análisis y la
obtención de una solución. Estos problemas deben sugerirle al estudiante, para obtener una
solución, la revisión de conceptos previos, introducir conceptos básicos del tema a tratar y
desarrollar habilidades en el uso de las herramientas. Además, se le presentará el algoritmo y los
recursos necesarios (imágenes, videos, links). Adicionalmente, al finalizar se plantean preguntas
o retos que orienten al estudiante a la aplicación de los conceptos y herramientas en problemas
más complejos en otros contextos y preparar, de manera propedéutica, el escenario para nuevos
conceptos y uso de nuevas herramientas.
Los problemas medianamente estructurados incluyen una redacción consistente, en la que se
expone los requisitos más importantes (funcionales y no-funcionales) y, en el proceso de
solución, se muestra los elementos algorítmicos más importantes y los conceptos fundamentales.
Se sugiere al estudiante la revisión de conceptos previos y se muestra el uso de algunas
herramientas, con los resultados principales, pero sin mostrar todo el algoritmo, ni todos los
recursos, porque él debe indagar en bases de datos, libros y la web. Igualmente, el problema se
finaliza con preguntas o retos que orienten al estudiante a la aplicación de los conceptos y
herramientas en problemas más complejos.
En los problemas poco estructurados se plantea los requisitos de manera muy general y, en
ocasiones, ambiguos. Se parte de un problema que se supone requiere de un componente
geoinformático para su solución y de una base conceptual sólida para analizarlo, así como un
conjunto de herramientas para encontrar una solución. En este tipo de problemas poco
estructurados la primera tarea del estudiante es identificar el problema a resolver, para lo cual
se le presenta una solución con base en elementos conceptuales y se invita a usar herramientas
para verificar los resultados y, se finaliza con preguntas o retos.

39
La otra variante taxonómica es la dirección del profesor y que se puede enmarcar en controlar
todo el flujo de información y la solución del problema, hasta el caso donde orienta y estimula el
proceso reflexivo, buscando que la selección de la información y el descubrimiento teórico-
conceptual, necesario para la solución de los problemas, esté a cargo de los estudiantes. Los
problemas que se presentan en este libro se clasifican según el esquema de la Figura 1. Además,
a través de la taxonomía del problema se sugiere, desde la forma como se estructura, cuál sería
la manera más apropiada de ponerlo en práctica con un grupo de estudiantes, debido a que se
tiene en cuenta el grado de intervención del profesor y del estudiante.

Figura 1. Clasificación taxonómica de problemas. Adaptado de [1]

▪ Los objetivos de aprendizaje. En cuanto los objetivos de aprendizaje y el alcance que se pretende
con la aplicación del problema se pueden encontrar diversas variantes, de acuerdo con el área
de conocimiento en el que se quiere aplicar la metodología ABP y, tal como se expresa en el
capítulo anterior, esto se evidencia en el diseño didáctico y en la complejidad de las preguntas
que se plantean en el problema. De acuerdo con los criterios de calificación que presentan Duffy
y Cunningham [2], desde el diseño didáctico y lo que se pretende con la aplicación del problema,
se persiguen varias intencionalidades:
▪ Problemas de guía u orientación: Diseñados simplemente para focalizar la atención del
estudiante en los conceptos centrales del curso.
▪ Problemas para evaluación o examen: Examen de problemas en los que los estudiantes
aplican los conocimientos adquiridos en la asignatura
▪ Problemas para ilustrar principios, conceptos o procedimientos: Se trata de problemas que
propone el profesor como ejemplos o situaciones concretas, que hacen que el estudiante,
inductivamente, descubra explicaciones, definiciones o procesos.
▪ Problemas para fomentar el razonamiento y comprensión de contenidos de la asignatura: Se
trata de problemas utilizados para estimular y entrenar habilidades cognitivas de
razonamiento, análisis y síntesis de la información contenida en el temario.

Aunque la propuesta del ABP nació en los contextos médicos, con el tiempo se ha adaptado a
otras disciplinas, pero mantiene la orientación de Barrows [1] en relación con los objetivos de
aprendizaje perseguidos. En el caso de este libro se realiza una interpretación de estos objetivos
a partir de la propuesta de Barrows [1] y Viscarro y Juárez [3], de tal manera que se pueda aplicar
a la geoinformática y considerando cuatro directrices principales:
1. Orientar el trabajo a construir el conocimiento que hay que poner en práctica, es decir, el
conocimiento funcional, en la acepción de Biggs [4], característico de cada profesión.
2. Desarrollar las actividades cognitivas necesarias en el campo profesional de referencia:
resolución de problemas, toma de decisiones, generación de hipótesis, etc.
3. Desarrollar estrategias de aprendizaje y, de forma especial, de naturaleza metacognitivas
o de autodirección, centradas en lo que hace el aprendiz en contextos nuevos [5].
4. Motivar a los estudiantes con problemas desafiantes que requieren una acción inmediata
y contextualizada, una solución que se busca de forma autodirigida.

40
El segundo componente de los objetivos de aprendizaje es el tipo de tarea que se pretende que
desarrollen los estudiantes y, desde este punto de vista y siguiendo la propuesta de Viscarro y
Juárez [3], se pueden clasificar en:
1. Tareas de discusión. Lo que se busca es una reflexión crítica y no necesariamente la solución
del problema y, dado que el foco está en la discusión de diferentes puntos de vista, la
redacción del problema debe incitar a la discrepancia conceptual o teórica.
2. Tareas estratégicas. El objetivo de estas tareas es enseñarles a los estudiantes a tomar
decisiones racionales sobre la base del conocimiento y la comprensión de procesos y
situaciones. El énfasis se encuentra más en la toma de decisiones que en la explicación de
los procesos [3].
3. Tareas de estudio. Se busca que el estudiante desarrolle determinados temas de forma
independiente y que utilice los conceptos asimilados para dar explicaciones sobre la tarea
realizada en la solución del problema; hace énfasis en los conceptos y las teorías a ser
aplicados.
4. Tareas de aplicación. Son problemas que desarrollan el hacer y, por lo general, se trata de
propuestas donde las tareas están estructuradas y claramente dirigidas, en las que se
pretende que los temas, conceptos y enfoques, asimilados por los estudiantes, se pueden
aplicar en diferentes contextos.

Para representar de manera esquemática los objetivos de aprendizaje en cada uno de los
problemas que se presentan en este libro, en la Figura 2 se incluye al inicio de cada problema,
donde se señala el alcance desde el tipo de pregunta que se va a resolver y cuál es la tarea se
pretende que los estudiantes desarrollen para adquirir las competencias en geoinformática.

Figura 2. Componentes de los objetivos de aprendizaje, el alcance y la tarea

Al inicio de cada problema se presenta un encabezado en el que se muestra el grado de


estructuración del problema y el acompañamiento sugerido para su desarrollo, así como el
alcance del tipo de preguntas formuladas y las tareas que se deben realizar durante la solución.

2. Herramienta de apoyo para la interpretación y análisis de problemas

En este texto, y como quedó claro en el capítulo anterior, se utiliza el diagrama V de Gowin [6] o V
Heurística como estrategia para la interpretación y el análisis, donde se presenta los elementos
principales en términos conceptuales y metodológicos, según las características del problema y el nivel
de estructuración. La cantidad de elementos que se desarrollan en el diagrama inicial de cada problema
dependerá de la intencionalidad del autor; en algunos casos se deja para que el estudiante haga el
ejercicio de completar algunos elementos del diagrama y su grado de completitud dependerá de la
taxonomía y los objetivos de aprendizaje indicados por el mismo. La forma de abordar la elaboración
del diagrama ya se explicó anteriormente y, a manera de ejemplo, en la Figura 3 se presenta uno
estructurado para el problema mapa como herramienta de comunicación. Este ejemplo corresponde a
un problema altamente estructurado y muy dirigido que pretende tareas de aplicación, además, en el
diagramase presentan todos sus elementos.

41
Figura 3. Ejemplo de diagrama V como herramienta de apoyo para la interpretación de problemas

Adicional a la taxonomía, los objetivos de aprendizaje y el diagrama, en el encabezado de cada


capítulo siguiente se identifica la información requerida para su solución, además de las herramientas
SIG que sugeridas por el autor. Cabe anotar que la solución que se presenta en el libro es un ejemplo
de cómo se puede resolver y no significa que sea la única opción de solución posible. Además, desde el
punto de vista de la geoinformática se debe garantizar la fiabilidad de los resultados obtenidos, pero
no existen procedimientos únicos para lograrlos.

2.1 Formulación y estructuración del problema

El Aprendizaje Basado en Problemas depende, como su nombre lo indica, de los problemas que se
van a resolver y, ya que el objetivo es que los estudiantes adquieran competencias específicas a través
del desarrollo de los mismos, es necesario garantizar que cumplen unas características mínimas que
garanticen los objetivos de aprendizaje y las tareas necesarias según las competencias seleccionadas.
Por otro lado, al elaborar un problema se debe indicar como mínimo: 1) los objetivos de aprendizaje
que se persiguen, haciéndolos coherentes con el tipo de pregunta que se propone; 2) el tipo de tarea
más adecuado para alcanzar esos objetivos; y 3) el formato en que se propondrá a los estudiantes el
problema: relato, representación, vídeo, muestra de trabajo, auto registros, etc. A continuación, en la
Tabla 1 se presenta un formato sugerido por los autores para evaluar la formulación y estructuración
de los problemas planteados, como parte de una estrategia ABP.
Tabla 1. Formato para evaluar la calidad y estructura de los problemas
Lista de chequeo: Requisitos de los problemas a desarrollar para la aplicación de las metodologías ABP
Institución
Nombre del problema
Fecha de aplicación
Nombre del autor
Contacto
REQUISITOS
Cumple
Problema efectivo Observaciones Recomendaciones
Sí No Parcial
¿El problema es de interés para el estudiante y para la industria?
¿El problema requiere cooperación por parte de equipos de trabajo?
¿El problema requiere de justificación y explicación de suposiciones?
¿El problema requiere toma de decisiones por parte de los estudiantes?
¿El problema motiva a comprender nuevos conceptos?
¿El problema relaciona el tema con el entorno, con preguntas iniciales
motivadoras, que generan controversia, vínculos con conocimientos
previos y se puedan encontrar varias respuestas y soluciones?

42
Fases del diseño de cada problema
¿Se escribe un primer bosquejo del problema?
¿Se determina la disponibilidad de recursos?
¿El problema contiene documentos o archivos complementarios (bases
de datos) bien editados?
¿El problema contiene las respectivas referencias de la investigación e
información recopilada?
TAXONOMÍA: Variante 1. Grado de estructuración del problema
Cumple
Completamente estructurados Observaciones Recomendaciones
Sí No Parcial
¿El problema incluye una redacción consistente en la que se exponen
los requerimientos más importantes (funcionales y no funcionales)?
¿La redacción del problema orienta al estudiante en cómo seleccionar
conceptos y herramientas que le permitan analizarlo y solucionarlo?
¿El problema sugiere al estudiante la revisión de conceptos previos?
¿El problema desarrolla habilidades en el uso de las herramientas para
obtener una solución?
¿El problema presenta el algoritmo, los conceptos y los recursos
necesarios (imágenes, videos, links)?
¿El problema presenta carpetas o links donde el estudiante puede
obtener los recursos necesarios para el inicio o desarrollo del ejercicio?
Parcialmente estructurados
¿El problema incluye una redacción consistente en la que se exponen
los requerimientos más importantes (funcionales y no funcionales)?
¿El problema sugiere al estudiante la revisión de conceptos previos?
¿El problema introduce conceptos básicos del tema a tratar?
¿En el proceso de solución se muestran los elementos algorítmicos más
importantes y los conceptos fundamentales?
¿El problema muestra el uso de algunas herramientas con los resultados
principales, pero sin mostrar todo el algoritmo, ni todos los recursos (el
estudiante debe indagar en bases de datos, libros, links…)?
¿El problema presenta carpetas o links donde el estudiante puede
obtener los recursos necesarios para el inicio o desarrollo del ejercicio?
Poco estructurado
¿El problema plantea los requerimientos de una manera muy general y
en ocasiones ambiguos?
¿El problema sugiere al estudiante la revisión de conceptos previos?
¿El problema introduce conceptos básicos del tema a tratar?
¿El problema requiere de una base conceptual sólida para analizarlo?
¿El problema requiere un conjunto de herramientas para encontrar una
solución mediante procesos de modelamiento y simulación?
¿Se presenta una solución del problema, con base en elementos
netamente conceptuales y se invita al estudiante a usar herramientas
para verificar o contrastar los resultados, presentados en tablas y/o
gráficos?
TAXONOMÍA: Variante 2
Grado de intervención del profesor en el desarrollo o solución Sí No Observaciones
Dirigido por el profesor: Se controla todo el flujo de información por
parte del docente y se orienta la solución del problema.
Parcialmente dirigido por el profesor y el estudiante: Ambos actores
intervienen en la selección de la información y la construcción del
concepto para llegar a la solución del problema.
Dirigido por el estudiante: Se orienta y estimula el proceso reflexivo
buscando que la selección de la información y el descubrimiento teórico
y conceptual, necesario para la solución de los problemas, esté a cargo
de los estudiantes.
OBJETIVOS DE APRENDIZAJE: Componente 1
Intencionalidades Sí No Observaciones
Problemas de guía u orientación: Diseñados simplemente para focalizar
la atención del estudiante en los conceptos centrales del curso.
Problemas para evaluación o examen: Examen de problemas en los que
los estudiantes aplican los conocimientos adquiridos en la asignatura.

43
Problemas para ilustrar principios, conceptos o procedimientos: Se trata
de problemas que propone el profesor como ejemplos o situaciones
concretas que obligan a que el alumno inductivamente descubra
explicaciones, definiciones o procesos.
Problemas para fomentar el razonamiento y comprensión de contenidos
de la asignatura: Se trata de problemas que se utilizan para estimular y
entrenar habilidades cognitivas de razonamiento, análisis y síntesis de
la información contenida en el temario.
Complejidad de las preguntas planteadas en el problema
Preguntas proposicionales. Descriptivos, caracterizadores.
Preguntas procedimentales: establecer la relación del saber hacer.
Preguntas teóricas: fundamentar el qué con el hacer.
Preguntas Metateóricas: fundamentar epistémicamente el cómo y el qué
OBJETIVOS DE APRENDIZAJE: Componente 2
Tipo de tarea a desarrollar Sí No Observaciones
Tareas de discusión: Lo que se busca es una reflexión crítica y no
necesariamente la solución del problema, el foco está en la discusión de
diferentes puntos de vista, por lo que el problema en su redacción debe
incitar a la discrepancia conceptual o teórica.
Tareas estratégicas: El objetivo de las tareas estratégicas es enseñar a
los estudiantes a tomar decisiones racionales sobre la base del
conocimiento y la comprensión de procesos y situaciones. El énfasis se
encuentra más en la toma de decisiones que en la explicación de los
procesos.
Tareas de estudio: Busca que el estudiante desarrolle determinados
temas de forma independiente y utilice los conceptos asimilados para
dar explicaciones sobre la tarea realizada en la solución del problema,
hace énfasis en los conceptos y las teorías a ser aplicados.
Tareas de aplicación: Son problemas que desarrollan el hacer, por lo
general se trata de propuestas donde las tareas están estructuradas y
claramente dirigidas, se pretende la aplicación en diferentes contextos
de los temas, conceptos y enfoques asimilados por los estudiantes.
Sugerencias del autor
Medios sugeridos para la sensibilización de los estudiantes frente al
problema.
¿El problema finaliza con preguntas o retos que orienten al estudiante a
la aplicación de los conceptos y herramientas en problemas más
complejos, en otros contextos y preparar el escenario para nuevos
conceptos y uso de nuevas herramientas (de manera propedéutica)?

Referencias

[1] Barrows, L. (1986). La enseñanza basada en problemas. Madrid: Morata.


[2] Duffy, T. & Cunningham, D. (1996). Constructivism: Implications for the design and delivery of instruction.
New Jersey: Lawrence Erlbaum Associates.
[3] Vizcarro, C. & Juárez, E. (2008). ¿Qué es y cómo funciona el aprendizaje basado en problemas? En García, J.
(Ed.), La metodología del aprendizaje basado en problemas (pp. 17-36). España. Universidad de Murcia.
[4] Biggs, J. (1999). Teaching for quality learning at university. Buckingham: Open University Press.
[5] Biggs, J. (2005). Calidad del aprendizaje universitario. Madrid: Narcea.
[6] Novak, J. & Gowin, B. (2004). Aprendiendo a aprender. Madrid: Casa del libro.

44
PARTE III

ADQUISICIÓN Y EDICIÓN DE GEODATOS

Conoce el clima, conoce el terreno y tu victoria estará completa.


Sun Tzu (≈500 AC)

La adquisición y edición de geodatos es un proceso mediante el cual se levantan los requerimientos


de información, utilizando tecnologías tales como Sensoramiento Remoto (GNSS) (teledetección,
cámaras métricas digitales, etc.) o Personal Digital assistant (PDA) con software para la captura directa
de datos en campo y que incluyen capacidades para SIG. Para que los datos sean útiles deben cumplir
con los estándares de calidad y las condiciones mínimas exigidas por la solución del problema, esto
incluye procesos de topología, escala y precisión, entre otros. En esta Parte III se presenta, analiza y
propone la solución a cuatro problemas con diferentes niveles de estructuración, incorporando el
Aprendizaje Basado en Problemas como guía metodológica.

45
CAPÍTULO 5

Problema 1. Edición de geodatos


Claudia E. Durango V.
Helena Pérez G.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Editor de ArcGis, Merge, Clip, Cut, Reshape, Autocomplete Capa información catastral predial, Propuesta de modificación
sobre los predios

46
1. Planteamiento del problema

La información geográfica cuenta con diversas fases para su producción, la primera es la adquisición
de geodatos para el sistema y, dependiendo de la fuente de los datos, se puede realizar utilizando
diversos métodos: ortofotos, GPS, compra de información preexistente, digitalización, entre otras. Los
proyectos de Sistemas de Información Geográfica o de Geoinformática requieren la producción de
mapas y obtener resultados de análisis espaciales, para lograrlo el principal insumo son los geodatos,
que deben contar con la calidad y las características adecuadas según las especificaciones de cada
proyecto a desarrollar.
La calidad de los geodatos puede variar debido a errores humanos a la hora de levantar la
información primaria, errores propios de los instrumentos utilizados o errores aleatorios propios de
los fenómenos que se quieren representar [1]. Una buena práctica en SIG involucra la administración
de la calidad de los datos, y el principio detrás de la misma es interceptar los errores antes de que se
vuelvan parte de la base de datos espacial y se propaguen, degenerando los datos almacenados en ella.
El proceso de edición de datos o limpieza de la información consta de la corrección de los errores, el
ajuste de las proyecciones y sistemas de coordenadas, los procesos de transformación y generalización,
el ajuste de bordes y límites entre capas y culmina con la actualización de la base de datos espacial [2].
El objetivo de este problema es realizar la primera parte del proceso de edición de datos, que
corresponde a la corrección de errores o preparación de los datos para la actualización de la base de
datos catastral a partir de algunos predios que fueron modificados. Se busca revisar y ajustar la
información suministrada en términos de exactitud, consistencia y completitud. Para la identificación
de errores existen métodos manuales y automáticos, lo mismo que para el proceso de edición y
modificación de los datos, para que se ajusten a los estándares de calidad requeridos; igualmente, estos
procesamientos se pueden realizar con ayuda de las herramientas disponibles en el software SIG [3].
Los principales elementos que revisar son la geometría, la topología y los atributos y, para realizar los
ajustes, generalmente es conveniente establecer protocolos o procedimientos planeados; además, para
buscar la eficiencia y que la revisión garantice la calidad, se recomienda tener presente las condiciones
de calidad sugeridas en la Norma ISO 19157:2013.
Por otro lado, el control catastral de las ciudades se necesita para conocer la distribución de los
predios, por lo que una de las tareas fundamentales en las oficinas catastrales es la actualización de
fichas catastrales, en caso de rectificación de áreas y/o linderos, integración o re-parcelamiento. El
proceso es necesario para mantener actualizada la información catastral de los inmuebles y la
consecuente emisión de la cédula catastral y la cancelación de impuestos, ambos adecuados a las
características físicas del inmueble. Para ello se requiere contar con la ficha de visita de campo por
parte del funcionario, donde se pueda identificar la actualización del inmueble y la base de datos que
contenga la capa temática donde estén los predios objeto del proceso de actualización.
En este problema se analiza la situación del señor Castaño, quien compró un lote (Figura 1), en el
que posteriormente realizó un proyecto con varias edificaciones, vías y parques internos, además
subdividió una parte para que cada uno de sus hijos construyera su vivienda (Figura 2). Debido a todo
esto se requiere realizar la actualización de la base de datos espacial, de acuerdo con las nuevas
características de la propiedad. Para lograrlo, se deben contar con la nueva información del inmueble.
Para que el lote adquirido inicialmente sea apto para la propuesta urbanística que se quiere
desarrollar, fue necesario comprar cinco lotes que se ubicaban dentro de la misma manzana, marcados
con los números 1, 2, 3, 4 y 5 en la Figura 1. Adicionalmente, se eliminaron todos los elementos que
dividían la nueva propiedad, tales como la vía de acceso entre el lote 1 y el original, buscando que no
quede ningún espacio desaprovechado y para que el lote sea un polígono que incluya toda el área
disponible. Las nuevas construcciones se entregan en una capa nueva elaborada por el propietario y

47
las nuevas subdivisiones se registraron en un plano que se adjuntó a la ficha catastral producto de la
visita de campo.

Figura 1. Vista general de inmueble Figura 2. Vista general del proyecto

2. Desarrollo del problema

Lo primero que se requiere en la edición del geodato es la integración de los predios que rodean el
proyecto del señor Castaño, debido a que realizó la compra de ellos. Se observa en la base de datos
espacial que algunos solamente se integran realizando una unión geográfica y tabular de sus elementos,
en otros casos se requiere una adición de elementos geográficos, porque no deben aparecer espacios
vacíos en la base de datos espacial. A continuación, se presenta los pasos básicos para realizar este
proceso.
1. Luego de abrir ArcMap y cargar la capa a editar, se inicializa la edición de elementos cartográficos
y se activa la edición de elementos geográficos, tal como se observa en la Figura 3.

Figura 3. Inicio de la edición para la capa de interés

2. Seleccionar los elementos geográficos necesarios para unificar el predio. Unificar los elementos
geográficos y tabulares, utilizando la herramienta Merge (Figura 4). Esta herramienta permite
integrar dos o más features seleccionados en la misma capa temática.

48
Figura 4. Selección de los lotes a unificar y aplicación de la herramienta Merge

3. Antes de realizar la unificación de los elementos geográficos y tabulares se debe seleccionar, con
la ayuda de la herramienta (Figura 5), el elemento que conservará la tabla de atributos.

Figura 5. Menú para seleccionar de la tabla de atributos lo que se desea conservar

4. Realizar el proceso con los elementos restantes requeridos. Para el caso del ejercicio, se requiere
unificar cuatro elementos adicionales al predio principal del señor Castaño.
5. Ahora se debe unificar el quinto elemento, que se diferencia con los anteriores en que tiene un
espacio adicional entre los dos predios. Para eso, primero se crea un elemento ficticio entre
ambos para luego proceder con la unificación. En este caso se utiliza la herramienta Trace (Figura
6), que permite crear partes geográficas en capas existentes, haciendo que los bordes del nuevo
elemento coincidan exactamente con el borde existente. Otras herramientas que se pueden
utilizar para llenar los vacíos son Reshape o Autocompletar.

Figura 6. Llenado de espacios después de la unificación de polígonos

49
6. Después de tener el lote unificado y corregido desde el punto de vista de vacíos y topología, se
procede a realizar la nueva división utilizando la herramienta Cut (Figura 7), con la que también
se pueden realizar los cortes de las vías.

Figura 7. Uso de la herramienta Cut para división de lotes

7. Luego de realizar los cortes necesarios para definir los nuevos lotes y las áreas de las vías, se
procede a incluir las edificaciones que se encuentran dentro en la capa del lote, de tal manera
que se evite la sobre posición de polígonos y la duplicidad de las áreas; para esto se recomienda
la herramienta Clip del editor con la que se eliminan las áreas duplicadas.

3. Reto

▪ De acuerdo con el proceso de actualización catastral, realizar la revisión de calidad y los ajustes
necesarios para el componente atributivo de los datos geográficos.

Referencias

[1] Campbell, J. & Shin, M. (2012). Geographic Information System Basics. Online [Feb 2016].
[2] Heywood, I., Cornelius, S. & Carver, S. (2006). An introduction to Geographical Information Systems. UK:
Pearson.
[3] De By, R. (2001). Principles of geographic information systems, an introductory textbook. The Netherlands:
The international Institute for Aerospace Survey and Earth Science.

50
CAPÍTULO 6

Problema 2. Análisis de la calidad de los datos


Helena Pérez G.
Yuliana Castrillón M.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Barra de herramientas de edición y edición avanzada, Field Información cartográfica a la que se le deba realizar análisis
Calculator, Merge, Delete Vertex, entre otros de calidad

51
1. Planteamiento del problema

Los proyectos con énfasis en el análisis territorial comienzan con la evaluación de la información
cartográfica disponible, para determinar los datos espaciales y los atributos que pueden ser utilizados
y que se requieren para realizar los análisis planteados. No es suficiente realizar la evaluación
solamente a nivel de existencia de los datos, también se debe realizar a la calidad de los mismos debido
a que son útiles en la medida que su calidad sea suficiente para permitir que los análisis sean correctos.
Esto se necesita porque los datos disponibles para los análisis deseados frecuentemente presentan
errores de topología, de digitación, de superposición de unos con otros, de extremos libres, de cruces,
de integridad de los atributos de las capas, de escala, de geometría, entre otros.
La calidad de los datos está determinada por la exactitud, la precisión y el error y, según la norma
ISO 19157:2013, los componentes de calidad de los datos son: exactitud posicional, exactitud temática,
consistencia lógica y temporalidad. Además, para evaluar la información cartográfica hay que tener en
cuenta el conjunto de reglas topológicas establecidas como condiciones o estándares para evaluarla.
Por otro lado, los datos georreferenciados deben cumplir con las reglas topológicas, deben ser
geométricamente correctos, deben estar en la escala requerida y deben cumplir con la integridad de
los atributos. Para cualquier conjunto de datos disponibles se debe realizar evaluación de la utilidad y
de la calidad de los datos necesarios para ejecutar el análisis deseado y siguiendo estos pasos básicos:
1. Seleccionar los datos útiles para el análisis deseado.
2. Analizar la calidad de los datos seleccionados, identificar los problemas encontrados y
clasificarlos. Se recomienda condensar la información en un informe de calidad de los datos.
3. Corregir los errores que se puedan mejorar.
4. Diseñar una estructura de datos para almacenar los datos útiles y de buena calidad o corregidos,
con los que se cuente y que sean importantes para el desarrollo del análisis.

Con el adecuado análisis de la calidad de los datos y la corrección de los errores que contienen, se
podrá evitar que el error altere el análisis realizado a través de los sistemas de información geográfica.

2. Desarrollo del problema

2.1 Selección de datos útiles

Para iniciar el análisis de orden territorial el primer paso es revisar que los datos obtenidos sean
útiles para el trabajo a realizar; para esto se debe verificar, entre otras cosas, que los datos o las capas
se encuentren dentro del área de estudio y que sean verdaderamente requeridos para el análisis. Con
esto se obtiene una depuración inicial y se avanza sin temor a invertir esfuerzos en el análisis de la
calidad de información que, posteriormente, no será requerida. En la Tabla 1 se observa un ejemplo de
la selección de datos útiles para la determinación de suelos de protección.
Tabla 1. Selección de datos útiles para la determinación de suelos de protección
Nombre de la capa Archivo Útil
Malla vial Shapefile No *
Amenaza por inundación Shapefile Si
Redes ecológicas Shapefile Si
Amenaza por movimiento en masa Shapefile Si
Acueducto veredal Shapefile Si (No se encuentra en el área de estudio)
Área de estudio Shapefile Si
* Hay que recordar que se debe seleccionar la cartografía básica y la información útil para el análisis, porque la primera debe
ir en el mapa como referencia, aunque no se utilice para el análisis deseado.

52
2.2 Análisis de la calidad de los datos

El segundo paso para realizar el análisis deseado es revisar la calidad de los datos seleccionados,
identificar los problemas encontrados y clasificarlos según el tipo de error; para esto se recomienda
realizar un informe del análisis de la información o informe de la calidad de los datos. En las Figuras 1
a 4 se muestran algunos errores encontrados frecuentemente en los datos; el shapefile de color naranja
corresponde al área de estudio y los demás a otros shapefile que se mencionan en cada figura. En la
Figura 1 se observa dos errores, uno por separación y otro geométrico, en la Figura 2 se evidencia un
error de escala, en la Figura 3 un error por georreferenciación y en la Figura 4 un error de dominio o
error en los atributos del shapefile.

Figura 1. Errores topológicos por separación y geométricos Figura 2. Errores de escala en un shapefile
en un shapefile de red ecológica de movimientos en masa

Figura 3. Errores de georreferenciación en un Figura 4. Error de dominio en un shapefile de


shapefile de movimientos en masa redes ecológicas

2.3 Corrección de los errores encontrados

Para la corrección de errores en la información cartográfica se debe tener en cuenta que los errores
de escala no se pueden correguir y que,, en algunos casos la correción de errores tales como los de
espacios internos entre los poligonos del shapefile, pueden hacer que se altere la información si no se
tiene la necesaria sobre las categorias a las que pertenecen los vacios, o se alteran los bordes de los
poligonos sin criterio, por lo tanto la capa no será util. Errores como los de geometría se puede corregir
usando herramientas del Editor, tales como Merge, Delete Vertex, entre otras (Figura 5). Para la
corrección de errores de dominio en la tabla de atributos, se puede usar la función Field Calculator
(Figura 6). Consultar sobre las herramientas disponibles para la edición de datos tanto desde el punto
de vista geométrico como de atributos.

53
Figura 5. Corrección de error de geometría usando la herramienta Delete Vertex del Editor

Figura 6. Corrección de error de atributos en cuanto a dominios usando la herramienta Field Calculator

El último paso consiste en la estructuración de la información en una base de datos espacial que sea
diseñada siguiendo todas las condiciones técnicas y temáticas para que la información esté disponible
para los análisis espaciales propuestos. Se debe consultar cuales son las condiciones para la
estructuración de una base de datos espacial.

3. Reto

▪ Elaborar el modelo cartográfico y el modelo lógico correspondientes al diseño de la estructura


de datos adecuada para el análisis propuesto.

54
CAPÍTULO 7

Problema 3. Incorporación de información de campo al sistema de información


Sergio A. Giraldo M.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


MapSource (Garmin), From GPS/GPX To Feature, To KML/Layer Puntos levantados en campo, información sobre un amarre
To KML, Export to Shp, Export to Kml geodésico y su levantamiento con GPS en campo

55
1. Planteamiento del problema

Entre las fuentes de información disponibles para los Sistemas de Información Geográfica se
encuentra la información levantada en campo con instrumentos como los GPS. El problema se ubica en
una corporación local que tiene la necesidad de realizar un levantamiento de información
georreferenciada en el Parque Natural Regional Metropolitano, Cerro El Volador. Se cuenta con un
equipo navegador GPS, con el que se debe levantar como mínimo 15 puntos de interés, que identifiquen
los vértices de las infraestructuras más sobresalientes, y 4 puntos de referencia que incluyan el mojón
geodésico N18 Volador. Adicionalmente, se suministra la información de las coordenadas geográficas
del mojón y su ubicación (Figura 1). En resumen, se solicita:
1. Descargar la información del GPS y transformar los datos de formato gpx a shp y luego a kml.
2. Abrir el archivo kml generado y verificar la ubicación de la información levantada en el software
gratuito Google Earth®.
3. Con la información del mojón geodésico realizar un ajuste manual a los puntos del archivo shp.
4. Mostrar, como producto final, el archivo shp en un software de información geográfica (ArcGis®
y/o QGis®) con una imagen de referencia como fondo.

Figura 1. Información del Punto de Referencia Nro. 18 y esquema del Cerro el Volador

En este problema se pretende, a partir de una práctica de campo, incorporar la información a un


Sistema de Información Geográfica y detallar los procedimientos técnicos necesarios para llevar acabo
eficientemente la descarga de la información, además de interactuar con las herramientas geográficas
disponibles en la web al integrar la información obtenida, así como entender que el proceso de captura
de información cartográfica tiene varios momentos que se deben identificar y considerar cuando se
desarrolla una labor técnica real en campo.

2. Desarrollo del problema

2.1 Descargar la información del GPS y transformar los datos

Después de recolectar la información se procede a descargar los datos; para esto se utiliza el
software que recomienda el fabricante del instrumento (MapSource®) (Figura 2), que permite
conectar el dispositivo como si se tratara de un pendrive (memoria USB) y extraer el archivo con la
extensión gpx. Se recomienda guardar la información en un sólo lugar o carpeta para organizarla mejor
y evitar pérdidas de datos. En este ejemplo la información se guarda en la carpeta PNRM_ElVolador.
Luego de obtener el archivo gpx se realiza la transformación a shp (shapefile). En las Figuras 3 a 5 se
describe el procedimiento en el sistema ArcGis® 10.3.

56
Figura 2. Descarga de información almacenada en el navegador GPS

Figura 3. Herramienta en ArcToolbox para adquisición de datos provenientes del GPS

Al activar la herramienta se define el archivo de entrada (Input), que corresponde al gpx descargado
(Ptos_PNRM.gpx), y el de salida (Ouput), donde quedaría el shp, tal como se observa en la Figura 4.

Figura 4. Menú para la conversión de datos gpx a shp en ArcGIS

El resultado es un archivo vectorial de extensión shp con una tabla de atributos que contiene las
observaciones levantadas en campo (Figura 5).

Figura 5. Resultado de la transformación de datos en ArcGis

57
A continuación, se presenta el mismo procedimiento en QGis®2.12.3 Lyon, en la que añade una capa
tipo vectorial donde se selecciona el tipo de archivo que se desea abrir (Figura 6).

Figura 6. Menú para abrir archivos gpx en QGis

Entonces, se selecciona el archivo de tipo gpx para abrir y se elige el tipo de capa dentro de las
opciones que se muestran para él, en este caso waypoint, que son los elementos capturados por el GPS.
Esto se muestra en la Figura 7.

Figura 7. Selección de las capas producto del levantamiento del GPS

Al final se obtiene una capa vectorial (Figura 8) con su respectiva tabla de atributos.

Figura 8. Visualización de los datos levantados con el GPS

A diferencia de ArcGis®, hasta este punto solamente se ha visualizado el archivo gpx; para
transformarlo en un archivo vectorial se debe guardar la información y seleccionar archivo shp de ESRI,
para completar la transformación (Figura 9). El sistema geográfico de referencia en ambas
transformaciones, ArcGis® y QGis®, es WGS84 que corresponde al sistema geográfico de referencia en
las coordenadas geográficas que el GPS tiene configurado.

58
Figura 9. Transformación del archivo gpx a Shp

Por último, se realiza la integración al software Google Earth® del elemento vectorial
Ptos_PNRM.shp, mediante la conversión a la extensión kml (Keyhole Markup Languaje), lo que se logra
de la misma forma que se hizo la transformación anterior. ArcGis®10.3 dispone de una herramienta
ubicada en el ArcToolBox/Conversion Tools/To kml/Layer To kml (Figura 10).

Figura 10. Transformación del shapefile a un kml

Figura 11. Transformación de archivo shp a kml

59
Al activar la herramienta se define el archivo de entrada (Layer) que corresponde a Ptos_PNRM.shp
y el de salida (Ouput File), donde quedará el Kml; recordar cambiar el 0, que por defecto se muestra en
la casilla Layer Output Scale, por 1, correspondiente al valor de exageración vertical que por defecto
tiene Google Earth®. Para QGis® 2.12.3 Lyon el proceso de transformación consiste en pasar una capa
vectorial, en este caso el shp file, a formato kml, usando guardar como (Figura 11). Abrir el archivo kml
generado y verificar la ubicación de la información levantada en Google Earth®. El resultado para
ambos casos es el mismo y se puede observar en la Figura 12.

Figura 12. Despliegue de la capa kml en Google Earth

2.2 Realizar ajuste manual a los puntos del archivo shp con la información del mojón geodésico

Lo primero es transformar las coordenadas del mojón geodésico entregadas, de sexagesimal a


decimal, para lo que se puede utilizar una hoja de cálculo. Con esta información se puede generar una
vista temporal de la ubicación del punto, bajo el mismo sistema de coordenadas del shp, utilizando la
herramienta adicionar datos XY. File/AddXYData (Figura 13).

Figura 13. Generación de una capa de puntos a partir de las coordenadas en una tabla

Esta herramienta genera una vista temporal de la ubicación de acuerdo con las coordenadas del
mojón. El resultado indica que el Punto de referencia 4, correspondiente al dato del mojón en campo,
está desplazado unos metros de la posición real del mojón geodésico, debido a que el GPS mostró un
error aproximadamente de 4 metros para este sitio. Entonces, se realiza una corrección manual de la
ubicación de los puntos, editando la capa y ajustando la posición del de referencia 4, manteniendo
seleccionados todos los demás puntos, de tal forma que al desplazarlo a la posición correcta se ajusten
automáticamente los otros puntos. Inicialmente, y para apreciar la modificación y el ajuste, se revisa
qué tan alejado se encuentran los demás puntos de su real posición, a través de la posibilidad que tiene

60
el software de superponer una imagen fotográfica del área en cuestión (Add Basemap) y luego verificar
si, al ajustar los puntos con la referencia, también se ajustan los demás (Figuras 14 y 15).

Figura 14. Tanque antes y después del ajuste

Figura 15. Piscina antes y después del ajuste

3. Reto

▪ Mostrar como producto final el archivo shp en un software de información geográfica (ArcGis®
y/o QGis®) con una imagen de referencia como fondo.

61
CAPÍTULO 8

Problema 4. Corrección de vacíos de información (voids) a partir de la


aplicación de promedios de diferencia de altura entre superficies de elevación
Oscar D. Quintero Z.
Germán M. Valencia H.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Calculadora Ráster, Ráster to Polygon, Buffer, Symmetrical DEM a utilizar de la zona de los trabajos
Difference, Extract by Mask, Ráster to Point, Extract Values to Fuente complementaria para cálculo del promedio de
Points, Spatial Join, Conexión Access, Point to Ráster, elevaciones (aquí Hi-Res TerrainCorrected de Alos Palsar)
Resample, Mosaic to new ráster

62
1. Planteamiento del problema

En el marco de proyectos ambientales en la República de Colombia, que buscan organizar y


administrar el espacio geográfico mediante la identificación y caracterización física, biótica,
sociocultural, económica y política de los componentes principales de una cuenca determinada, el Plan
de Ordenación y Manejo de Cuencas Hidrográficas (POMCA), se constituye en la herramienta idónea
para gestionar el territorio de estudio. Este programa incorpora normas y directrices para el manejo
de la Cuenca, tal y como lo define el artículo 10 de la Ley 388 de 1997 del Ministerio de Ambiente de
Colombia [1].
Realizar un POMCA en el país demanda trabajo multidisciplinar, diferentes saberes específicos y el
esfuerzo de grupos de especialistas de diversa índole, además, se soporta en contar con una buena y
completa base cartográfica vectorial y ráster como información primaria, así como documentación
suficientemente clara y actualizada de los respectivos metadatos, los cuales brindan todo un contexto
de las condiciones en las que se obtuvo la información. Por lo menos, este es el escenario ideal que todo
interesado quisiera.
Pero es precisamente en este punto, de tener a la mano una adecuada información primaria, en el
que se concentra este problema, más concretamente en contar con un buen Modelo de Elevaciones
(DEM) del espacio geográfico a estudiar, debido a que de este insumo cartográfico se desprende no
solamente las delineaciones respectivas a nivel físico de la cuencas para los posteriores análisis
espaciales y caracterizaciones de las mismas, sino toda una cadena de subproductos cualitativos que
darán cuenta de la temperatura ambiental, los grados y porcentajes de pendiente, la
evapotranspiración potencial requerida por los índices de aridez, la red de drenajes y demás elementos
del área de influencia abordada.
Los algoritmos matemáticos de modelos hidrológicos, tales como los de ArcGIS o MapWindow,
proporcionan métodos para la descripción de los componentes físicos de una superficie continua como
un DEM. Estas herramientas permiten identificar los sumideros, determinar la dirección del flujo,
calcular la acumulación de flujo, delimitar las cuencas hidrográficas y crear redes de drenaje [2]. Sin
embargo, todos los resultados que se desprendan dependen de la naturaleza de continuidad de la
superficie utilizada, y de ahí la necesidad de recibir un DEM acondicionado hidrológicamente como
producto fundamental de inicio del proyecto, pero, generalmente, esta no es la realidad.
También hay que anotar que un DEM es un modelo simbólico, de estructura numérica y digital que
pretende representar la distribución espacial de la elevación del terreno, siendo la altura una variable
escalar (sobre un nivel de referencia) que se distribuye en un espacio bidimensional [3]. Aunque puede
tener orígenes diversos y ser vectoriales, aquí solamente se utilizaran los conformados por la
estructura de filas, columnas y pixel, obtenidos a partir de modelos estereoscópicos producto de tareas
fotogramétricas.
En el proceso se requiere una superficie ráster a la que se minimizan los voids o vacíos de
información, producidos por la presencia de nubes en las tomas aéreas, aumento de sombras, pérdida
de escalas medias de referencia o temas relacionados con el sensor utilizado, así como modificaciones
y cortes realizados erróneamente por los operarios. Todos estos huecos de información y valores no-
data se deben subsanar para que los especialistas en hidrología puedan calcular los parámetros
morfométricos de las cuencas que contiene, así como mapear las pendientes en grados y porcentajes
que no presenten discontinuidades espaciales, producto de errores originados por la estructura
numérica de datos de la superficie utilizada. Adicionalmente, se ha descubierto que, dado que los
problemas de vacíos de información tienen su origen en fuentes primarias tales como las fotografías
aéreas de la zona y demás procesos de manipulación dentro de la cadena de valor del trabajo

63
fotogramétrico, los modelos estereoscópicos utilizados en la restitución han impedido que los
operadores realicen delineaciones de curvas de nivel en estas áreas, por lo que se debe buscar un
método alternativo para satisfacer este requerimiento. Para esto se cuenta con un DEM del Instituto
Geográfico Agustín Codazzi (IGAC), denominado DEM_10.img, con la ficha de especificaciones
cualitativas y cuantitativas que se muestran en la Figura 1.

Figura 1. Resumen técnico de DEM_10.img, tomado del conjunto de datos por medio de la herramienta
LayerProperties de la suite ArcGIS 10.2

Este DEM tiene una profundidad radiométrica de 32bits y un valor de pixel de 10mX10m de lado en
resolución espacial, calidad que permite obtener productos cartográficos en una escala de 20.000 a
25.000, teniendo en cuenta las características de resolución de la imagen y el principio de resolución
detectado. Además, se encuentra correctamente posicionado geométricamente en el Sistema de
Referencia MAGNA, con proyección Gauss origen Central. La escala se sustenta citando al IGAC [4] que
define los procedimientos para la generación de cartografía oficial del país y señala los criterios de
evaluación de las precisiones que se deben garantizar en los productos de acuerdo con su escala. Para
el Instituto, los procesos y los instrumentos utilizados para la restitución fotogramétrica deben ser
tales que los mapas finales cumplan con las siguientes normas mínimas:
▪ Precisión Planimétrica: El 90 % de los puntos extraídos del mapa, con excepción de aquellos que
necesariamente son desplazados por la exageración de la simbología, deben estar localizados dentro
de 0.5 mma escala de plano de sus posiciones verdaderas. El error medio cuadrático
correspondiente es de 0.30 mm a la escala del mapa.
▪ Precisión Altimétrica: El 90 % de las curvas de nivel y de las elevaciones, interpoladas a partir de
dichas curvas de nivel, deben estar dentro del ½ intervalo básico. Si “c” es este intervalo, el error
medio cuadrático es de 0.3 c.

64
▪ Normalmente se adopta que el intervalo básico es de 1mm * Em (siendo Em el módulo de escala), en
cuyo caso el valor de la precisión altimétrica para el 90 % indicado es de 0.5 mm * Em. El error
medio cuadrático correspondiente es de 0.30 mm * Em.
▪ No hay restricción para fijar intervalos de curvas menores, siempre y cuando la norma de precisión
se cumpla. Las precisiones indicadas se refieren al producto final. Cada una de las etapas
intermedias del proceso debe, a su vez, tener precisión suficiente de tal manera que la suma
cuadrática de todas ellas sea igual o menor a la precisión final [4].

Teniendo en cuenta lo anterior y las características cuantitativas del DEM, resumidas en la ficha de
la Figura 1, para la obtención de los productos temáticos a partir de este insumo cartográfico se
interpreta lo dicho anteriormente de la siguiente manera:

Escala Mapa: 1:25000 (requerida en el estudio POMCAS)


Error Horizontal (Eh)= Escala Mapa * 0,0005m
Eh = 25000*0,0005 m = 12.5m (de precisión horizontal)
Desviación Estándar= Escala Mapa * 0,00030 m
De = 25000*0,00030 m = 7,5 m
Pv =25m x ½ = 12,5 m (½ intervalo básico) [5]

Recordando el tamaño de pixel de 10m x 10m de lado del DEM, se puede concluir que su utilidad es
para una escala 25.000, dado que es una fuente mayor a 12,5m. En la Figura 2 se muestra la imagen del
DEM que se va a trabajar.

Figura 2. DEM_10.img. Obsérvese la cantidad de vacíos de información presentes en la superficie

Para la solución de este requerimiento geoinformático es necesario retomar aspectos como la


descarga de datos cartográficos temáticos desde servidores gratuitos y se utilizarán rutinas paso a paso
de las herramientas de las aplicaciones ArcGis, MS Access y MS Excel.

65
2. Desarrollo del problema

Dado que los resultados, solicitados en el requerimiento, dependen de la naturaleza de continuidad


de la superficie utilizada, el hecho de que el insumo presente vacíos con valores no-data representa un
problema serio de partida, que afecta el procesamiento de datos posteriores. De forma concurrente la
solución más común para este tipo de problemas es la aplicación de sentencias lógicas y estadísticas
focales y zonales directamente en la fuente no-data, a partir de datos propios del DEM original. Estas
tareas pueden disimular el problema, pero no impiden que se presenten problemas subsecuentes, tales
como diferencias en los valores de pixel de los bordes e interpolación interna, que hacen que la
interpretación del terreno en dichas zonas sea errónea. Ello se debe a que se presentan dos situaciones:
1. Siempre hay que utilizar el valor de pixel de lado del DEM original.
2. El tamaño de voids es clave. Tamaños por encima de 500m de lado son imposibles de cubrir de
forma correcta por el proceso de interpolación, utilizando el mismo tamaño de pixel del DEM de
partida y la utilización de una celda de menor resolución, es decir, más grande, aunque cubre el
área no-data agrega errores a nivel de componente a las geoformas definidas por el DEM.

En la Figura 3 se muestra la sentencia de estadística focal utilizada en la interfaz del RásterCalculator


de ArcGis. Como se nota, se utiliza el tamaño de celda 10m para una interpolación circular con cálculo
de media sobre el DEM_10.img y en la Figura 4 se presentan los resultados obtenidos en dicho proceso.

Figura 3. Detalle de una sentencia lógica típica que busca realizar una interpolación en las zonas no-data a
partir de valores cercanos

Figura 4. ShadedRelief sobre el DEM original a la izquierda y sobre el DEM resultado de la Estadística focal a la
derecha

66
Utilizando ShadedRelief sobre ambos DEM se percibe lo que alcanza a cubrir este método muy
utilizado en el ámbito cartográfico. El hueco o vacío de datos se redujo, pero no desapareció, y rellenar
ese faltante de datos con este método requeriría cambios al tamaño de la celda, con lo que se recrean
posibled geoformas y pendientes irreales y poco funcionales para los análisis que persigue el ejercicio.
Por eso se necesita una metodología que minimice los errores causados por vacíos de información en
superficies continuas y altimétricas, que no cuenten con fuentes de datos similares como curvas de
nivel o modelos digitales de igual resolución para la zona y que reduzca la discontinuidad espacial y
potencialice la utilización de estos insumos para la obtención de productos derivados en la escala
correcta.

2.1 DEM del área de trabajo

El método comienza rastreando una fuente DEM que cubra el área de los trabajos, por lo que en este
ejercicio se sugiere visitar el sitio https://vertex.daac.asf.alaska.edu/ desde el que, luego de definir la
región geográfica de preferencia y la fecha más reciente, se puede descargar modelos digitales de
terreno en calidad Hi-Res TerrainCorrectedde 12.5m de valor de pixel, del satélite Alos Palsar de la
Agencia Japonesa de exploración aeroespacial. El satélite Alos es un radar de apertura sintética de
banda L, que colecta imágenes de radar en resoluciones espaciales de 50km x 70km de todo el planeta
(Figura 5).

Figura 5. Interfaz de descarga para modelos digitales de terreno

Para el caso de este problema se descarga el DEM Segmento_Zona con la ficha de especificaciones
cualitativas y cuantitativas que se muestra en la Figura 6.

Figura 6. Ficha de especificaciones del DEM Segmento_Zona

67
El primer elemento marcado en este proceso es la diferencia en las elevaciones que presenta cada
DEM sobre un mismo espacio geográfico. Por ejemplo, el de Alos Palsar Segmento_Zona.img está más
elevado sobre el terreno que el DEM_10.img. De hecho, realizando dos análisis básicos, uno de algebra
de mapas buscando la diferencia entre ambos y otro a nivel gráfico haciendo uso de la extensión
ArcScene, se nota que para el primer caso existen discontinuidades del orden de 29m en promedio y,
para el segundo, un perfil de referencia que evidencia el promedio de los datos (Figura 7).

Figura 7. Vista general 3D del comportamiento de las elevaciones desde ArcScene con los perfiles tomados
sobre un mismo sector de ambos DEM. En verde el perfil sobre segmento zona.img y en rojo el DEM_10.img

Posteriormente se continúa con la metodología de corrección de vacíos de información a partir de


la aplicación de promedios de diferencia de altura entre superficies de elevación, cuyo objetivo es
obtener la información del conjunto de datos que no presenta Voids, pero que se encuentra más
elevado, y bajarlo en posición a la capa que presenta discontinuidades espaciales que, a su vez, está
menos elevada y tiene mejor resolución.

2.2 Identificación y separación de los voids del DEM_10.img

Esto se logra utilizando la función ISNULL (es nulo) con la calculadora ráster de ArcGis sobre el
modelo seleccionado, que determina cuáles valores del ráster de entrada son NoData a través de cada
celda individual. Para esto se crea, con antelación, una Personal GeodataBase (PGDB), llamada
ejercicio1.mdben, en la que se consignarán los resultados, como se observa en la Figura 8.

Figura 8. IsNull (es nulo) en la calculadora ráster

El resultado de este proceso devuelve un valor de 1 si el valor de entrada es NoData y 0 para las
celdas que no lo son (Figura 9).

68
Figura 9. Valores tomados por la función IsNull

2.3 Conversión y edición de datos

En este proceso se utiliza la función Ráster to Polygon para pasar la salida IsNull de ráster a vector
(Figura 10), para obtener la capa vectorial denominada IsNull_poly con los ID de cada polígono (Figura
11).

Figura 110. Ráster to polygon

Figura 11. Capa resultante Isnull_poly, con los campos id y gridcode

La capa Isnull_poly se debeeditar por el campo gridcode eliminando los valores Cero (0) y luego
separarlos de los valores uno (1) que, en este caso, representan los espacios No Data o polígonos
correspondientes a los Voids del DEM_10.img (Figura 12).

69
Figura 12. Capa vectorial isnull_poly editada sólo con valores 1 correspondientes a vacíos de información

2.4 Creación del área de influencia entre voids

Aquí se crea un espacio externo entre el borde de la delineación del vacío de información original,
teniendo cuidado de que los anillos resultantes no se toquen entre sí. En el presente problema la
distancia máxima es de 13m; para ello se utiliza la herramienta Buffer aplicada a la capa isnull_poly
(Figura 13).

Figura 13. Isnull_poly_buffer13m; buffer de influencia de 13m

2.5 Creación de corredores de influencia entre capas vectoriales

Estos corredores son una franja común entre las capas isnull_poly e isnull_poly_buffer13m. Las partes
de las características de entrada que no se superpongan serán definidas en la clase de entidad de salida,
que se obtiene utilizando la herramienta SymmetricalDifference (Figura 14).

Figura 14. Aplicación de SymmetricalDifference y obtención de la capa corredor_comuna

2.6 Creación de corredores sobre los dos DEM

Es necesario contar por separado con las dos franjas comunes extraídas de los modelos Digitales
DEM_10.img y Segmento_zona.img, que se logra creando una extracción (ExtractbyMask) utilizando
como fuente cada DEM vs la capa vectorial corredor_comun (Figura 15).

70
Figura 15. A la izquierda, extracción por máscara en DEM_10.img; a la derecha, parte del resultado en el
archivo rástercorredor_10m

2.7 Extracción de información ráster del DEM Segmento_zona.img

A partir de la capa vectorial isnull_poly_buffer13m se realiza una operación para capturar los datos
ráster al interior de estas áreas de influencia, para una contrastación posterior. La tarea se realiza
igualmente con la función ExtractbyMask (Figira 16).

Figura 16. A la izquierda, extracción por máscara en DEM_segmento_zona.img a partir de la capa vectorial
isnull_poly_buffer13m; a la derecha el archivo ráster resultante Extract_asc_SZ

2.8 Definición de la diferencia entre corredores

Se utiliza la calculadora ráster con el fin de establecer la divergencia que existe para la franja o
corredor común entre ambos DEM y el resultado es un archivo tipo ráster diferencia_corredores. Para
evitar valores negativos se debe comenzar por el DEM de menos resolución, debido a que tiene un
número de pixeles más grande (Figura 17).

Figura 17. A la izquierda, cálculo de la diferencia entre corredores con rástercalculator; a la derecha, el archivo
ráster resultante diferencia_corredores

2.9 Creación de malla de puntos para corredores e información ráster

Con la rutina Ráster to Point se crea el archivo vector de puntos RTP_corredor10m, que brinda el
campo gridcode con los datos de la elevación de cada punto en su posición real. Esta misma operación

71
se debe ejecutar sobre el archivo Extract_asc_SZ para luego obtener la capa vectorial tipo punto
RTP_Extract_asc_SZ (Figura 18).

Figura 18. A la izquierda, corredor 10m da la entrada para la conversión a vector; a la derecha, el archivo
vector resultante y el detalle de su tabla de atributos asociada

2.10 Obtención de valores de diferencia en elevación en los corredores

Para saber cuál es el valor de los datos de elevación por polígono de cada uno de los puntos de la
franja común entre ambos DEM, se realiza una Extracción (Extract Values to Points) de los valores de
celda de la malla de puntos del archivo RTP_corredor10m y se anexan los registros de los valores
nuevos en la tabla de salida, formándose una matriz de datos (Figura 19). El archivo resultante se
llamará RTPcorr10m_extractdiferrenciacorredor.

Figura 19. A la izquierda, extracción de valores del raste diferencia_corredores; a la derecha, el archivo vector
resultante RTPcorr10m_extract

2.11 Aplicación de uniones espaciales a los datos 1

Se unen los atributos de la tabla isnull_poly_buffer13m a la matriz


RTPcorr10m_extractdiferrenciacorredor con base en una relación espacial de cardinalidad uno a uno,
que busca asignar o colgar el respectivo identificador Id de cada uno de los polígonos, contenidos en la
primera capa, a los registros de la entidad destino llamada RTP10m_diferencorredor_idpoly (Figura 20).

Figura 20. Utilización del geoprocesamiento Spatial Join para asignar el valor ID a cada polígono

72
2.12 Cálculo del promedio de cada polígono y exportación y edición de datos de atributos

La tabla de atributos resultante de la capa RTP10m_diferencorredor_idpoly se debe depurar antes de


continuar con el proceso metodológico propuesto. En este caso es importante haber creado la PGDB
denominada ejercicio1.mdb, descrita en el ítem 2. Para ello se abre la base de datos con la aplicación
MS Access y se exporta al formato dbf 5 de Excel, con un máximo de ocho (8) caracteres para el nombre
RTP10_ID.dbf /Figura 21). Es importante que, para esta operación, se utilice la versión Office 2007 o
inferior.

Figura 21. Llamado desde MS_Access de la tabla resultante de la unión espacial entre la extracción de
diferencia de corredores y la capa isnull_poly_buffer13m

Se ejecuta la tabla RTP10_ID.dbf en MS Excel eliminando, por medio de filtros de datos del campo
Ráster_value, todos los datos nulos (-9999 a 9999 y negatives) y se determina el promedio de elevación
para cada grupo único de polígonos (id), creando una tabla dinámica para los campos ID como rótulo
de fila y Ráster_value como valores de cálculo promedio. Los datos finales se guardan como valores en
un libro de Excel denominado RTP10_IDPOLY_F.xls con una hoja adicional llamada promedio, que
contendrá únicamente los campos Id_poly y promedio_idpoly (Figura 22).

Figura 22. A la izquierda, filtrado y depuración de información de datos no útiles para el cálculo promedio; a la
derecha, estructura de la tabla dinámica con el fin de obtener para cada ID único su respectivo valor promedio

73
2.13 Unión de datos de tabla

Utilizando la capa vectorial isnull_poly_buffer13m, que contiene el campo ID de cada polígono, se


realiza una unión o Join con la hoja de Excel promedio por el campo común Id_poly. De esta manera se
garantiza la asignación del promedio de elevación, calculado para cada polígono dentro de la muestra.
El resultado de esta operación se exporta (export data) y se crea la nueva capa
polybuffer13_promdiferen (Figira 23).

Figura 23. Procesos de Join de tablas y creación de la capa polybuffer13_promdiferen

2.14 Aplicación de uniones espaciales a los datos 2

Se toma la capa vectorial de puntos RTP_Extract_asc_SZ, calculada en el paso 9, cuyos atributos


contienen los datos de la elevación de cada punto en su posición real, extraídos del DEM de Alos Parsal
Segmento_zona.img. Entonces, se ejecuta una unión espacial (Spatial Join) entre RTP_Extract_asc_SZ y
la recién creada polybuffer13_promdiferen, dando paso a la nueva capa RTPascSZ_con_ promdiferen con
los datos de elevación del pixel dentro del área delimita por los Voids y su influencia exterior de 13m.

2.15 Cálculo de la diferencia de elevación definitiva

En la tabla RTPascSZ_con_ promdiferen se crea un campo tipo double llamado Elevacion_Corregida y


se establece una diferencia con un cálculo de campo (Field Calculator) entre grid_code (que contiene
las elevaciones del DEM Segmento_zona.img) y Prom_idpoly (con los valores de promedio de elevación)
(Figura 24).

Figura 24. Geoproceso de la nueva elevación del DEM Alos Palsar

74
2.16 Generación de la nueva superficie continua ráster

Es importante anotar que éste proceso en especial demanda hardware y necesita buena respuesta a
nivel de procesador y memoria de ejecución (RAM). A partir del campo Elevacion_Corregida de la capa
RTPascSZ_con_ promdiferen y con ayuda de la herramienta Point to Ráster, se crea el archivo ráster
ptr_dem_sz_correg (Figura 25). En este punto es importante asignar, en el valor de celda del ráster de
salida, un dato entero a la resolución original del DEM descargado, para este problema será 12,5m de
lado, con el fin de prevenir posibles errores de interpolación. Para el ejercicio ae aplicó un valor de
celda de salida de 13.

Figura 25. A la izquierda, parámetros del geoproceso utilizando Point to Ráster; a la derecha, superficie Ráster
resultante

Teniendo en cuenta que para este ejercicio se cuenta con un DEM del Instituto Geográfico Agustín
Codazzi, denominado DEM_10.img con tamaño de celdas 10x10 metros, los segmentos de DEM
ilustrados en la Figura 25 se deben remuestrear del tamaño 13x13m al de 10x10m. Para esto se utiliza
la función Resample (Figura 26).

Figura 26. Función Resample de ArcGis. Nótese el valor adjudicado a cedas X y Y del recuadro.

Posteriormente, y utilizando la herramienta de geoprocesamiento Mosaic to New Ráster con tipo de


pixel de 32bits flotante y una banda, se genera el mosaic final DEMF entre el DEM_10.img inicial, que
presenta los VOIDS, y la capa remuestreada ptr_dem_sz_correg_rem y se guarda en la PGDB
ejercicio1.mdb (Figura 27). Con la finalidad de ilustrar, a nivel de observación y medición, la
optimización de los datos obtenidos en comparación con otros métodos, como los descritos
previamente, se deben crear imágenes de laboratorio que resalten los componentes fisiográficos del
DEM resultante. Para ello se utiliza la herramienta ShadedRelief y perfiles zonales, donde se evidencia
la mejora del mosaico (Figura 28).

75
Figura 27. DEM original tamaño 10x10m con los Voids y mosaico con los segmentos corregidos en elevación

Capa DEM original con Voids Mosaico Filtrado ShadeRelief de la zona antes con Voids
Figura 28. Utilizando el punto amarillo de referencia, se aprecia en detalle la calidad del mosaico obtenido

Igualmente, a nivel geométrico los resultados son buenos. En la Figura 29 se consulta un


identificador en un punto común a las capas DEM_segmento_zona que, es este caso es la fuente Alos
Parsal de 12,5m y la capa DEM, donde se aprecia claramente que el primero se encuentra a una
elevación de 2581m, mientras que, para el segundo, es de 2546,9m, es decir, 34,1 metros más bajo.

Figura 29. Identificador de consulta en un punto común de la zona con Voids, marcada en rojo

Finalmente, una vez culminado el ejercicio y luego de realizar algunas pruebas a nivel visual y
geométrico, se puede concluir que:
1. Cuando se utiliza estadísticos focales el tamaño del Voids es clave. Tamaños por encima de 500m
de lado, no se pueden cubrir correctamente por el proceso de interpolación y utilizando el mismo
tamaño de pixel del DEM de partida.

76
2. La utilización de algoritmos, como el del vecino más cercano, para llenar los vacíos grandes,
resulta en interpolaciones que no son exactas estadísticamente y que no son atractivas
visualmente.
3. Para el cumplimiento de los objetivos perseguidos, se presenta un paso a paso para el proceso
de relleno de Voids, cuyos datos visuales y geométricos preliminares son óptimos.
4. Se presenta los resultados de evaluación preliminar de la aplicación de promedios de diferencia
de elevaciones, aplicados a datos Alos Parsal en este caso. Ello implica que para datos venidos de
fuentes como Shuttle Radar Topography Mission (SRTM) se puede probar esta metodología, pero
teniendo claro control de los datos y procesos a seguir, con el ánimo de no comprometer la
precisión global y la consistencia de los datos de las fuentes espaciales involucradas.
5. Contar con un DEM continuo y sin vacios de información garantiza la derivación de productos de
utilidad cartográfica para estudios adelantados en el marco de proyectos que buscan la
formulación de planes de ordenamiento y manejo de cuencas hidrográficas.
6. Un modelo de elevación con problemas de completitud de información, debido a vacios, afecta la
cadena de valor de subproductos cartográficos importantes, evento que pone en riesgo los
resultados finales del geoprocesamiento espacial y la veracidad de los estudios ambientales,
ingenieriles, socioeconómicos, entre otros.

3. Reto

▪ Realizar el proceso de corrección de vacíos para un temático diferente al DEM, que se encuentre
en un formato adecuado.

Referencias

[1] Minambiente (2014). Guía técnica para la formulación de los planes de ordenamiento y manejo de cuencas
hidrográficas POMCAS. Ministerio de Ambiente de Colombia.
[2] ESRI (2012). Tutorial de 3D Analyst. USA: Environmental Systems Research Institute.
[3] Felicísimo, A. (1994). Modelos digitales del terreno. Oviedo: Pentalfa.
[4] IGAC (1994). Resoluciones 63 y 64. instituto Geográfico Agustín Codazzi. Bogotá: Subdirección de Geografía
y Cartografía. División de Geodesia.
[5] Quintero, O., Zuleta, M. & Gil, S. (2010). Determinación de parámetros de transformación local para escalas
cartográficas grandes: Apoyo al proceso de migración de Internacional Bogotá a MAGNA SIRGAS. Revista
Gestión y Medio Ambiente 13(2), pp. 59-70.

77
PARTE IV

ESTRUCTURACIÓN Y ALMACENAMIENTO DE GEODATOS

No es el conocimiento, sino el acto de aprender, no la posesión, sino el acto de llegar allí, que otorgan el
mayor disfrute.
Carl Friedrich Gauss (1777–1855)

La estructuración y el almacenamiento de geodatos es un proceso que requiere un modelo


conceptual, un modelo lógico y un modelo físico, que implican el almacenamiento de la información en
un repositorio con un formato de intercambio estandarizado (base de datos, archivo multimedia,
imagen, entre otros). Esta Parte IV contiene tres capítulos en los que se presenta, analiza y propone
una solución a problemas con diferentes niveles de estructuración, asociados al proceso que requiere
de un modelo conceptual, un modelo lógico y un modelo físico.

78
CAPÍTULO 9

Problema 5. No desarrolladores usando Arcpy


Julián D. Giraldo O.
Carlos A. Castro C.
Nixon A. Aristizábal N.
Claudia E. Durango V.

Taxonomía Objetivos de aprendizaje


Estructura Acompañamiento

Análisis del problema

Herramientas SIG aplicadas Información requerida


ArcPy, Cualquier operación de análisis, conversión y administración de Cualquier tipo de geodato
datos geográficos

79
1. Planteamiento del problema

Este problema se plantea como un pretexto, que permita la puesta en marcha de una metodología
aplicable en el abordaje y solución de problemas, que involucren el desarrollo de Scripts en Python y
que utilicen la librería de ArcPy desarrollada por ESRI para usuarios no desarrolladores. A
continuación, algunas definiciones necesarias para el problema.
▪ Python: Es un lenguaje de programación de alto nivel diseñado con una sintaxis limpia, que
permite escribir código de manera simple y fácil de leer.
▪ Script: Es un programa usualmente simple que, regularmente, se almacena en un archivo de
texto.
▪ ArcPy: Es un conjunto de instrucciones agrupadas en un módulo o paquete de Python que
permite ejecutar análisis, conversión y administración de datos geográficos, además de la
automatización de mapas.
▪ Shape: Es un dato digital, en formato vectorial, que permite almacenar la localización de
elementos geográficos y los atributos asociados a ellos. Este dato permite almacenar geometrías
de tipo punto, línea o polígono.

El contexto del problema se ubica en una Unidad de Procesamiento de Geodatos que recibe un Shape
de puntos de las veredas del Departamento de Antioquia. Constantemente se pide generar un nuevo
archivo solamente con los puntos de uno o varios corregimientos y, en ocasiones, de uno o varios
municipios. Es necesario facilitar la ejecución de esta tarea repetitiva a través de su automatización. En
esta unidad ya se intentó una implementación usando Model Builder, a pesar de ello el usuario no quedó
completamente satisfecho porque debe ingresar a varias pantallas, lo que al final del día suma mucho
tiempo. En el intento de automatización el usuario encontró que, para ejecutar una selección por
atributos, debía entrar a una ventana y, adicionalmente, para exportar el nuevo Shape (con los objetos
seleccionados), necesitaba ingresar a un par de ventanas más. Él insiste en que, aunque el conjunto de
instrucciones es bastante simple, el hecho de tener que repetirlo varias veces al día, representa pérdida
de tiempo, energía y recursos.
Se espera optimizar el tiempo de ejecución de estos procedimientos, para lo que usuario manifiesta
la necesidad de contar con una herramienta que le ofrezca la posibilidad de seleccionar o ingresar los
datos sin tener que entrar varias veces a diferentes ventanas y que con pocas pulsaciones del ratón
pueda ejecutar toda la tarea.

2. Desarrollo del problema

2.1 Abordaje convencional

La solución del problema es simple cuando se utiliza herramientas convencionales de ArcGIS, pero,
a pesar de ello, la ejecución de acciones para resolver el problema se hace crítica cuando se deben
ejecutar repetidamente y en cortos períodos de tiempo. Se debe considerar que, aunque la tarea
requiere básicamente la ejecución de dos herramientas, esto implica el ingreso a múltiples ventanas y
la selección y diligenciamiento de varios datos. Adicionalmente, la selección de datos cargados en el
visor y en el TOC (Table of Contents) se debe realizar en las ventanas de esas herramientas. En las
siguientes figuras se muestran capturas de pantalla en las que se observa el conjunto de pasos que se
debe ejecutar. En la Figura 1 se observa el ingreso al menú Selection, donde se elige la opción Select By
Attributes.

80
Figura 1. Acceso a Select by Attributes

Estando allí se despliega la ventana que se muestra en la Figura 2, en la que se debe tener en cuenta
algunos parámetros.

Figura 2. Opciones de Select by Attributes

▪ Layer: Se debe indicar la capa que contiene las geometrías que se van a seleccionar.
▪ Method: El método de selección puede ser Crear una nueva, Agregar a la seleccionada, Eliminar
de la actual o Seleccionar de la que está seleccionada.
▪ Campo: De la lista de atributos que aparece en el recuadro se selecciona la que se utilizará para
el criterio de decisión.
▪ Operador: Puede ser igual (=), Mayor que (>), Menor que (<), Menor Igual (>=), Similar (Like),
entre otros. Se debe tener en cuenta que algunos de estos operadores actúan específicamente
sobre datos numéricos o tipo texto.
▪ Instrucción SQL: Los datos se utilizan para la construcción de la sentencia que definirá la consulta
para elegir los registros del Shape elegido, que cumplan con la condición de la sentencia. En la
Figura 3 se observa la expresión: select * from centrospoblados where, que se puede interpretar
como seleccionar todos los registros de centrospoblados donde.

81
Finalmente, en el cuadro inferior se debe construir una expresión lógica como cod_mpio = 2305 o
nomMunicip like “CA%”, que debería seleccionar todos los registros en los que el campo nomMunicip
empiecen por ca (Caramanta, Cañasgordas, Caucasia, entre otros), como se observa en la Figura 3).

Figura 3. Ventana de Registros Seleccionados

Al terminar la selección se presiona clic derecho sobre la capa y del menú desplegado se selecciona
la opción Data y luego Export Data, tal como se puede ver en la Figura 4.

Figura 4. Ingreso a la opción del menú para exportar los datos seleccionados

Luego se abre una ventana como la de la Figura 5, en la cual se debe elegir: 1) la ubicación del archivo
que se va a generar (Output feature class), 2) el nombre del archivo, y 3) del desplegable el tipo de salida
que, para este caso, será Shapefile.

Figura 5. Especificaciones del archivo de salida en un proceso Export Data

82
Cuando el proceso de exportación concluye aparece una nueva ventana, en la que se debe confirmar
si se quiere agregar el nuevo Shape al visor y que, por supuesto, sea visible en el TOC junto con la capa
de donde originalmente se seleccionaron los datos. Como puede observar, esta tarea requiere la
ejecución de varias acciones, el ingreso a múltiples ventanas y la entrada de varios datos. El objeto de
la solución de este problema es optimizar este procedimiento.

2.2 Proceso general de la solución

Una forma muy general de representar el flujo en el proceso de la solución es la que se puede
visualizar en la Figura 6, donde se indica una propuesta para resolver el problema.

Figura 6. Flujo general de las instucciones para la Solución del Problema

El Shape de referencia para la solución de este problema contiene los centros poblados del
departamento de Antioquia y está compuesto por los registros de las veredas. La geometría es de tipo
punto y entre los atributos relevantes para la solución se tiene el Nombre de la Vereda (nomVereda),
Nombre del Corregimiento (nomCorreg) y Nombre del Municipio (nomMunicip), que serán de tipo
texto. Adicionalmente, se cuenta con atributos de tipo numérico cod_corre, cod-vere y cod-mpio.

3. Desarrollo metodológico

Más que como una fórmula, la siguiente metodología es una propuesta para abordar la solución del
problema, en la que se plantea una serie de acciones que van desde la concreción de la idea a través de
sketches, hasta la puesta en marcha del algoritmo en un lenguaje de programación.

3.1 Esquema de la interface de la solución

Se diseña un mockup de la aplicación utilizando los controles de los que dispone el constructor de
interfaces de ArcGIS, tales como botones, cajas de texto, desplegables, entre otros. Este diseño debe
orientar la construcción de la interface final y su importancia radica, entre otras cosas, en le clarifica al
usuario final el aspecto que tendrá la solución; adicionalmente, en el proceso de construcción este
diseño indica claramente el orden en que se debe crear cada uno de los controles. Estos sketches o
mockups se pueden construir manualmente, tal como se ilustra en la Figura 7, o mediante software. En
el mercado Online existe una amplia variedad de soluciones gratuitas.

Figura 7. Sketch de la interface de la solución

83
3.2 Diseño de la secuencia de instrucciones

En otros contextos a este procedimiento se le denomina construcción del algoritmo y consiste en la


definición de la serie de instrucciones que se deben ejecutar para resolver el problema planteado. En
este orden de ideas, hay que diseñar un algoritmo que las incluya, para lo cual se puede utilizar lenguaje
natural, pero tratando de lograr una similitud con la denominación de las instrucciones en ArcGis.

3.3 Construcción de la interface gráfica

A partir de la versión 10 de ArcGIS se encuentra disponible una herramienta que facilita la


personalización de la interface de la aplicación. Esta opción permite controlar la interface gráfica de
usuario (botones, cajas de texto, desplegables), mediante código desarrollado en Python y usando los
componentes de la librería ArcPy. Para instalar la herramienta se busca el enlace de descarga en la
aplicación, que se ejecutó al seleccionar el menú de ayuda. Desde esta ventana se selecciona la opción
What is a Python add-in y se despliega un texto de ayuda que contiene el hipervínculo requerido.
Desde allí se descarga el archivo addin_assistant.zip que hay que descomprir y luego se ejecuta el
programa addin_assistant.exe, ubicado en la carpeta bin. Cuando se despliega la ventana de diálogo del
asistente del Python Add-in se observan los campos que se recomienda diligenciar con el objeto de que
esta información se incorpore a los metadatos. En esta ventana se selecciona Add-In Contents, donde se
encuentran los tipos de contenidos del Add-In (extensiones, menús y barras de herramientas), además,
si es necesario adicionar nuevos elementos, se presiona clic derecho sobre el tipo de contenido y se
selecciona opción New. En la ventana desplegada se ingresan los valores Caption, que es el título con el
que se va a identificar la barra de herramientas, y ID, que es el nombre de la variable asociada a la barra
(Figura 8).

Figura 8. Título y Nombre de Variable de la Herramienta

Posteriormente, se presiona clic derecho sobre ella y se crea el botón con los datos que se muestran
en la Figura 9. Luego de concluir la adición de las herramientas deseadas al Toolbar, se debe guardar el
trabajo (Save) y, para iniciar la programación, se presiona Abrir directorio (Open Folder).

Figura 9. Valores recomendados para el botón

84
3.4 Identificación de las instrucciones Arcpy

En la web se puede encontrar una amplia documentación acerca de la librería ArcPy de Esri, pero se
recomienda utilizar la alojada en los dominios: pro.arcgis.com, gis.stackexchange.com y
desktop.arcgis.com. Por ejemplo, para seleccionar algunos objetos de una geometría que cumplan con
una condición en algunos de sus valores se necesita la instrucción que, en ArcMap, se reconoce como
Selección por Atributos (Select by Attributes). Al ingresar a la documentación se observa la sintaxis que
se debe utilizar en la instrucción.

3.5 Identificación de parámetros

La mayoría de los métodos/funciones de ArcPy requiere de algunas variables para ejecutarse, por
ejemplo, para usar una función que permita elevar un número a una potencia, seguramente se
requerirán dos parámetros: la base y el exponente. En la Figura 10 se observa el conjunto de
parámetros requeridos para ejecutar la función/método SelectLayerByAttribute_management y que
básicamente son Capa, Método de Selección y Sentencia SQL.

Figura 10. Parámetros para Selección por Atributos en Arcpy en el portal de ArcGis

3.6 Construcción del código en Python

Se trabaja con el diseño del algoritmo inicial y se va tomando el código que corresponde a cada una
de las instrucciones, tal como aparece en la documentación de ArcPy en el sitio de Esri. Por ejemplo,
para el caso de la selección por atributos:
SelectLayerByAttribute_management (in_layer_or_view,{selection_type},{where_clause},{invert_where_clause})

Se reemplaza los parámetros por los valores asociados a los datos y geodatos con que se cuenta:
SelectLayerByAttribute_management (capaDatos, NEW_SELECTION, “población > 50000”)
Observe que el parámetro {invert_where_clause} se omitió y no afecta la ejecución correcta de la
instrucción. Esto sucede con la mayoría de las instrucciones de ArcGis. Así como se ha hecho con esta
instrucción, se debe ejecutar el mismo procedimiento para todas las instrucciones del algoritmo
mencionado.

85
3.7 Programación de la interface gráfica

El directorio creado por Asistente de Add-in contiene una estructura como la que se muestra en la
Figura 11. Se ingresa al directorio Install y se edita el archivo addins_addin.py haciendo clic derecho
sobre él y, posteriormente, se elige la interface de programación.

Figura 11. Estructura de directorios del proyecto

Es posible editar el código de Python con casi cualquier editor de código. A modo de ejemplo se
muestra la programación del botón para ejecutar una tarea sencilla: al presionar clic sobre el botón se
debe desplegar un mensaje de prueba en la ventana de ArcMap. En la Figura 12 se observa el código,
solamente en la función onClick con la instrucción pythonaddins.MessageBox, una función del módulo
de ArcPy que fue importado al inicio del módulo que se está programando.

Figura 12. Código para mostrar un mensaje en pantalla

La expresión import permite utilizar los métodos o funciones que están en otro módulo Python,
particularmente, la sentencia import arcpy habilita la utilización de todas las funcionalidades
programadas de ESRI dentro de Arcpy, en el código que se está desarrollando. La palabra clave def se
utiliza cuando cada vez que se define una función. Las tabulaciones indican que un bloque de código
pertenece a una sentencia, por ejemplo, todas las instrucciones que van dentro de una función deben
tener un nivel de sangrado adicional y, cuando el código regresa al nivel de tabulación anterior, se
entiende que el bloque se ha cerrado. Los parámetros que se deben incluir en este módulo son:
1. Mensaje que va a aparecer en la ventana: en este caso es ‘Prueba de Ejecucion’ y debe ir entre
comillas porque es un texto.
2. Título de la ventana emergente: en este caso es ‘Geoinformatica’ y, al igual que el anterior, se
debe colocar entre comillas.
3. Tipo de Ventana: este es el parámetro que define el tipo de ventana. Para este ejemplo se ha
elegido 0 (cero) que muestra una ventana únicamente con el botón Aceptar.

Al terminar el desarrollo se regresa a la ventana del explorador de archivos y a la carpeta anterior


addins y se ejecutan los siguientes pasos:
▪ Ejecutar el archivo makeaddin.py para generar otro denominado addins.esriaddin.
▪ Ejecutar addins.esriaddin para desplegar la ventana para instalar la utilidad. Se debe hacer clic
en el botón Install Add-In (Figura 13).

86
Figura 13. Instalación del Add-In programado

Al abrir ArcMap se observa la barra de herramientas creada, debido a que en la creación del Toolbar
se seleccionó la caja de verificación Show Initially, además del botón programado y, al hacer clic en él
se puede ver el resultado esperado (Figura 14). Si dentro del código se quiere utilizar tildes o eñes para
los valores que se almacenan en variables de texto, los Mensajes o Títulos de Ventanas, es necesario
que la primera línea en el código Python sea: # -*- coding: utf-8 -*-.

Figura 14. Sketch de la solución

4. Aplicación de la metodología

4.1 Esquema de la interface de la solución

La maqueta de la Figura 14 se desarrolló en un software en línea que se puede acceder desde la


dirección: https://moqups.com/.

4.2 Diseño de la secuencia de instrucciones

Tal como se planteó en el mockup de la solución, existe un conjunto de instrucciones que se deben
ejecutar secuencialmente para resolver el problema planteado:
1. Cargar en el desplegable Seleccionar la Capa la lista de layers que se encuentran en el TOC –
Tabla de Contenidos–, para elegir el que contiene las geometrías a llevar a otro archivo.
2. Cargar en el desplegable Seleccionar Atributo la lista de campos que tiene la tabla de atributos
del Layer elegido, para que el usuario elija el campo que contiene el valor de comparación.

87
3. Cargar en el desplegable Operador el conjunto de operadores lógicos que frecuentemente se
utilizarán (LIKE, >, >=, <, <=, entre otros) para la comparación. Esta lista no requiere
intervención del usuario y se define en tiempo de programación por quien construya el código.
4. Almacenar en una variable el valor que el usuario ingrese en la caja Valor Criterio, para usarla
posteriormente en el código.
5. Al presionar el botón Procesar se debe tomar los datos que contienen los desplegables y la caja
en donde el usuario ingresa el valor, con ellos se arma la sentencia SQL que se utilizará para
hacer la selección por atributos.
6. Ejecutar la selección por atributos.
7. Exportar el conjunto de datos seleccionados. Para el nombre del Shape de salida se concatenará
el nombre de la capa con el nombre del campo y el valor de comparación, por ejemplo:
CiudadPoblacion10000 o ComunaNum5.
8. Mostrar un mensaje informando la ejecución del código.

4.3 Construcción de la interface gráfica de la solución

Para crear la barra de herramientas y los controles, que se requieren según el mockup que se ha
construido, se utiliza la aplicación Python Add-In Wizard. Es importante tener en cuenta el orden en
que se crean los controles dentro de la barra de herramientas (Figura 15). Para cada uno de los
controles se definen valores para los principales campos, como los que se observan en la Tabla 1.

Figura 15. Controles de la barra de herramientas

Tabla 1. Controles del Add-in y valores de configuración

Caption Class Name ID (Variable Name) Tipo Descripción

Lista desplegable para las capas. Cambia de manera


Layers CmbClassListLayers addins_addin.cmbListLayers Combo Box
dinámica de acuerdo con las capas cargadas en el mapa.
Lista desplegable para los campos de la capa
Fields CmbClassListFields addins_addin.cmbListFields Combo Box seleccionada. Cambia de manera dinámica con el
cambio de las capas.
Lista de operadores lógicos. Se carga en tiempo de
Operators CmbClassListOperators addins_addin.cmbListOperators Combo Box
programación.
El control es un combo, pero se usará como caja de
Criteria TxtClassCriteria addins_addin.txtCriteria Combo Box texto, lo que define el nombre de la clase y de la
variable.
Botón para ejecutar todo el algoritmo que da solución
Process BtnClassEjecutar addins_addin.btnEjecutar Button
al problema.

4.4 Identificación de las instrucciones Arcpy

Para desarrollar la secuencia anterior, primero se identifica las instrucciones de ArcPy, o Python,
que se requieren y que se implementarán en el desarrollo de la interface de la aplicación:

88
▪ Crear lista de capas. La lista de capas del mapa que se encuentra activo es:
arcpy.mapping.ListLayers(mxd, "", df)[0].name
▪ Crear lista de campos. La instrucción de arcpy para obtener la lista de campos de un feature es:
campo = arcpy.ListFields(capa)
▪ Crear lista de operadores. Esto se logra con una instrucción de Python:
Operadores = ["LIKE", "=", ">", ">=", "<", "<="]

4.5 Identificación de parámetros

Para la función arcpy.mapping.ListLayers se identifican los siguientes parámetros:


▪ df[0] es el dataframe que está en la posición Cero, es decir, el primero de la lista de dataframes.
▪ .name se refiere al nombre de este primer dataframe df[0]. Para obtener el parámetro de la lista
de DataFrames y almacenarla en la variable df la instrucción es:
df = arcpy.mapping.ListDataFrames(mxd)
▪ mxd es el mapa actual esta variable se obtiene de:
mxd = arcpy.mapping.MapDocument("CURRENT")

Para la función arcpy.ListFields el único parámetro que se requiere es el nombre de la capa, que en
su momento se cargará desde el contenido del desplegable de la lista de capas.

4.6 Construcción del código en Python

1. Lista de capas. Debido a que es necesario recorrer la lista de capas para que en su momento se
puedan cargar en el combo desplegable, se utilizará una estructura cíclica del tipo para, tal como
se observa en el código de la Figura 16.

Figura 16. Código para recorrer la lista de capas

2. Lista de campos. Del mismo modo que las capas, la lista de campos de la capa seleccionada se
debe recorrer como se ilustra en la Figura 17.

Figura 17. Código para recorrer la lista de campos

3. Programación de la interface gráfica. Como se indicó en la propuesta metodológica, se abre el


módulo addins_addin.py contenido en el directorio install del proyecto. Por defecto, este módulo
está compuesto de un encabezado y varias clases que corresponden a un control del Toolbar.
4. Encabezado del archivo. El código propuesto para el encabezado del archivo se observa en la
Figura 18.

89
Figura 18. Código del encabezado

El encabezado que viene por defecto en el módulo es el que importa los módulos arcpy y
pythonaddins. La primera línea se ha adicionado para permitir el uso de tildes y eñes, además,
hay que tener en cuenta que debe ir al inicio de todo el código. Adicionalmente, se ha incluido la
línea de código que importa el módulo de tiempo y que más adelante se usará para incluir la fecha
en el nombre del shape que se exportará.

5. Clase CmbClassListLayers. Es la primera clase que se programará y es la responsable de cargar


la lista de capas en el combo (Figura 19).

Figura 19. Código para cargar la lista de capas en el desplegable

El primer ciclo for frame in df: se ocupa de recorrer todos los dataframes del mapa. El segundo
ciclo for capa in listaCapas: recorre todas las capas de cada dataframes recorridos; dicho de otro
modo: cada vez que el ciclo está en un dataframe, recorre todas las capas que contiene. La
instrucción self.items.append adiciona, en cada iteración del ciclo, el nombre de la capa al
desplegable y envía capa.name como parámetro.

6. Clase CmbClassListFields. En la Figura 20 se observa el código de esta clase, donde la instrucción


capa = cmbListLayers guarda, en la variable capa, el valor seleccionado en el desplegable
cmbListLayers, para utilizarlo después en la construcción de la expresión SQL. El ciclo for campo
in listaCampos: recorre la lista de campos cargada en la variable y con la instrucción
self.items.append(format(campo.name)) adiciona cada uno de esos campos al desplegable.

Figura 20. Código para cargar la lista de campos en el desplegable

7. Clase CmbClassListOperators. El desplegable de los operadores se carga en el momento de la


programación y no depende de los datos cargados en otros controles. La lista se carga en
cualquier control de tipo campo dentro de la función __init__(self), conocido como el constructor
de la función y que se ejecuta al inicializar el control mismo. En este caso, se inicializa con los
datos del ejemplo de la Figura 21, entre llaves y separados por coma. Los valores de tipo texto
van entre comillas, pero no son requeridas por los valores numéricos.

Figura 21. Código para cargar la lista de operadores lógicos en el desplegable

90
8. Clase TxtClassCriteria. Esta clase no tiene programación porque el contenido de la Caja de Texto
se utilizará únicamente al presionar el botón Process que, para operar con él, llevará su valor a
una variable.

9. Clase BtnClassProcess. Las variables layer, field, Operator y criteriaValue se cargan de los
controles destinados para los propósitos que plantean los nombres de los mismos.
Posteriormente, usando el símbolo + se concatenan en la variable exprSQL; las variables que se
necesitan van separadas por un espacio entre comillas simples (Figura 22). Luego se utiliza el
método SelectLayerByAttribute_management enviando como parámetros layer, el método de
selección (“NEW_SELECTION”) y la variable exprSQL.

Figura 22. Código para seleccionar por atributos y exportar el Shape resultante

A continuación, en la variable del nombre con el que se va a exportar el Shape se concatena el


nombre de la capa con un guion bajo y luego la fecha (%d%b%) que corresponde a día, mes y
año. La ruta de salida del Shape se almacena en la variable path y en la variable mensaje se
configura lo que se quiere que aparezca en la ventana que informa que el proceso se ejecutó. Para
exportar las geometrías seleccionadas del Shape se utiliza la función
FeatureClassToFeatureClass_conversion, a la cual hay que enviarle como parámetros la capa, la
ruta y el nombre de salida del archivo. Al final se muestra la ventana de mensaje con los
parámetros de contenido del mismo, nombre de la ventana y tipo de ventana. Entonces, se
ejecuta el makeaddin.py que está en la carpeta del proyecto y para instalar la herramienta en
ArcMap se ejecuta addins.esriaddin. Al ingresar a ArcMap se puede ver la barra de herramientas
y, al cargar por lo menos una capa en el TOC, se puede ejecutar obteniendo un resultado como el
que se muestra en la Figura 23.

Figura 23. Resultado final de la Interface y de la ejecución del código

91
Observe también que el Shape exportado se adiciona al TOC de manera automática y en la capa original
se pueden ver las geometrías seleccionadas. Para cambiar alguna de estas condiciones se puede buscar
en la documentación y añadir funcionalidades o mejorar algunas de las que se han expuesto en este
texto.

5. Reto

PyQGIS es la librería de Python para QGIS y está disponible desde la versión 0.9. Algunos autores
afirman que es más poderosa que la de ArcPy, aunque su sintaxis es un poco más difícil. Utilizando la
documentación en: http://docs.qgis.org/2.6/es/docs/pyqgis_developer_cookbook/ o cualquiera otra
que se encuentre en la red, construir un script que resuelva el mismo problema planteado en este
capítulo.
Si se tiene éxito puede compartir el trabajo con la comunidad de QGIS y quizás lo incorporen en
futuras versiones del software. Eso sí, no olvidar compartir su éxito con los autores de este capítulo y
con el equipo académico de la Especialización en Sistemas de Información Geográfica y la Maestría en
Geoinformática de la Universidad de San Buenaventura Medellín.

92
CAPÍTULO 10

Problema 6. Diseño de geodatabase: Caso manzanas Medellín


Carlos A. Castro C.
Juan C. Valdés Q.
Helena Pérez G.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


ArcGIS Desktop, ArcGIS Server, Oracle, SQLServer, Datos georeferenciados de Manzanas, Estratos, Curvas,
PostGresSQL-PostGIS Comunas y Barrios; Datos no georreferenciados de
responsables

93
1. Planteamiento del problema

En Medellín se piensa presentar un proyecto para atender las necesidades sociales manzana por
manzana de la ciudad y cuenta con funcionarios que atenderán todas en las que se encuentra dividida.
Para este fin requiere una geodatabase que responda, entre otras, a las siguientes consultas:
1. Mostrar las manzanas a las que no les han asignado responsable, que interceptan estratos 1, 2 o
3 y que se encuentran a una altura de entre 1650 y 1750 msnm.
2. Mostrar las manzanas que están a una altura de entre 1500 y 1750 msnm y que tienen bajo su
responsabilidad Adelaida Morales Dejodas, Alejandro Villanueva Hervas, Alfonso Rodríguez
Iglesias Ana Gómez.
3. Mostrar las urbanizaciones que se ubican entre 2000 y 4000 m de las manzanas que están a una
altura de entre 1650 y 1750 msnm y de las cuales son responsables Adelaida Morales Dejodas,
Alejandro Villanueva Hervas, Alfonso Rodríguez Iglesias o Ana Gómez.
4. Mostrar las comunas con el número de manzanas que interceptan barrios con áreas mayores a
1’000.000 m2.

Se cuenta con las siguientes capas: manzanas_medellin.shp (polígonos -clave foránea del
responsable fkidrespo-), estratos_medellin.shp (polígonos), sitiosinteres_medellin.shp (puntos),
curvasnivel_medellin.shp (poli-líneas), comunas_medellin.shp (polígonos), barrios_medellin.shp
(polígonos), además de una tabla llamada responsables.dbf (registros con los datos de los responsables
de atender las manzanas). Los fundamentos teóricos necesarios son:
▪ Geodatabase, Tipos de geodatabases [1]
▪ Los diseños de Bases de Datos, conceptual, lógico, físico y del modelo entidad relación [2-7].
▪ Feature Dataset, Feature Class, Relationship Class [8].
▪ Subtipos, dominios [8].
▪ Clave Primaria, Clave foránea [9].
▪ Consultas por atributo, consultas por localización [10].
▪ Join tabular, Join espacial [11, 12].
▪ Desarrollar el Tutorial de Geodatabase [13].

2. Desarrollo del problema

2.1 Diseño conceptual - Modelo Entidad Relación

Para elaborar este modelo entidad se debe remitir al enunciado del problema e identificar las
entidades (objetos de estudio), es decir, la información a almacenar y luego consultar, que en el
enunciado se identifica como sustantivos, y sus atributos o propiedades. En el caso del problema se
identifica las siguientes entidades: Responsables, manzanas, barrios, curvas de nivel, comunas y sitios
de interés. Luego se identifica sus atributos o propiedades, es decir los detalles que sirven para
identificar, describir, cualificar, clasificar y expresar su estado.
Por último, se identifica los vínculos (relaciones) directos que existen entre las entidades, pero los
indirectos no se especifican en el modelo; por ejemplo, entre responsable y barrio hay un vínculo
indirecto debido a que un responsable de atender una manzana se debe dirigir al barrio al que
pertenece. Sin embargo, no existe un vínculo directo entre responsable y barrio, debido a que se dirige
a él porque allí se encuentra la manzana de la que es responsable. Teniendo en cuenta estas
consideraciones y los fundamentos teóricos requeridos para solucionar el problema, se obtiene el
modelo conceptual de la Figura 1.

94
Figura 1. Modelo Conceptual Caso Manzanas Medellín

De acuerdo con el enunciado se puede concluir que un responsable debe atender varias manzanas
y una manzana debe ser atendida sólo por un responsable (uno a muchos), lo que se puede deducir
debido a que la clave foránea está en la tabla manzana. Una curva de nivel, desde la que se puede
obtener la altura, está asociada a varios barrios y por un barrio pasan varias curvas (muchos a muchos).
También se parte del supuesto de que un barrio tiene asociadas varias manzanas y que una manzana
está vinculada directamente sólo a un barrio. Además, se supone que un sitio de interés pertenece a un
sólo barrio y un barrio contiene varios sitios de interés. Un hecho es que una comuna está compuesta
de varios barrios y un barrio pertenece a una sola comuna.
En la Figura 1 se observa que se tomó barrio como entidad central para representar los vínculos
(relaciones o asociaciones); mientras que se presentan los atributos más representativos: IdResponsa
(que será el identificador de cada responsable), nombre y email. Para el caso de los elementos
espaciales, que incluyen información georeferenciada como Manzanas, CurvasNivel, Barrios, Comunas
y Sitios de Interés, solamente se muestra el atributo objecid, con otros que permiten ejecutar las
consultas definidas.

2.2 Diseño lógico - Modelo Relacional

Para el diseño lógico se selecciona el modelo de datos en el que se van a realizar las operaciones de
estructuración de los datos, de actualización y de consulta. Este diseño es independiente del Sistema
Gestor de Bases de Datos (SGBD), que cual incluye el repositorio de datos, es decir, donde se
implementará la persistencia de datos. Para el caso Manzanas Medellín se utilizó un modelo de bases
de datos relacional, en el que la persistencia de datos se implementará mediante un conjunto de tablas
asociadas (relacionadas) a través de las claves primarias y las claves foráneas.

Figura 2. Modelo Lógico Caso Manzanas Medellín

En el modelo relacional de este caso de estudio, que se muestra en la Figura 2, tiene en cuenta las
reglas de normalización para evitar inconsistencias y anomalías. Esto es, los atributos (columnas) de
cada tabla son atómicos (no-mutivalorados), cada atributo de la tabla depende solamente de la clave
primaria y no de otro atributo diferente. Igualmente, en el modelo relacional las tablas, que tienen una

95
relación de cardinalidad n (relación muchos, que se representa con una pata de gallina), deben incluir
una clave foránea. La relación muchos a muchos entre curvas y barrios, que se observa en el modelo
conceptual, requiere una tabla intermedia con las dos claves foráneas en el modelo relacional.

2.3 Diseño físico - Modelo Relacional

El diseño físico de la base de datos depende del SGBD a utilizar y, para el caso de una base de datos
espacial que será estructurada, actualizada y consultada desde Arcgis 10.x, requiere un sistema
adicional que permita la persistencia de los datos (repositorio de datos). El manejo de los datos
espaciales obedece a un modelo objeto-relacional, es decir, una base de datos relacional a la que se le
implementan características del paradigma orientado a objetos.
El diseño físico para el desarrollo de este problema se orienta para tres repositorios diferentes:
FileGeodatabase, Oracle y SqlServer. Cabe anotar que para el modelo físico del caso Manzanas no se
requiere la tabla intermedia BarriosCurvas, ni las claves foráneas FkIdBarrio y FkIdComuna, debido a
que las consultas requeridas, que involucran solamente objetos espaciales (Manzanas, Barrios, Sitios
de interés, Curvas de nivel y Comunas) se pueden obtener a través de las relaciones espaciales entre
ellos (consultas por localización).

2.4 Diseño físico filegeodatabase

La secuencia descrita en la Figura 3 describe el proceso para el diseño FeatureDataset.

1. Crear la geodatabase con Arccatalog 10.x

2. Crear feature dataset importando el sistema de coordenadas de los elementos espaciales que ya
se tienen.

3. Importar los datos que ya se tienen feature dataset

96
4. La FileGeodataBase con feature dataset quedaría así:

Figura 3. Secuencia para el Diseño Físico Caso Manzanas Medellín – FeatureDataset

La secuencia descrita en la Figura 4 describe el proceso para el diseño Relationship class.

1. Importar la tabla responsables

2. Crear relationship class entre responsables y manzanas_medellin

3. La FileGeodataBase con relationship class quedaría asi:

Figura 4. Diseño Físico Caso Manzanas Medellín – Relationship class

2.5 Diseño físico Oracle

Aplicando la secuencia de pasos que se muestra en la Figura 5 se obtiene el diseño en Oracle:

97
1. Instalar Oracle 11G

2. Crear el esquema Manzanas con un administrador de Oracle (TableSpace ->Datafile->Usuario-


>privilegios)

3. Conectarse a Oracle desde ArcCatalog. Tanto Arcgis como Oracle deben ser de 32bit o de 64 bit,
además se debe modificar o agregar la variable path para permitir la conexión.

4. Crear FeatureDataset, FeatureClass e importar los datos Geoespaciales y datos tabulares

Figura 5. Diseño Físico Caso Manzanas Medellín – Oracle 11G

2.6 Diseño físico Sqlserver-arcgisserver-Arcgis Desktop

En la secuencia de pasos de la Figura 6 se describe este diseño:

1. Instalar SqlServer 32 bits

98
2. Instalar ArcgisServer 32 bits. Debe ser la misma versión que el Arcgis Desktop (en este caso
10.2.2)

3. Ingresar al localhost y crear un nuevo sitio o ubicarse en uno existente

4. Ingresar al SQL server con autenticación de Windows, o si tiene usuario y contraseña. Crear una
base de datos en blanco llamada Manzanas

Figura 6. Diseño Físico Caso Manzanas Medellín – sqlserver-arcgisserver-arcgis Desktop

2.7 Consultas Geodatabase Manzanas Medellín

1. En las Figuras 7a y 7b se muestra la consulta acerca de las manzanas a las que no les ha asignado
responsable, interceptan estratos 1, 2 o 3 y se encuentran a una altura de entre 1650 y 1750
msnm.

Figura 7a. Automatización Consulta 1: Caso Manzanas Medellín

99
Figura 7b. Automatización Consulta 1: Caso Manzanas Medellín

2. En las Figuras 8a y 8b se muestra la consulta mostrar las manzanas que están a una altura de
entre 1500 y 1750 msnm y de las cuales son responsables Adelaida Morales Dejodas, Alejandro
Villanueva Hervas, Alfonso Rodríguez Iglesias o Ana Gómez. Nota: Add Join es un Join Tabular
donde Clave primaria en responsables es iDResponsa y clave foránea en manzanas es FkIdRespo.

Figura 8a. Automatización Consulta 2: Caso Manzanas Medellín

100
Figura 8b. Automatización Consulta 2: Caso Manzanas Medellín

3. En las Figuras 9a y 9b se observa la consulta mostrar las urbanizaciones que están a una distancia
de entre 2000 m y 4000 m de las Manzanas que están a una altura de entre 1650 y 1750 msnm y
de las cuales son responsables Adelaida Morales Dejodas, Alejandro Villanueva Hervas, Alfonso
Rodríguez Iglesias o Ana Gómez. Nota: Select Layer by Location es subset Selection (1); Select
Layer by Location (2) es subset Selection distancia 2000; Select Layer By Location (3) es Remove
Selection con distancia de 4000.

Figura 9a. Automatización Consulta 3: Caso Manzanas Medellín

101
Figura 9b. Automatización Consulta 3 Caso Manzanas Medellín

4. En las Figuras 10a y 10b se aprecia la consulta mostrar las comunas con el número de Manzanas
de cada comuna que interceptan barrios con áreas mayores a 1’000.000 m2.

Figura 10a. Automatización Consulta 4: Caso Manzanas Medellín

Figura 10b. Automatización Consulta 4: Caso Manzanas Medellín

102
3. Retos

▪ Elaborar el diseño físico de la base de datos Manzanas Medellín para accederla desde Arcgis 10.x
y el repositorio en PostgreSQL
▪ Elaborar el diseño físico de la base de datos Manzanas Medellín para accederla desde QGIS y el
repositorio en PostgreSQL
▪ Desarrollar las consultas 1, 2 y 3 considerando que un responsable debe atender varias
manzanas y que una manzana es atendida por varios responsables (relación muchos a muchos
entre manzanas y responsables).

Referencias

[1] ESRI (2016). Información general sobre las geodatabases. Online [Jun 2016].
[2] Berzal, F. (2016). Bases de datos. Fundamentos de diseño de bases de datos. Online [Jul 2016].
[3] Bonet, E. (2010). Adquisición y tratamiento de datos. Online [Jun 2016].
[4] Coronel, C., Morris, S. & Rob, P. (2011). Bases de datos. Diseño, implementación y administración.
Naucalpan: Cenage Learning.
[5] Duitama, J. & Medina, J. (2016). Bases de datos y laboratorio. Online [Aug 2016]
[6] Rocha, R. (2000). El modelo Entidad – Relación. Online [Jun 2016].
[7] Vélez, F. (2012). Geomática. Online [Jul 2016].
[8] ESRI (2016). Arquitectura de una geodatabase. Online [Aug 2016].
[9] ESRI (2016). Propiedades de clases de relación. Online [Jun 2016].
[10] ESRI (2016). Interactuar con contenidos de capas. Online [Mar 2016].
[11] ESRI (2016). Essentials of joining tables. Online [May 2016].
[12] ESRI (2016). Spatial Join. Online [Jun 2016].
[13] ESRI (2016). Una vista general del tutorial Generar una geodatabase. Online [May 2016].

103
CAPÍTULO 11

Problema 7. Diseño de geodatabase caso agencia


Carlos A. Castro C.
Julián D. Giraldo O.
Juan C. Valdés Q.
Germán M. Valencia H.
Helena Pérez G.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información Requerida


ArcGis Desktop, ArcGis Server, SqlServer, PostgreSQL- Datos geo-referenciados de Bienes Inmuebles, sitios de
PostGis Interés, curvas de nivel, comunas y barrios; Datos no geo-
referenciados de Clientes

104
1. Planteamiento el problema

Una Agencia de Arrendamientos requiere una Base de Datos Espacial para gestionar los datos de
sus clientes, las viviendas que poseen y mostrar resultados de consultas específicas utilizando la
herramienta ArcGis. Los Clientes son personas naturales o jurídicas que poseen Bienes inmuebles
(viviendas, lotes, fincas, otros) y los tienen registrados con la Agencia. Adicionalmente, se considera
cliente a quien arrienda un bien inmueble. Un cliente puede ser dueño de varios bienes registrados y a
su vez cada bien puede pertenecer a varios clientes. Un cliente puede arrendar varios bienes con la
agencia, pero cada bien puede estar arrendado solamente por un cliente. Los bienes se clasifican en
viviendas, lotes, fincas y otros; las viviendas pueden ser del subtipo casa, apartamento y otra. La
Agencia cuenta con las siguientes capas: Barrios, Comunas, Curvas de Nivel y Sitios de Interés, y
Requiere diseñar la primera versión de una base de datos que permita mostrar:
1. Mostrar las viviendas que pertenecen a dos clientes determinados.
2. Mostrar una tabla con el número de Inmuebles que pertenecen a cada cliente.
3. Mostrar en una tabla con el número de viviendas y promedio de área que están arrendadas a
cada cliente.
4. Mostrar las universidades que están a una distancia de X metros o menos de los Apartamentos
arrendados por un cliente determinado.

Los fundamentos teóricos necesarios para el desarrollo del problema son los siguientes:
▪ Geodatabase, Tipos de geodatabases [1]
▪ Diseño de Bases de Datos, diseño conceptual, diseño lógico, diseño físico, modelo entidad
relación [2-7].
▪ Feature Dataset, Feature Class, Relationship Class [8].
▪ Subtipos, dominios [8].
▪ Clave Primaria, Clave foránea [9].
▪ Consultas por atributo, consultas por localización [10].
▪ Join tabular, Join espacial [11, 12].
▪ Desarrollar el Tutorial de Geodatabase [13].

2. Desarrollo del problema

2.1 Diseño conceptual-Modelo Entidad Relación

Para elaborar el Modelo Entidad Relación se debe remitir al enunciado del problema e identificar
entidades (objetos de estudio), es decir información que se debe almacenar para luego ser consultada.
Información que en el enunciado se identifica como sustantivos, y sus atributos o propiedades. En este
caso se identifican las siguientes entidades: Cliente, Bieninmueble, Barrio, Comuna, SitioInteres,
CurvasNivel. Luego se identifican atributos o propiedades, es decir, los detalles que sirven para
identificar, describir, cualificar, clasificar y expresar el estado de una entidad. Por último, se identifica
los vínculos (relaciones) directos que existen entre las entidades. Los vínculos indirectos entre las
diferentes entidades no se especifican el modelo.
De acuerdo con estas condiciones y los fundamentos teóricos requeridos para solucionar el problema,
se obtiene el modelo conceptual representado en la Figura 1. De acuerdo con este modelo se puede
concluir que un cliente puede rentar varios bienes inmuebles y que un bien inmueble lo puede arrendar
solamente un cliente. También se observa que un cliente puede ser propietario de varios bienes
inmuebles y que un inmueble puede poseer varios propietarios.

105
Figura 1. Modelo Conceptual Caso Agencia

2.2 Diseño lógico - Modelo Relacional

Para este diseño se selecciona el modelo de datos en el que se van a realizar las operaciones de
estructuración de los datos, de actualización y de consulta, y que es independiente del Sistema Gestor
de Bases de Datos (SGBD), el cual incluye el repositorio de datos (donde se implementará la
persistencia de datos). Para el caso agencia se utilizó un modelo de bases de datos relacional, en el que
la persistencia de datos se implementa mediante un conjunto de tablas asociadas (relacionadas) a
través de las claves primarias y las claves foráneas.
El modelo relacional del caso agencia de la Figura 2 tiene en cuenta las reglas de normalización para
evitar inconsistencias y anomalías. Esto es, los atributos (columnas) de cada tabla son atómicos (no-
mutivaloriados) y cada atributo de la tabla depende solamente de la clave primaria. Igualmente, en el
modelo relacional las tablas que tienen una relación de cardinalidad n (relación muchos, que el modelo
se representa con una pata de gallina) deben incluir una clave foránea. La relación muchos a muchos
entre curvas y barrios, que se observa en el modelo conceptual, requiere una tabla intermedia con las
dos claves foráneas en el modelo relacional.

Figura 2. Modelo Lógico Caso Agencia

2.3 Diseño físico -Modelo Relacional

El diseño físico de la base de datos depende del SGBD a utilizar y, para el caso de una base de datos
espacial estructurada, actualizada y consultada desde Arcgis 10.x, se requiere de un sistema adicional
que permita la persistencia de los datos (repositorio de datos). El manejo de los datos espaciales
obedece a un modelo objeto-relacional, consistente de una base de datos relacional a la cual se le
implementan características de este paradigma. El diseño físico para el desarrollo de este problema se
orienta para un repositorio tipo FileGeodatabase. Cabe anotar que para el modelo físico del caso
Agencia no se requiere la tabla intermedia BarriosCurvas, ni las claves foráneas FkIdBarrio y

106
FkIdComuna, debido a que las consultas requeridas y que únicamente involucran objetos espaciales
(BienesInmuebles, Barrios, Sitios de interés, Curvas de nivel y Comunas), se pueden obtener a través
de las relaciones espaciales entre ellos (consultas por localización).

2.4 Diseño modelo físico con Arccatalog de Arcgis 10.x

En la secuencia de las Figuras 3 a 16 se muestra el proceso para realizar este diseño:


1. Crear Carpeta proyecto Agencia y copiar los datos ya existentes.

2. Crear la FileGeodataBase GDB_agencia

Figura 3. Crear Feature DataSet datosAgencia

107
Figura 4. Importar los Elementos espaciales que ya se tengan al feature Dataset

Figura 5. Crear los elementos espaciales que aún no se tienen (para las pruebas). En este caso se crea
bienInmueble

Figura 6. Crear subtipos y dominios

108
Figura 7. Crear las tablas (elementos no espaciales) Cliente y BienInmuebleCliente (producto de la relación de
muchos a muchos)

Figura 8. Completar la clave foránea en BienInmueble que representa el cliente que arrienda (arrendatario)

109
Figura 9. Crear el Relationship Class entre Cliente y BienInmuebleCliente, entre BienInmueble y
BienInmuebleCliente y entre Cliente y BienInmueble (Que corresponde a la relación de arrendatario)

Figura 10. Crear el Dominio para asociarlo al campo tipopersona en la tabla Cliente

Figura 11. Exportar el XML caso Agencia

110
Figura 12. Mostrar el modelo de datos UML con Enterprise Architect

Figura 13. Automatización de datos espaciales Model Builder Arcgis 10.x

111
Figura 14. Mostrar las viviendas que pertenecen a dos clientes determinados

112
Figura 15. Mostrar las universidades que están a una distancia X metros o menos de los Apartamentos
arrendados por un cliente determinado

Figura 16. Mostrar las universidades que están a una distancia X metros o menos de los Apartamentos
arrendados por un cliente determinado

113
3. Retos

▪ Para la consulta 1 del caso Agencia mostrar las viviendas que pertenecen a un cliente y a la vez
pertenecen a otro.
▪ Solucionar con ModelBuilder las consultas 2 y 3 del caso Agencia.
▪ Elaborar el diseño físico de la base de datos Agencia para utilizar con ArcGIS 10.x y los
repositorios PostgreSQL, Oracle y SQLServer.
▪ Elaborar el diseño físico de la base de datos Agencia para ser utilizada con QGIS y PostgreSQL.

Referencias

[1] ESRI (2016). Información general sobre las geodatabases. Online [Jun 2016].
[2] Berzal, F. (2016). Bases de datos. Fundamentos de diseño de bases de datos. Online [Jul 2016].
[3] Bonet, E. (2010). Adquisición y tratamiento de datos. Online [Jun 2016].
[4] Coronel, C., Morris, S. & Rob, P. (2011). Bases de datos. Diseño, implementación y administración.
Naucalpan: Cenage Learning.
[5] Duitama, J. & Medina, J. (2016). Bases de datos y laboratorio. Online [Aug 2016]
[6] Rocha, R. (2000). El modelo Entidad – Relación. Online [Jun 2016].
[7] Vélez, F. (2012). Geomática. Online [Jul 2017].
[8] ESRI (2016). Arquitectura de una geodatabase. Online [Aug 2016].
[9] ESRI (2016). Propiedades de clases de relación. Online [Jun 2016].
[10] ESRI (2016). Interactuar con contenidos de capas. Online [Mar 2016].
[11] ESRI (2016). Essentials of joining tables. Online [May 2016].
[12] ESRI (2016). Spatial Join. Online [Jun 2016].
[13] ESRI (2016). Una vista general del tutorial Generar una geodatabase. Online [May 2016].

114
PARTE V

PROCESAMIENTO DE GEODATOS

Saber dónde están las cosas, y por qué, es esencial para tomar decisiones racionales.
Jack Dangermond
Founder ESRI

En la Parte V del libro se presentan, analizan y proponen soluciones a problemas con diferentes
niveles de estructuración, asociados al proceso de diseño de modelos geoinformáticos para el
procesamiento de geodatos. Estos modelos deben garantizar la información suficiente para la solución
del problema y se puede aplicar técnicas de geoestadística, interpretación, geo procesamiento,
programación y, en general, análisis de variables espaciales, con el apoyo de software especializado.

115
CAPÍTULO 12

Problema 8. Análisis de datos espaciales para la caracterización de parámetros


geomorfométricos en cuencas hidrográficas
Juan C. Valdés Q.
Carlos A. Castro C.
John F. Escobar M.

Taxonomía Objetivos de aprendizaje


Grado de Estructuración Grado de intervención del profesor

Análisis del problema

FILOSOFIA: La hidrología, estudia el agua, recurso PREGUNTA CENTRAL:


AFIRMACIONES DE VALOR: Elegir el mejor
fundamental para la vida y para el desarrollo de las
civilizaciones, en tal sentido, el estudio de los ¿Cómo es el protocolo para la datos de entrada para la modelación de
procesos de distribución y circulación del agua en la caracterización de variables paramentos geomorfométricos en cuencas
tierra, proporciona información fundamental para espaciales involucradas en la hidrográficas
que los ingenieros civiles puedan diseñar proyectos modelación de parámetros
asociados al recurso agua. geomorfométricos de una
cuenca hidrográfica? AFIRMACIONES DE CONOCIMIENTO: La utilización
Teoría: de datos espaciales inadecuados para el cálculo de
El licenciamiento y uso de recursos naturales es parámetros geomorfométricos, pueden generar
regulado mediante la administración y gestión
errores e incertidumbres sobre los esquemas de
territorial de cuencas hidrográficas t ellas se convierten
en las unidades de división funcional con mas salida y resultados, alterado la toma de decisión en
coherencia, permitiendo una integración social, política la gestión territorial de cuencas hidrográficas
y ambiental del territorio, teniendo como, elemento
fundamental el recurso hídrico. Transformaciones: Aplicación de las herramientas del
software SIG (ArcGIS) para modelación de
Principios y Leyes:
Principios del Ciclo Hidrológico
paramentos geomorfométricos

Conceptos: Cuenca, Balance Hídrico, DEM, Curvas de Registros: Mapa final elaborado en
Nivel, Análisis y Modelación Espacial formatos de SIG y .PDF

Realizar un análisis comparativo entre varios MDE generados a partir de distintas fuentes de datos con
diferente resolución espacial, estimando el grado de precisión de cada uno de los modelos y
evaluando parámetros hidrológicos obtenidos a partir de cada uno de ellos

Herramientas SIG aplicadas Información requerida


Funcionalidades de Spatial Analysis, Funcionalidades de 3D Capas vector Curvas de Nivel en Escalas 1:2000, 1.10000,
Analysis. 1:25000; Capas RÁSTER SRTM – ASTGTM.

116
1. Planteamiento del problema

La topografía terrestre es una de las variables que más incide en los procesos hidrológicos, tanto
superficiales como subterráneos. Una de las tareas más relevantes al momento de generar modelos,
que expliquen y representen la dinámica hídrica, es contar con datos espaciales de entrada de alta
calidad y mínima incertidumbre. Desde hace algún tiempo es común hacer este tipo de modelaciones
utilizando MDE (Modelos Digitales de Elevación), arreglos bidimensionales que representan la
variación altitudinal en una región mediante una malla regular [1]. Las funcionalidades y técnicas
computacionales de las herramientas SIG han permitido el uso eficaz de los MDE para establecer
parámetros geomorfométricos relevantes en cuencas hidrográficas, tales como pendiente, orientación,
curvatura e índice topográfico, divisoria de cuenca, red y órdenes de drenajes, entre otros [2]. Sin
embargo, es conocido que estos análisis son dependientes de la precisión y la resolución de los datos
de elevación utilizados en la construcción de los MDE [3].
El presente problema, producto del proyecto de investigación Desarrollo de una metodología de
análisis espacial como soporte a las decisiones en la gestión de recursos naturales (Caso de estudio:
evaluación del riesgo en laderas de media y alta pendiente, cuenca la presidenta, Medellín, Colombia),
específicamente en lo relacionado al objetivo de análisis y preparación de geodatos mínimos para la
caracterización de variables espaciales, que plantea, a partir de diversos protocolos de modelación
hidrológica, desarrollar los conceptos fundamentales para modelar los parámetros geomorfométricos
de una cuenca hidrográfica y generar un análisis comparativo entre varios MDE creados a partir de
distintas fuentes de información con diferente resolución espacial, estimando el grado de precisión de
cada uno de los modelos y evaluando parámetros hidrológicos obtenidos a partir de cada uno de ellos.
Como área de aplicación del problema se tomará el Área Metropolitana del Valle de Aburrá,
compuesta geográficamente por diez municipios con más de 100 microcuencas, que componen la gran
cuenca del Río Aburrá (Rio Porce). Se ha seleccionado la microcuenca de la quebrada La Iguaná (Figura
1), con información de referencia proporcionada por el Área Metropolitana, que servirá como base de
comparación al final del ejercicio.

Figura 1. Microcuencas Área Metropolitana del Valle de Aburrá – Microcuenca La Iguaná

Para el desarrollo de la modelación se cuenta con: 1) una Personal-GeoDatabase que contiene


información de la zona de estudio y estructurada con la información de la Figura 2.

Figura 2. Personal Geodatabase base para la modelación

117
2) Un MDE SRTM, con resolución espacial de 30m, se descargó http://earthexplorer.usgs.gov/. 3)
tres vectoriales con las curvas de nivel en escala 1:25000 y 1:10000 y 1:2000 para la zona de la
subcuenca La Iguaná, organizadas por el IGAC en el proyecto Cartoantioquia. 4) Un vectorial con la red
de drenajes suministrada por Área Metropolitana del Valle de Aburrá. 5) Para la construcción de los
MDE a partir de los contornos en escala 1.2000 y que se utilizará para la primera parte del ejercicio, se
utilizó la función Topo to Ráster del software ArcGIS 10.3, que utiliza un método de interpolación
diseñado específicamente para crear MDE hidrológicamente correctos, con base en el programa
ANUMDE [4]. Este método interpola los valores de elevación para un RÁSTER mientras se imponen
restricciones que aseguran una estructura de drenaje conectado y la correcta representación de crestas
y arroyos a partir de los datos de entrada en contornos. 5) El tamaño de la celda se estimó a partir de
la longitud total de los contornos utilizados [5], utilizando un enfoque preciso al evaluar la densidad de
líneas de contorno en un área y derivar el 5% de probabilidad de la separación más pequeña entre las
mismas. Según las áreas descritas el tamaño de celda es 10m para el MDE de la subcuenca La Iguaná.
En la primera parte del problema se abordará el modelo para esquematizar los parámetros
geomorfométricos de la zona comprendida por la subcuenca La Iguaná (Figura 3), calculando los
siguientes aspectos:
▪ MDE restablecido sin errores
▪ Flujo de direcciones
▪ Flujo de acumulaciones
▪ Red de escorrentías superficiales
▪ Ordenes los drenajes superficiales
▪ Área de la cuenca (Divisoria de aguas)
▪ Perímetro de la Cuenca
▪ Canal Principal con sus respectivos atributos en Z
▪ Modelo Tridimensional de la cuenca

Figura 3. Intencionalidades del ProblemaSolución: Primera Parte [6]

En la segunda parte del problema se planteará un reto, que proporcionará un modelo para el análisis
comparativo entre fuentes de datos vs. Resultados obtenidos. El estudiante o investigador que aborde
el presente problema debe poseer conocimientos básicos en análisis espacial, algebra de mapas y
procesos de edición básica de elementos geoespaciales.

2. Desarrollo del problema

Para abordar la primera parte del problema se tomará el modelo expuesto en la Figura 4, en la que se
detallan los pasos para realizar la modelación hidrológica en el área de estudio. Para tales efectos y tal
como se expuso anteriormente, la modelación se realizará a nivel de ejemplo únicamente con MDE 10
metros, producto de una interpolación bilineal de las curvas de nivel en escala 1:2000.

118
Obtener MDE
Curva de Nivel Definición de Cuencas Flujos de Acumulación
(Topo to Raster) (Basin)
Escala 1:2000 (Flow Accumulation)
Celda=10m

Vector de Drenajes
MDE – SRTM Flujos de Dirección
(Stream to Feature)
Celda=30m (Flow Direction) Condicional para
Obtención de Drenajes
(Con)
MDE sin sumideros
Ordenes de Drenajes
(Stream Order)
Sumideros
(Sink)
No
Definición Punto
Sumidero
Longitudes de Flujo
(Snap Pour Point)
Definir Algún (Flow Length)
Sumidero

Si
Divisoria de Aguas
Corrección de (Watershed)
MDE
(Fill)

Figura 4. Diagrama de flujo


Figura 4. Diagrama de Flujopara Modelación
para Modelación Hidrológica
Hidrológica

Basados en el MDE_10m se obtendrá, en primera instancia, las direcciones de flujo en la zona de


estudio, las cuales son claves para el comienzo de la modelación hidrológica. La resultante del proceso
es una relación entre el cambio máximo en la elevación de cada celda a lo largo de la dirección de flujo
en la longitud de la trayectoria entre los centros de las celdas (Figura 5), expresada en porcentajes [6].

Flujos de Dirección
(Flow Direction)

Matriz de Elevaciones (MDE) Matriz de Direcciones de Flujo

Codificación de direcciones

Figura 5. Estructura en la obtención de direcciones de flujo

La dirección de flujo (Figura 6) se determina por la dirección de descenso más aguda, o la máxima
caída, a partir de cada celda. La distancia se calcula entre los centros de la celda, por lo tanto, si su
tamaño es 1, la distancia entre dos celdas vecinas ortogonales es 1 y la distancia entre dos celdas
vecinas diagonales es 1.414 (raíz cuadrada de 2). Si el descenso máximo a varias celdas es el mismo, el
rango se amplía hasta que se encuentre el descenso más agudo [7].

Figura 6. Procedimiento para calcular las direcciones de flujo

Posibles sumideros y picos a menudo son errores en estructuras RÁSTER de DEM, debido a la
resolución de los datos o el redondeo de las elevaciones al valor entero más cercano. Con la función
Sink se pueden calcular dichas irregularidades (Figura 7).

119
Figura 7. Identificación de irregularidades a nivel de sumideros en el MDE

Estos errores se deben corregir para garantizar la delimitación adecuada de la cuenca y escorrentías
superficiales. Si los sumideros no se corrigen, una red de drenaje derivada de esta matriz puede ser
discontinua (Figura 8).

Figura 8. Corrección de Sumideros y picos Fill


Figura 8. Corrección de Sumideros y picos “Fill”

La funcionalidad fill, o de relleno, utiliza los equivalentes de herramientas tales como centros de
coordinación de flujo, dirección del flujo, sumideros, cuencas y relleno de zona, para localizar y corregir
sumideros. La funcionalidad establece una iteración de ajuste hasta que todos los sumideros dentro del
límite especificado Z están llenos. A medida que se llenan los sumideros, otros pueden ser creados en
los límites de las Áreas rellenas, que se eliminarán en la siguiente iteración. La herramienta también se
puede utilizar para eliminar los picos, que son células no esenciales con elevación mayor que el que se
espera, dada la tendencia de la superficie circundante (Figura 9).

Figura 9. Corrección del MDE mediante la función fill y obtención de un Flujo de Direcciones adecuado

Posterior a la obtención de MDE y el flujo de direcciones corregidos se calcula el caudal acumulado


(Figura 10), que se obtiene mediante la asignación del peso acumulado de todas las celdas que fluyen
a cada celda, tomando la pendiente descendente en el RÁSTER de salida.

120
Flujo de Acumulación
(Flow Accumulation)

Codificación de direcciones

Figura 10. Estructura en la obtención del flujo de acumulaciones


Figura 10. Estructura en la obtención del flujo de acumulaciones

Las celdas con una alta acumulación de flujo son zonas de concentraciones de flujo y se pueden
utilizar para identificar canales de escorrentías (Figura 11).

Figura 11. Obtención del Flujo de Acumulaciones

Obtenido la matriz de acumulaciones, es posible definir un umbral de caudales que se puede


especificar en la trama derivada de la herramienta de Acumulación de flujo. La etapa inicial es definir
el sistema de escorrentías superficiales, un proceso que se realiza con una herramienta de evaluación
condicional o el uso de álgebra de mapas. Para el presente ejercicio se utilizará la calculadora ráster
con una sintaxis general para utilizar el condicional: Drenajes = CON (Flow_Aacum> 100, 1), que
proporcionará una salida matricial donde todas las celdas, con más de 100 celdas que fluyen hacia ella,
serán parte de la red de drenajes (Figura 12).

Figura 12. Obtención de la red de escorrentías superficiales (Drenajes)

121
La matriz resultante puede convertirse a elemento vectorial mediante la función “Stream to
Feature” (Figura 13).

Figura 13. Obtención de la red de escorrentías superficiales en formato vectorial

La matriz de red de drenajes obtenida posibilita poder clasificar las escorrentías superficiales, un
método que asigna un orden numérico a los vínculos en una red de drenajes. Este orden es un método
para identificar y clasificar los tipos de escorrentías basado en la cantidad de afluentes, lo cual permite
inferir algunas características de los drenajes simplemente al conocer el orden. Un ejemplo de ello se
podría determinar en los drenajes de primer orden, que están dominados por un flujo de agua por
tierra y no tienen un flujo concentrado de aguas arriba. Debido a esto son más susceptibles a problemas
de contaminación sin origen de punto y pueden obtener más beneficios de las zonas de influencia
ribereñas amplias que de otras áreas de la cuenca hidrográfica. Existen dos métodos comúnmente
utilizados para asignar órdenes: el método propuesto por Strahler en 1957 y el método planteado por
Sharve en 1966. En ambos métodos se asigna un valor de 1 a las escorrentías superficiales aguas arriba,
o los vínculos exteriores [8].
▪ Método de Strahler. En este método se asigna un orden de 1 a todos los vínculos sin afluentes,
cononocidos como de primer orden. La clasificación de arroyos aumenta cuando los arroyos del
mismo orden se intersectan. Por lo tanto, la intersección de dos vínculos de primer orden creará
un vínculo de segundo orden, la intersección de dos vínculos de segundo orden creará un vínculo
de tercer orden, y así sucesivamente. Sin embargo, la intersección de dos vínculos de distintos
órdenes no aumentará el orden (Figura 14).

Figura 14. Método de Strahler

122
▪ Método de Shreve. El método tiene en cuenta todos los vínculos en la red, al igual que el de
Strahler, y a todos los vínculos exteriores les asigna un orden de 1, sin embargo, los órdenes son
aditivos. Por ejemplo, la intersección de dos vínculos de primer orden crea un vínculo de segundo
orden, la intersección de un vínculo de primer orden y uno de segundo orden crea otro de tercer
orden, y la intersección de un vínculo de segundo orden y uno de tercer orden crea otro de cuarto
orden (Figura 15).

Figura 15. Método de Shreve

Debido a que los órdenes son aditivos los números del método de Shreve se conocen como
magnitudes en lugar de órdenes. La magnitud de un vínculo en el método de Shreve es el número
de vínculos de arroyos arriba. En la Figura 15 se visualiza la asignación de órdenes para las
escorrentías superficiales del área de estudio.

Figura 15. Obtención de órdenes en la red de escorrentías superficiales con el método Strahler

A partir de las direcciones de flujo obtenidas se proyecta la divisoria de aguas de la cuenca, para ello
es necesario determinar un punto sumidero que esté ubicado en la parte final, aguas abajo, de la
escorrentía superficial de orden seis, obtenida en el paso anterior. Es importante resaltar que este
punto sumidero debe estar posicionado al interior de las celdas que componen dicho orden y no debe
sobrepasar los límites con intersecciones de otro sistema, porque esto puede propiciar errores en el
cálculo de salida. Se construirá un elemento vectorial tipo punto, que se editará con esta ubicación y se
deberá interpolar con la herramienta Interpolate Shape de la Tolbox Funcional Surface, de 3D Analyst
Tools; de tal manera que el punto sumidero asuma las elevaciones del MDE (Figura 16).

123
Figura 16. Cuenca la Iguaná, modelada desde un MDE 10m

La matriz resultante es la divisoria de aguas o cuenca hidrográfica para el sistema de escorrentías


superficiales, la cual, al convertirse en elemento vectorial, puede suministrar parámetros como área y
perímetro, entre otros. Adicionalmente, con la información obtenida en todo el proceso, como en el
caso de los órdenes del sistema, se puede obtener el canal principal con sus propiedades geométricas
asociadas. En la Figura 17 se observa la modelación 3D de la cuenca la Iguaná, donde se aprecia la
coherencia de la divisoria de aguas o línea de cumbres frente al MDE utilizado y el sistema de
escorrentías superficiales que la componen.

Figura 17. Modelación 3D de la cuenca la Iguaná

3. Análisis de datos de entrada

En la primera parte del problema se estableció el protocolo para la modelación hidrológica, sin
embargo, también hay que analizar los datos de entrada para determinar cuál es el MDE más apropiado
para realizar dicha modelación. Las características de MDE pueden variar, dependiendo la fuente
utilizada. A continuación, se relacionan algunos protocolos que se deben obtener:
1. A partir de una red de triángulos irregulares, obtenida con las curvas de nivel, elaborar una
matriz de elevaciones.
2. Adquirir una matriz de elevaciones utilizando interpolaciones bidireccionales de las curvas de
nivel.
3. Adquisición de imágenes topográficas a partir de sensores activos tipo Radar.

124
Todas estas matrices de elevaciones, con diferentes características como resolución espacial y
posibles anomalías por fallas en las fuentes de extracción de información, deben ser objeto de
correcciones con algoritmos predeterminados en funcionalidades incorporadas en las herramientas
geomáticas, tales como ArcGis, que posibilitan un mejor comportamiento hidrológico de los MDE
utilizados. Dado que se disponen de varias fuentes de datos que proporcionan información de entrada
para la obtención de un MDE, se tomarán varias de ellas y se realizará un análisis comparativo de
comportamiento transversal, para determinar cuál o cuáles son las más apropiadas para realizar la
modelación en el presente problema. Las fuentes disponibles son:
▪ Tres vectoriales con las curvas de nivel en escala 1:25000, 1:10000 y 1:2000, obtenidos para la
zona de la subcuenca La Iguaná, organizadas por el IGAC en el proyecto Cartoantioquia.
▪ Un MDE SRTM: Shuttle Radar Topography Mission, un proyecto internacional entre la Agencia
Nacional de Inteligencia Geoespacial y NASA. Dicha misión captura y proporciona gratuitamente
a través de Internet mapas topográficos digitales de alta resolución de la tierra. El SRTM de
elevación con resolución espacial de 30.8 m se descargó desde http://earthexplorer.usgs.gov/.
▪ Un MDE ASTER GEMDE: Advanced Spaceborne Thermal Emission and Reflection Radiometer,
que captura GMDE, conformado por METI y NASA. El MDE se descargó del sitio web de Space
Systems Japan: http://gdem.ersdac.jspacesystems.or.jp/, con una resolución espacial de 30.8 m.

En la Tabla 1 se muestran algunas de las fuentes de datos con diversos protocolos de obtención y
corrección del MDE para realizar el análisis comparativo.
Tabla 1. Fuentes de datos, protocolos de obtención y corrección seleccionados
Fuente Protocolo de obtención del MDE Corrección Salida
Curva 1:2000 Red de Triángulos Irregulares Rellenado con “Fill” F_MDE_4m_TIN
Curva 1:2000 Interpolación Bilineal Rellenado con “Fill” F_MDE_10m_TtoR
Curva 1:2000 Interpolación Bilineal, utilizando Red de Drenajes y Vías Rellenado con “Fill” F_MDE_4m_TtoRR
Curva 1:10000 Red de Triángulos Irregulares Rellenado con “Fill” F_MDE_10m_TIN
Rellenado con “Fill” al
ASTGTM Descarga del Sitio Web F_ASTGTM
inverso de la Matriz

3.1 Obtención de MDE por red de triángulos irregulares

La funcionalidad de Triangular Irregular Networks (TIN) posibilita la generación de una red


triangularizada irregular a partir de un grupo de puntos con parámetros en coordenadas x, y, z, que
hacen parte de los vértices que componen las curvas de nivel. El set de triángulos generados cumple
con el criterio de Delaunay como método de interpolación, donde cada uno se encierra en un círculo,
que no contiene puntos diferentes a los tres vértices que originan el triángulo circunscripto, y el
mínimo ángulo interior de cada triangulo se maximiza, en consecuencia, los elementos largos y
delgados se minimizan, capturando de esta manera la posición de los objetos que cumplen una función
importante en la superficie [9].
El resultado se expresa como un grupo de puntos conectados por bordes y tapizados con faces, en
un símil de una maqueta de cartón sostenida por una estructura de alambres, en la que cada elemento
es un triángulo [10].
Dado que se utilizarán fuentes de datos de buena precisión, expresadas en curvas de nivel en escala
1:2000, no se tendrá en cuenta la red de drenajes y la estructura de vías. El resultante se transforma a
una matriz de alturas en la que se consigna, para cada celda, el valor muestreado en el centro de masa
del elemento, lo que enmascara y generaliza aún más los resultados. El tamaño de la celda resultante
es de 4 m. Este procedimiento es utilizado con las curvas de nivel 1:10000, obteniendo un MDE con
tamaño de celda de 10 m (Figura 18).

125
Figura 18. Protocolo para Red de Triángulos Irregulares

3.2 Obtención de MDE por interpolaciones bilineales

El protocolo de interpolación bilineal (Figura 19) se basa en el programa Anudem [4] y utilizando
los elementos comúnmente disponibles para representar las elevaciones, tal como las curvas de nivel
y elementos de distorsión como drenajes y cuerpos de agua. El método, que utiliza la funcionalidad
Topo to Ráster de ArcGis, aplica una técnica iterativa de interpolación por diferencias finitas para
obtener la eficiencia de los métodos locales de interpolación, como el IDW, sin las pérdidas de
continuidad asociadas a los métodos globales como Kriging o Spline. Básicamente consiste en un Spline
finamente discretizado, al que se ha removido la penalización que sufre la rugosidad en otros métodos,
para permitir que el MDE resultante se ajuste a los cambios abruptos inducidos por drenajes y
pequeños escarpes [10].

Figura 19. Protocolo para Interpolación Bilineal

Esta funcionalidad se basa en el hecho de que el agua es la principal fuerza erosiva y que en muchos
sitios determina las formas de paisaje, por esta razón es común encontrar colinas (máximos locales) y
sumideros (mínimos locales), de los que resulta un patrón interconectado de drenajes. Por esta razón
el algoritmo de la funcionalidad interpone restricciones en el proceso de interpolación en los drenajes,

126
lo que se traduce en una mayor precisión, con menos datos de entrada, y minimiza el número de
sumideros que requieran una verificación manual u operaciones posteriores de eliminación [10].

3.3 Obtención de MDE a partir de un sensor aster astgtm

Como se mencionó, actualmente se dispone de fuentes para adquirir imágenes topográficas SRTM y
ASTGTM en diversos sitios Web, que proporcionan insumos para el análisis hidrogeológico y en
diversos proyectos de investigación, donde se requiere validar, corregir y ajustar otros modelos
disponibles. Estos datos se pueden obtener tanto en formato geotiff como en ASCII. Las características
de estas fuentes de información son amplias, sin embargo, se debe tener en cuenta aspectos relevantes
para su utilización, tales como:
▪ Estas imágenes de radar no son una estimación sino una medida de alturas del terreno, y las
utilizadas en este trabajo poseen tamaño de celda de 30x30m, donde esa resolución posee una
proximidad escalar adecuada a la cartografía base (1:25.000). Sin embargo, presenta
inconvenientes en zonas donde la cobertura altera el patrón de alturas tomado por el radar, como
en zonas de bosque, y en protecciones vegetales significativas, como la presentadas en
postrimerías de ríos y drenajes, puede representar rizos inexistentes en la topografía, que luego
repercutirán en la modelación hidrológica.
▪ Utilizan el mismo sistema de cuadrantes WRS2 usado por los satélites LANDSAT, sin embargo,
en cada escena el error absoluto es variable, porque es codependiente de la topografía. Esto
puede causar altos errores en las zonas montañosas y menores en la zona de llanura o valle, como
en el caso del Área Metropolitana de la Ciudad de Medellín.

Estas alteraciones, provocadas por coberturas vegetales o incluso construcciones humanas, son
protuberancias anómalas en la imagen, por lo que se necesita una estrategia de corrección para realizar
un llenado de las depresiones al inverso del MDE. Este procedimiento utiliza la función Fill de ArcGis y
el algebra de mapas de la altura máxima promedio de los demás modelos, que está en los límites de los
3200 metros de altura y que se resta de la imagen de radar utilizada, la cual tiene picos o alteraciones
que alcanzan los 5000 metros de altura (Figuras 20 y 21).

Figura 20. Anomalías en imagen radar ASTGTM (Arriba), con modificación al inverso de la imagen (abajo
izquierda) y llenado con “Fill” (abajo derecha)

127
Figura 21. Imagen ASTGTM ajustada de nuevo al inverso

4. Análisis y selección del modelo digital de elevaciones

Dadas las técnicas anteriores para la obtención de modelos de elevación digital, se puede realizar
una comparación más detallada de los resultados para tener mayor claridad acerca de la pertinencia
de uno u otro modelo obtenido (Figura 22). Para ello se definió una serie de puntos de muestreo,
distribuidos en los vértices del canal principal. Utilizando la herramienta Feature Vertices To Point se
traslada a un elemento vectorial los puntos que conforman la serie de vértices del canal principal, a los
cuales, por medio de la herramienta Add Surface Information, se puede agregar a cada punto las
respectivas alturas z, de cada uno de los MDE obtenidos por las técnicas descritas.

Figura 22. Muestreo de la variación de alturas con respecto a la distancia en el Canal Principal

Se que, el tamaño de celda y las imperfecciones en la imagen radar muestran un descenso en


escalones irregulares para el ASTGTM y el MDE obtenido por red irregular triangularizada, con
cambios bruscos en el gradiente y con un salto anómalo en el cierre debido a la interpolación de datos
espurios. En la Figura 23 se observa un mejor comportamiento de los MDE obtenidos con protocolos
TIN y de interpolación bilineal a diferentes tamaños de celda. Esto demuestra que datos de entrada con
escalas de precisión 1:2000 proporcionan, independientemente del protocolo utilizado, un
comportamiento del modelo de elevaciones adecuado para análisis hidrológico.

128
Figura 23. Muestreo de los MDE con mejor resultado

5. Reto

▪ Utilizando métodos de comparación adicionales y técnicas estadísticas que permitan, no sólo en


el canal principal sino con afluentes de órdenes menores, corroborar este comportamiento en
una extensión de área mayor a la cuenca analizada en este problema.

Referencias

[1] Forkuor, G. & Maathuis, B. (2012). Comparison of SRTM and ASTER derived digital elevation models over
two regions in Ghana – Implications for hydrological and environmental modeling. In Piacentini, T. &
Miccadei, E. (Eds.), Studies on environmental and applied geomorphology (pp. 219-240). Rijeka: InTech.
[2] Schumann, G. et al. (2008). Comparison of remotely sensed water stages from LiDAR, topographic contours
and SRTM. ISPRS journal of photogrammetry and remote sensing 63(3), pp. 283-296.
[3] Ludwig, R. & Schneider, P. (2012). Validation of digital elevation models from SRTM X-SAR for applications
in hydrologic modeling. ISPRS Journal of Photogrammetry and Remote 60(5), pp. 339-358.
[4] Hutchinson, M. (1989). A new procedure for gridding elevation and stream line data with automatic removal
of spurious pits. Journal of Hydrology 106(3-4), pp. 211-232.
[5] Hengl, T. & Evans, I. (2009). Mathematical and digital models of the land surface. Geomorphometry 33, pp.
31–63.
[6] Greenlee, D. (1987). Ráster and vector processing for scanned linework. Photogrammetric Engineering and
Remote Sensing 53(10), pp. 1383–1387.
[7] Jenson, S. & Domingue, J. (1988). Extracting topographic structure from digital elevation data for geographic
information system analysis. Photogrammetric Engineering and Remote Sensing 54(11), pp. 1593–1600.
[8] Tarboton, D. et al. (1991). On the extraction of channel networks from digital elevation data. Hydrological
Processes 5, pp. 81–100.
[9] ESRI (2008). About TIN surfaces. ArcGis 10.3.1 Desktop Help.
[10] Escobar, J. (2011). Plataforma SIG para el modelamiento de sistemas acuíferos. PHd Tesis en Ingeniería.
Universidad de Antioquia.

129
CAPÍTULO 13

Problema 9. Análisis geoespacial para el cálculo de alternativas de ruta en


proyectos de infraestructura lineal
Oscar A. Gómez C.
Daniel Horfan Álvarez
Libardo A. Londoño C.

Taxonomía Objetivos de Aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del Problema

Herramientas SIG aplicadas Información requerida


Edit- Field Calculator, Vector to ráster- Slope- Capas vector por Componente, Capas ráster por componente, Capas
Density, Reclassify, Ráster Calculator, Cost Distance, ráster reclasificadas, Ráster de susceptibilidad por componente,
Corridor- Slice- Ráster Calcultator Ráster de susceptibilidad general punto inicial-punto final, Ráster de
costo acumulado

130
1. Planteamiento del problema

El análisis espacial proporcionado por los Sistemas de Información Geográfica es un proceso que
permite estudiar los patrones geográficos de los datos y las relaciones entre los elementos que lo
conforman. La capacidad de los SIG para analizar y transformar la información espacial permite la
creación de escenarios, es decir, de construir modelos a partir de la evaluación de la información. En
los escenarios se pueden modificar las variables, de forma que pueden obtener escenarios probables,
factibles, o deseables de estos resultados que se pueden utilizar para conocer las condiciones actuales
o para predecir los fenómenos estudiados [1].
El siguiente ejercicio es un ejemplo de análisis espacial en el que se plantea la metodología para el
cálculo de corredores de viabilidad ambiental que definen el trazado de proyectos de infraestructura
lineal, empleando las herramientas de análisis espacial de ArcGIS. La metodología se basa en el cálculo
de superficies de susceptibilidad ambiental a partir de la combinación de variables ambientales del
territorio, en función de los criterios exigidos por la autoridad ambiental y en la función de costos de
viaje (cost distance) incluida en las herramientas de análisis de ArcToolBox de ArcGIS. Dicha
combinación se logra aplicando funciones estadísticas que establecen los promedios aritméticos,
ponderado y máximos de las calificaciones de criticidad asociadas a cada capa temática del territorio.
Además, se aplica principalmente el Diagnóstico Ambiental de Alternativas (DAA) de proyectos
lineales, exigido por la autoridad ambiental en Colombia [2]
El modelado espacial de los datos y las operaciones de superposición de capas de información se
realizaron a través de la herramienta Model Builder y la calculadora de mapas de ArcGIS. El análisis
numérico y espacial realizado a través del SIG, representa la interacción de los diferentes aspectos
bióticos, abióticos y socioculturales, que inciden en la viabilidad del trazado ambiental de un proyecto
lineal (vías, oleoductos, líneas de transmisión de energía, entre otros). A lo largo del ejercicio se explica
el uso de cada función, procedimiento y escalas de valoración empleados, a fin de orientar al estudiante
hacia un entendimiento conceptual de la solución del problema. De igual forma, al final se realiza un
análisis comparativo entre los resultados obtenidos en los diversos escenarios de solución, que ayuda
a comprender los métodos y a la pertinencia de uso, de acuerdo con la particularidad de cada proyecto.

2. Resumen del proceso

En el presente ejemplo de análisis espacial se llevan a cabo las siguientes actividades:


1. Definir el problema
2. Establecer los criterios que delimitan o restringen las soluciones al problema
3. Identificar las variables o capas de información de acuerdo con cada criterio
4. Elegir el método de solución
5. Procesar los datos
6. Analizar los resultados

Al final del ejercicio el estudiante estará en la capacidad de resolver problemas que involucran
múltiples criterios y variables, orientados a definir las mejores alternativas de viabilidad ambiental en
proyectos de infraestructura lineal, tal como el trazado de carreteras, líneas de transmisión de energía,
trazado de oleoductos, entre otros; sujetos a la normatividad ambiental. De igual manera podrá
adquirir destreza en el manejo de herramientas de modelación y análisis espacial, como Model Builder,
Algebra de mapas, funciones de densidad, costos de viaje, distancia, entre otras, pertenecientes al set
de herramientas de análisis de ArcGIS. Uno de los aspectos más importantes del ejercicio es la
comprensión de los diferentes métodos de integración de variables y la pertinencia de su uso, de
acuerdo con las características del problema.

131
2.1 Preguntas que se podrán resolver al final del ejercicio

1. ¿Cómo abstraer la realidad de los fenómenos planteados en los criterios de la norma ambiental
para representarlos geográficamente?
2. ¿Cómo se organizan los datos para facilitar su análisis?
3. ¿Cómo se modela el DAA para proyectos de infraestructura lineal?
4. ¿Qué funciones del análisis espacial se requieren para derivar, a partir de unos datos básicos,
mapas que representen un fenómeno específico de una variable, por ejemplo, densidad de
población, pendientes, densidad vial, entre otros?
5. ¿Qué peso se le debe dar a un criterio o variable específica de acuerdo con la importancia que
representa en la solución?
6. ¿Cómo se obtienen las alternativas de viabilidad en un proyecto de infraestructura lineal?
7. ¿Qué método estadístico es el más apropiado de acuerdo con las características del problema?

2.2 Conocimientos básicos que el estudiante debe tener antes de abordar el presente ejercicio

1. Edición y estructuración de datos geográficos en una base de datos espacial personal.


2. Conceptos básicos de análisis espacial: creación de buffers a áreas de influencia, superposición
de capas con la calculadora ráster, cálculo de pendientes a partir de un DTM.
3. Creación de modelos con la herramienta Model Builder de ArcGIS.

2.3 Caso hipotético

Dentro del Plan Nacional de Desarrollo se tiene proyectado la construcción de varias obras de
infraestructura vial, que faciliten la comunicación y el desarrollo en algunas regiones apartadas del
territorio nacional. Uno de estos proyectos plantea la construcción de una vía de doble calzada que
comunique los municipios de Gómez Plata y Zaragoza, en Antioquia. El problema planteado en este
ejercicio es calcular el corredor de alternativas ambientalmente viables para esta obra, teniendo en
cuenta los requerimientos legales establecidos por la autoridad ambiental para este tipo de proyectos,
además de realizar un análisis comparativo entre varios modelos de cálculo, con el fin de recomendar
las alternativas de ruta apropiadas.

2.4 Marco contextual

El diseño de proyectos lineales requiere estudios técnicos y ambientales que permitan establecer
las áreas de mayor viabilidad para el trazado de la ruta. Hoy en día, se utiliza la tecnología de SIG como
herramienta para generar superficies de susceptibilidad, mediante la superposición de capas temáticas
en formato ráster (matrices de celdas), que recogen los criterios de evaluación ambiental necesarios
en la valoración de impactos sobre el área del proyecto. La superposición de mapas permite
interrelacionar las variables de diseño con las variables ambientales, con el fin de producir criterios de
decisión conducentes a obtener las mejores alternativas de un proyecto de infraestructura lineal.
El comportamiento de cada fenómeno ambiental, físico y socioeconómico en el área de influencia
del proyecto permitirá evaluar su impacto en cada uno de estos componentes. Al resultado de este
análisis se le denomina Susceptibilidad Ambiental, que se define como la capacidad de asimilación y
respuesta de los sistemas ambientales ante la implementación de un proyecto e indican la condición o
estado de sensibilidad de ellos frente a los impactos generados. El análisis de susceptibilidad ambiental
mide el grado de vulnerabilidad que presentan estos sistemas y que reflejan, de alguna forma, la muy
baja o ninguna capacidad de asimilación [2].

132
El cálculo de niveles de susceptibilidad mediante superposición de mapas se realiza comúnmente a
partir de funciones estadísticas que retornan el valor máximo, promedio aritmético o el promedio
ponderado de las celdas. Estos niveles obedecen a una escala de valoración que mide el impacto al
medio ambiente (en sus diferentes componentes), ante el paso o construcción del proyecto de
infraestructura. Los valores empleados para medir la susceptibilidad, así como su interpretación, se
explican más adelante en el desarrollo del ejercicio, lo mismo que los criterios ambientales que
establece la normatividad en Colombia para definir las rutas o corredores, por donde es factible
construir el proyecto con los menores impactos ambientales posibles.
Este ejercicio hace parte del estudio que se debe presentar a la Autoridad Ambiental para obtener
la aprobación de una ruta y solicitar la licencia ambiental que conlleve a la construcción del proyecto
[2, 3]. La licencia ambiental dependerá entonces de un estudio más detallado, conocido como Estudio
de Impacto Ambiental [4], el cual está fuera del alcance de este ejercicio.

3. Desarrollo del problema

El modelo de solución planteado involucra los procesos descritos en la Figura 1, las funciones de la
Figura 2 y los insumos de la Figura 3.

Figura 1. Proceso del modelo de solución

Figura 2. Funciones del modelo de solución

Figura 3. Insumos del modelo de solución

3.1 Definir los criterios de evaluación

Para la identificación de los posibles corredores de alternativas de trazado del proyecto, la


autoridad ambiental establece como mínimo los siguientes criterios [2]:
1. Relacionados con el medio abiótico
▪ Evitar zonas con pendiente excesiva, propensas a erosión o a inestabilidad.

133
▪ Evitar zonas de riesgo natural establecidas a nivel nacional, regional y local.
▪ Afectación mínima de los cuerpos de agua.
▪ Afectación mínima de áreas pobladas.
▪ Afectación mínima de la infraestructura existente

2. Relacionados con el medio biótico (restrictivos)


▪ Áreas de exclusión o manejo especial del orden nacional o regional
▪ Áreas de alta importancia para la preservación de la biodiversidad y/o prioritarias para la
conservación del recurso faunístico
▪ Ecosistemas estratégicos legalmente definidos
▪ Áreas de reserva de la Ley 2 de 1959, áreas de manglares, áreas declaradas como zonas
Ramsar.

3. Relacionados con el medio socioeconómico y cultural


▪ Zonas donde el proyecto pueda generar conflictos con el uso del suelo.
▪ Zonas en donde el recurso hídrico sea escaso y el proyecto pueda ocasionar conflictos de uso.
▪ Zonas pobladas.
▪ Sitios de reconocido interés histórico, cultural y arqueológico, declarados como parques
arqueológicos, patrimonio histórico nacional o patrimonio histórico de la humanidad, o
aquellos yacimientos arqueológicos que por la singularidad de sus contenidos culturales
ameriten ser preservados para la posteridad.
▪ Áreas de especial sensibilidad por razones étnicas o de propiedad colectiva de la tierra.
▪ Proyectos de desarrollo nacional y regional, distritos de riego y áreas de expansión urbana.

Cada uno de estos criterios se debe medir a partir de la información cartográfica y temática
disponible en el área de estudio, definida entre los dos puntos de conexión del proyecto. Para tal efecto
es necesario realizar un inventario de información disponible a la escala exigida para este tipo de
estudios (1:100.000), o menor en el mejor de los casos. Las posibles fuentes de información de carácter
público, disponibles para Antioquia, se pueden adquirir en entidades como IGAC, IDEAM, Corantioquia,
Gobernación de Antioquia, entre otras.

3.2 Identificar las variables o capas de información por cada criterio

El primer paso para la determinación de los corredores de alternativas consiste en definir las capas
de información temática que satisfacen los criterios ambientales establecidos por la autoridad. El
análisis de susceptibilidad ambiental involucra el concepto de componente analítica, para agrupar los
factores con particularidades propias dentro de un entorno común. En este ejercicio se trabaja con los
componentes y capas de información descritos en las Tablas 1 a 3. Es importante aclarar que para este
tipo de estudios (viabilidad de proyectos) la escala de análisis sugerida es de 1:100.000. Cuando el
proyecto comienza la etapa de diseño se trabaja con escalas más detalladas, tales como 1:25.000 o, en
el mejor de los casos, 1:10.000.
Tabla 1. Criterios componente abiótico
Criterio Capa de información Fuente
Zonas con pendiente excesiva, propensas a A partir del DTM elaborado por NASA
Ráster de pendientes
erosión o a inestabilidad con resolución espacial de 30 metros.
Zonas de riesgo natural establecidas a nivel Amenaza por Movimientos de
Corantioquia
nacional, regional y local Masa e Inundación
Afectación mínima de áreas pobladas Densidad de Construcción Corantioquia
Afectación mínima de los cuerpos de agua Cuerpos de Agua Corantioquia
Zonas de inestabilidad Geológica Fallas, Geología, Geomorfología Corantioquia

134
Tabla 2. Criterios componente biótico
Criterio Capa de información Fuente
Áreas de exclusión o manejo especial del orden nacional o regional Áreas de Reserva, PNN Corantioquia
Áreas de alta importancia para la preservación de la biodiversidad
Cobertura Vegetal Corantioquia
y/o prioritarias para la conservación del recurso faunístico
Ecosistemas estratégicos legalmente definidos Área de interés ambiental Corantioquia
Áreas de reserva de la Ley 2 de 1959, áreas de manglares, áreas
Zona de Reserva Forestal Ley 2a Corantioquia
declaradas como zonas Ramsar

Tabla 3. Criterios componente cultural


Criterio Capa de información Fuente
Zonas donde el proyecto pueda generar conflictos con el uso del suelo. Conflictos del suelo Corantioquia
Zonas en donde el recurso hídrico sea escaso y el proyecto pueda ocasionar
Densidad hídrica Corantioquia
conflictos de uso.
Zonas pobladas. Centros Poblados Corantioquia
Sitios de reconocido interés histórico, cultural y arqueológico, declarados como
parques arqueológicos, patrimonio histórico nacional o patrimonio histórico de
Patrimonio Arqueológico Corantioquia
la humanidad, o aquellos yacimientos arqueológicos que por la singularidad de
sus contenidos culturales ameriten ser preservados para la posteridad.
Áreas de especial sensibilidad por razones étnicas o de propiedad colectiva de Comunidades indígenas ,
Corantioquia
la tierra. Comunidades negras
Proyectos de desarrollo nacional y regional, distritos de riego y áreas de
Corantioquia
expansión urbana

3.3 Configurar el entorno de trabajo

Luego de la identificación de variables para cada criterio el siguiente paso debe ser la configuración
del entorno de trabajo, considerando los siguientes aspectos:
1. Creación de la base de datos de entrada. Se sugiere crear un directorio de trabajo con el nombre
solucion y crear allí una personal geodatabase llamada insumos.gdb. En este repositorio se
almacenarán los datos fuente identificados según los criterios de evaluación definidos
previamente. Como la evaluación del proyecto obedece a un análisis por componentes
ambientales, los datos se deben agrupar de acuerdo con el componente ambiental al que
pertenecen (abiotico, biotico, cultural), de acuerdo con la Figura Figura4.

Figura 4. Geodatabase con capas fuente

135
Luego se crea un dataset por cada componente ambiental: abiótico, biótico y cultural. La
cartografía general, así como el área de estudio y los puntos de conexión del proyecto (inicial y
final), se almacenan en un dataset llamado general. Nótese que en esta geodatabase se incluye el
DTM, que servirá de insumo para el cálculo del ráster de Pendientes.

2. Creación de la base de datos de salida. Con el fin de que los resultados para los diferentes métodos
estadísticos que serán evaluados no queden dispersos, se sugiere crear una personal
geodatabase llamada resultados.gdb, en la que se almacena los resultados del modelo (Figura 5).

3. Crear toolbox. En el directorio de trabajo Solución se debe crear una caja de herramientas toolbox
llamada Procesos en la que se almacenarán los modelos creados para el análisis. Al interior de
esta caja se crea un modelo semilla del cual se crearán los diferentes modelos de reclasificación
y superposición (Figura 5). Esto es importante hacerlo para que la configuración, en cuanto la
extensión del análisis, tamaño de celda, entre otros, no se vuelva una tarea repetitiva cada vez
que se necesite crear un nuevo modelo para un cálculo específico.

Figura 5. Repositorios de datos y herramientas para el análisis

4. Definir variables de entorno. En el modelo semilla se establece las variables de entorno que
definen las características de ejecución, por ejemplo: Directorio de trabajo, Sistema de
Coordenadas, Área de trabajo y tamaño de celda de análisis, para el caso del ejemplo se estableció
la configuración de la Figura 6.

Figura 6. Configuración de las variables de entorno

3.4 Clasificar las capas con valores de susceptibilidad ambiental

Las capas de información para cada criterio se deben someter a un proceso de clasificación de
susceptibilidad, con el propósito de llevar cada uno de los fenómenos evaluados a una misma escala de
valoración. La escala de calificación usada comúnmente presenta valores entre 1 y 6, como se observa
en la Tabla 4. En la Tabla 5 se muestra un ejemplo de la clasificación dada a la capa de cobertura vegetal.

136
Tabla 4. Escala de calificación de susceptibilidad
Calificación Definición
1 Susceptibilidad muy baja: el proyecto no ocasiona ningún efecto, modificación o impacto al entorno.
Susceptibilidad baja: los posibles impactos pueden manejarse mediante la implementación de medidas
2
generales de manejo ambiental.
Susceptibilidad media: los impactos generados son de orden reversible y su atención requiere la
3
implementación de medidas de manejo ambiental de carácter específico.
Susceptibilidad alta: Las medidas para atender los posibles efectos son de carácter local y
4
proporcionalmente de mayores especificidades, generando mayores costos en la gestión ambiental.
Susceptibilidad muy alta: zonas con gran sensibilidad y efectos de gran deterioro sobre el ambiente que
5 dificultan el paso de la línea de transmisión. Los efectos ocasionados requieren medidas de manejo
ambiental locales especiales y muy detallados.
Restricción: zonas en las cuales no existe posibilidad alguna de implementación del proyecto, debido a la
6 irreversibilidad de los impactos y a la legislación ambiental que las considera en la mayoría de los casos,
áreas de reserva.

Tabla 5. Ejemplo de clasificación de susceptibilidad


Descripción Código Criticidad
Agricultura A 3
Bosques B 5
Plantaciones Forestales BP 3
Áreas Húmedas, Cuerpos de agua CA 5
Áreas sin y/o poca vegetación herbácea OV 1
Territorios Artificializados, zona urbana ZU 6
Pastos P 2
Rastrojos R 4

3.5 Convertir a ráster y reclasificar valores de susceptibilidad

El modelado de corredores de viabilidad se basa en las funciones de costos de viaje de ArcGIS, que
son funciones de costos de viaje para calcular el menor costo acumulado para el desplazamiento desde
una celda hacia las otras, tomando como parámetros de medida la distancia euclidiana y el valor de
cada celda (en este caso el valor de la celda está dado por la susceptibilidad ambiental). Por esta razón
se requiere hacer una conversión de los datos geográficos de formato vectorial a ráster, con el fin de
realizar las operaciones de superposición celda a celda que exigen estas funciones. Esta conversión se
realiza a partir del campo de clasificación de susceptibilidad, de acuerdo con los datos de la Tabla 4.
Posteriormente, se lleva a cabo un proceso de reclasificación para garantizar que las celdas
calificadas con un valor restrictivo (6) se puedan convertir a NoData, con el fin de que, al realizar los
cálculos de costos de distancia y cálculo de corredores, estas áreas no se tengan en cuenta, y así evitar
que el trazado del proyecto pase por estos sitios. Como se mencionó antes, a partir de los modelos de
reclasificación se realiza la conversión a ráster y la reclasificación para llevar los datos a una medida
estándar de susceptibilidad ambiental. Cabe anotar que los valores de calificación los deben definir
especialistas en cada temática; los de este ejercicio son de los autores y no se deben tomar como tal.
1. Modelo de conversión y reclasificación del Componente Abiótico. En la Figura 7 se muestra el
modelo de cálculo de los ráster reclasificados para el Componente Abiótico en este ejercicio. Las
capas de entrada son:
▪ Aeropuertos: contiene localización de aeropuertos en la zona del proyecto (tipo punto).
▪ Geología: unidades geológicas (tipo polígono).
▪ Geomorfología: contiene las diferentes especies de cobertura vegetal y usos del suelo (tipo
polígono).
▪ Amenaza por movimiento de masa: contiene las regiones biogeográficas delimitadas por
parámetros climáticos como temperatura y precipitación (tipo polígono).

137
▪ Cuerpos de agua: drenajes dobles, embalses, lagunas, entre otros (tipo polígono).
▪ Fallas: líneas de falla (tipo línea).
▪ Construcciones: construcciones rurales en el área del proyecto (tipo punto).

Figura 7. Modelo de conversión y reclasificación para el componente Abiótico

La restricción generada por la ubicación de un aeropuerto en el área de estudio se debe tratar de


acuerdo con la normatividad establecida por la autoridad aeronáutica y que, para este caso,
establece una restricción a una distancia de 2 km a ambos lados de la pista y 4 km en los
extremos, con el fin de proteger el cono de aproximación de los aviones. Como en este caso
tenemos únicamente la ubicación puntual del aeropuerto, se calcula un área de influencia de 4
km con la herramienta buffer de ArcGIS. Posteriormente, se agrega un campo denominado
criticidad con un valor restrictivo de 6, en la tabla de atributos de esta capa, con el propósito de
que, en la posterior reclasificación, estas áreas se convierten a NoData, tal como se muestra en la
Figura 8.

Figura 8. Conversión de áreas a NoData

Nótese que el valor de NoData inicial, generado por el sistema en el área circundante al área
restringida del aeropuerto, se reclasifica con un valor de 1. Este artificio se hace con el fin de que
los cálculos no se vean truncados cuando se realice la superposición de capas en esta zona.
Además, la salida de la reclasificación de aeropuertos fue llamada Restric-Abiotica, y se hace con
todas las restricciones en cada uno de los componentes con el fin de generar una única capa
restrictiva que sea multiplicada por la expresión matemática que integra las demás capas en el
cálculo de la susceptibilidad, tal como se muestra en la Figura 9.

Figura 9. Sentencia para la generación de la capa con las restricciones

De igual forma las capas de Geología, Geomorfología y Movimiento de masa se convierten a ráster
a través del campo de criticidad generado durante la clasificación, y se reclasifican de acuerdo

138
con los valores de la Figura 10. En este caso, la escala de reclasificación está completa dado que
esta capa contiene información en toda el área de estudio. Los cuerpos de agua se convierten a
ráster empleando un valor de criticidad 5 y reclasificándolos a partir de los datos en la Figura 10.

Figura 1. Reclasificación de las capas Geología, Geomorfología y Movimiento de masa

A la capa de fallas, por ser de tipo línea, se le debe genera un ráster de densidad de fallas con el
fin de modelar este fenómeno en toda el área de estudio. Para tal efecto se emplea la función Line
Density de ArcGIS, empleando un radio de búsqueda de 5 km y como campo de población “none”.
El ráster resultante se debe reclasificar en 5 rangos de igual intervalo empleando la escala de
susceptibilidad de 1 a 5, considerando las zonas de menor densidad de fallas como las de mayor
viabilidad para el proyecto, tal como se muestra en la siguiente Figura 11.

Figura 10. Ráster reclasificado

Asimismo, para modelar la densidad de población, en ausencia de una capa con esta información,
se utiliza una capa de construcciones rurales, calculando su densidad en toda el área de estudio.
La reclasificación se realiza de forma similar al de las fallas en los rangos de mayor densidad de
población, considerados los menos viables para el proyecto. La escala de reclasificación queda
entonces como se observa en la Figura 11.

Figura 11. Reclasificación según densidad de población

2. Modelo de conversión y reclasificación del componente Biótico. Al igual que en el caso anterior, las
variables definidas para los criterios del componente biótico se convierten a formato ráster y,
posteriormente, se reclasifican de acuerdo con la escala de susceptibilidad establecida. El modelo
correspondiente se muestra en la Figura 12. Las capas de entrada para el modelo son:
▪ Reserva local: contiene las áreas de reserva en el área de estudio (tipo polígono).
▪ Flora endémica: áreas que contienen especies únicas en la región (tipo polígono).
▪ Cobertura vegetal: contiene las diferentes especies de cobertura vegetal y usos del suelo
(tipo polígono).
▪ Zona de Vida: contiene las regiones biogeográficas delimitadas por parámetros climáticos
como temperatura y precipitación (tipo polígono).
▪ Zonificación Ambiental: es la base para determinar cómo se deben utilizar de la mejor
manera los espacios del territorio, de una forma armónica entre quienes lo habitan y la
oferta de los recursos naturales (tipo polígono).
▪ Dtm: Modelo de elevación digital del terreno. A partir de este se calcula el ráster de
pendientes (tipo ráster).

139
Figura 12. Modelo de conversión y reclasificación para el componente Biótico

Todas estas capas, a excepción del Dtm, se convierten a ráster a través del campo denominado
“criticidad”, que contiene la calificación de susceptibilidad de acuerdo con la escala de valoración
presentada. En cuanto a la reclasificación, las áreas de reserva local y de flora endémica tienen
un tratamiento similar al de los aeropuertos y demás elementos restrictivos, es decir, dado que
son polígonos aislados se deben convertir a NoData, mientras que las demás celdas del área de
estudio por fuera de estos polígonos son reclasificadas con un valor de 1. Esto con el fin de evitar
truncamientos en los cálculos del modelo sobre áreas que no resientan el fenómeno evaluado (en
este caso bosques primarios y parques nacionales, entre otros). El resultado se muestra en la
Figura 13.

Figura 13. Reclasificación empleada para las áreas de reserva local y de flora endémica

Ambas variables se mezclan en una única capa de restricciones del componente biótico, tal como
se muestra en la Figura 14.

Figura 14. Restricciones del componente Biótico

La cobertura vegetal, zonas de vida y zonificación ambiental, por tener valores de susceptibilidad
en toda el área del proyecto, se reclasifica empleando la escala general de susceptibilidad (Figura
15).

Figura 15. Reclasificación de cobertura vegetal, zonas de vida y zonificación ambiental

140
Dado que el proyecto se construye en zonas preferiblemente con pendientes medías a bajas, hay
que calcular el ráster de pendientes y reclasificarlas en rangos de valores que van desde los más
bajos en zonas planas hasta los más altos en zonas más pronunciadas. Para tal efecto se emplea
la función “slope” en “Ráster Surface” de ArcToolBox. En esta función se ingresa el dtm como
insumo y se selecciona la opción de cálculo en porcentaje. Una vez calculada la pendiente se
clasifica en 6 intervalos iguales y se reclasifica de acuerdo con la información de la Figura 16.

Figura 16. Reclasificación de la pendiente

3. Modelo de conversión y reclasificación del componente cultural. En la Figura 17 se muestra el modelo de


cálculo de la conversión a ráster y la reclasificación de variables del componente cultural.

Figura 17. Modelo de conversión y reclasificación para el componente Cultural

Las capas de entrada para este modelo son:


▪ Patrimonio arqueológico: zonas declaradas como patrimonio arqueológico de la nación
(tipo polígono).
▪ Comunidades indígenas: áreas de asentamientos indígenas (tipo punto).
▪ Área urbana: cabeceras urbanas (tipo polígono).
▪ Minería: áreas de explotación minera establecidas (tipo polígono).
▪ Potencial minero: áreas de potencial minero de acuerdo con sus características geológicas
(tipo polígono).
▪ Paisaje productivo: contiene las diferentes áreas productivas de la región: ganadería,
agricultura, minería, plantaciones forestales, zona urbana, entre otros (tipo polígono).

En este caso las capas de patrimonio arqueológico, comunidades indígenas, zona urbana y
minería, por ser polígonos aislados, se reclasifican con los datos de la Figura 18.

Figura 18. Reclasificación de las capas del modelo

Al final conforman una única capa de restricciones, tal como se muestra en la Figura 19.

141
Figura 19. Capa de restricciones

Nótese que a la capa de comunidades indígenas se le calcula un área de influencia de un


kilómetro, dado que contiene los puntos de ubicación de cada comunidad. Las demás capas del
modelo, es decir, potencial minero y paisaje productivo, se reclasifican con la tabla general de
susceptibilidad, ya que contienen información en toda el área de estudio, tal como se aprecia en
la Figura 20.

Figura 20. Reclasificación de las capas potencial minero y paisaje productivo

3.6 Calcular susceptibilidades por componente

Una vez reclasificadas las variables de cada componente se procede a calcular las superficies de
susceptibilidad, que servirán de restricción en el modelo de costos de viaje usado para establecer los
corredores de viabilidad. Con el fin de realizar un análisis comparativo de resultados se construyeron
tres modelos para los siguientes métodos:
1. Promedio aritmético a través de la ecuación (1).
𝑆𝑚 = ∑𝑛𝑖=1 𝑋𝑖/𝑛 (1)
Donde: Xi: es la variable de análisis, n: número total de variables y Sm: Susceptibilidad por
promedio aritmético

2. Promedio ponderado con la ecuación (2).


𝑆𝑝 = ∑𝑛𝑖=1 𝑋𝑖 ∗ 𝑃𝑖 (2)
Donde: Xi: es la variable de análisis, Pi: Promedio dado a la variable Xi, n: número total de
variables y Sp: Susceptibilidad por promedio ponderado.

3. Máximos con la ecuación (3).


𝑆𝑚𝑎𝑥 = 𝑀𝑎𝑥(𝑋𝑖, 𝑋𝑗, 𝑋𝑘, … , 𝑋𝑛) (3)
Donde: Xi: es la variable de análisis, n: número total de variables y Smax: Susceptibilidad por
máximos.

El modelo y los resultados para el componente ambiótico se muestran, respectivamente, en la Tabla


6 y en la Figura 21; en la Tabla 7 aparece el análisis de resultados.

142
Tabla 6. Modelo componente abiótico
Componente Abiótico Fórmulas

Promedio Aritmético

(("%r_Geologia%" + "%r_Geomorf%" + "%r_dfallas%" + "%r_MovMasaInun%"


+ "%r_dconstruc%" + "%r_cuerpagua%")/ 6.0) * "%Restric_Abiotica%"

Promedio Ponderado

(("%r_geolog%" * 0.3 + "%r_geomor%" * 0.2 + "%r_dfallas%" * 0.2+


"%r_amenaz%" * 0.2+ "%r_dconst%" * 0.05 + "%r_cuerpagua%" * 0.05)) *
"%Restric_abiotica%"

Máximos

CellStatistics(["%r_cuerpagua%","%r_dconst%",
"%r_amenaz%","%r_geolog%","%r_geomor%" , "%r_dfallas%",
"%Restric_Abiotica%" ], "MAXIMUM", "NODATA")

Figura 21. Susceptibilidad abiótica: con promedio aritmético, promedio ponderado y con Máximos

Tabla 7. Análisis de resultados componente abiótico


Susceptibilidad Análisis de resultados
Muy Baja El resultado muestra como el método de promedio aritmético entrega una superficie cuya mayor parte
Baja del área contiene valores de susceptibilidad medios a bajos, lo cual es característico de este método
Media estadístico: los valores altos de criticidad son sesgados por las celdas de menor valor. Por el contrario,
Alta el método de máximos siempre va a destacar los valores más altos de la superposición. El círculo
Muy Alta blanco representa la restricción dada por la zona de exclusión del aeropuerto.

El modelo y los resultados para el componente biótico se muestran, respectivamente, en en la Tabla


8 y en la Figura 22; en la Tabla 9 aparece el análisis de resultados.
Tabla 8. Modelo componente biótico
Componente Biótico Fórmulas
Promedio Aritmético

(("%r_cobveg%" + "%r_zonavida%" + "%r_zonifamb%" + "%r_pend%" +


"%r_pendiente%") / 4.0) * "%Restric_Biot%"

Promedio Ponderado

(("%r_cobveg%" * 0.4 + "%r_zonavida%" * 0.1+ "%r_zonamb%" * 0.2+


"%r_pend%" * 0.3)) * "%Restric_Biot%"

Máximos

CellStatistics(["%r_cobveg%", "%r_zonavida%", "%r_zonamb%",


"%r_pend%","%Restric_Biot%"], "MAXIMUM", "NODATA")

143
Figura 22. Susceptibilidad biótica: con promedio aritmético, promedio ponderado y con Máximos

Tabla 9. Análisis de resultados componente biótico


Susceptibilidad Análisis de resultados
Muy Baja Al igual que en el caso anterior el método de promedio aritmético entrega una superficie cuya mayor parte
Baja del área contiene valores de susceptibilidad medios a bajos, ocasionado por el sesgo de los datos. El método
Media de máximos refleja una superficie altamente restrictiva, lo cual ocasionar que los costos ambientales del
Alta proyecto aumenten significativamente. Las áreas en blanco son el resultado de las restricciones impuestas
en este componente. El método de ponderados es un caso intermedio en el que los valores altos obedecen al
Muy Alta mayor peso dado a la capa de cobertura vegetal que contienen los Bosques.

El modelo y los resultados para el componente cultural se muestran, respectivamente, en la Tabla


10 y en la Figura 23; en la Tabla 11 aparece el análisis de resultados.
Tabla 10. Modelo componente cultural
Componente Cultural Fórmulas

Promedio Aritmético

(("%r_PaisajProd%" + "%r_PotMinero%") / 2.0) * "%Restric_SocioCult%"

Promedio Ponderado

("%r_PaisajProd %" * 0.6+ "%r_pminero%" * 0.4) * "%Restric_SocioCult%"

Máximos

CellStatistics(["%r_PaisajProd %", "%r_pminero%", "% Restric_SocioCult %" ],


"MAXIMUM", "NODATA")

Figura 23. Susceptibilidad cultural: con promedio aritmético, promedio ponderado y con Máximos

144
Tabla 11. Análisis de resultados componente biótico
Susceptibilidad Análisis de resultados
Muy Baja
En este caso observamos que el método de promedio aritmético y máximos arrojaron unas zonas de
Baja
alta criticidad que corresponden principalmente a la actividad minera que allí se ejerce. En la
Media
superficie entregada por el método de promedios ponderados se visualiza una disminución de la
Alta
criticidad en estas áreas debido al menor peso dado a la capa de potencial minero.
Muy Alta

3.7 Calcular susceptibilidad general

La susceptibilidad general integra los valores obtenidos en cada uno de los componentes
ambientales y es el principal insumo para el cálculo de costo acumulado, que definirá los corredores
de las alternativas. En este punto se emplea los tres métodos estadísticos para obtener una superficie
característica en cada caso para evaluar las diferentes soluciones obtenidas. El modelo de cálculo es
igual para los tres métodos, con la diferencia en la formulación empleada. El modelo y los resultados
para la susceptibilidad general se muestran, respectivamente, en la Tabla 12 y en la Figura 24; en la
Tabla 13 aparece el análisis de resultados.
Tabla 12. Modelo de susceptibilidad
Susceptibilidad General Fórmulas
Promedio Aritmético
("%S_BIOTICAprom%" + "%S_ABIOTICAprom%" + "%S_SOCIOCULTprom%") / 3.0

Promedio Ponderado
"%S_BIOTICAppo%" * 0.5 + "%S_ABIOTICAppo%" * 0.3 + "%S_SOCIOCULTppo%" * 0.2

Máximos
CellStatistics(["%S_BIOTICAmax%", "%S_ABIOTICAmax%", "%S_SOCIOCULTmax%" ],
"MAXIMUM", "NODATA")

Figura 24. Susceptibilidad general: con promedio aritmético, promedio ponderado y con Máximos

Tabla 13. Análisis de resultados de susceptibilidad general


Susceptibilidad Análisis de resultados
Muy Baja Se observa como el comportamiento de cada uno de los métodos estadísticos evaluados, se conserva. La
Baja superficie arrojada por promedio aritmético contiene valores medios, el ráster del método ponderado
Media incrementa los valores de susceptibilidad en una cantidad importante de celdas importante; debido
Alta principalmente al mayor peso dado al componente biótico. Finalmente, la superficie de máximos es la más
restrictiva con valores de criticidad muy altos en la mayor parte de la región. Esta última muy seguramente
Muy Alta cumplirá a cabalidad con las exigencias de la autoridad ambiental para otorgar la licencia, pero incrementará
substancialmente los costos ambientales del proyecto.

3.8 Calcular costos acumulados

La función de costos de viaje o costos acumulados (Cost Distance) se utiliza para calcular el costo en
función de la distancia y el valor de susceptibilidad de cada celda a la fuente. En este caso se toma como

145
fuente los puntos inicial y final del proyecto. El modelo de cálculo correspondiente se presenta en la
Figura 25.

Figura 25. Modelo de cálculo de las superficies de costo acumulado

Los costos acumulados se calculan para el punto inicial del proyecto y para el punto de llegada, como
se observa en la Tabla 14, debido a que la función que sirve de base para calcular los corredores de
alternativas requiere de ambas superficies de costo para determinar la tendencia de las celdas de
menos costo acumulado. El ráster de susceptibilidad general sirve de superficie de costo o impedancia
para restringir o favorecer el paso de una celda a otra.
Tabla 14. Ráster de costos acumulados inicial y final
Función Resultado

Cost Distance

Herramientas: Spatial Analyst Tools/Distance)

Entradas: Fuente: punto inicial, punto final


Ráster de costos: Suscptibilidad General

Salida: Ráster de costos acumulados inicial y final

Parámetros: ninguno
Superficie de Costo acumulado al Superficie de Costo acumulado al
punto inicial punto final
Nota: Las áreas en verde oscuro representan las celdas de menor costo acumulado, el cual tiende a aumentar a medida que
nos alejamos de la fuente (celdas en amarillo y rojo).

3.9 Calcular corredores de alternativas

La función “Corridor” de ArcGIS se utiliza para calcular la suma de los costos acumulados en ambos
sentidos del trayecto. El ráster resultante muestra la tendencia de las celdas con menor costo
acumulado que definen los corredores de viabilidad ambiental del proyecto (denominada superficie de
costos agregados). En la Figura 26 se observa el modelo de cálculo respectivo.

Figura 26. Modelo de cálculo de corredores de alternativas

Las superficies de costos acumulados sirven de insumo a la función “Corridor”. La tendencia de las
celdas de menor costo acumulado se observa fácilmente empleando una función de reclasificación
llamada “Slice”, la cual permite agrupar en rangos de igual intervalo los valores de costos agregados.

146
En la superficie de la imagen del a Tabla 15 se observa que la tendencia de las celdas de menos valor
de costo acumulado se concentra en el costado central derecho (verde oscuro). No obstante, se hace
difícil diferenciar entre los límites de una zona a otra, por ser un ráster de datos continuo.
Tabla 15. Ráster de costos agregados
Función Resultado

Corridor

Herramientas: Spatial Analyst Tools/Distance)

Insumos:
Costos de distancia al punto inicial
Costos de distancia al punto final

Salida: Ráster de costos agregados

Parámetros: ninguno

Superficie de costos agregados obtenida con la función “Corridor”

La superficie que entrega esta función permite diferenciar los límites entre las zonas discretizadas.
A este tipo de dato se le conoce como ráster discreto. Los valores obtenidos van de 1 a 100, de acuerdo
con el número de zonas establecido en los parámetros de entrada. La zona con valor de 1 contiene las
celdas de menor costo acumulado y se pueden interpretar como las de menor impacto ambiental y que
dan viabilidad al trazado del proyecto (Tabla 16).
Tabla 16. Ráster de costos agregados reclasificado en 100 rangos o zonas (Corr_Alt)
Slice

Herramienta: Spatial Analyst Tools/ Ráster Reclass

Entrada:
Ráster de costos agregados

Parámetros:
Número de zonas o rangos: 100
Método de agrupamiento: equal_interval

Salida: Ráster de costos agregados reclasificado en 100


rangos o zonas (Corr_Alt)

Nota: El número de rangos se estableció en 100 por


convención, pero se puede ampliar o disminuir dependiendo
de la cantidad de corredores que quiera obtenerse. Superficie de costos agregados obtenida con la función “Corridor”

El proceso final consiste en seleccionar, a partir de la calculadora ráster, las celdas cuyo menor valor
(value = 1) representan el corredor de alternativas óptimo. La función empleada, así como los
resultados obtenidos para uno de los métodos evaluados, se muestran en la Tabla 17.
Tabla 17. Resultados obtenidos para uno de los métodos evaluados
Ráster Calculator
Herramienta: Spatial Analyst Tools/ Map Algebra
Formula: "%Corr_Alt%" == 1
Salida: Corredor de alternativas óptimo

Nota: cuando el corredor con valor 1 entrega muy pocas alternativas, se procede a incluir en la selección las celdas de la zona 2,
empleando la siguiente fórmula: "%Corr_Alt%" <= 2

147
Método de Promedio Aritmético Método de Promedio Ponderado Método de Máximos

Corredor de alternativas obtenido con Corredor de alternativas obtenido con Corredor de alternativas obtenido con
Promedio Aritmético Promedio Ponderado Máximos

Se observa que el método con mayor cantidad de alternativas corresponde al promedio ponderado,
no obstante, la tendencia de los tres resultados es muy similar. Esta similitud obedece a que, en las tres
superficies de susceptibilidad general, calculadas con estos métodos, se obtuvo valores medios
(señalada en el círculo). En la parte superior del trazado, el corredor obtenido con promedio aritmético
tiene una similitud alta con el obtenido en el método de máximos, debido a que en ambos casos las
celdas de menor valor mostraban la misma tendencia, aunque su valor de criticidad fuera
proporcionalmente diferente.

4. Retos

▪ Concluir acerca de la efectividad y pertinencia de cada uno de métodos evaluados.


▪ Realizar un análisis de sensibilidad variando los pesos empleados en el método de promedio
ponderado y dando mayor importancia al componente Abiótico (60%), en segundo lugar, el
Biótico (30%) y por último el Cultural (10%). Concluir acerca de los resultados.
▪ ¿Con qué propósito se reclasifica un ráster continuo?
▪ Evaluar los resultados cuando se reclasifica el ráster de corredores obtenido con la función
“Corridor” empleando intervalos iguales de 80 y 120, para cado uno de los métodos.

Referencias

[1] Carver, S. (1991). Integrating multi-criteria evaluation with geographical information systems. International Journal of
Geographical Information Systems 5, pp. 321-339.
[2] Ministerio de Ambiente, Vivienda y Desarrollo Territorial (2006). Diagnóstico ambiental de alternativas proyectos
lineales DA-TER-3-01. Dirección de licencias, permisos y trámites ambientales. Bogotá, pp. 27.
[3] Ministerio de Ambiente y Desarrollo Sostenible. (2014). Decreto 2041. Bogotá, pp. 51.
[4] Ministerio de Medio Ambiente. (1997). Términos de Referencia Sector de Energía Diagnóstico Ambiental de Alternativas
Líneas de Transmisión y Subestaciones ETER-300. Bogotá, pp. 8.

148
CAPÍTULO 14

Problema 10. Métodos de análisis espacial exploratorio en contextos de


información escasa
John F. Escobar M.
Juan C. Valdés Q.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del Problema

Herramientas SIG aplicadas Información requerida


Funcionalidades de Spatial Analysis, Funcionalidades de 3D Capas vector y ráster
Analysis

149
1. Planteamiento del problema

Las capacidades de análisis espacial de los Sistemas de Información Geográfica son el argumento
que permite diferenciar este tipo de programas de otras plataformas que, igualmente, permiten la
representación espacial y la producción de cartografía y mapas. Estas capacidades analíticas se
soportan en una serie de herramientas y modelos potentes y versátiles, cuya aplicación recibe el
nombre genérico de “análisis espacial” y que, en su acepción más simple, se puede entender como la
construcción de elementos geográficos que representan la ocurrencia de fenómenos, procesos y
variables del mundo real a partir de alguna información base, que puede ser una medición del
fenómeno o una evidencia de su presencia. Por lo anterior, el análisis espacial se considera parte del
proceso de construcción de la geoinformación ya que implica tomar información que está implícita
para hacerla explicita en función de una representación espacial temática.
Sin embargo, esta construcción de nueva información tiene un costo operativo considerable ya que
los datos deben ser cuidadosamente colectados, revisados y estructurados como "objetos", que
razonablemente pueda considerarse que “actuarán” de manera particular en un modelo y cuyos
atributos se puedan almacenar en bases de datos asociadas al objeto espacial. La combinación de datos
estructurados en una base de datos y la disponibilidad de procedimientos analíticos, que les permiten
a los usuarios analizar las relaciones entre los diferentes tipos de objetos en el modelo, crear nuevos
objetos geográficos y relacionar las entradas y las salidas con otros modelos, constituyen una
plataforma de apoyo a la toma de decisiones espaciales.
Pero surge una de las preguntas asociadas a la modelación espacial de fenómenos complejos: ¿Cómo
reproducir la estructura y funcionalidad de un ecosistema a partir de una información base limitada
acerca de procesos que son variables en el tiempo y en el espacio? McKinney y Cai [1] desagregan este
enunciado en tres preguntas rectoras:
1. ¿Cómo se representan los datos y las funciones asociados a la caracterización de los fenómenos
bajo análisis conservando las características espaciales y temáticas?
2. ¿Cómo se integran la definición del problema, la manipulación de datos y las funciones de
análisis?
3. ¿En qué tareas, las capacidades de modelación espacial se aplican a la formulación del modelo y
el análisis de un problema determinado?

Estas preguntas tienen una “solución parcial” en el uso de los modelos de análisis espacial
multicriterio, entre los cuales resalta los métodos binarios dicotómicos, binarios ponderados y
jerárquicos ponderados, ya que permiten integrar el pensamiento lógico-matemático (producto del
conocimiento) con los sentimientos y la intuición (que son reflejo de la experiencia).

2. Modelo de evidencias binarias - Solución dicotómica

La evidencia binaria es una técnica geoinformática usada en contextos de información escasa, en la


que la valoración de los factores involucrados se hace de forma absoluta, si el factor existe, y en cada
celda donde se corrobora la existencia se asigna un valor de 1, o está ausente en cuyo caso el valor
asignado será cero. Como ilustración supongamos que en una región determinada se quiere establecer
la factibilidad e importancia de la recarga de acuíferos colocando especial importancia en la
disponibilidad de una fuente, tipo lagos o ríos, en superficie. Para tal efecto se cuenta con tres 3 fuentes
de información: mapa de coberturas, mapa geológico y mapa de pendientes. En este sentido, Betancur
[2] propone el marco metodológico para el estudio del problema, y postula que las características
topográficas del terreno representan el primer factor determinante, para favorecer o no la escorrentía

150
superficial; solamente en aquellas áreas donde se registren paisajes planos, suaves u ondulados, puede
ocurrir el almacenamiento o retención en superficie, que posibilite luego la infiltración. Sin embargo,
para que se logre este proceso, se requiere que el suelo posea ciertas condiciones de porosidad y
permeabilidad, según las cuales los grados de humedad del suelo permiten alcanzar dimensiones
propicias para el flujo de agua a través de él.
A pesar de la escasa información se puede suponer que con estas 3 fuentes es posible identificar, a
nivel exploratorio, unas jerarquías de aporte potencial de los cuerpos de agua superficiales hacia el
acuífero; solo restaría identificar el ¿Cómo? es decir, ¿Cómo combinar diferentes variables de acuerdo
con la problemática dada? En primera instancia se procede a “individualizar” en cada una de las capas
temáticas y, de la respuesta “positiva” se pasa a la indagación de si la variable aporta o no al proceso
estudiado.

3. Desarrollo del problema

La individualización requeriría una traducción temática-binaria, es decir, transformar cada una de


las celdas que interpreta un fenómeno temático (o capa de información de un fenómeno de la
naturaleza) en una matriz binaria: 1= Si el fenómeno existe o 0 = Si no existe, de tal manera que su
combinación lineal permitiría la identificación de la potencialidad de los cuerpos de agua como fuentes
de alimentación de acuíferos subyacentes, como se observa en la Figura 1.
COBERTURAS
0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0
0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0 0
0 0 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 0 0 0 1 0
0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0
0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0
0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0
0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0

Cuerpos de agua Pastos Bosques

GEOLOGÍA
1 1 1 1 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1 1 1 1 1 1 0 0 0 0
1 1 1 1 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0 0
1 1 1 1 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0 0
1 1 1 1 1 1 1 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0
1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 0
1 1 1 1 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0
1 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Formacion Sedimentaria Roca Cristalina

PENDIENTES
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0
0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0
1 0 1 1 1 1 0 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 0 0 0 0
1 0 0 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 1 1 1 0 0 0 0 0 0 0
1 1 0 1 1 1 0 0 0 0 0 0 0 0 1 1 0 1 1 1 0 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0
1 1 1 1 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0
1 1 1 1 1 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0
1 1 1 1 1 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0
1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 0
1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
1 1 1 1 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0 0
1 1 1 1 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1 1 1 1 1 1 0 0 0 0
1 1 1 1 1 1 1 1 1 1 1 0 0 0 1 1 1 1 1 1 1 1 1 1 1 0 0 0

Pendientes Altas Pendientes Medias Pendientes Bajas Zonas Planas


Figura 1. Binarización de capas temáticas de acuerdo con una evaluación dicotómica frente a resultado
esperado

151
El proceso de binarización se puede desarrollar mediante preguntas lógicas o transformaciones de
tipo if, then, else. Así, la condición optima seria la presencia de cuerpos de agua lóticos, en pendientes
suaves o nulas, sobre formaciones sedimentarias de alta porosidad y permeabilidad. Por eso las fuentes
se “traducen” como se muestra en la Tabla 1.
Tabla 1. Tabla de calificación para la traducción temático-binaria
Capa temática Clase Valor
Cuerpos de Agua 1
Coberturas Pastos 0
Bosques 0
Geología Formación Sedimentaria 1
Rocas cristalinas 0
Altas 0
Pendientes Medias 0
Bajas 0
Zonas Planas 1

Una vez binarizadas las fuentes existen, por lo menos, 3 tipologías de integración que permitirían
obtener igual número de resultados y que, si bien interpretan con cercanía el mismo resultado, aportan
herramientas distintas en términos de gestión, algo que depende tanto del propósito del análisis como
del conocimiento del proceso y las variables analizadas:
1. El conocimiento de las variables es limitado y su presencia debe darse simultáneamente para
garantizar la ocurrencia del fenómeno estudiado. En el ejemplo equivale a definir que la recarga
solo se da desde depósitos en superficie, a través de formaciones de alta porosidad y
permeabilidad como las areniscas y en pendientes bajas o nulas para garantizar suficiente
tiempo de residencia para que se dé el flujo vertical. Es decir, en ausencia de un mayor
conocimiento de los valores de las variables en otras zonas se procede a la eliminación del
potencial de una celda determinada si no se cumple al menos una de las condiciones predefinidas.
Bajo estas consideraciones el análisis se hace utilizando la multiplicación escalar de matrices de
tal forma que la salida positiva se da únicamente donde cada una de las variables está presente,
sin embargo y sin importar el número de variables, si al menos una está ausente la operación
total será anulada por la presencia de un solo cero (0). En consecuencia, la solución se logra a
través de una productoria, la cual daría un resultado similar al del tipo a de la Tabla 2.
2. El conocimiento de las variables es igualmente limitado pero la presencia de una salida positiva
en una o más de ellas aporta fraccionalmente a la obtención de un resultado favorable. En el
ejemplo equivale a restar importancia a las salidas negativas (valores 0) y visibilizar a todas las
variables sin presuponer que alguna de ellas es determinante. La mayor dificultad de este método
consiste en que la combinación de variables muy diferentes puede dar resultados iguales, es decir
una geología y una pendiente propicias aportarían el mismo resultado que la presencia de lagos
y pendientes bajas. Este tipo de soluciones se logran a través de la adición simple entre matrices
y los resultados suelen darse con máximos cercanos o iguales al número de variables
consideradas y mínimos diferentes de cero cuando se consideran suficientes variables, como el
tipo b de la Tabla 2.
3. Existe un conocimiento meridiano del proceso y es posible establecer cierta jerarquía entre
valores aditivos similares, en este caso puede recurrirse a la simbolización con clave binaria 10X
que consiste en el desarrollo de una clave en la cual, cada variable asume una casilla en un código
de n posiciones, con valores únicos y excluyentes (1 o 0), tal como se ilustra en el tipo c de la
Tabla 2.
Con esta clave cada una de las celdas del mapa de zonificación permitirá identificar la presencia de
los factores que definen el fenómeno bajo estudio, siendo la característica 111 (en el ejemplo), la más

152
favorable gracias a la presencia de todos los factores. Los otros casos y posibles valores de esta
caracterización indicaran cuál o cuáles factores están ausentes, e incluso es posible establecer cierta
jerarquía entre valores aditivos similares, la Tabla 2c ilustra este tipo de representación.

3.1 Modelo de evidencias binarias - Solución ponderada

Las soluciones ponderadas son una alternativa en el estudio de problemas espaciales en los cuales
se posee un conocimiento mayor acerca de los fenómenos a ser modelados, y en los cuales es posible
establecer cierta ponderación de las variables debido a su dominancia en la solución, pero no se tiene
un conocimiento detallado de los valores que asume cada variable. Por ejemplo, en el caso presentado
como piloto, es posible saber si la zona es permeable, pero no existen evidencias para determinar si
esta permeabilidad es Muy Alta, Media o Baja. Ante situaciones similares a esta, se puede recurrir a un
método hibrido en el cual a través de una ponderación de cada característica (variable) se procede a la
suma de las diferentes variables y, en consecuencia, se obtiene una valoración acumulativa del aporte
a la solución de cada una de las celdas.
Tabla 2. Tipologías de resultados en el modelo de evidencias binarias
Tipo Estrategia de obtención Características del resultado
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 0 0 0 0 0 0 0 0
0 0 0 0 1 1 0 0 0 0 0 0 0 0
Dónde 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Sij = Valor de la solución en la posición i,j 0 0 0 0 0 0 0 0 0 0 0 0 0 0
a) Adición 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Vij = Valor de la variable V (0,1) en la posición i,j para cada 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
una de las n variables consideradas. 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0

1 1 1 1 1 1 1 1 1 1 0 0 0 1
1 1 2 2 2 1 1 1 1 0 0 0 1 0
1 1 2 3 3 2 1 1 1 0 0 1 0 0
2 1 2 3 3 2 1 1 0 0 0 0 1 0
2 1 1 2 3 3 2 0 0 0 0 0 1 0
Dónde 2 2 1 2 2 2 1 0 0 0 1 1 0 0
Sij = Valor de la solución en la posición i,j 2 2 1 1 1 1 1 0 0 1 0 0 0 0
b) Productoría 2 2 2 2 1 1 0 0 1 0 0 0 0 0
Vij = Valor de la variable V (0,1) en la posición i,j para cada 2 2 2 2 1 0 0 1 0 0 0 0 0 0
2 2 2 1 1 0 1 0 0 0 0 0 0 0
una de las n variables consideradas 1 1 1 1 1 1 1 0 0 0 0 0 0 0
1 1 1 1 2 2 1 0 0 0 0 0 0 0
1 1 1 2 1 1 1 1 1 0 0 0 0 0
1 2 2 1 1 1 1 1 1 1 0 0 0 0
2 2 1 1 1 1 1 1 1 1 1 0 0 0

Clave Geol x Pend 010 010 010 010 010 010 010 010 010 010 000 000 000 001
Bin. Cob 10 x 100 Suma Ejemplo de Análisis 010 010 110 110 110 010 010 010 010 000 000 000 001 000
000 0 Todo los factores están ausentes 010 010 110 111 111 110 010 010 010 000 000 001 000 000
100 X 1 Solo Cuerpos de agua en superficie 110 010 110 111 111 110 010 010 000 000 000 000 001 000
010 X 1 Solo Areniscas 110 010 010 110 111 111 110 000 000 000 000 000 001 000
001 X 1 Solo pendiente favorable 110 110 010 110 110 110 010 000 000 000 001 001 000 000
110 X X 2 Pendientes y geología propicias 110 110 010 010 010 010 010 000 000 001 000 000 000 000
c) Clave Binaria 10X Cuerpos de agua y geología adecuadas. A pesar del flujo 110 110 110 110 010 010 000 000 001 000 000 000 000 000
rápido por pendientes altas, puede darse un flujo vertical
110 110 110 110 100 000 000 001 000 000 000 000 000 000
110 110 110 100 100 000 001 000 000 000 000 000 000 000
011 X X 2 en presencia de condiciones de humedad suficientes.
100 100 100 100 100 100 001 000 000 000 000 000 000 000
Presencia de cuerpos de agua y pendientes adecuadas, 100 100 100 100 101 101 100 000 000 000 000 000 000 000
que pueden favorecer el flujo a través de fracturas en la 100 100 100 101 100 100 100 100 100 000 000 000 000 000
101 X X 2 roca cristalina 100 101 101 100 100 100 100 100 100 100 000 000 000 000
101 101 100 100 100 100 100 100 100 100 100 000 000 000
111 X X X 3 Condición optima todos los factores están presentes

Consecuentemente con el ejemplo planteado supongamos que un panel de expertos, la literatura de


referencia u otro método de establecimiento de pesos ponderados permite determinar que en el
problema en cuestión la geología posee un peso relativo del 50%, los usos del suelo 30% y la pendiente
solo el 20%. Entonces se puede tener un resultado similar al de la Figura 2, donde en la simbolización
tipo semáforo los verdes oscuros representan la condición optima en la cual cada una de las variables
está presente (valor = 1 de la columna central en la Figura 1), mientras que otros valores fraccionales
representan la ausencia de una o más variables (pero no de todas). Igualmente, se conserva cierta
coherencia con el método puramente dicotómico, ya que en ausencia de todas las variables el aporte a

153
la solución será nulo. En este tipo de soluciones, si bien se conserva la limitación de los valores binarios
(0 y 1) en las variables originales, se logran soluciones más diversas, que en el caso ilustrado alcanza 6
escalas de valor y, como podrá corroborar el lector, tienden a guardar cierta similitud con los
resultados de la clave binaria 10X, aunque esta última necesita un mayor conocimiento temático por
parte de quien usa el mapa resultante.
0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0 0 0 0,3
0,5 0,5 0,7 0,7 0,7 0,5 0,5 0,5 0,5 0 0 0 0,3 0
0,5 0,5 0,7 1 1 0,7 0,5 0,5 0,5 0 0 0,3 0 0
0,7 0,5 0,7 1 1 0,7 0,5 0,5 0 0 0 0 0,3 0
0,7 0,5 0,5 0,7 1 1 0,7 0 0 0 0 0 0,3 0
0,7 0,7 0,5 0,7 0,7 0,7 0,5 0 0 0 0,3 0,3 0 0
0,7 0,7 0,5 0,5 0,5 0,5 0,5 0 0 0,3 0 0 0 0
0,7 0,7 0,7 0,7 0,5 0,5 0 0 0,3 0 0 0 0 0
0,7 0,7 0,7 0,7 0,2 0 0 0,3 0 0 0 0 0 0
0,7 0,7 0,7 0,2 0,2 0 0,3 0 0 0 0 0 0 0
0,2 0,2 0,2 0,2 0,2 0,2 0,3 0 0 0 0 0 0 0
0,2 0,2 0,2 0,2 0,5 0,5 0,2 0 0 0 0 0 0 0
0,2 0,2 0,2 0,5 0,2 0,2 0,2 0,2 0,2 0 0 0 0 0
0,2 0,5 0,5 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0 0 0 0
0,5 0,5 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0,2 0 0 0

Figura 2. Tipología de una matriz resultante de la aplicación del método dicotómico ponderado.

3.2 Métodos jerárquicos ponderados

Por último, existe la posibilidad de lograr una mayor aproximación a la solución de una
problemática dada, si se cuenta con la posibilidad de establecer ciertas jerarquías estandarizadas
(reglas cuantitativas) en cada una de las variables bajo estudio y, adicionalmente, si cada variable
puede ser a su vez ponderada en la combinación lineal que produce la solución. Así, y retomando el
ejemplo usado para ilustrar este capítulo puede procederse a una combinación de las variables en un
modelo de análisis espacial que permita evaluar la contribución parcial de los factores asociados y
calificar cada una de las zonas presentes en cada variable según una escala estándar (1 a 5 o 1 a 10, por
ejemplo) debido a que tanto aporta una zona específica al logro de un resultado positivo o negativo. La
reevaluación de las variables bajo esta premisa podría aportar un resultado similar al mostrado en la
Tabla 3.
Figura 3. Ejemplo de calificación de variables según una escala estándar
2 2 2 2 2 2 2 2 2 2 4 4 4 5 5 5 5 5 5 5 5 5 5 5 2 2 2 2 3 3 3 3 3 3 3 1 1 1 1 1 1 1
2 2 2 2 2 2 2 2 2 2 4 4 5 4 5 5 5 5 5 5 5 5 5 2 2 2 2 2 3 3 5 5 5 3 3 1 1 1 1 1 1 1
2 2 2 5 5 2 2 2 2 2 4 5 4 4 5 5 5 5 5 5 5 5 5 2 2 2 2 2 3 3 5 5 5 5 3 3 1 1 1 1 1 1
2 2 2 5 5 2 2 2 2 4 4 4 5 4 5 5 5 5 5 5 5 5 2 2 2 2 2 2 4 3 5 5 5 5 3 3 3 1 1 1 1 1
2 2 2 2 5 5 2 2 4 4 4 4 5 4 5 5 5 5 5 5 5 2 2 2 2 2 2 2 4 3 3 5 5 5 5 3 3 3 1 1 1 1
2 2 2 2 2 2 2 4 4 4 5 5 4 4 5 5 5 5 5 5 5 2 2 2 2 2 2 2 4 4 3 5 5 5 3 3 3 3 1 1 1 1
2 2 2 2 2 2 2 4 4 5 4 4 4 4 5 5 5 5 5 5 5 2 2 2 2 2 2 2 4 4 3 3 3 3 3 3 3 3 1 1 1 1
2 2 2 2 4 4 4 4 5 4 4 4 4 4 5 5 5 5 5 5 2 2 2 2 2 2 2 2 4 4 4 4 3 3 3 3 3 3 3 1 1 1
2 2 2 4 4 4 4 5 4 4 4 4 4 4 5 5 5 5 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 3 3 3 3 3 3 3 3 1
2 2 2 4 4 4 5 4 4 4 4 4 4 4 5 5 5 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 3 3 3 3 3 3 3 3 3
2 2 2 4 4 4 5 4 4 4 4 4 4 4 2 2 2 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 4 3 3 3 3 3 3 3 3
2 2 2 4 5 5 4 4 4 4 4 4 4 4 2 2 2 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 4 4 3 3 3 3 3 3 3
2 2 2 5 4 4 4 4 4 4 4 4 4 4 2 2 2 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 4 4 4 4 3 3 3 3 3
2 5 5 4 4 4 4 4 4 4 4 4 4 4 2 2 2 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 4 4 4 4 4 3 3 3 3
5 5 4 4 4 4 4 4 4 4 4 4 4 4 2 2 2 2 2 2 2 2 2 2 2 2 2 2 4 4 4 4 4 4 4 4 4 4 4 3 3 3

Coberturas: Cuerpos de Agua (5), Geología: Formaciones sedimentarias Pendientes: Nulas (5), Bajas (4),
Pastos (4) y Bosques (2) (5) y Cristalina fracturada (2) Medias (3), Altas (1)

1. Método Saaty. El proceso analítico jerárquico (AHP) es una propuesta desarrollada por Saaty [3] que
se transformó en una de las metodologías de análisis multicriterio de mayor aplicación práctica. La
propuesta involucra todos los aspectos del proceso de toma de decisiones, ya que modela el
problema a través de una estructura jerárquica; utiliza una escala de prioridades basada en la
preferencia de un elemento sobre otro y de este modo combina la multiplicidad de escalas
correspondientes a los diferentes criterios; sintetiza los juicios emitidos y entrega un ranking u
ordenamiento de las alternativas de acuerdo con los pesos obtenidos (prioridades).
Esta metodología propone una manera de ordenar el pensamiento analítico, en la cual se destacan
tres principios básicos: 1) el principio de la construcción de jerarquías, 2) el principio del
establecimiento de prioridades, y 3) el principio de la consistencia lógica. El Análisis Jerárquico de

154
Procesos integra aspectos cualitativos y cuantitativos en un proceso de decisión, en el que es posible
incorporar simultáneamente valores personales y del pensamiento lógico en una estructura única
de análisis para convertir el procesamiento mental en un proceso explícito que facilite y promueve
la toma de decisiones bajo escenarios multicriterio, proveyendo resultados más objetivos y
confiables.
El proceso para la obtención de pesos porcentuales que permite determinar cuál es el nivel de
importancia que tienen diferentes categorías de análisis asociadas a un problema de toma de
decisiones multicriterio, se basa en la construcción de matrices de análisis comparativo, cuyo
resultado indica el nivel de incidencia de cada categoría sobre el problema. El análisis multivariado
a partir del proceso analítico Saaty, permite minimizar los efectos que, sobre la toma de decisiones,
tiene la subjetividad de los actores del problema. Una mayor ilustración sobre este método podrá
ser encontrada en la bibliografía de referencia.
Ahora bien, concluyendo la aplicación de este método sobre el ejemplo, tendríamos que para cada
variable existen unos máximos (u óptimos locales), para cada variable, por ejemplo tendríamos una
condición óptima para el aporte de agua hacia el subsuelo desde los cuerpos de agua, y una
condición intermedia en los pastos que tienen baja capacidad de interceptación y pueden anegarse
fácilmente, siempre y cuando estén en pendientes bajas, esta capacidad disminuye con el aumento
de la densidad de la cobertura vegetal, como es el caso de los bosques. Por otro lado, las pendientes
bajas permitirán un mayor anegamiento e incluso inundación, pero esta capacidad disminuye a
medida que se incrementa la pendiente, ya que, a mayor pendiente, mayor es el flujo rápido y el
escurrimiento en el suelo y el subsuelo, pero aun así puede presentarse una condición de humedad
que permita el flujo vertical hacia el acuífero. Por último, si bien una formación porosa y permeable
como una arenisca provee mayor potencial para el tránsito de agua hacia el acuífero, las formaciones
cristalinas poseen fracturas y diaclasas por las cuales el agua igualmente puede transitar, aunque
en magnitudes posiblemente mucho más bajas que en las anteriores.
Suponiendo que una evaluación de pesos ponderados usando el método Saaty produce los mismos
resultados que en el ejemplo anterior (Geología: 50%, Usos del Suelo: 30% y Pendiente: 20%) y que
se usan las calificaciones jerárquicas seleccionadas. Como los resultados pueden extenderse
discretamente en todo el dominio de la función, esto es desde la calificación 0.0 hasta la Calificación
5.0, se requiere una última acción de clasificación que puede hacerse a través de una escala
cualitativa, por ejemplo 4.5 a 5 = Muy Alta, o una agrupación similar y el uso de escalas de colores
tipo semáforo ampliado, por ejemplo: Rojo = Muy Bajo, Naranja = Bajo, Amarillo = Medio, Verde
Claro = Alto, Verde Esmeralda = Muy Alto y Verde Oscuro = Óptimo (Figura 3).
3,7 3,7 3,7 3,7 3,7 3,7 3,7 3,3 3,3 3,3 2,4 2,4 2,4 2,7
3,7 3,7 4,1 4,1 4,1 3,7 3,7 3,3 3,3 1,8 2,4 2,4 2,7 2,4
3,7 3,7 4,1 5,0 5,0 4,1 3,7 3,7 3,3 1,8 2,4 2,7 2,4 2,4
3,9 3,7 4,1 5,0 5,0 4,1 3,7 3,7 2,2 2,4 2,4 2,4 2,7 2,4
3,9 3,7 3,7 4,1 5,0 5,0 4,1 2,2 2,8 2,8 2,4 2,4 2,7 2,4
3,9 3,9 3,7 4,1 4,1 4,1 3,7 2,8 2,8 2,8 2,7 2,7 2,4 2,4
3,9 3,9 3,7 3,7 3,7 3,7 3,7 2,8 2,8 3,1 2,4 2,4 2,4 2,4
3,9 3,9 3,9 3,9 4,3 4,3 2,8 2,8 3,1 2,8 2,8 2,4 2,4 2,4
3,9 3,9 3,9 4,5 3,0 2,8 2,8 3,1 2,8 2,8 2,8 2,8 2,8 2,4
3,9 3,9 3,9 3,0 3,0 2,8 3,1 2,8 2,8 2,8 2,8 2,8 2,8 2,8
2,4 2,4 2,4 3,0 3,0 3,0 3,1 2,8 2,8 2,8 2,8 2,8 2,8 2,8
2,4 2,4 2,4 3,0 3,3 3,3 3,0 2,8 2,8 2,8 2,8 2,8 2,8 2,8
2,4 2,4 2,4 3,3 3,0 3,0 3,0 3,0 3,0 2,8 2,8 2,8 2,8 2,8
2,4 3,3 3,3 3,0 3,0 3,0 3,0 3,0 3,0 3,0 2,8 2,8 2,8 2,8
3,3 3,3 3,0 3,0 3,0 3,0 3,0 3,0 3,0 3,0 3,0 2,8 2,8 2,8

< 2.5 = Muy Bajo > 3.5 - 4.0 = Alto


> 2.5 - 3.0 = Bajo > 4.0 - 4.5 = Muy Alto
> 3.0 - 3.5 = Medio > 4.5 = Optimo
Figura 3. Ejemplo de un posible resultado del potencial zonal de aporte a un acuífero freático

155
4. Reto

Supongan que la única información con la que cuenta son las capas de información: construcciones,
curvas (de nivel), escuelas, ríos y usos (del suelo), para desarrollar un análisis exploratorio que permita
identificar posibles sitios para la ubicación de una estación agropecuaria experimental rural, que
preste servicios de apoyo en entrenamiento a la comunidad en general y en especial a las instituciones
educativas cercanas. Las reglas generales, sin ningún orden específico, para la selección del sitio serán:
1. La granja se ubicará en zonas con bajo o ningún interés económico o ecológico.
2. Se privilegiarán las áreas con pendientes suaves o nulas.
3. Se tratará de escoger un sitio en el cual exista una máxima confluencia de población estudiantil.
4. Se privilegiarán áreas urbanas donde exista una mayor densidad de población rural.
5. Si bien la proximidad a fuentes de agua es deseable, se evitará al máximo que el predio
seleccionado este fragmentado por una fuente de agua y que se invadan los respectivos retiros.
6. El predio debe tener al menos 5 hectáreas.

Como el lector podrá observar, se tienen 6 reglas que pueden desagregarse en 6 o más criterios, a
partir de los cuales se haga un análisis exploratorio, pero con un resultado esperado mínimo
consistente en la selección del sitio o sitios en los cuales pueda desarrollarse la infraestructura en
mención. Por lo tanto, se espera que el lector desarrolle al menos los siguientes ejercicios de cálculo:
1. Una evaluación totalmente dicotómica en la cual se identifique los sitios que cumplan todas las
características. Pregunta inductiva: ¿Es posible evaluar la característica 6 como un criterio
dicotómico?
2. Una evaluación dicotómica ponderada. Pregunta inductiva adicional: ¿Es posible que se
produzcan uno o más sitios con igual valoración? Dicho de otra forma ¿Imposibilidad de
diferenciar objetivamente entre dos o más candidatos elegibles?
3. Una evaluación jerárquica ponderada. Pregunta inductiva concluyente: si usted tiene dos o más
candidatos con la máxima calificación ¿cómo lograría definir cuál es el candidato con la máxima
calificación promedia?

Referencias

[1] McKinney, D. & Cai, X. (2002). Linking GIS and water resources management models: An object-oriented
method. Environmental Modeling and Software 17(5), pp. 413-425.
[2] Betancur, T. (2008). Una Aproximación al entendimiento de un Sistema Acuífero Tropical. Tesis Doctoral en
ingeniería. Universidad de Antioquia.
[3] Saaty, T. (2000). Decision making with the analytic hierarchy process. International Journal of Services
Sciences 2, pp. 83-98.

156
CAPÍTULO 15

Problema 11. Simulación espaciotemporal de la concentración de PM10


mediante Geoestadística y Modelos Autorregresivos de Rezago Distribuido
Libardo A. Londoño C.
Julio E. Cañón B.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del Problema

Herramientas SIG aplicadas Información requerida


Kriging, Spline Tensión, Entre otros Concentración de PM10 en el área de estudio, Capas
cartográfica base

157
1. Planteamiento del problema

En los centros urbanos densamente poblados se presentan problemas de calidad de aire y de salud
pública por la contaminación, debida a material particulado compuesto por partículas sólidas o
líquidas, con diámetros menores a 10 micrómetros (PM10) suspendidas en el aire. Estas partículas se
forman a partir de contaminantes primarios, tales como el polvo y el hollín, y contaminantes
secundarios, tales como partículas líquidas producidas por la condensación de vapores, debido a la
producción de las industrias y a la densidad del flujo vehicular [1]. La implementación de sistemas de
vigilancia de calidad del aire ha permitido realizar mediciones de la concentración de PM10 a través de
redes de sitios de monitoreo. Sin embargo, no siempre se tiene una configuración adecuada para la red
y mediciones exhaustivas en el espacio y el tiempo.
Se debe estimar el valor de la concentración de PM10 en el área metropolitana del Valle de Aburra
usando algoritmos de interpolación geoestadísticos y métodos de regresión. Los algoritmos de
interpolación permitirán abordar el componente espacial de la estimación y los métodos de regresión
el componente temporal. Los procesos de análisis espacial se pueden desarrollar con la herramienta
ArcMap10.3® y sus módulos Spatial Anlyst® y Geostatistical Analyst® y los procesos de análisis
temporal con el software econométrico Eviews 6.1®.
La región se ubica en la parte sur-central del departamento de Antioquia, Colombia, entre los 6.0° -
6.5° de Latitud y 75.5° de longitud. Tiene una superficie aproximada de 1.152 km2 con 60 km de largo
y entre 10 y 20 km de ancho en su centro (Figura 1).

Figura 1. Localización sitios de monitoreo

En la Tabla 1 se observan los nueve sitios de monitoreo y los datos disponibles de la concentración
promedio mensual de PM10 (µgm/m3) entre enero de 2003 y diciembre de 2008 [2].
Tabla 1. Coordenadas espaciales de los sitios de monitoreo de PM10
ID xi yi Descripción
0 836785,411928 1191924,478836 Municipio de Bello
1 834995,210822 1183470,751388 Edificio Miguel de Aguinaga
2 832774,035375 1176575,161941 Planta de Tratamiento de Agua San Fernando
3 836221,830098 1174486,593983 Municipio de Envigado
4 833901,199034 1178597,426154 Politécnico Colombiano Jaime Isaza Cadavid
5 834995,210822 1185161,496878 Universidad de Antioquia
6 830188,189332 1180918,057218 Universidad de Medellín
7 832276,757289 1185725,078708 Universidad Nacional
8 832840,339119 1182277,283984 Universidad Pontificia Bolivariana

158
El presente problema es producto del desarrollo de una tesis doctoral en lo relacionado con el
objetivo de integrar mediante la geoestadística los patrones de comportamiento espacial y temporal
de los datos de calidad del aire de la región de estudio, lo cual implica un análisis exploratorio de los
datos para validar su estacionalidad y un análisis estructural para determinar el modelo variográfico,
con el fin de caracterizar espacialmente la variable de estudio. Además, un análisis de varianza de los
parámetros de los modelos variográficos permite caracterizar temporalmente la variable para,
posteriormente, explorar diferentes modelos de regresión para la estimación de PM10, cuyas variables
explicativas sean espaciales y temporales (autorregresivos de rezago distribuido). El estudiante o
investigador que aborde este problema debe poseer conocimientos previos en:
▪ Edición básica de datos espaciales
▪ Interpolación espacial
▪ Geoestadística
▪ Estadística multivariada
▪ Métodos de Regresión

2. Desarrollo del problema

Para el desarrollo del problema se cuenta con una base de geodatos que contiene información de la
zona de estudio y la concentración PM10 en las coordenadas de la Tabla 1, malla vial completa y usos
del suelo industrial y zonas verdes. En la primera parte de la solución del problema:
▪ Se describe globalmente el proceso de caracterización espacial de PM10 usando algoritmos de
interpolación geoestadísticos y se remite al lector a un trabajo previo de los autores para su
comprensión en profundidad.
▪ Se abordan los aspectos conceptuales de los métodos autorregresivos con rezago distribuido.
▪ Se propone un modelo de regresión espaciotemporal general y se exploran diferentes
combinaciones de variables explicativas para elegir la mejor configuración del modelo general.

En la segunda parte de la solución del problema:


▪ Se hace un análisis de los resultados de las mejores configuraciones del modelo general.
▪ Se calculan los mapas de estimación de PM10 para cada mes del año y se ajustan por los efectos
de las vías, los usos del suelo y las zonas verdes mediante un modelo de proximidad espacial (se
remite al lector a un trabajo de los autores para su comprensión en profundidad).

2.1 Caracterización espacial de PM10 usando algoritmos de interpolación geoestadísticos

A partir de la medición en 9 sitios de monitoreo de PM10 entre enero de 2003 y diciembre de 2007,
en un estudio previo [3] se presentó un análisis de caracterización espacial, mediante métodos de
interpolación geoestadísticos usando Kriging Ordinario (KO). El proceso en general fue el siguiente:
▪ Se hizo una densificación de los datos mediante un algoritmo de interpolación spline tensión.
Tomando las intersecciones de las vías principales como referencia, se extrajeron 41 valores
interpolados para ajustar junto con los datos de los sitios de monitoreo, para un conjunto de
50 datos de PM10 en cada mes [4].
▪ Con los datos obtenidos mediante el proceso anterior, se hizo un análisis geoestadístico para
obtener en cada mes el modelo variográfico que caracteriza espacialmente la concentración de
PM10. Se encontró que el modelo de mejor ajuste en cada mes fue el JBessel [3].

159
▪ Mediante un análisis ANOVA se demostró que los parámetros del modelo JBessel (partial sill,
major range y nugget) eran estadísticamente similares para agrupaciones mensuales. En
consecuencia, se ajustó el conjunto de datos para agrupaciones mensuales, es decir, los valores
promedios del mes de enero tanto para datos y parámetros del JBessel [3]. Esto se hizo en cada
uno de los meses del año para obtener una caracterización mensual de los datos. En las Tablas
2 y 3 se observan los resultados.
Tabla 2. Datos promedio por mes de PM10 (Oir)
ID EN FB MR AB MY JN JL AG SP OC NV DC
0 55,8 68,6 63,1 47,0 44,8 49,1 48,1 52,5 50,5 63,0 54,9 49,1
1 55,0 64,2 72,8 65,6 66,0 55,2 54,6 62,6 70,5 81,9 66,5 61,8
2 56,2 68,5 76,4 63,7 61,2 62,4 59,8 68,8 69,2 75,1 66,4 60,9
3 72,7 86,1 86,5 76,5 74,2 77,0 73,5 78,5 81,8 88,2 77,5 81,0
4 66,1 77,5 80,4 68,9 69,4 62,1 63,0 66,7 77,8 79,3 74,0 70,9
5 71,8 92,0 84,0 59,2 54,3 67,1 68,5 70,1 74,5 81,2 68,1 60,7
6 62,6 70,6 68,8 60,7 56,1 58,3 52,2 61,6 61,3 67,8 61,0 65,3
7 77,5 91,5 97,5 94,4 86,0 83,5 84,9 94,2 100,9 108,5 93,6 95,2
8 56,2 66,2 68,9 59,9 56,7 53,7 51,8 62,0 66,3 74,4 62,5 59,1

Tabla 3. Valor de los parámetros de la función JBesselEsp para cada mes del año
Mes 𝜽𝒔 (µgm/m3)2 𝜽𝒓 (Km) 𝜽𝒏 (µgm/m3)2
Enero 0,737 4,025 0,297
Febrero 0,724 3,591 0,246
Marzo 0,688 3,710 0,145
Abril 0,639 3,281 0,198
Mayo 0,786 4,074 0,377
Junio 0,846 4,170 0,337
Julio 0,719 4,472 0,293
Agosto 0,697 4,159 0,213
Septiembre 0,440 5,706 0,411
Octubre 0,429 5,377 0,422
Noviembre 0,601 3,429 0,460
Diciembre 0,499 4,168 0,307

3. Aspectos conceptuales de los métodos de autorregresivos con rezago distribuido

La estimación del material particulado de 10 micras de diámetro (PM10) en zonas urbanas se ha


realizado principalmente mediante modelos numéricos y modelos estadísticos [5]. Para los primeros
es necesario tener datos de mediciones de todas las variables que afectan la concentración de PM10 y
en general adquirir esta información es costoso ya que no está disponible [6]. Por otro lado, aunque los
modelos estadísticos han demostrado ser menos costosos y más precisos que los modelos numéricos,
no consideran el contexto, ni las dinámicas físicas de los datos [7-9]. Los modelos estadísticos se basan
en estructuras de regresión en las cuales es posible calcular el valor de una variable de respuesta Y a
partir de variables explicativas o regresoras Xj, más un error. Para la variable de respuesta y las
variables explicativas se deben tener series de datos para un tiempo dado, series de tiempo, o datos de
panel (series de tiempo en diferentes sitios, donde cada sitio es un panel o unidad de corte transversal)
[10]. Los paneles están balanceados cuando cada variable tiene el mismo número de observaciones en
cada panel y si los datos obtenidos provienen de una muestra mayor, el cálculo del modelo de regresión
se hará mediante el método de efectos aleatorios [7].
Para la implementación de la regresión se requiere que las series de datos sean estacionarias, es
decir, que su media y varianza sean constantes en el tiempo y el valor de su covarianza entre dos
periodos dependa solamente de la distancia o rezago entre estos dos periodos, y no del tiempo en el
cual se calculó. La estacionalidad de una serie se puede validar mediante una prueba de raíces unitarias
como la prueba de Dickey-Fuller aumentada (Augmented Dickey-Fuller – ADF) [11]. Otra condición que

160
debe cumplir la serie de datos es que se debe demostrar que Xi explica a Y, y esto se puede hacer
mediante una prueba de causalidad como la de Wiener - Granger [12]. La estructura general de un
modelo de regresión está dada por la ecuación (1).
𝑌𝑖𝑡 = 𝛽1 + ∑𝑛𝑖= 2(𝛽𝑖 𝑋𝑖𝑡 ) + 𝑒𝑟𝑟𝑜𝑟 𝑑𝑒 𝑒𝑠𝑡𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑖𝑡 (1)

Donde 𝛽1 es el valor esperado de Y cuando los 𝛽𝑖 son 0 y los 𝛽 se calculan mediante el método de
mínimos cuadrados ordinarios. Con la ecuación 1, se pueden definir varios modelos en la medida en
que se tengan datos de diversas variables explicativas Xit. Para determinar cuál es el modelo que mejor
explica la variabilidad de Y se usan distintos indicadores que se valoran a partir de las siguientes
consideraciones [13]:
▪ Menor valor de la suma de los cuadrados de los residuos (SCR) que es el mayor propósito de un
buen modelo.
▪ Mayor valor del coeficiente de determinación (R2) y del coeficiente de determinación ajustado
ADJR2 (Adjusted R-squared) de Theil [14]. En general ADJR2 ≤ R2.
▪ Significatividad individual, es decir, que las variables explicativas sean significativas a los niveles
de significación habituales de 0.1, 0.05 ó 0.01 (la probabilidad de que los coeficientes β (Prob (β))
sea menor que 0.1, 0.05 ó 0.01).

Para el caso de regresiones con datos de series de tiempo, se tiene dos tipos de modelos de
regresión: modelo de rezagos distribuidos (RD) y modelo autorregresivo (AR). En el modelo RD se
incluyen valores actuales y valores rezagados (pasados) de las variables explicativas. La ecuación (2)
representa un modelo de rezagos distribuidos con un rezago finito de k periodos. El rezago k, es el
tiempo hasta el cual se da la dependencia de Y con respecto a X.
𝑌𝑡 = 𝛼 + ∑𝑘𝑖= 0(𝛽𝑖 𝑋𝑡−𝑖 ) + 𝑒𝑟𝑟𝑜𝑟 𝑑𝑒 𝑝𝑟𝑜𝑛𝑜𝑠𝑡𝑖𝑐𝑜 𝑡 (2)

El coeficiente β0 se conoce como multiplicador de corto plazo o de impacto porque representa el


cambio en el valor medio de Y que sigue a un cambio unitario en X en el mismo periodo; β0 + β1 es el
cambio en el valor medio de Y en el periodo siguiente, β0 + β1+ β2 en el periodo que sigue y así
sucesivamente. β0 + β1+ β2 + ... + βk = β, siempre que β exista, es el multiplicador de rezagos distribuidos
total o de largo plazo. Resolver el modelo de la ecuación 2 consiste en encontrar los valores de α y los
β, y para ello existen dos métodos: el método Ad Hoc y el método de Alt y Tinbergen [15]. En el método
Ad Hoc como la Xt no es estocástica, o por lo menos no está correlacionada con el error de pronóstico,
entonces las Xt-i tampoco; por lo tanto, se pude aplicar el método de mínimos cuadrados ordinarios
para resolver la regresión de Yt sobre Xt, luego la de Yt sobre Xt y Xt-1, luego Yt sobre Xt, Xt-1, Xt-2; y así
sucesivamente. El proceso se detiene cuando el coeficiente β de al menos una de las variables
regresoras cambia de signo (de + a – o viceversa), entonces la iteración i – 2 será el mejor modelo de
regresión y la i de Xt-i será el valor k del rezago.
En el modelo AR, se incluyen valores actuales y uno o más valores rezagados de la variable
dependiente como variables explicativas. La ecuación (3) representa un modelo AR(k) con un rezago
finito de k periodos.
𝑌𝑡 = 𝛼0 + ∑𝑘𝑖= 0(𝛼𝑖+1 𝑌𝑡−𝑖 ) + 𝑒𝑟𝑟𝑜𝑟 𝑑𝑒 𝑝𝑟𝑜𝑛𝑜𝑠𝑡𝑖𝑐𝑜 𝑡 (3)
Los modelos RD y AR se pueden combinar para construir un modelo autorregresivo con rezago
distribuido (AR-RD). En este modelo se incluyen como variables explicativas los valores actuales más
uno o más valores rezagados de la variable dependiente y valores actuales y valores rezagados de las
variables explicativas. La ecuación (4) representa este modelo con un rezago finito de k1 y k2 periodos.

161
𝑌𝑗𝑡 = 𝛼𝑗 + ∑𝑛𝑗=1 ∑𝑘1 𝑘2
𝑖= 0(𝛽𝑗𝑖 𝑋𝑗(𝑡−𝑖) ) + ∑𝑖= 0(𝛼𝑗(𝑖+1) 𝑌𝑗(𝑡−𝑖) ) + 𝑒𝑟𝑟𝑜𝑟 𝑗𝑡 (4)

Los modelos AR y AR –RD, han mostrado un buen desempeño para la estimación del PM10 en zonas
urbanas [16-18], con valores de R2 que oscilan entre 0,38 y 0,98. En ellos se han incorporado como
variables explicativas la velocidad del viento [16, 19, 20], la temperatura [21, 22], la densidad vehicular
(para efectos de largo plazo) [21], la concentración de CO, NOx y SO2 (en reemplazo de variables de
tráfico) [20, 23], los usos del suelo, la presencia de zonas verdes [24], los cuerpos de agua [25], la
densidad de población y variables meteorológicas [26].

3.1 Modelo de regresión espacio temporal propuesto

En la Figura 2 se aprecia el esquema general del modelo AR – RD propuesto.

Figura 2. Modelo Autorregresivo con rezago distribuido propuesto para estimar PM10 en el espacio-tiempo

En la ecuación (5) se muestra la estructura general del modelo AR–RD de la Figura 2.


𝑗
𝑆𝑖𝑡 = 𝛽0 + ∑𝑟=0 𝛼𝑟+1 𝑆𝑟𝑖𝐽𝐵 + ∑𝑘𝑟=0 𝛽𝑟+1 𝑂𝑖𝑟 + 𝜀𝑡 (5)

El subíndice i hace referencia a las coordenadas espaciales xi, yi; con i = 1, …, n, que se muestran en
la Tabla 4. Los términos βo, 𝛼𝑟+1 , 𝛽𝑟+1 ; son los coeficientes de regresión y 𝜀𝑡 , es el error de la regresión.
Oir es el dato observado de PM10 (concentración promedio mensual en µgm/m3) en el espacio i en un
tiempo r, así: Oi0 es el dato observado en el tiempo t, Oi1 en el t – 1, …, Oik en el t – k. Estos datos se
muestran para cada mes del año en la Tabla 6.
El termino 𝑆𝑟𝑖𝐽𝐵 de la ecuación (5) es el dato estimado de PM10 en el espacio con el método de KO
mediante el estimador lineal insesgado 𝑆𝑟𝑖𝐽𝐵 = ∑𝑛𝑖=1 𝜆𝑖 𝑂𝑖 𝑟 , en donde 𝜆𝑖 es un factor de peso
ponderante calculado a través de 𝜆𝑖 = 𝜏 −1 𝑔 , siendo τ y g matrices que representan el cambio de la
varianza de los datos Oir con la distancia, que en este caso están dados por una función JBessel γ(h, θ)
en el dominio espacial (f(JBessel)Esp) con h distancia y θ sus parámetros. La ecuación (6) representa la
función JBesselEsp (Johnston et. al, 2003). Los parámetros de la función son: meseta (partial sill - 𝜃𝑠 ),
alcance (major range - 𝜃𝑟 ) y discontinuidad al origen (nugget - 𝜃𝑛 ); que están definidos para cada mes
en la tabla 5.
Adicionalmente S0iJB es el dato estimado en el tiempo t, S1iJB el dato estimado en el tiempo t – 1, …;
y SJiJB es el dato estimado en el tiempo t – J.
2𝜃𝑑 Γ(𝜃𝑑 +1) ‖ℎ‖
𝛾(ℎ, 𝜃) = 𝑓(𝐽𝐵𝑒𝑠𝑠𝑒𝑙)𝐸𝑠𝑝 = 𝜃𝑛 + 𝜃𝑠 [1 − 𝐽𝜃𝑑 (𝜙)] , 𝜙 = Ω𝜃𝑑 (6)
𝜙 𝜃𝑟

162
Donde:
𝜃𝑑 = parámetro calculado con la herramienta Geostatistical Analyst®.
Γ(𝜃𝑑 + 1) = función gamma.
Ω𝜃𝑑 = valor calculado numéricamente sujeto a que θs ≥ 0, θr ≥ 0, θd ≥ 0; con 𝛾(𝜃𝑟 ) = 𝜃𝑠 y 𝛾 ′ (𝜃𝑟 ) < 0.
‖ℎ‖ = norma del vector de distancia entre dos coordenadas xi, yi; con i = 1, …, n.
𝐽𝜃𝑑 (𝜙) = función JBessel.

Finalmente, el termino Sit es el dato estimado de PM10 en el espacio-tiempo como variable


dependiente de PM10 estimado en el espacio (𝑆𝑟𝑖𝐽𝐵 ) y PM10 observado en el espacio-tiempo (Oir),
mediante una modelo AR-RD. Usando el aplicativo Eviews® y la ecuación (5), se corrieron varios
modelos AR-RD organizando los datos en nueve paneles balanceados (uno para cada sitio de
monitoreo) desde febrero de 2013 a diciembre de 2007 para un total de 531 datos. Se validó la
estacionalidad de las series de tiempo mediante pruebas de raíces unitarias y se demostró que las
variables regresoras explican la variable de respuesta mediante la prueba de causalidad de Granger. Se
calculó el valor del rezago con el método Ad Hoc obteniéndose un valor de 1. Adicionalmente se usó el
método de efectos aleatorios para las secciones transversales (paneles) y el estimador Swamy y Arora
para el componente de las varianzas. En la Tabla 4 se muestra las mejores configuraciones para
variables explicativas del modelo general propuesto.
Tabla 4. Modelos de estimación espacio temporal para PM10 (Sit).
Significancia de los coeficientes
Modelo Sit R2 ADJR2 SCR
(Prob menor que 0.1, 0.05 ó 0.01)
𝛽0 = 0.00
1 38.27 + 0.46S1iJB 0.49 0.42 35798.72
𝛼1 = 0.00
𝛽0 = 0.00
2 15.18 + 0.82S0iJB - 0.01S1iJB 0.66 0.66 22632.80 𝛼1 = 0.00
𝛼2 = 0.57
𝛽0 = 0.00
3 13.46 + 0.81Oi1 0.71 0.67 34634.86
𝛽1 = 0.00
𝛽0 = 0.00
4 14.63 - 0.06S1iJB + 0.85Oi1 0.71 0.67 34575.09 𝛼1 = 0.31
𝛽1 = 0.00
𝛽0 = 0.01
5 -3.93 + 0.79S0iJB + 0.29Oi1 0.79 0.79 24288.53 𝛼1 = 0.00
𝛽1 = 0.00

3.2 Análisis de los resultados de las mejores configuraciones del modelo general propuesto

En los modelos RD (1 y 2) se observa que el componente espacial de rezago distribuido en el tiempo


t-1 (S1iJB) del modelo 2 no es tan significativo como el componente espacial en el tiempo t (S0iJB), para
explicar la variabilidad de PM10 en el tiempo t (Sit). Esto se confirma con el modelo AR (modelo 3)
cuando al agregarle el componente espacial en el tiempo t-1 se obtiene un modelo AR–RD (modelo 4)
que no mejora la explicación de la variabilidad de PM10 en el espacio tiempo (los indicadores R2, ADJR2
y SCR no cambian). Adicionalmente, el valor de significancia de los coeficientes del componente
espacial en el tiempo t-1 del modelo 2 (Prob (𝛼2 ) = 0.57) y el modelo 4 (Prob (𝛼1 ) = 0.31) está por
encima de 0.1. Esto implica que el componente espacial de rezago distribuido tiene un aporte menor a
la variabilidad del PM10 que el componente autorregresivo, pero en el tiempo t si es importante como
lo muestra el aumento en el valor de ADJR2 cuando al modelo 3 se le agrega este componente espacial,
es decir, para un sitio de monitoreo en particular es importante su pasado inmediatamente anterior y
lo que ocurre en el presente en su espacio auto correlacionado (modelo 5). Aunque se corrieron otros
modelos con mayores valores de rezago, no fueron tan significativos como los mostrados aquí.

163
La confiabilidad de los datos estimados se calculó mediante el error absoluto relativo (Absolut
Relative Error – ARE) y su valor promedio (MARE – Mean Absolut Relative Error) por mes (MAREMes) y
por estación (MAREEstación), con la ecuación (7) [27], donde 𝑂𝑖 es el dato observado en el tiempo t (Oi0)
y 𝑆𝑖 es el dato simulado.
𝐴𝐵𝑆(𝑂𝑖 −𝑆𝑖)
𝐴𝑅𝐸 = (7)
𝑆𝑖

En la Tabla 5 se muestra los resultados de PM10 estimado en el tiempo con el modelo 3. El modelo
3 explica la variabilidad de PM10 en un 71% y permite pronosticar su concentración en cada mes con
base en los datos del mes anterior.
Tabla 5. PM10 estimado con Modelo 3 (Sit = f(Oi1)) Temporal
Sitio de Monitoreo EN FB MR AB MY JN JL AG SP OC NV DC
0 62,3 75,3 76,9 65,7 62,8 62,8 61,6 68,3 72,3 79,8 69,3 67,0
1 62,1 74,0 75,9 64,8 62,1 62,3 61,1 68,0 72,0 79,6 69,1 66,9
2 62,2 74,4 76,2 65,1 62,3 62,4 61,2 68,1 72,1 79,6 69,1 66,9
3 62,7 78,5 79,5 67,7 64,4 64,2 62,6 69,2 73,0 80,4 69,7 67,4
4 62,2 74,9 76,6 65,4 62,5 62,6 61,4 68,2 72,2 79,7 69,2 67,0
5 62,6 78,0 79,1 67,4 64,1 63,9 62,5 69,1 72,9 80,3 69,7 67,3
6 62,6 78,3 79,3 67,6 64,3 64,1 62,6 69,1 73,0 80,3 69,7 67,4
7 62,6 78,1 79,2 67,5 64,2 64,0 62,5 69,1 73,0 80,3 69,7 67,4
8 62,1 73,8 75,7 64,7 62,0 62,2 61,0 67,9 72,0 79,5 69,1 66,9

Los meses con mayor valor de concentración promedio de PM10 son marzo y octubre con valores
de 77,6 (desviación estándar de 1,64) y 79,9 (de 0,36) respectivamente, que son similares a los valores
promedio observados en los mismos meses de 77,6 (de 10,7) y 79,9 (de 13,1) respectivamente. Los
meses con menor valor de concentración promedia de PM10 son julio y enero con valores de 61,8 (de
0,7) y 62,4 (de 0,2) respectivamente, que son cercanos a los valores promedios observados en los
mismos meses de 61,8 (de 12,0) y 63,8 (de 8,6) respectivamente. Estos resultados muestran un buen
ajuste del modelo 3 para los valores promedios observados en estos meses. En la Figura 3 se muestra
la serie de tiempo para datos observados (en azul) y los datos estimados con el modelo 3 (en rojo).
Ambas series muestran la misma tendencia, pero para los valores extremos existen diferencias en las
series debido al efecto que ellos tienen sobre la estacionalidad temporal de las series.

Figura 3. PM10 estimado con el Modelo 3 y PM10 observado

164
La confiabilidad de los datos estimados con el modelo 3 se calculan con el ARE y el MARE por mes y
por estación con la ecuación (7), en este caso 𝑆𝑖 es el dato estimado con el modelo 3 (Sit) (Tabla 6).
Tabla 6. Confiabilidad de los datos estimados con Modelo 3
ARE (Oi0, Sit = f(Oi1)Temporal) MARE σ
Estación
EN FB MR AB MY JN JL AG SP OC NV DC Estación AREEstac
BELLO 0,12 0,10 0,22 0,40 0,40 0,28 0,28 0,30 0,43 0,27 0,26 0,37 0,28 0,11
AGUINAGA 0,13 0,15 0,04 0,01 0,06 0,13 0,12 0,09 0,02 0,03 0,04 0,08 0,08 0,05
ITAGUI SAN FERNANDO 0,11 0,09 0,00 0,02 0,02 0,00 0,02 0,01 0,04 0,06 0,04 0,10 0,04 0,04
ENVIGADO 0,14 0,09 0,08 0,11 0,13 0,17 0,15 0,12 0,11 0,09 0,10 0,17 0,12 0,03
POLITECNICO 0,06 0,03 0,05 0,05 0,10 0,01 0,03 0,02 0,07 0,01 0,06 0,06 0,05 0,03
UDEA 0,13 0,15 0,06 0,14 0,18 0,05 0,09 0,01 0,02 0,01 0,02 0,11 0,08 0,06
UDEM 0,00 0,11 0,15 0,11 0,15 0,10 0,20 0,12 0,19 0,18 0,14 0,03 0,12 0,06
UNAL 0,19 0,15 0,19 0,28 0,25 0,23 0,26 0,27 0,28 0,26 0,26 0,29 0,24 0,04
UPB 0,11 0,11 0,10 0,08 0,09 0,16 0,18 0,10 0,09 0,07 0,10 0,13 0,11 0,03
MAREMes 0,11 0,11 0,10 0,13 0,15 0,12 0,15 0,12 0,14 0,11 0,11 0,15
σARE Mes 0,05 0,04 0,07 0,13 0,12 0,10 0,09 0,11 0,14 0,10 0,09 0,11

En general, los datos estimados de PM10 se ajustan bien para cada mes del año y en cada estación,
excepto las estaciones BELLO (en abril y septiembre) y UNAL (excepto el primer trimestre). En estas
estaciones se tienen los menores valores de confiabilidad. En BELLO es del 72% (1 - MAREEstación) con
desviación estándar de 0,11, y en UNAL del 76% con desviación estándar de 0,04. En la estación BELLO
en abril los datos simulados están en función de marzo que es un mes de alta contaminación y en
septiembre se tiene los efectos del mes anterior que es de baja contaminación. En la estación UNAL se
registran siempre los más altos valores de PM10. En ambos casos los valores extremos están afectando
la estacionalidad temporal de las series de datos y por tanto el ajuste del modelo 3.
El modelo 5 es un modelo AR – RD y el mejor modelo que explica la variabilidad de PM10 en un 79%
y permite estimar su concentración mensual localmente en algún sitio de monitoreo con base en lo que
ocurre en el presente en su espacio auto correlacionado (componente espacial de rezago distribuido)
y lo que ocurrió en el mes anterior (componente autorregresivo). En la Tabla 7 se muestra los valores
resultantes de la estimación del componente espacial 𝑆𝑟𝑖𝐽𝐵 en el tiempo t (S0iJB) usados en el modelo.
Tabla 7. Valor estimado Sri (JB) en el tiempo t (S0iJB).
Sitio de Monitoreo EN FB MR AB MY JN JL AG SP OC NV DC
0 54,0 63,2 60,9 50,6 50,0 54,0 43,5 55,7 54,1 60,9 53,7 43,9
1 53,3 63,2 73,3 66,1 66,7 59,4 53,3 64,2 70,8 82,4 66,6 58,6
2 53,9 65,5 75,1 64,5 61,7 62,9 57,4 68,7 70,4 76,1 67,1 58,5
3 67,1 79,4 81,3 73,7 71,6 72,9 65,3 75,2 80,0 88,1 75,0 71,7
4 59,6 71,3 78,6 68,4 62,7 59,0 60,7 66,7 75,3 79,3 73,5 65,8
5 65,6 82,8 77,6 60,1 54,9 66,1 65,2 70,4 73,7 81,1 68,4 57,6
6 58,6 66,5 65,0 62,4 64,1 66,1 54,6 64,7 63,2 68,2 59,5 60,2
7 65,2 80,4 91,1 78,9 72,2 70,7 69,9 90,2 91,2 100,9 83,3 85,1
8 54,4 67,7 69,3 62,0 62,8 60,4 56,1 62,5 68,3 75,8 63,8 58,3

La confiabilidad de los datos de la Tabla 7 se calcula con la ecuación (7), en este caso 𝑆𝑖 es el dato
estimado (componente espacial) en el tiempo t (S0iJB). Los cálculos se muestran en la Tabla 8. En
general los datos del componente espacial muestran un buen ajuste en la estimación en cada mes del
año y en cada estación, excepto la estación UNAL en el primer semestre y la estación ENVIGADO en
julio y diciembre en donde los valores estimados estuvieron por debajo de los valores observados y la
función de estimación presenta limitaciones para la estimación de valores altos como los que se
registran en la estación UNAL debido a que, en presencia de valores extremos, se afecta la
estacionalidad espacial de los datos y por tanto de normalidad de la función de densidad de
probabilidad que es condición necesaria para el mejor rendimiento de los métodos geoestadísticos. Sin
embargo, la confiabilidad de la estimación (1 - MAREEstación) en ese sitio de monitoreo fue del 86% con
una desviación estándar del 0.06, que sigue siendo un buen valor.

165
Tabla 8. Confiabilidad de los datos del componente espacial
ARE (Oi0, S0iJB) MARE σ
Estación
EN FB MR AB MY JN JL AG SP OC NV DC Estación AREEstac
BELLO 0,03 0,09 0,04 0,07 0,11 0,09 0,11 0,06 0,07 0,03 0,02 0,12 0,07 0,03
AGUINAGA 0,03 0,02 0,01 0,01 0,01 0,07 0,02 0,02 0,00 0,01 0,00 0,06 0,02 0,02
ITAGUI SAN FERNANDO 0,04 0,05 0,02 0,01 0,01 0,01 0,04 0,00 0,02 0,01 0,01 0,04 0,02 0,02
ENVIGADO 0,08 0,08 0,06 0,04 0,04 0,06 0,13 0,04 0,02 0,00 0,03 0,13 0,06 0,04
POLITECNICO 0,11 0,09 0,02 0,01 0,11 0,05 0,04 0,00 0,03 0,00 0,01 0,08 0,05 0,04
UDEA 0,10 0,11 0,08 0,01 0,01 0,01 0,05 0,00 0,01 0,00 0,01 0,05 0,04 0,04
UDEM 0,07 0,06 0,06 0,03 0,12 0,12 0,04 0,05 0,03 0,01 0,03 0,09 0,06 0,04
UNAL 0,19 0,14 0,07 0,20 0,19 0,18 0,22 0,04 0,11 0,08 0,12 0,12 0,14 0,06
UPB 0,03 0,02 0,01 0,03 0,10 0,11 0,08 0,01 0,03 0,02 0,02 0,01 0,04 0,04
MAREMes 0,08 0,07 0,04 0,05 0,08 0,08 0,08 0,03 0,04 0,02 0,03 0,08
σARE Mes 0,05 0,04 0,03 0,06 0,06 0,05 0,06 0,02 0,03 0,03 0,04 0,04

En la Tabla 9 se muestra los resultados de PM10 estimado en el espacio y el tiempo con el modelo 5
de la Tabla 4.
Tabla 9. PM10 estimado con Modelo 5 (Sit = f(S0iJB, Oi1)) Espacio - Temporal
Sitio de Monitoreo EN FB MR AB MY JN JL AG SP OC NV DC
0 50,8 62,2 64,1 54,4 49,3 51,8 44,7 54,1 54,1 58,9 56,7 46,6
1 55,0 62,0 72,6 69,4 67,9 62,1 54,2 62,7 70,2 81,7 72,5 61,6
2 55,3 64,2 75,3 69,2 63,3 63,5 59,6 67,8 71,7 76,3 70,9 61,6
3 69,8 80,0 85,3 79,4 74,8 75,3 70,0 76,9 82,1 89,5 80,9 75,3
4 63,1 71,6 80,7 73,5 65,6 62,9 62,0 67,1 75,0 81,4 77,2 69,5
5 63,2 82,4 84,1 67,9 56,7 64,1 67,0 71,6 74,7 81,8 73,7 61,4
6 56,9 66,8 67,9 65,3 64,4 64,6 56,1 62,4 63,9 67,7 62,8 61,3
7 71,1 82,2 94,6 86,7 80,5 76,9 75,5 92,1 95,5 105,1 93,4 90,5
8 55,9 65,9 70,1 65,1 63,1 60,2 56,0 60,5 68,0 75,2 68,0 60,3

Los meses con mayor valor de concentración promedio de PM10 son marzo y octubre, con valores
de 77,2 (desviación estándar de 9,7) y 79,7 (de 13,0) respectivamente, que son cercanos a los valores
promedios observados en los mismos meses de 77,6 (de 10,7) y 79,9 (de 13,1) respectivamente. Los
meses con menor valor de concentración promedio de PM10 son julio y enero con valores de 60,6 (de
9,3) y 60,1 (de 7,0) respectivamente; cercanos a los valores promedio observados en los mismos meses
de 61,8 (de 12,0) y 63,8 (de 8,6), respectivamente. En la Figura Figura 4 se muestra la serie de tiempo
para datos observados (en azul) y estimados (en rojo) con el modelo 5. Ambas series muestran la
misma tendencia, pero para los valores extremos existen diferencias por la misma razón que en el
modelo 3.

Figura 4. PM10 estimado con el Modelo 5 y PM10 observado

166
La confiabilidad de los datos simulados se calcula con el ARE y el MARE por mes y por estación con
la ecuación (7), pero en este caso 𝑆𝑖 es el dato simulado con el modelo 5 (Sit). (Tabla 10).
Tabla 10. Confiabilidad de los datos estimados con Modelo 5
ARE (Oi0, Sit = f(S0iJB, Oi1)Espacio - Temporal) MARE σ
Estación
EN FB MR AB MY JN JL AG SP OC NV DC Estación AREEstac
BELLO 0,09 0,09 0,02 0,16 0,10 0,06 0,07 0,03 0,07 0,07 0,03 0,05 0,07 0,04
AGUINAGA 0,00 0,03 0,00 0,06 0,03 0,13 0,01 0,00 0,00 0,00 0,09 0,00 0,03 0,04
ITAGUI SAN FERNANDO 0,02 0,06 0,01 0,09 0,03 0,02 0,00 0,01 0,04 0,02 0,07 0,01 0,03 0,03
ENVIGADO 0,04 0,07 0,01 0,04 0,01 0,02 0,05 0,02 0,00 0,01 0,04 0,07 0,03 0,02
POLITECNICO 0,05 0,08 0,00 0,07 0,05 0,01 0,02 0,01 0,04 0,03 0,04 0,02 0,03 0,02
UDEA 0,12 0,10 0,00 0,15 0,04 0,04 0,02 0,02 0,00 0,01 0,08 0,01 0,05 0,05
UDEM 0,09 0,05 0,01 0,08 0,15 0,11 0,07 0,01 0,04 0,00 0,03 0,06 0,06 0,04
UNAL 0,08 0,10 0,03 0,08 0,06 0,08 0,11 0,02 0,05 0,03 0,00 0,05 0,06 0,03
UPB 0,01 0,00 0,02 0,09 0,11 0,12 0,08 0,02 0,03 0,01 0,09 0,02 0,05 0,04
MAREMes 0,05 0,07 0,01 0,09 0,07 0,07 0,05 0,02 0,03 0,02 0,05 0,03
σARE Mes 0,04 0,03 0,01 0,04 0,05 0,05 0,04 0,01 0,03 0,02 0,03 0,03

En general los datos estimados de PM10 muestran un buen ajuste para cada mes del año y en cada
estación, excepto las estaciones BELLO en abril, AGUINAGA en junio, UdeA en abril y UdeM en mayo.
En la estación UNAL se mejora significativamente los resultados con el modelo 5. En general la
confiabilidad promedio, por mes y por estación, del modelo 5 fue del 95,44% con una desviación
estándar de 0,03.

3.3 Cálculo de mapas de estimación de PM10 para cada mes del año

En las Figura 5 a 7 se muestra los resultados de la Tabla 10 mediante mapas calculados usando el
aplicativo ArcMap® de ESRI. Para la elaboración se tuvo en cuenta la proximidad a vías principales, a
industrias y a zonas verdes.

Figura 5. Caracterización de PM10 estimado con el Modelo 5 (primer cuatrimestre)

167
Figura 6. Caracterización de PM10 estimado con el Modelo 5 (segundo cuatrimestre)

Figura 7. Caracterización de PM10 estimado con el Modelo 5 (tercer cuatrimestre)

Estos mapas caracterizan espacialmente para cada mes del año la concentración PM10 con los datos
obtenidos con el modelo AR–RD. En los mapas, la concentración de PM10 en algún sitio de monitoreo
(0 al 8) depende del valor de concentración en los otros sitios de monitoreo de ese mes, más el valor
de la concentración en el mismo sitio en el mes anterior. Se observa nuevamente que marzo y octubre
son los meses más contaminados y los menos son enero y julio. La concentración de PM10 es
relativamente homogénea en el centro del valle del área de estudio en el eje formado por los sitios 1,

168
8 y 2; mientras que tiende a tener mayores valores en la vecindad de los sitios 7 y 3 en donde se tiene
micro cuencas topográficas que afectan la dispersión del PM10. En el sitio 1, que se ubica en el centro
de la ciudad de Medellín, también se observa una tendencia a tener altas concentraciones en los meses
de mayores valores. Los menores valores de concentración están en torno al sitio 0 que es un punto
de entrada de regímenes de vientos provenientes del norte del valle que favorecen la dispersión del
material particulado.

En este ejercicio se han propuesto cinco modelos de regresión para simular la concentración
mensual de PM10 en el área metropolitana de la ciudad de Medellín – Colombia a partir de información
disponible en nueve sitios de monitoreo entre enero de 2003 y diciembre de 2007. Los datos se
configuran como datos de panel. Los modelos derivan de una estructura genérica que contempla un
componente espacial de rezago distribuido y un componente autorregresivo. Para ambos
componentes el rezago calculado fue de 1. A partir de la estructura genérica se obtienen dos modelos
de rezago distribuido con base en el componente espacial, un modelo autorregresivo (modelo 3) y dos
modelos autorregresivos de rezago distribuido (modelo 4 y 5). El modelo 1 sólo explica el 49% de la
variabilidad de PM10 y el término de rezago 1 del componente espacial de los modelos 2 y 4 no es
significativo. Por lo tanto, la variabilidad local de PM10 no es sensible a lo que ocurre espacialmente
en el tiempo t-1, pero si es sensible a lo que ocurre en un mismo sitio en el mes anterior como lo
evidencia el modelo 3 que explica la variabilidad en un 71% y tiene una confiabilidad de pronóstico
del 86%. En general los modelos 3 (AR) y 5 (AR–RD) propuestos en este trabajo son un aporte
complementario para la estimación de la concentración de PM10 a los modelos y metodologías usadas
en el área estudio para la estimación de la concentración y las emisiones de esta variable. Sin embargo,
la caracterización del componente espacial es univariada y no incluye el efecto que sobre PM10 tienen
otras variables.
Finalmente, la implementación de herramientas SIG permitieron obtener mapas de caracterización
espaciotemporal de PM10 para cada mes del año que pueden servir de insumo para futuros programas
de muestreo preliminar de esta variable y la optimización de los sistemas de vigilancia y monitoreo
ambiental. Adicionalmente, la aplicación de las normas por parte de las autoridades ambientales
debería considerar la especificidad de la concentración de PM10 que se presenta mes a mes con el fin
de implementar medidas de control mensuales, especialmente en los meses de marzo, abril, octubre y
noviembre, orientadas a la minimización de los efectos de esta sustancia sobre la salud pública de los
habitantes de la ciudad de Medellín.

4. Reto

▪ Desarrollar un método de estimación espaciotemporal que use geoestadística multivariada e


incluya la velocidad del viento y la temperatura que se correlacionan con la concentración de
PM10. Así mismo, se invita al lector a hacer un análisis comparativo de los resultados obtenidos
por ambos métodos.

Referencias

[1] Laumbach, R. & Kipen, H. (2012). Respiratory health effects of air pollution: update on biomass smoke and
traffic pollution. Jour. Allergy Clin. Immunol 129, pp. 3-11.
[2] Laboratorio de Calidad del aire (2015). Universidad Nacional de Colombia Sede Medellín. CALAIRE.
[3] Londoño, L. et al. (2015). Caracterización espacial de PM10 en la ciudad de Medellín mediante modelos
geoestadísticos. Revista de Ingenierías USBMED 6(2), pp. 26-35.
[4] Londoño, L. & Cañón, J. (2015). Imputation of spatial air quality data using gis-spline and the index of
agreement in sparse urban monitoring networks. Revista Facultad de Ingeniería, UdeA, 76, pp. 73-81.

169
[5] Shahraiyni, H. & Sodoudi, S. (2016). Statistical Modeling Approaches for PM10 Prediction in Urban Areas -
A Review of 21st-Century Studies. Atmosphere 7 (2), pp. 1-24.
[6] Hrust, L. et al. (2009). Neural network forecasting of air pollutants hourly concentrations using optimised
temporal averages of meteorological variables and pollutant concentrations. Atmos. Environ. 43, p. 5588-
5.596.
[7] Goyal, P., Chan, A. & Jaiswal, N. (2006). Statistical models for the prediction of respirable suspended
particulate matter in urban cities. Atmos. Environ. 40, p. 2068-2077.
[8] Alam, M. & McNabola, A. (2015). Exploring the modeling of spatiotemporal variations in ambient air
pollution within the land use regression framework: Estimation of PM10 concentrations on a daily basis.
J. Air Waste Manag. Assoc. 65, pp. 628–640.
[9] Jeffrey, M. (2002). Woolridge, Econometric Analysis of Cross Section and Panel Data. Cambridge: MIT
Press.
[10] Frees, E. (2004). Longitudinal and Panel Data: Analysis and Applications in the Social Sciences. Cambridge:
Cambridge University Press.
[11] Dickey, D. & Fuller, W. (1979). Distribution of the Estimators for Autoregressive Time Series with a Unit
Root. Journal of the American Statistical Association 74, pp. 427-431.
[12] Wiener, N. (1956). The Theory of Prediction. In Beckenback, E. (Ed.), Modern Mathematics for Engineers
(pp. 165-190). Nueva York: McGraw-Hill.
[13] Diebold, F. (2001). Elements of Forecasting. USA: South Western.
[14] Theil, H. (1971). Principles of Econometrics. Nueva York: John Wiley & Sons.
[15] Alt, F. (1942). Distributed Lags. Econometrica 10, pp. 113-128.
[16] Hooyberghs, J. et al. (2005). Pronostico mediante redes neuronales de la concentración promedia diaria
de PM10 en Bélgica. Atmos. Environ. 39, pp. 3279-3.289.
[17] Stadlober, E., Hörmann, S. & Pfeiler, B. (2008). Quality and performance of a PM10 daily forecasting model.
Atmos. Environ. 42, pp. 1098-1109.
[18] Slini, T. et al. (2006). PM10 forecasting for Thessaloniki, Greece. Environ. Softw. 21, pp. 559-565.
[19] Harrison, R. et al. (1997). Sources and processes affecting concentrations of PM10 and PM2.5 particulate
matter in Birmingham (U.K.). Atmos. Environ. 31, pp. 4103-4117.
[20] Sayegh, A., Munir, S. & Habeebullah, T. (2014). Comparing the performance of statistical models for
predicting PM10 concentrations. Aerosol Air Qual. Res. 14. pp. 653-665.
[21] Papanastasiou, D., Melas, D. & Kioutsioukis, I. (2007). Development and assessment of neural network and
multiple regression models in order to predict PM10 levels in a medium-sized Mediterranean city Water
Air Soil Pollut. 182, pp. 325-334.
[22] Perez, P. & Reyes, J. (2002). Prediction of maximum of 24-h average of PM10 concentrations 30 h in
advance in Santiago, Chile. Atmos. Environ. 36, pp. 4555-4561.
[23] Kim, B., Teffera, S. & Zeldin, M. (2000). Characterization of PM2.5 and PM10 in the South Coast air basin of
Southern California: Part 1—Spatial variations. J. Air Waste Manag. Assoc. 50, pp. 2034-2044.
[24] Taheri, S. et al. (2015). The influence of the plants on the decrease of air pollutants (Case study: Particulate
matter in Berlin). In Euro-American Conference for Academic Disciplines. Paris, France.
[25] Chen, L. et al. (2010). A land use regression for predicting NO2 and PM10 concentrations in different
seasons in Tianjin region, China. J. Environ. Sci. 22, pp. 1364-1373.
[26] Johnston K. et al. (2003). ArcGIS Geostatistical Analyst Tutorial. USA: ESRI.
[27] Li, J. & Heap, A. (2011). A review of comparative studies of spatial interpolation methods in environmental
sciences: Performance and impact factors. Ecological Informatics 6, pp. 228-241.

170
CAPÍTULO 16

Problema 12. Volumen de un embalse a partir de datos batimétricos dispersos


Sergio Marulanda O.
Luis A. Tafur J.

Taxonomía Objetivos de aprendizaje


Grado de Estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


TIN, Topotoráster, CUT FILL Datos dispersos obtenidos por secciones de batimetría, Red de drenaje existente
antes del llenado del embalse, Contorno del embalse

171
1. Planteamiento del problema

Un embalse es la acumulación de agua que se produce cuando se construye una presa cerrando
parcial o totalmente el cauce de un afluente de agua. Normalmente, antes de la construcción se hacen
levantamientos topográficos y cartográficos de precisión para obtener de manera precisa el volumen
de agua que almacenará. El vaso del embalse o espejo de agua es el área del contorno que se genera
cuando está totalmente lleno. Las corrientes de agua que lo alimentan depositan sedimentos en el
fondo que, en muchos casos, generan derrumbes en su contorno y hacen que la superficie del fondo
cambie con el tiempo, disminuyendo al punto que ya no se puede operar. Este tiempo es el que
establece la vida útil del embalse [1].
El sedimento lo constituyen todas las partículas de suelo y roca que son arrastradas y transportadas
por una corriente de agua a lo largo de la cuenca. Dependiendo de su comportamiento al ser
transportado por el flujo se pueden clasificar en de fondo y de suspensión. El primero es el material
que se deposita en el fondo del cauce y el segundo es el que se encuentra suspendido en el agua del río
y formado por partículas muy finas como limos y arcillas. Cuando la turbulencia y velocidad de la
corriente decrece, la concentración del número de partículas en suspensión disminuye. Cuando esto
ocurre muchas partículas caen al fondo y van colmatando el embalse.
En su mayoría el material de fondo es granular, es decir, está formado por partículas sueltas de grava
y arena. Las fuerzas de arrastre de la corriente tratan de mover esas partículas. Las fuerzas que se
oponen al movimiento son el peso propio de cada partícula y la fricción. Las partículas al ser levantadas
y puestas en suspensión por la corriente tienen en su propio peso la única fuerza actuante para retornar
al fondo. Mientras mayor es la turbulencia de la corriente y más fino sea el material, la distribución de
la concentración de partículas, en un perfil vertical, es más uniforme. Cuando la turbulencia es menor
o el material más grueso, el que está en suspensión cerca de la superficie disminuye y se concentra
cerca del fondo.
Los embalses y el agua regulan los aportes de materiales en suspensión y los arrastres de sólidos
transportados por los ríos. Además, son una clara discontinuidad en el gradiente longitudinal de
procesos propios de los ríos. El balance de esta regulación da como resultado una retención neta de
estos materiales en forma de sedimentos, dando lugar a la colmatación. Como se muestra en la Figura
1, al poner un obstáculo a un río (presa o cortina), se origina un estancamiento, por lo cual al entrar en
la corriente al embalse el material grueso se depositará según la disminución de la velocidad del agua,
debido al efecto de paliación del cauce y el crecimiento del tirante que se forma en la “cola” del vaso,
generando una acumulación de sedimento grueso denominado delta [1].

Figura 1. Estancamiento originado por la presa o cortina

Calcular la cantidad de sedimentos que se han depositado en el embalse no es una tarea fácil y
existen diferentes aproximaciones para lograrlo: 1) las mediciones directas dentro del embalse, 2) el
aforo en la corriente de entrada del transporte de sedimento, y 3) por métodos de predicción. La
información disponible y el grado de precisión requerida determinan cuál de ellos se puede aplicar. La
más utilizada es la medición directa, que se realiza cada cierto periodo tiempo porque es la mejor

172
aproximación al cálculo del volumen del embalse y a la estimación con mayor precisión de la vida útil
del mismo. La técnica tradicional de medición directa se hace empleando fotografía aérea y
levantamiento topográfico cuando el vaso se vacía, lo mismo que procesos de batimetría cuando el
sedimento está constantemente sumergido. La batimetría consiste en obtener la información de
profundidad en cada punto x,y por medio de una ecosonda. De esta manera se obtiene una nube de
puntos x,y,z para el fondo del embalse como se observa en Figura 2.

Figura 2. Proceso batimétrico

El ejercicio consiste en calcular el volumen de un embalse a partir de datos dispersos obtenidos por
secciones de batimetría por diferentes métodos y discutir los resultados. Para el caso que se muestra
en la Figura 3 el método se basó en secciones transversales a lo largo del embalse. Con las tecnologías
actuales de GPS se obtienen muchos más puntos de muestreo que no necesariamente debe estar a lo
largo de secciones, con lo que se puede tener un barrido mucho más completo.
###
#
#
#
##
#
# ## ## # #
#### # # #####
##
### ##
# # ## #####
####
#
## ######
##
#
### # #
##
#
# ######
#
#
#
# #######
#######
##########
#
# ############ # #
# ### ## #
# #
#
# ##### #
## #
#
# ### #
#### ### ## ## # ########
### ## ## #
#
### ## # # #
# #####
# ## ##
# ### #### # # ###### ###
#
##
#### ### ########### # ### ###### ##
# #
## ### ### ######
# ###
# ##############
# #### ## ##########
# #### ##
# ####
#### #
############ #
###
## ####
##
#####
####
#### ###
#
####
### ###
## ##
########
######
# ### ##
### ###
# ## ### # #### ######### ##########
##
## ### # ############## ###########
#
## ##
# ### # ### # #########
## # ### ##
#
# # ## #
## #
# ### #
## # ## ### ############ #
##
## # ### ## #######
##
# ### ##
## # # #
#### ##
### #### ##
# ### ########
## ### #
##
# #### ######
##
# ### # ###
### ####### ##
#
#
##
# #####
##
## ##
## #### # ###
#
##
########
# ###### ##### #
## #
#####
# #
### ####
# #
####
### #########
############
######
#########
#
########## #####
#
#
####
####### ####
###### ## ##
###### ## #
### ###
## # #
###
### ##
##
#### ##
# ###
#
# # ###
### ## ### ###
### # #### ## ##
#
## ### # ## #
## ### ####
### ## # ###
## #######
##
## # ###
##
# #####
###
##### #
######
#####
######
###### ##
###
###
###
##### ####
# ###
#### ##
#### ###
##
##
###
### ###
### ####
### ####
###
#####
##### #
######
### ####
#
# ### ######
#### ######
### #####
#### ### ##
##### ### ##
####
## #### ####
#### ##
##### ### ##
### ## ##

Figura 32. Nube de puntos x,y,z

Datos necesarios:
▪ Contorno del embalse (cont5000 para el ejemplo)
▪ Puntos de batimetría (bat97 para el ejemplo)
▪ Red de drenaje existente antes del llenado del embalse (batini para el ejemplo)

El principal problema para lograr un buen cálculo del volumen del embalse es estimar la
profundidad del agua en las zonas poco profundas, para navegar con cualquiera de los barcos utilizados
en el estudio hidrográfico [2].

173
2. Desarrollo del problema

Como primer paso se debe construir un DTM con la información disponible, para lo que se plantean
los siguientes métodos:

2.1 Método 1: TIN

La representación de la morfología de forma digital por medio de redes irregulares de triángulos


(TIN), es tal vez la más usada por los profesionales en sistemas en información geográfica. Un TIN es
un conjunto de datos geográficos digitales basados en vectores y se construyen mediante la
triangulación de vértices (puntos). Estos vértices están conectados con una serie de aristas para formar
una red de triángulos. Existen varios métodos de interpolación para formar estos triángulos, pero el
más usado es la triangulación de Delaunay, el cual está incorporado en ArcGIS.
El proceso de triangulación resultante cumple el criterio de triángulo de Delaunay, quien afirma que
la circunferencia circunscrita de cada triángulo de la red no puede contener ningún vértice de otro
triángulo. Este criterio de Delaunay, maximiza el ángulo interior mínimo de todos los triángulos,
evitando la generación de triángulos finos y largos. Las aristas o lados de los triángulos del TIN forman
facetas triangulares contiguas y no superpuestas que sirven para capturar la posición de entidades
lineales que juegan un papel importante en una superficie, modelando la morfología de la superficie.
La Figura 4 muestra unos gráficos en los que se pueden ver los nodos y aristas de un TIN (izquierda) y
los nodos, bordes y caras de un TIN (derecha) [3].

Figura 4. Modelo TIN

Debido a que los nodos se pueden colocar irregularmente sobre una superficie, un TIN puede tener
una resolución más alta en las zonas donde la superficie es muy variable y una resolución más baja en
zonas planas. Los objetos de entrada utilizados para crearlo permanecen en la misma posición que los
nodos, vértices o lados de los triángulos. De esta manera conserva la precisión de los datos de entrada,
al mismo tiempo que modela los valores entre los puntos conocidos. Además, se puede incluir otros
objetos localizados con precisión en una superficie, tales como picos de montañas, vías y drenajes, los
cuales mejoran la representación de la morfología de la superficie.
Para la generación de TIN se requiere que las unidades estén en pies o metros, no en grados
decimales. Las triangulaciones de Delaunay no son aplicables cuando se construyen a partir de
coordenadas angulares de sistemas de coordenadas geográficas. Un modelo TIN es mucho menos
generalizado que los modelos de superficie tipo ráster y tienden a ser más costosos de construir y
procesar. El costo de obtener buenos datos de origen puede ser alto y el procesamiento de un TIN
tiende a ser menos eficaz que el procesamiento de datos tipo ráster, debido a la compleja estructura de
datos que contiene.
Este tipo de modelos es usado para el modelado de alta precisión de áreas pequeñas, por lo que es
aplicado en la ingeniería, donde resultan útiles porque permiten realizar cálculos de área planimétrica,

174
área superficial y volumen [3]. Además, son una alternativa que tiene la ventaja de garantizar que los
puntos de muestra mantengan la profundidad, pero tiene la desventaja que interpola linealmente entre
los puntos que, para superficies irregulares como las de un terreno, no es una buena aproximación, sin
embargo, es un método muy usado por las herramientas de software existentes para el cálculo de
batimetrías. Uno de los problemas del método de triangulación de Delaunay son los triángulos
generados en la frontera del embalse, o sea en las zonas poco profundas que, por lo regular, tendrán el
valor de cero en profundidad y, por tanto, hay ausencia de contornos batimétricos, dando como
resultado una representación no realista del embalse. Para el cálculo por el método TIN en Arc Gis se
utiliza la herramienta CreateTIN con los parámetros de la Figura 5.

Figura 5. Herramienta Create TIN de Arc Gis

2.2 Método 2: Topotoráster

Es una herramienta de Arc Gis que contiene un método de interpolación diseñado específicamente
para crear modelos digitales de elevación (DEM) hidrológicamente correctos [4]. El método se basa en
el programa ANUDEM, desarrollado por Michael Hutchinson [5, 6]. El método de interpolación
topotoráster tiene la ventaja de aprovechar los tipos de datos de entrada comúnmente disponibles y
las características conocidas de las superficies de elevación. Este método de diferencia finita iterativa
se utiliza como técnica de interpolación, que se optimiza para tener la eficacia computacional de los
métodos de interpolación local, como es la interpolación de distancia inversa ponderada (IDW),
manteniendo la continuidad de la superficie de los métodos de interpolación global, como Kriging y
Spline. En esencia es una técnica tipo spline de lámina delgada discretizada [7], a la cual se le agrega
penalizaciones por rugosidad que permiten que el DEM se ajuste siguiendo los cambios abruptos en el
terreno, como drenajes, filos o crestas y acantilados.
El agua es la principal fuerza erosiva que determina la morfología de las superficies, incidiendo en
la forma general de la mayoría de los paisajes. Esta hace que tengan varias cumbres (máximos locales)
y pocos sumideros (mínimos locales), resultando en un patrón de drenaje conectado. Topotoráster
utiliza este comportamiento de las superficies e impone restricciones al proceso de interpolación,
obligando al modelo a imponer una estructura de drenaje conectado y una correcta representación de
filos o crestas y drenajes. Esta condición produce superficies con mayor precisión e hidrológicamente
corregidos con menos datos de entrada.
Otra importante ventaja es la posibilidad de incorporar una red de drenaje existente, cuyo propósito
es quitar todos los puntos de sumideros en el DEM de salida que no se identificaron como sumideros
en los datos de entrada. El modelo presupone que los sumideros no identificados son errores, ya que,
por lo general, es poco común encontrarlos en paisajes naturales [8]. Esto en realidad permite que el
topotoráster, cuando se ingresan datos de la red de drenaje, se convierta en un potente interpolador
direccional que garantiza el flujo aguas abajo a lo largo de esas líneas de drenaje, representando líneas
de contorno en las zonas poco profundas.

175
En versiones anteriores de Topotoráster los polígonos de embalse o contorno eran simples
máscaras, que establecían la elevación de cada superficie de embalse a la elevación mínima de todos
los valores del DEM vecinos del embalse o contorno. En la versión 10.3 de Arc Gis existe un algoritmo
actualizado en el que los límites del embalse habilitan la determinación automática de las alturas que
posee, y que son totalmente compatibles con las líneas de arroyos de conexión y los valores de
elevación vecinos. Este algoritmo trata cada contorno del embalse como una curva de nivel con
elevación desconocida y la calcula iterativamente a partir de los valores de celda en el límite del
embalse. La elevación de cada límite se establece y se ajusta a las elevaciones de cualquier embalse, lo
mismo que se establece para que sea coherente con los valores de las celdas de DEM vecinos.
Los contornos del embalse pueden incluir islas. Todos los valores de las celdas del DEM, que se
encuentran dentro, se establecen a la altura estimada del DEM en el límite del embalse. En el caso
planteado no se cuenta con curvas de nivel, sino con un muestreo de puntos y el contorno, por lo que
la propuesta es generar el DTM con los puntos e incorporar la red de drenaje inicial (antes del llenado
del embalse) como muestra morfológica del terreno, sobre todo las lejanías del punto de presa. La
suposición que se hace es que los sedimentos se depositan de acuerdo con el patrón morfológico inicial,
definido por las corrientes de drenaje originales, y que mantienen esa tendencia. Lo anterior puede
considerarse valido en las lejanías de la presa, ya que en su cercanía existe otros patrones de
comportamiento de las corrientes, debido a que en condiciones normales el proceso de sedimentación
es suave y la velocidad de flujo por la generación en las turbinas genera turbulencia en el fondo y,
aunque algunos sedimentos salen del embalse, la mayoría vuelve generando colmatación uniforme.
Si se considera válida esta suposición entonces se puede editar la red de drenaje original,
eliminando o recortando los segmentos que están en las cercanías de la presa antes de incorporarlos
al proceso de interpolación. De todas maneras, es una propuesta que deben analizar con más detalle
los especialistas en sedimentación. La única forma de establecer cuál es la mejor aproximación, es
vaciar el embalse y realizar un levantamiento altiplanimétrico para determinar cuál fue la mejor
aproximación a la realidad. En la Figura 6 se aprecia el desarrollo de cálculo con topotoráster.

Figura 6. Herramienta TopotoRáster de Arc Gis

3. Análisis de resultados

3.1 Resultados modelo TIN

En la Figura 7 se puede observar que este modelo crea facetas planas en las colas del embalse,
debido a que en estas zonas no cuenta con datos de muestreo y solamente tiene la información de la
altura del contorno o silueta (espejo de agua).

176
Figura 7. Vista embalse en el modelo TIN

Para el cálculo del volumen se puede crear una superficie de altura constante con el contorno del
embalse y luego, con la herramienta de Arc Gis CUT FILL, se obtiene la tabla de Cortes y Rellenos que
se muestra en la Figura 8. Como resultado se obtiene que el volumen inundado de 44.056.550 m3.

Figura 8. Volumen del embalse usando la herramienta Cut Fill para los resultados del modelo TIN

3.2 Resultados modelo Topotoráster

El modelo topotoráster modela mejor las colas y establece las líneas de flujo de acuerdo con el
drenaje que existía antes del llenado (Figura 9).

Figura 9. Vista embalse modelo TopotoRáster

Lo anterior da como resultado un volumen inundado de 62.457.165 m3 (Figura 10).

Figura 10. Volumen del embalse usando la herramienta Cut Fill para los resultados del modelo TopotoRáster

177
4. Conclusiones

Es evidente que los dos métodos dan resultados muy diferentes. En el caso del TIN es obvio que los
escasos datos en las colas afectan sustancialmente el resultado, ya que en esas zonas el modelo las
considera planas, pero tiene la ventaja de que los datos de batimetría son respetados en la
triangulación. En el caso de topotoráster la inclusión de la red de drenaje inicial hace que el
interpolador sea direccional generando superficies más realistas en las colas (zonas poco profundas),
que el modelo TIN estableció como facetas planas, dando como resultado un 40% más de volumen del
embalse.
Como dato de interés el volumen del embalse calculado por métodos manuales con los mismos datos
fue de 64.280.870 m3, con lo que se concluye que el modelo topotoráster ofrece una muy buena
aproximación para el cálculo de volumen de embalses con datos dispersos obtenidos de secciones
batimétricas.

Referencias

[1] Gracia, J. (1996). Manual de Ingeniería de Ríos. Capítulo 18: Sedimentación de Embalses. Mexico: UNAM.
[2] Furnans, J. & Austin, B. (2008). Hydrographic survey methods for determining reservoir volumen.
Environmental Modelling & Software 23, pp. 139-146.
[3] ESRI (2016). ¿Qué es una superficie TIN? Online [Jun 2016].
[4] ESRI (2007). Documentation Archive. Online [Jun 2016].
[5] Hutchinson, M. (1988). Calculation of hydrologically sound digital elevation models. In Third International
Symposium on Spatial Data Handling. Sydney, Australia.
[6] Hutchinson, M. (1989). A new procedure for gridding elevation and stream line data with automatic removal
of spurious pits. Journal of Hydrology 106, pp. 211-232.
[7] Wahba, G. (1990). Spline models for Observational data. In CBMS-NSF Regional Conference Series in Applied
Mathematics. Philadelphia, USA.
[8] Goodchild, M. & Mark, D. (1987). The fractal nature of geographic phenomena. Annals of Association of
American Geographers 2(77), pp. 265-278.

178
CAPÍTULO 17

Problema 13. Cálculo beneficio de plusvalía


José L. Duque P.
Julián A. Duque L.
Libardo A. Londoño C.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Arcgis Información municipal

179
1. Planteamiento del problema

En este capítulo se ilustra como la geoinformática permite encausar y solucionar rápidamente las
necesidades financieras de un municipio, mediante herramientas nuevas como la compensación
financiera a través de instrumentos como la plusvalía. Este es un instrumento de financiación real del
plan de ordenamiento territorial y el mejoramiento del hábitat humano, poco usado para el beneficio
del desarrollo socioeconómico de los municipios, a pesar de que la normatividad nacional, como la Ley
388 de 1997 y sus decretos reglamentarios, posibilita el desarrollo de la misma.
Además, permite capturar, procesar, seleccionar, reportar, calcular, predecir los mayores valores de
la tierra, por cambios de usos del suelo, cambios de clase de suelo y por el desarrollo de
macroproyectos, a través del manejo espacial de los datos a partir de la comparación, superposición y
análisis de información secundaria cartográfica y documental existente, de los componentes y
dimensiones del Ordenamiento territorial. La geoinformática en contexto de la plusvalía comprende:
1. Preparación cartográfica y recolección de información primaria requerida para la elaboración de
avalúos pre y post hechos generadores de la Plusvalía, esto incluye la recolección de los datos
georreferenciados de cada valor de la tierra con las normas anteriores del POT, con las normas
posteriores o el nuevo POT, esto incluye la diferencia de valores, para calcular la Plusvalía real.
2. El cálculo real de la plusvalía por predio, por propietario, por barrio o vereda, por sector urbano
y rural, por zonas de POT antes y zonas de POT después, por zonas físicas y geoeconómicas de
catastro. Además, permite la liquidación institucional de los beneficios de la Plusvalía por los
cambios de norma de los POT, que es partir de la línea base del POT anterior y calcular los
cambios en el mayor número de metros cuadrados por la expedición del nuevo POT.
3. Permite la formación y aprendizaje de las herramientas y procesos para el manejo permanente
de los datos espaciales, por cada entidad relación que se genere en el modelo de datos. Esta
formación es para los administradores y los usuarios.
4. Se desarrollan los procesos y los procedimientos para la proyección de los actos administrativos
que se requieren para la puesta en marcha del cobro de la Plusvalía.

El procedimiento metodológico para la estructuración de la Plusvalía como fuente de recursos


financieros, requiere el desarrollo de diferentes acciones, que están apoyadas siempre por las
herramientas geoinformáticas, con las siguientes actividades que permiten el cálculo final mediante
una estructura normalizada de la puesta en marcha de la Plusvalía en cada municipio de Colombia, de
la siguiente forma:
▪ Mediante el manejo de datos espaciales y el geoprocesamiento de los datos obtenidos a partir de
la aplicación de las metodologías y técnicas de avalúos de Plusvalía, determinados por las normas
vigentes en la materia, de manera especial la Ley 388 de 1997, el Decreto 1420 de 1998 y la
Resolución IGAC 620 de 2008. Se desarrollan diferentes etapas para obtener los avalúos pre y
post hechos generadores resultantes de las acciones urbanísticas contenidas en el Plan de
Ordenamiento Territorial (POT).
▪ Obtener y ordenar los datos espaciales de las zonas homogéneas físicas producto de la última
actualización catastral vigente.
▪ Planificar los puntos de muestreo, donde se ha presentado algún hecho generador, como
resultado de las acciones urbanísticas consagradas en el POT.
▪ Descontar las áreas de reserva protección y retiro de quebrada y demás zonas limitadas en su
desarrollo por el POT y sus modificaciones.

180
▪ Preparar los datos espaciales para calcular y liquidar el efecto de Plusvalía en los siguientes
hechos generadores:
▪ La incorporación de suelo rural a de expansión urbano y la consideración de parte del suelo
rural como suburbano.
▪ El establecimiento o modificación del régimen o la zonificación de usos del suelo.
▪ La autorización de un mayor aprovechamiento del suelo en edificación bien sea elevando el
índice de ocupación o el índice de construcción, o ambos a la vez.
▪ Diferenciación del precio comercial por metro cuadrado antes y después de una acción
urbanística (Ley 388 de 1997, Artículos 75, 76, 77 y 80), actualizarlos con indicadores de ley.
▪ Localización de Hechos Generadoras de Plusvalía.

De acuerdo con el hecho generador 1, descrito en el Artículo 74 de la Ley 388 de 1997, en la


aplicación del POT se generan tres áreas susceptibles de captura de plusvalía por la incorporación de
suelo rural a suelo de expansión urbana o la consideración de parte del suelo rural como suburbano.
se destacan tres cambios y sus áreas generadoras, como se observa en la Figura 1.

Figura 1. Cambios en la aplicación del POT

En el proceso de cálculo de la Plusvalía se desarrollan las directrices metodológicas de la Resolución


620 de 2008, expedida por el Instituto Geográfico Agustín Codazzi [1], con las siguientes etapas:
1. Determinación de los hechos generadores
2. Determinación de los predios afectados
3. Determinación de áreas exentas de plusvalía
4. Determinación de Zonas Homogéneas Físicas (ZHF)
5. Cálculo de P1
6. Actualización de los avalúos P1
7. Calculo de P2
8. Determinación de Zonas Homogéneas Geoeconómicas (ZHG
9. Determinación del efecto plusvalía
10. Actualización del efecto Plusvalía
11. Liquidación predio individual

El desarrollo de este proceso constituye un instrumento de memorias del cálculo de la Plusvalía en


los municipios y es la fase de diagnóstico geoinformático de la misma. El cálculo definitivo se
fundamenta en la capacidad y experiencia del equipo de trabajo, constituido por expertos en
urbanismo y ordenamiento territorial, avaluadores de la Lonja y equipo técnico de grupo investigador
de la plusvalía con experiencia en planeación subregional y Sistemas de Información Geográfica y los

181
funcionarios de la oficina de planeación municipal comprometidos con el estudio. Los insumos básicos
para el cálculo de la plusvalía corresponden a los acuerdos de los planes de Ordenamiento Territorial
en los municipios, y algunos de esos acuerdos se convierten en normas para determinar afectaciones
de la Plusvalía. Además, con la información catastral vigente y los estatutos de normas, requeridos para
la delimitación y análisis de zonas geoeconómicas, medición de impactos por cambios por la acción
urbanística, evaluación de los Hechos Generadores y avalúos a cada zona o subzona, completan todo el
respaldo jurídico y técnico para la determinación de la Plusvalía.
Luego se procede a la preparación cartográfica de cada una de las zonas POT antes y después, así
como el cálculo preliminar de avalúos pre y posterior a las expediciones de las normas del POT y las
afectaciones de cada uno de los polígonos de acuerdo con los diferentes hechos generadores, acordes
con las afectaciones del POT. Finalmente, se presenta el cálculo definitivo de la Plusvalía, incluyendo el
valor total, el valor predio, el valor para el municipio y el beneficio por cada predio. También se
presenta los instrumentos de la notificación por edicto y particular para cada propietario de los predios
beneficiados por la Plusvalía. En este capítulo se presentan ejemplos prácticos con datos reales de
algunos municipios para la mejor comprensión del método para el cálculo de la plusvalía por medio de
la geoinformática.

2. Conceptos básicos de plusvalía

La plusvalía es el mayor valor que adquieren los bienes inmuebles de los particulares, como
consecuencia de la acción urbanística de los entes territoriales. Los propietarios que se beneficien con
este mayor valor deben ser gravados con una carga tributaria a favor de la entidad que la generó.
La historia de la Plusvalía en Colombia ha estado contrariada por el debate ideológico que esto
significaba en las décadas del 60, 70, 80 y 90, en el que se observa como un componente ideológico de
la izquierda en el mundo a partir de los conceptos de Marx y, sin embargo, en la Ley 9 de 1989 (Reforma
Urbana) se reglamentó la contribución de desarrollo municipal o plusvalía en los artículos 106 a 111.
Era considerada como uno de los instrumentos financieros claves para el desarrollo municipal, pero el
temor del concepto ideológico y la cultura paternal del estado no permitió el desarrollo de esa política
de estado, pues no era de obligatorio cumplimiento para los municipios. En la Tabla 1 se describen la
normatividad vigente sobre la aplicación de la Plusvalía en Colombia.
Tabla 1. Normatividad vigente para Colombia sobre Plusvalía
Constitución Las entidades públicas participarán en la plusvalía que genere su acción urbanística y regularán la utilización del
Política, artículo 82 suelo y del espacio público en defensa del interés común.
Las acciones urbanísticas que regulen la utilización del suelo y del espacio aéreo urbano incrementando su
Ley 388 de 1997,
aprovechamiento, generan beneficios, que dan derecho a las entidades a participar en las plusvalías resultantes de
artículo 73
dichas acciones.
Reglamenta los Hechos Generadores, el procedimiento para determinar la participación en plusvalía y el cobro y
Decreto 1599 de el cálculo preliminar: capitulo III, art. 23. “Con base en el señalamiento a que hace referencia…. deberá estimarse
1998 de manera preliminar el monto del efecto plusvalía y la participación generada en el corto plazo, según las tasas
generales que para el efecto proponga el alcalde al respectivo concejo”.
Decreto 1420 y
resolución 0762 de Determinan las metodologías de avalúos de inmuebles.
1998
Decreto 3600 de Reglamentan las disposiciones de las Leyes 99 de 1993 y 388 de 1997 relativas a las determinantes de
2007 ordenamiento del suelo rural y al desarrollo de actuaciones urbanísticas de parcelación y edificación.
Decreto 1788 de Reglamentan parcialmente las disposiciones referentes a la participación en plusvalía de que trata la Ley 388 de
2004 1997.
Reglamentan las disposiciones de la Ley 388 de 1997 relativas a las actuaciones y procedimientos para la
Decreto 4065 de urbanización e incorporación al desarrollo de los predios y zonas comprendidas en suelo urbano y de expansión y
2008 se dictan otras disposiciones aplicables a la estimación y liquidación de la participación en plusvalía en los
procesos de urbanización y edificación de inmuebles.
Res. 620 de 2008 Por la cual se establecen los procedimientos para los avalúos ordenados en la Ley 388 de 1997.
Ley 1673 de 2013 Por la cual se reglamenta la actividad del avaluador y se dictan otras disposiciones.

182
2.1 Normatividad general de la plusvalía

La Constitución de 1991 en su artículo 82 señaló el derecho del estado de participar en las


plusvalías. Después fue ampliamente definida y desarrollada por la ley 388 de 1997 que modificó la
Ley 9 de 1989, y en ella se establece la estructura general de la participación en la plusvalía: sus hechos
generadores, su liquidación, exigibilidad y cobro y lo relacionado con la destinación del producto de la
plusvalía; dicha ley fue reglamentada por el decreto 1599 de 1998, posteriormente derogada por el
decreto 1788 de 2004 que es su actual reglamentación.
En el artículo 73 de la Ley 388 de 1997 se define la participación en plusvalía y en virtud de tal
autorización cada concejo municipal en ejercicio del poder impositivo que dio la Constitución tiene la
facultad de adoptar en cada ente territorial la participación en plusvalía, esto claro respetando el
principio de legalidad, según el cual no podrá el Concejo Municipal exceder sus facultades imponiendo
tributos distintos a los autorizados por el legislador.
Artículo 73. - Noción. De conformidad con lo dispuesto por el artículo 82 de la Constitución Política,
las acciones urbanísticas que regulan la utilización del suelo y del espacio aéreo urbano incrementando
su aprovechamiento genera beneficios que dan con derecho a /as entidades públicas a participar en
las plusvalías resultantes de dichas acciones. Esta participación se destinará a la defensa y fomento del
interés común a través de acciones y operaciones encaminadas a distribuir y sufragar equitativamente
/os costos del desarrollo urbano, así como al mejoramiento del espacio público y, en general, de la
calidad urbanística del territorio municipal o distrital.
Los concejos municipales y distritales establecerán mediante acuerdos de carácter general, las
normas para la aplicación de la participación en la plusvalía en respectivos territorios. La Corte
Constitucional consideró de manera implícita la participación en la plusvalía como una contribución,
al señalar que "...al igual que la valorización, esta especie de renta fiscal afecta exclusivamente a un grupo
específico de personas que reciben un beneficio económico, con ocasión de las actividades urbanísticas
que adelantan las entidades públicas". (La Corte añadió: ''Dada su naturaleza, esta contribución por
principio tiene una destinación especial; de ahí que se le considere una "imposición de finalidad': esto es,
una renta que se establece y recauda para llenar un propósito específico. Dicho propósito constituye un
elemento propio de su esencia, que es natural a dicha contribución, al punto que no sólo la define y
caracteriza, sino que representa un elemento esencial de su existencia." (sentencia C-495 de 1998).
La estructura general del tributo se establece en los artículos 74 y 75 de la Ley 388 de 1997 con los
aspectos que se detallan en la Tabla 2.
Tabla 2. Estructura del tributo plusvalía
De conformidad en lo dispuesto por el artículo 82 de la Constitución Política y en la Ley 388 de 1997, las acciones
urbanísticas que regulan la utilización del suelo y del espacio aéreo urbano incrementando su aprovechamiento,
Naturaleza jurídica generan beneficios que dan derecho a las entidades públicas a participar en las plusvalías resultantes de dichas
acciones. Los Concejos Municipales establecerán mediante acuerdos de carácter general, las normas para la
aplicación de la participación en la plusvalía en sus territorios.
a) Incorporación de suelo rural a suelo de expansión urbana.
b) El establecimiento o modificación del régimen o la zonificación de usos del suelo.
Hechos generadores e) La autorización de un mayor aprovechamiento del suelo en edificación bien sea elevando el índice de
construcción o ambos a la vez.
d) Ejecución de obras y que no se haya utilizado para su financiación la contribución a la valorización.
Sujetos pasivos Propietarios o poseedores del terreno que sufrió un incremento en su valor por las acciones urbanísticas
El total de metros cuadrados que se considera objeto a la participación en la plusvalía para cada inmueble es igual
Base gravable al total de metros que se destine para el mejor aprovechamiento, descontando la parte que corresponda a cesiones
gratuitas y afectaciones.
Tarifa Del 50% al 30% del mayor valor por metro cuadrado
1. La compra de predios para desarrollar proyectos de vivienda de interés social
Destinación 2. Construcción o mejoramiento de infraestructuras viales
3. Zonas verdes, parques, etc.

183
4. Financiación de infraestructura vial y transporte masivo.
5. Programas de renovación urbana
6. Pagos expropiaciones para programas de renovación urbana
7. Fomento de recreación, restauración etc.
1. Solicitud de licencia de urbanización o construcción
2. Cambio efectivo de uso del inmueble.
Exigibilidad y cobro 3. Actos que impliquen transferencia del dominio sobre el inmueble.
4. Mediante la adquisición de títulos valores representativos de los derechos adicionales de construcción y
desarrollo.
El alcalde liquidará dentro de los 45 días siguientes al efecto de la plusvalía la participación y aplicará las tasas
Liquidación
correspondientes.
1. En dinero
2. Mediante la dación en pago de parte del inmueble
Formas de pago 3. Con otro terreno localizado en zona urbana
4. Mediante la ejecución de obras
5. Mediante la adquisición de títulos valores representativos de la participación en la plusvalía liquidada.

3. Métodos para calcular los avalúos y la incidencia del incremento del terreno

3.1 De comparación o de mercado

Es la técnica avaluatoria que busca establecer el valor comercial del bien, a partir del estudio de las
ofertas o transacciones recientes, de bienes semejantes y comparables al del objeto de avalúo. Tales
ofertas o transacciones deberán ser clasificadas, analizadas e interpretadas para llegar a la estimación
del valor comercial.

3.2 Técnica residual

Es el que busca establecer el valor comercial del bien, normalmente para el terreno, a partir de
estimar el monto total de las ventas de un proyecto de construcción, acorde con la reglamentación
urbanística vigente y de conformidad con el mercado del bien final vendible, en el terreno objeto de
avalúo. Para encontrar el valor total del terreno se debe descontar al monto total de las ventas
proyectadas, los costos totales y la utilidad esperada del proyecto constructivo. Es indispensable que
además de la factibilidad técnica y jurídica se evalúe la comercial del proyecto o sea la real posibilidad
de vender lo proyectado.

4. La liquidación del efecto plusvalía

La liquidación del efecto plusvalía se hace conforme a lo señalado por los artículos 81 y 82 de la ley
388 de 1991. Es importante señalar que el Decreto Nacional 1788 de 2004 reglamentó ampliamente la
metodología para el cálculo y liquidación del efecto plusvalía y estableció unas definiciones que deben
ser tenidas en cuenta:
1. Aprovechamiento del suelo. Modificado por el Decreto Nacional 2181 de 2006. Es el número de
metros cuadrados de edificación autorizados por la norma urbanística en cada predio.
2. Cambio de uso. Es la autorización específica para destinar los inmuebles de una zona a uno o
varios usos diferentes a los permitidos bajo la norma anterior.
3. Efecto de plusvalía. Es el incremento en el precio del suelo, resultado de las acciones urbanísticas
de que tratan los artículos 74°, 75°, 76°, 77° y 87° de la Ley 388 de 1997.
4. Índice de ocupación. Es la proporción del área de suelo que puede ser ocupada por edificación en
primer piso bajo cubierta y se expresa por el cociente que resulta de dividir el área que puede
ser ocupada por edificación en primer piso bajo cubierta por el área total del predio.

184
5. Índice de construcción. Es el número máximo de veces que la superficie de un terreno puede
convertirse por definición normativa en área construida y, se expresa por el cociente que resulta
de dividir el área permitida de construcción por el área total de un predio.

Cabe anotar que en la definición de aprovechamiento urbanístico no se tiene en cuenta las


densidades, solamente el número de metros cuadrados.

4.1 Análisis a partir de los diferentes ajustes del POT municipal

Según la Ley 388/97 de Ordenamiento Territorial, los decretos reglamentarios y en especial los que
tienen que ver con la Participación en Plusvalía y Avalúos, los POT, tenían que diseñar instrumentos
que permitan reglamentar la Participación en Plusvalía al municipio, pero por falta de información y
estudios precisos sobre el impacto económico y social de este nuevo tributo, los Acuerdos Municipales
han desarrollado aspectos indispensables para su cálculo. La fase de cálculo, que se ha denominado
cálculo definitivo, está dirigida al cálculo de los beneficios de la Plusvalía y así poder efectuar una
estimación con mayor precisión. Uno de los objetivos de esta fase es realizar una evaluación de los
cambios del Plan de Ordenamiento Territorial POT y calcular el total de la plusvalía y así mismo el valor
para cada predio. El análisis realizado permite efectuar las siguientes complementaciones.
1. Definición en la ley de los hechos generadores de plusvalía. Los Hechos Generadores de la
Participación en la Plusvalía en el Municipio corresponden a lo establecido en el Artículo 79 de
la Ley 388 de 1997 y son específicamente los que se muestran en la Figura 2.

Figura 2. Hechos generadores de plusvalía

El procedimiento para obtener las zonas afectadas por la plusvalía es el siguiente:


▪ Aplicación en estricto de los acuerdos de cambio de norma de POT.
▪ Aplicación del acuerdo de Ajuste del largo plazo del POT municipal. Allí se establece por
cada caso la afectación o no de la norma.
▪ El análisis de las normas del POT vigente y en comparación con el nuevo POT propuesto.
▪ Se calcula para cada subzona específica de cambio de norma, el mayor número de metros
cuadrados. Si el valor es negativo, se saca de la afectación, reduciendo el área de beneficio.
▪ Cuando se calcula el valor del metro cuadrado de terreno antes y se compara con el valor
del metro cuadrado después de la norma vigente, ocurre algunos casos de valores
negativos, estos también son retirados de la afectación para ser justos con la realidad del
mercado.

Teniendo en cuenta la información descrita anteriormente para el cálculo de plusvalía, se debe


realizar este cálculo para el municipio de Siruma. Para esto se deben recopilar los insumos para
la elaboración cartográfica y análisis de los polígonos con las metodologías avaluatorias de
mercado y técnica residual. El procedimiento para calcular el mayor de los metros cuadrados por
cada zona afectada por la Plusvalía se debe realizar de la siguiente manera:

185
▪ Verificación detallada de los índices de construcción, Ocupación y áreas de zonas
homogéneas en el acuerdo antes del POT.
▪ Verificación detallada de los índices de construcción, Ocupación y áreas de zonas
homogéneas en el acuerdo actual del POT.
▪ Superposición de cartografía digital de los acuerdos para determinar las zonas
homogéneas de traslape y calcular en cada una de ellas los respectivos metros cuadrados
de construcción de cada norma vigente, a esto se le denominó m2 antes del cambio de
norma y m2 después del cambio de norma.
▪ Se hace la diferencia de los metros cuadrados después con los metros cuadrados antes y
esto arroja el número de metros cuadrados potenciales nuevos a construir.

Este cálculo preliminar corresponde a lo teórico de la norma que, posteriormente, se recalcula con
la realidad de campo y de los procesos aprobados por planeación municipal.

5. Desarrollo del problema

Una vez ajustados, complementados y ordenados los contenidos indispensables para el cálculo
preliminar, trabajo realizado por el equipo técnico de investigador de la plusvalía se procede siguiendo
los lineamientos de la Ley 388/97, los Decretos Reglamentarios y la Resolución 620 del 2008 del IGAC,
a realizar los avalúos antes y después del POT. Los instrumentos ajustados y utilizados son:
▪ Revisión de la información de las fichas estadísticas sobre áreas y valores de terrenos y
zonificación geoeconómica homogénea por manzanas del catastro municipal (Vigencia actual).
▪ Análisis y reconstrucción de la zonificación de usos del suelo y su correspondiente
reglamentación.
▪ Revisión del POT. y conformación de las zonas geoeconómicas homogéneas: $m 2/suelo, en cada
zona y subzona, es decir, avalúo ANTES del POT. y de acuerdo con el Artículo 31 del Decreto
1420/98.
▪ Articulación de la Normatividad del POT. y su comparación con el anterior para establecer el
impacto de la Participación en Plusvalía.
▪ Articulación de la zonificación morfológica homogénea del POT.
▪ Avalúo y conformación de zonas geoeconómicas homogéneas originadas en el POT.: $m 2/suelo,
es decir avalúo después del POT. Se aplicaron los hechos generadores de plusvalía, los
pertinentes a cada zona.
▪ Delimitación de las zonas con el Cálculo de Plusvalía $/m2 de suelo.
▪ Cálculo de los metros cuadrados de más, por cada zona y de acuerdo con el cambio de norma.

5.1 Aplicación de los métodos de avalúo masivo para el cálculo de la plusvalía

Se aplicó con el mayor rigor la resolución del IGAC 620 de 2008 para calcular el efecto plusvalía y
liquidar el tributo se deberán realizar 2 avalúos: uno antes de la acción urbanística que se denomina
precio de referencia 1 (P1), y otro después de la acción urbanística denominado precio de referencia 2
(P2). La Resolución del IGAC 620 de 2008 estableció los métodos del cálculo de la participación en
plusvalía de la siguiente forma:
▪ Para el cálculo del efecto plusvalía generado por la incorporación de suelo rural a suelo urbano
o de suelo rural a suburbano se debe realizar por el método de mercado y/o de renta el precio

186
de referencia 1 y por el método (técnica) residual y el método de comparación o de Mercado el
precio de referencia 2.
▪ Para el cálculo del efecto plusvalía generado por el cambio de uso para ello el precio de referencia
1, se utilizará cualquier método avaluatorio, para cálculo del precio de referencia 2 se debe
utilizar el método de comparación o mercado y/o (técnica) residual.
▪ Para el hecho generador de mayor aprovechamiento antes y después de la acción urbanística
generadora de la plusvalía, se debe hacer con el método (técnica) residual y/o de Mercado.
▪ Por las experiencias en los avaluadores y facilidad para resolver los problemas planteados por
las zonas de este municipio, se escogieron los métodos de Comparación y Técnica Residual.

Para la determinación del valor comercial de los inmuebles se tuvo en cuenta, por lo menos, las
características para el terreno que se muestran en la Figura 3.

Figura 2. Características para el terreno

5.2 Procedimiento metodológico específico para el cálculo de la plusvalía en Colombia

En la Figura 3 se detalla la metodología que da cuenta del procedimiento para el cálculo de la


Plusvalía, desde el proceso inicial hasta el final aplicado a los predios.

Figura 3. Procesos para el cálculo de la participación en plusvalía

187
Esta metodología se aplica paso a paso a través de herramientas de información Geográfica,
estructurando una base de datos con todos los índices de construcción y ocupación antes y después, la
diferencia de metros cuadrados de construcción, el valor por zona de m 2 antes (cálculo de medias), la
actualización con el IPC de las medias al año de cambio de la Norma por cada zona, el cálculo de los
valores por m2 después de la norma cambiada, el área de cada zona homogénea de cambio, la diferencia
del valor después y antes por m2, el valor total de la Plusvalía por zonas, el valor del 30% de la Plusvalía
por zonas correspondiente al municipio, el valor de pago del beneficio por cada predio, acordes al
Acuerdo municipal que reglamenta la Plusvalía.

5.3 Procedimiento para el levantamiento de datos económicos en campo

Los valuadores visitan todas las zonas Geoeconómicas y físicas de las zonas con beneficio de
Plusvalía, teniendo en cuenta:
▪ Consultarán el Banco de Datos de la Lonja y otras fuentes de información secundaria.
▪ Se tienen presente la elaboraron consultas in situ de por lo menos 10% de los predios.
▪ Se consultan los informes clasificados de los periódicos.
▪ Se realizan mesas de trabajo o comités de avalúos para procesar, evaluar y confrontar la
información anterior.
▪ Se regresa nuevamente a las zonas para confrontar los datos.
▪ Se elaborarán los avalúos antes y después del último Acuerdo del POT, se determina la diferencia
entre ellos (Plusvalía) y se le aplica la tasa del 30%, acorde al acuerdo que la reglamenta.

5.4 Cálculo definitivo de la plusvalía vigente en el municipio

Uno de los objetivos de esta segunda fase es el cálculo definitivo de las zonas de Ordenamiento
Territorial con vigencia en el proceso de aprobación del acuerdo último de ajuste del POT del
municipio, así como realizar el cálculo total de la plusvalía y así mismo el valor para cada predio.
Después de analizar las normas de índices de ocupación y construcción, lo mismo que las densidades y
los límites de altura, complementariamente con las cargas urbanísticas, se procede al cálculo definitivo
de la siguiente forma:
1. Se identifica el hecho generar el cual corresponde al reglamentado por el municipio El
establecimiento o modificación del régimen o la zonificación de usos del suelo.
2. Se delimita las zonas beneficiadas de la Plusvalía por la nueva vigencia del Ordenamiento
Territorial, relacionadas con la dinámica de proyectos estructurantes del municipio.
3. Se ponen en consideración del equipo de Planeación con verificación de norma y con trabajo de
campo.
4. Se precisan las diferentes zonas geoeconómicas con la Oficina de Catastro Municipal, a partir de
la OVC departamental y de acuerdo con la conexión en tiempo real de los datos de la zona,
incluyendo los valores. Esto se hace cartográfica y estadísticamente para cada predio.
5. Se realizó indagatoria por diferentes mecanismos para los precios de la tierra en las diferentes
zonas, considerando el valor P1 en el año de cambio de norma. Para esto se aplica la técnica
avaluatoria de precio de mercado.
6. Se realizó indagatoria por diferentes mecanismos para los precios de la tierra en las diferentes
zonas, considerando el valor P2 después de aprobar cambio de norma de POT. Se combina
métodos avaluatorios de precios de Mercado y Residual y potencial.

188
7. Se determina el valor de P1 y P2 del terreno, donde el valor P1 se lleva a valor presente de 2014
de acuerdo con el incremento del IPC de año de cambio de norma.
8. La diferencia entre P2 y P1 con referencia al año de cambio de norma final, da como resultado el
valor total de la Plusvalía para cada predio.
9. Los valuadores visitan todas las zonas Geoeconómicas y físicas de las zonas con beneficio de
Plusvalía y:
▪ Consultan el Banco de Datos de la Lonja y otras fuentes de información secundaria.
▪ Se tienen presente la elaboraron consultas in situ: de por lo menos, el 10% por cada zona
geoeconómica.
▪ Se consultan los informes clasificados de los periódicos.
▪ Se realizan mesas de trabajo o comités de avalúos para procesar, evaluar y confrontar la
información anterior.
▪ Se elaborarán los avalúos antes y después del Acuerdo ultimo de cambio de norma de POT, se
determina la diferencia entre ellos (Plusvalía) y se le aplicó la tasa del 30%, el menor posible
que da la Ley (se puede usar hasta el 50%).

El resultado final de la delimitación de polígonos surge de la verificación de las normas asociadas a


los siguientes procedimientos:
▪ Predios asociados con el beneficio de la localización directa con corredor vial principal nuevo
propuesto.
▪ Predios que aún hacen parte de las zonas de expansión que pueden ser incorporados al suelo
urbano por procesos de Planes parciales.
▪ Zonas que aparecen con normas vigentes en el POT.
▪ Delimitación ajustada al acuerdo nuevo y vigente de Ordenamiento Territorial.

El resultado final constituye tres polígonos del hecho generador de la Plusvalía, el establecimiento
o modificación del régimen o la zonificación de usos del suelo, separados por diferenciación de las
normas vigentes, con las características de la Tabla 3 y la distribución de la Figura 4.
Tabla 3. Polígonos del hecho generador de plusvalía
Objectid Nombre Tipo Tratamient Poligono Área
1 SIRUMA 1 SIR 1 PLAN PARCIAL DE-3 268881,366
13 SIRUMA 2 SIR 2 PLAN PARCIAL DE-1 97636,6912
20 SIRUMA 3 SIR 3 PLAN PARCIAL DE-2 807657,836

Figura 4. Predios y zonas beneficiados con plusvalía

189
Con la información de la Figura 4 se concluye que las zonas POT beneficiadas por la Plusvalía,
corresponde a la zona geoeconómica 309 (Estas son definidas por el IGAC o la autoridad catastral),
estas se encuentran cerca a la circunvalar del municipio. Es de anotar que la mayoría de los predios
beneficiados con la plusvalía, no se encuentran total en este beneficio y, por lo tanto, se sustraen las
áreas que por ahora no se encuentran con el beneficio, midiendo sólo la parte parcial que sí lo tiene
(Tabla 4).
Tabla 4. Zonas POT beneficiadas por la plusvalía
Predios PK_Predios Tipo Manzana_VE Shape_Area Zona
00947 3762001000000100947 N 0001 16149,39582 309
00973 3762001000000100973 N 0001 20062,97573 309
00290 3762001000000100290 N 0001 66167,08477 309
00516 3762001000000100516 N 0001 6945,981428 309
00515 3762001000000100515 N 0001 6246,87724 309

1. Cálculo del valor P1 (Valor año antes de la aprobación POT). Los resultados de la Plusvalía se
calculan a partir de los datos de campo a precios del año del último cambio de norma y
actualizados al año presente con un incremento del IPC, se calculan por metro cuadrado de tierra
por cada predio. Para el ejemplo en proceso los valores se muestran en la Tabla 5.
Tabla 5. Cálculo del valor P1
PK_Predios Zona Geo Avalúo catastral P1 Precio Mercado Área
3762001000000100947 309 60777475,7 128000 3727,2359
3762001000000100973 309 60777475,7 128000 20060,5882
3762001000000100290 309 60777475,7 128000 12881,3313
3762001000000100516 309 60777475,7 128000 6945,98143
3762001000000100515 309 60777475,7 128000 6246,87724

2. Cálculo del valor P2 con método residual para escenarios 1 y 2 aprobación POT. Se calculan dos
valores de alfa para la zona de estudio, teniendo presente aspectos como los comportamientos
inmobiliarios en zonas cercanas a municipios y para estratos 4, 5 y 6. Esto dio un alfa 1 de 16%
que está por debajo de Medellín para zonas similares. Además, se usó un escenario 2 con un alfa
2 de 14%, esto acorde a proyectos similares de municipios que genera un valor más bajo por una
regulación de densidades bajas que presenta el municipio. Los valores de venta de la Tabla 6 se
calculan de acuerdo con un tope de metros cuadrados construibles en municipios para estas
zonas. Teniendo presente el índice de construcción y de ocupación, pero acorde con las cargas
reales para este tipo de proyectos de estrato 4, 5 y 6 aprobados para el municipio en planes
parciales previos. De esto se desprende que la densidad máxima de 60 viviendas y con un
promedio de 120 M2 efectivos por cada hectárea. Esto genera la Tabla 6, para el ejemplo, en la
que se observa cada predio con la porción del mismo beneficiado con las nuevas densidades, de
poder pasar de una densidad de 3 viviendas por Ha de suelo de expansión urbana, a una densidad
de 60 viviendas por Ha.
Tabla 6. Cálculo del valor P2
Zona P1_PRE P2_RESID TOT_M MAX_PI VAL_VE Venta P2_Resid
PK_PREDIOS _Area Alfa1 alfa2
Geo _MER UAL_E1 2C_HA SOS NTM2 construida ual_E2
376200100000
309 128000 224640 7200 5 1950000 5233039203 3727,2359 0,16 0,14 196560
0100947
376200100000
309 128000 224640 7200 5 1950000 28165065901 20060,5882 0,16 0,14 196560
0100973
376200100000
309 128000 224640 7200 5 1950000 18085389076 12881,3313 0,16 0,14 196560
0100290
376200100000
309 128000 224640 7200 5 1950000 9752157925 6945,98143 0,16 0,14 196560
0100516
376200100000
309 128000 224640 7200 5 1950000 8770615644 6246,87724 0,16 0,14 196560
0100515

190
3. Cuantificación de plusvalía total por escenarios E1 Y E2
▪ Se realizó revisión de la información de las fichas estadísticas sobre áreas y valores de
terrenos y zonificación geoeconómica homogénea por manzanas del catastro municipal
(Vigencia 2014).
▪ Reconstrucción de la zonificación de las cargas urbanísticas y la correspondiente
reglamentación.
▪ Revisión del POT. y conformación de las zonas geoeconómicas homogéneas: $m 2/suelo, en
cada zona y subzona, es decir, avalúo ANTES del POT. y de acuerdo con el Artículo 31 del
Decreto 1420/98.
▪ Avalúo y conformación de zonas geoeconómicas homogéneas originadas en el POT:
$m2/suelo, es decir avalúo después del POT.
▪ Delimitación de las zonas con el Cálculo de Plusvalía $/m2 de suelo.

Se aplicó con el mayor rigor la resolución del IGAC 620 de 2008, e Para calcular el efecto plusvalía
y liquidar el tributo se deberán realizar 2 avalúos uno antes de la acción urbanística que se
denomina precio de referencia 1 (P1) y uno después de la acción urbanística denominado precio
de referencia 2 (P2). La Resolución del IGAC 620 de 2008, estableció los métodos del cálculo de
la participación en plusvalía de la siguiente forma:
▪ Para el cálculo del efecto plusvalía generado por la incorporación de suelo rural a suelo
urbano o de suelo rural a suburbano se debe realizar por el método de mercado y/o de
renta el precio de referencia 1 y por el método (técnica) residual y el método de
comparación o de Mercado el precio de referencia 2.
▪ Para el cálculo del efecto plusvalía generado por el cambio de uso para ello el precio de
referencia 1, se utilizará cualquier método avaluatorio, para cálculo del precio de
referencia 2 se debe utilizar el método de comparación o mercado y/o (técnica) residual.
▪ Para el hecho generador de mayor aprovechamiento antes y después de la acción
urbanística generadora de la plusvalía, se debe hacer con el método (técnica) residual y/o
de Mercado.

Por la experiencia de los avaluadores y facilidad para resolver los problemas planteados por las
zonas de este municipio, se escogieron los métodos de Comparación o Mercado y la Técnica
Residual. Para la determinación del valor comercial de los inmuebles se tuvieron en cuenta por
lo menos las siguientes características para el terreno:
▪ Aspectos físicos tales como área, ubicación, topografía y forma.
▪ Clases de suelo: urbano, rural, de expansión urbana, suburbano y de protección.
▪ Las normas urbanísticas vigentes para la zona o el predio.
▪ Tipo de construcciones en la zona.
▪ La dotación de redes primarias, secundarias y acometidas de servicios públicos
domiciliarios, así como la infraestructura vial y servicio de transporte.
▪ La estratificación socioeconómica del inmueble.
▪ Por ser avalúos masivos se determinaron medias aritméticas (X) para cada zona.

En la Tabla 7 se muestran los resultados del cálculo de plusvalía para los escenarios E1 y E2.

191
Tabla 7. Cálculo de plusvalía para escenarios E1 y E2
PK_Predios Zona Avalúo P1_PRE P2_RESID TOT_M MA VAL_VE Venta PLU_TO PLUS_M _Area A A P2_RESID PLUTO PL_MU
Geo _MER UAL_E1 2C_HA X_P NTM2 total T_E1 UN E1 1 2 UAL_E2 T_E2 N_E2
37620010000 309 60777 128000 224640 7200 5 195000 523303 360200 1080600 3727,2 0, 0, 196560 255539 76661
00100947 475,7 0 9203 077 23 359 16 14 293 788
37620010000 309 60777 128000 224640 7200 5 195000 281650 193865 5815965 20060, 0, 0, 196560 137535 41260
00100973 475,7 0 65901 5248 75 5882 16 14 3930 6179
37620010000 309 60777 128000 224640 7200 5 195000 180853 124485 3734555 12881, 0, 0, 196560 883144 26494
00100290 475,7 0 89076 1852 56 3313 16 14 071 3221
37620010000 309 60777 128000 224640 7200 5 195000 975215 671259 2013778 6945,9 0, 0, 196560 476216 14286
00100516 475,7 0 7925 645 94 8143 16 14 487 4946
37620010000 309 60777 128000 224640 7200 5 195000 877061 603698 1811094 6246,8 0, 0, 196560 428285 12848
00100515 475,7 0 5644 216 65 7724 16 14 904 5771

Donde:
▪ P1_PRE_MER = valor de cada predio por M2 de terreno del valor 2013, llevado al 2014.
Método de precios del mercado.
▪ P2_RESIDUAL_E1= Valor de cada predio por M2 a precios 2014. Método residual, en
escenario 1 con alfa 1=16%.
▪ P2_RESIDUAL_E2= Valor de cada predio por M2 a precios 2014. Método residual. en
escenario 2 con alfa 2=14%.
▪ VENTA TOTAL CONSTRUIDO= venta total por predio del proyecto construido, sobre el
tope de 7200 m2 de construcción por Ha.
▪ VAL_VENTM2=Valor por M2 de construcción vendida.
▪ PLUS_MUN E1= Valor de la Plusvalía a favor del municipio por cada predio beneficiado con
la misma. en el escenario 1, con alfa del 16%.
▪ PL_MUN_E2= Valor de la Plusvalía a favor del municipio por cada predio beneficiado con
la misma, en el escenario 2, con alfa del 14%.

En la Figura 5 se observa el mapa resultado por predio de la Plusvalía en E1, donde se ubica cada
uno de los valores de la Plusvalía por predio a favor del municipio y se nota la porción del predio
beneficiado con la Plusvalía, al igual que los valores de plusvalía para el municipio por cada
predio.

Figura 5. Plusvalía escenario 1

En la Figura 7 se muestra el mapa de la Plusvalía en E2. Es el resultado de la Plusvalía por predio


en el escenario 2, en el que se ubica cada uno de los valores de la Plusvalía por predio a favor del

192
municipio y se nota la porción del predio beneficiado con la Plusvalía, al igual que los valores de
plusvalía para el municipio por cada predio en escenario 2.

Figura 7. Plusvalía escenario 2

6. Análisis general sobre la plusvalía por cambio de norma en los POT municipales

6.1 Temor en el uso de los instrumentos normativos para el financiamiento del POT

La Ley 388 de 1997, con vigencia de 18 años, no se ha aplicado de una forma integral. Esta Ley tiene
instrumentos de planificación, de gestión del suelo y de financiación, es el caso de la aplicación de la
Plusvalía, que es evidente el temor en aplicarla por parte de los municipios. Tal vez es la fuente más
importante para financiar los proyectos del POT. Al revisar las normas actuales municipales sobre la
Plusvalía, se encuentra que la Plusvalía está reglamentada por acuerdo municipal del concejo de
Siruma, el cual ha tenido nuevas reglamentaciones para la aplicación de la Participación en Plusvalía.
Se parte de la base de la aplicación de dicho decreto para calcular la Plusvalía de los MUNICIPIOS, Según
dicho decreto estos conceptos se aplican de la siguiente manera:
1. Índice de construcción. Es el número máximo de veces que la superficie de un terreno puede
convertirse por definición normativa en área construida, y se expresa por el cociente que resulta
de dividir el área permitida de Construcción por el área total de un predio.
2. Índice de ocupación. Es la proporción del área de suelo que puede ser ocupada por edificación en
primer piso bajo cubierta, y se expresa por el Cociente que resulta de dividir el área que puede
ser ocupada por edificación En primer piso bajo cubierta por el área total del predio.

6.2 Reglamentación de los índices de ocupación y de índices de construcción

En general los índices de ocupación y de construcción son los que develan los cambios en el número
de metros cuadrados de más por el cambio de norma. Los índices de construcción de los municipios
son determinantes para lograr motivar el desarrollo constructivo ordenado en los mismos. Se hace
necesario observar unos índices medios en cada clase de suelo en el POT y en las diferentes zonas
geoeconómicas, definidas en el POT antes y en el POT después, establecidas en sus respectivas bases
de datos espaciales anteriores, lo que potencia los mayores beneficios en las nuevas zonas definidas en
los nuevos perímetros urbanos, nuevos perímetros de Expansión urbana y nuevas zonas suburbanas y
de parcelaciones entre otras. Si en las áreas internas no cambian los índices de edificabilidad, no

193
presentan afectación por plusvalía, pues es claro, el artículo 9 del decreto 4065 del 2008, plantea que
en todo caso el efecto de la Plusvalía es por el número de m2 de más en la construcción en la zona.

6.3 Incidencias del POT rural en la plusvalía

Entre los nuevos decretos se cuenta con el 4065 del 2008 y la Ley 388 de 1997, que determinan la
Participación en Plusvalía, ésta se debe cobrar por el número de metros cuadrados adicionales de
construcción, por el cambio de norma. Esta situación determina que el número de metros cuadrados
antes y después del POT, debe generar metros adicionales de construcción para que pueda haber
Plusvalía en dicha zona rural.

6.4 Incidencia de la ley 388 de 1997 en el cobro de la participación en plusvalía

Algunas razones estratégicas que justifican el cobro de la Plusvalía son las siguientes:
1. Hay que dar cumplimiento a las normas constitucionales y legales, ley 388/97, decretos
reglamentarios, la cual expresa la función social y ecológica de la propiedad y pondera una
distribución equitativa de los beneficios y las oportunidades del desarrollo económico,
fundamentada en el manejo del suelo. Se debe pasar del recurso teórico a la acción, mediante el
análisis de los polígonos del POT antes y los polígonos del POT después, para determinar la
existencia de mayores m2 de edificación, luego el cálculo de los avalúos por cada zona
geoeconómica y en cada polígono de cambio de POT y calcular la diferencia de m2 cuadrados, la
diferencia de valor P2-P1 de avalúos y el cálculo final de valor de plusvalía generada por cambio
de POT y por zona Geoeconómica.
2. La no aplicación de la ley 388/97 ha generado una gran inequidad que afecta a la población más
desprotegida de los municipios de Colombia. Esta población, difícilmente recibe los beneficios de
obras y menos con la inaplicación de la Plusvalía, como instrumento novedoso para los nuevos
proyectos del POT, esto requiere de aplicación de los procesos de geoinformática.
3. Los municipios aprueban por acuerdo municipal los POT antes y los POT después y reglamentan
el cobro de los beneficios de Plusvalías, pero a la fecha este instrumento no se ha aplicado por
muchos factores, entre ellos por la no comprensión del cálculo de la misma, para esto se diseña
este instrumento en geoinformática.

Después de aceptar, analizar y concluir el cálculo definitivo de plusvalía, en especial el impacto


social, económico-urbanístico del efecto de plusvalía en cada zona, se calcula la Participación en
Plusvalía lote a lote, inmueble a inmueble. Para aplicar las tasas (30%) se siguen este procedimiento:
▪ Establecer desde el principio un programa pedagógico de asimilación del instrumento a los
funcionarios del municipio relacionados con el tema.
▪ Tener la solicitud de avalúo por parte del señor Alcalde Municipal.
▪ Tener el Proyecto de Acuerdo Municipal de complementación, aprobado.
▪ Haber diseñado y montado los SIG necesarios y los programas adecuados para el cálculo geo
referenciado y con sus bases de datos asociadas.
▪ Base de datos espaciales geoinformáticas del catastro actualizado con su correspondiente
codificación de zonas geoeconómicas y el loteo con su numeración asociada a la base de datos.
▪ Zonificación digital de usos del suelo asociada a la base de datos.
▪ Zonificación morfológica homogénea digital del POT asociada a la base de datos.

194
▪ Analizar y excluir las áreas no beneficiadas por la plusvalía.
▪ Establecer los lineamientos para la realización del manual de procedimientos para la aplicación
de la participación en plusvalía y los lineamientos para la aplicación del acto administrativo.
▪ Definir con claridad las dificultades de interpretación jurídica, desarrollo metodológico, de
participación y concertación de las decisiones por parte de la administración municipal.
▪ Crear el procedimiento y llevar a la oficina de Instrumentos Públicos la relación completa de los
inmuebles beneficiados con la Participación, para que se haga la afectación correspondiente.

7. Consideraciones generales para el cálculo de la plusvalía

En el proceso de análisis y cálculo de la Plusvalía, se concluye que, al cruzar la información de las


variables descritas antes, especialmente las de los metros cuadrados incrementados y los valores de la
tierra por los distintos métodos y momentos indicados y los resultados de la plusvalía se encuentran
concordantes con la realidad del mercado inmobiliario de municipios y con la tendencia del sector de
la construcción, especialmente del sector vivienda en el municipio.

7.1 Áreas con cambio de norma en el antes y después en los suelos de expansión urbana

En esta zona, según el comparativo POT antes vs POT después, se incorporan nuevas zonas de
expansión a partir de áreas rurales. Estas zonas presentan un valor por cobrar de importancia, debido
a que pasan de una densidad baja de viviendas por hectárea con índices de ocupación y construcción
bajos, que en la práctica está por debajo del 10% en el índice de ocupación y 0,4 en el índice de
construcción respectivamente. Estas quedan sujetas a las definiciones y aprobaciones de los planes
parciales, pero están sujetos desde ya a los cambios específicos de norma.
Los índices de ocupación se incrementan fuertemente al pasar de antiguas zonas rurales a zonas de
expansión urbana, pero además los índices de construcción aumentan en buen rango generando un
beneficio potencial alto por cada zona. Para que estas zonas puedan cobrarse la plusvalía deben estar
aprobados los respectivos planes parciales con los nuevos índices.
La Ley 388 de 1997 y el Decreto 2181 de 2006 dicen que los Planes Parciales son el instrumento de
desarrollo de las zonas de expansión. Pero los ajustes al POT por el acuerdo del POT último permite su
desarrollo a través de las normas de las zonas suburbanas. Mediante el plan parcial se establece el
aprovechamiento de los espacios privados, con la asignación de sus usos específicos, intensidades de
uso y edificabilidad, así como las obligaciones de cesión y construcción y dotación de equipamientos,
espacios y servicios públicos, que permitirán la ejecución asociada de los proyectos específicos de
urbanización y construcción de los terrenos incluidos en su ámbito de planificación.

7.2 Consideraciones generales sobre la plusvalía en el área rural

Se analizaron con mucho detenimiento las normas vigentes como la Ley y el acuerdo del concejo
que aprueba el cambio de norma y la aplicación de la Plusvalía. Comparando el POT vigente antes y
POT después, debe de calcularse la variación positiva o incremental o la variación negativa, calculando
las favorables de los inmuebles. Para esto se verifica los cambios de edificabilidad ni de usos del suelo.

7.3 Características de la plusvalía en el área urbana, área suburbana y de parcelaciones

Se debe calcular los cambios de los índices de ocupación y construcción, determinando los
porcentajes y cantidades por el cambio de norma, calculando el valor generando de Plusvalía por

195
cualquier hecho generador. Es de anotar que debe verificarse los cambios en los índices de
construcción, los índices de ocupación, de tal forma que se verifiquen los incrementos de metros
cuadrados en las zonas, para verificar que si está sujeto a cobro de Plusvalía y así calcular.

8. Resultados finales sobre el cálculo de la plusvalía en el cambio de ordenamiento territorial

8.1 Del trabajo de campo y de diferentes fuentes de información

Partiendo de la definición de Método de Mercado de la Resolución IGAC 620 de 2008, Artículo 1:


Método de comparación o de mercado. Es la técnica avaluatoria que busca establecer el valor comercial
del bien, a partir del estudio de las ofertas o transacciones recientes, de bienes semejantes y
comparables al del objeto de avalúo. Tales ofertas o transacciones deberán ser clasificadas, analizadas
e interpretadas para llegar a la estimación del valor comercial. Los parámetros prioritarios o que
constituyen principios básicos para el Estudio de la Plusvalía, a partir de los cambios de norma en los
planes de ordenamiento territorial, son los siguientes:
1. Transacciones recientes. Esta información debe ser validada, según las fechas establecidas para
el cálculo P1, para la plusvalía para finales del POT antes y a principios de POT después, este
último es el que genera el cambio de norma. Para ello se realiza el trabajo de campo, con
Comisionistas de la región y compradores o vendedores de predios. Estos conocen los datos
reales de compraventa de la tierra y son fuente de suministro de información de precios de la
tierra, proceso que se auto controla como proceso de validación de la fuente de información
misma.
2. Bienes comparables. Los vienes a ser Estudiados deben ser comparables, en caso contrario se
utilizarán metodologías de Homogenización que permite poder llevar toda la información a
características geo económicas o físicas comparables. Se debe Anexar al estudio, las zonas
geoeconómicas, que se originan en la Oficina de Catastro respectivo, donde los distintos
Polígonos de dichas zonas, definen los predios que corresponden a un mismo Polígono
Homogéneo de zona geoeconómica o zona física, facilitando la labor posterior.
3. Bienes semejantes. Esta característica hace referencia a que los predios se hacen parte del
Estudio, tengan características Semejante en cuanto a su clasificación de Clases Agrologicas, estas
clases Agrologicas son las establecidas por el IGAC. Para nuestro caso, todo el territorio
influenciado para la plusvalía pertenece a la clase agrologica Numero 1.
4. Las ofertas deben ser clasificadas, analizadas e interpretadas. Este tratamiento de información
está asociado a los artículos 10° y 11° de la misma Resolución IGAC 620 DE 2008, En donde indica
que se debe relacionara y caracterizar la fuente de información además de utilizar la Estadística
descriptiva para garantizar que los valores a ser utilizados estén Normalizados o Estandarizados
con un alto grado de confianza.

Recolectar datos en la zona requirió de reconocer procesos de ventas en contexto urbano y del
contexto suburbano contiguos a los lotes beneficiados con la Plusvalía. Esto debido a que las ventas de
terreno en las diferentes zonas encontradas con la influencia de la circunvalar y con beneficios por la
Plusvalía son escasos, debido a que todos están esperando las ganancias inmobiliarias y el proceso
efectivo de convertirlo a suelo urbano, mediante el estudio y aprobación de Plan Parcial.
Las fuentes de información se basaron en datos de venta de algunos predios en el año
inmediatamente anterior a los cambios del POT. Además de procesos de urbanización cercanos que
permiten recalcular precios del mercado en las zonas, tal como se observa en la Tabla 8.

196
Tabla 8. Precios del mercado en las zonas
Promedio Varianza Desviación estándar Coeficiente de desviación
SIRUMA1
128.000 91.527.489 9.567 7,47%
SIRUMA 2
108.000 62.252.100 7.890 7,31%
SIRUMA 3
160.000 125.440.000 11.200 7,00%

El valor del P1 es valor de precio de Mercado en el año anterior a la aprobación del nuevo POT de
cada municipio y se aprecia como una variación entre valores variables de V1 hasta Vn pesos por metro
cuadrado. El valor del metro cuadrado se actualiza al año de aprobación del nuevo POT, usando el
porcentaje de incremento del IPC, allí pueden encontrare distintas zonas de valor de P1, debido a la
variabilidad interna por localización a determinantes de Ordenamiento Territorial, como cercanías a
macroproyectos viales de alta importancia para el municipio o por la dinámica económica propia de
cada zona Geoeconómica. Estos valores diferentes de P1 deben explicar las diferencias por
accesibilidades que ponen de manifiesto los verdaderos valores de la tierra al cambio de norma.

8.2 Del cálculo de P2 y escenarios E1 y E2

En términos ideales para la Valoración de Suelos Urbanos Urbanizables, la referencia de valores


debería ser en todos los casos los valores reflejados en los Valores Catastrales. Pero en el caso de que
éstos no existan o que no estén actualizados o por cambio del uso del suelo por efecto del planeamiento
territorial y otras razones más, es decir, hayan perdido vigencia lo cual habría que demostrarse
utilizando la valoración del suelo por el método avaluatorio residual. Luego se realiza un cálculo de
valuación del suelo utilizando la información catastral o al contario, realizar el cálculo de valoración
catastral y compararlo con la información catastral disponible al momento. A la hora de asumir el
cálculo de la valoración del suelo en cuestión se debe tener en cuenta que hay dos tipos de mercado:
1. Mercado de valores de repercusión de suelo. En este tipo de mercado el valor del suelo está
claramente determinado por el aprovechamiento (uso y edificabilidad) que le es fijado por la
oficina de Planeación Municipal de acuerdo con las normas urbanísticas vigentes, es decir, que la
cantidad de m2 construidos o potencialmente construibles de cada uso determinan su valor.
Podemos hablar de un precio del suelo en pesos colombianos por metro cuadrado construido
por Zona Homogénea Geoeconómica y física. Los Casos más Normales serian Uso del Suelo para
Vivienda, Uso del Suelo para Servicios o Uso del Suelo para Industria, o finalmente Uso del suelo
Mixto, con sus respectivas restricciones.
Este Método parte de Valores de Venta del m2 Construido (m2 neto vendible: los m2 construidos
no son iguales a los m2 vendidos, su igualdad, la determina un Factor “k” que varía según el
estrato económico, el diseño de la solución, los índices de construcción y densidades
establecidas. Área Vendible = k x Área Construible, así se obtiene el valor de los suelos por
repercusión sobre el m2 construido o construible.

2. Mercado unitario de valores de suelo. Este tipo de suelo es que está determinado no por los m2
edificables sino por la forma o máximos admisibles (volumetría, distancias o linderos zonas de
protección, entre otros) se compran y se venden por m2 de suelo y no de m2 edificable por
ejemplo parcelaciones, o zonas industriales. Indistintamente del método utilizable el Método de
Residual, se hace un cálculo tanto para llegar a valores por repercusión como valores unitarios
de suelo. Uno de los Principios generales de la Valoración Inmobiliaria es el Principio del valor
Residual, que dice: El valor atribuible a cada uno de los factores de producción de un inmueble
es la diferencia entre el valor total de dicho activo y los valores atribuibles al resto de los factores.

197
A partir de este principio general se desarrolla el método residual de valoración del suelo,
considerando que el valor de un bien inmueble se compone de forma aditiva por integración de
los distintos costes, el del suelo, el de la construcción y con la consideración de los gastos y
beneficios de la promoción como un coste más. El valor de venta de un producto inmobiliario 𝑉𝑉
es igual a la suma del costo de la construcción (real o potencial) 𝐶𝐶 , sumándole el costo del suelo
𝐶𝑆 , los gastos de la promoción 𝐺𝑃 y los beneficios de la promoción 𝐵𝑃 , según la ecuación (1).
𝑉𝑉 = 𝐶𝐶 + 𝐶𝑆 + 𝐺𝑃 + 𝐵𝑃 (1)
Considerando el costo del suelo como “residuo” que se produce al deducir al valor de venta todos
los gastos y beneficios más los costos de la construcción se obtiene la ecuación (2).
𝐶𝑆 = 𝑉𝑉 − (𝐶𝐶 + +𝐺𝑃 + 𝐵𝑃 ) (2)
El método residual nos permite obtener tanto valores de repercusión como unitarios del suelo,
ya que, si partimos de valores en venta por m2 construido, obtendremos valores de repercusión
de suelo por m2 construido y, partiendo de valores en venta totales del producto inmobiliario,
aplicando el método residual obtendremos valores totales del suelo que, divididos por el total de
la superficie de suelo nos arrojará un valor unitario del mismo en euros por m2 de suelo.
El primero se conoce como método residual estático y el Segundo como dinámico, el primero
supone el Potencial de desarrollo del Lote con o sin edificación y el segundo considera que los
gastos de la urbanización se dan en el tiempo, lo que implica traer de futuros valores al presente
y así calcular el valor por repercusión. En Colombia la norma sólo considera calcular el valor por
repercusión o residual con el método estático, es decir se utiliza el Método Residual Estático,
considerando al momento “el derecho” que tiene el propietario sobre el suelo considerando el
Potencial de Desarrollo, en otras palabras, se aplica la normatividad urbanística vigente.
A pesar de que es factible calcular los Gastos de Promoción (Costos de ingeniería de proyectos,
costos financieros, costos directos y costos indirectos) y los Beneficios de promoción (margen de
utilidad), La Cámara de la Construcción, las Lonjas de propiedad Raíz, el ministerio de vivienda
y desarrollo rural, en informes e investigaciones permanentes presentan indicadores asociados
al valor del suelo con respecto al Valor de venta de m2 de los proyectos clasificados por estrato.
Esta proporción que se conoce como valor Alfa Residual está entre el 10% al 22% (Tabla 9).
Tabla 9. Valor del Alfa Residual
No ESTRATO MEDELLÍN ORIENTE CERCANO
1 VIP 9% a 11% 4% a 6%
2 VIP 10% a 13% 6% a 8%
3 1 13% a 15% 8% a 10
4 2 15% a 17% 10% a 12
5 3 17% a 19 12% a 14
6 4 19% a 21 14% a 17%
6 5 21% a 23% 17% a 20%
8 6 23% a 25% 20% a 22%
9 INDUSTRIAL/OFICINAS 19% a 21% 14% a 16%
10 COMERCIA/SERVICIOS 23% A 25% 16 % a 18%

NOTA: Para este municipio los estratos del 3 en adelante los valores ALFA se pueden considerar
los mismo del municipio de Medellín.
Se calcula el P2 (precio 2 después del cambio de norma) mediante el desarrollo de la técnica
avaluatoria Residual, arrojando valores de ventas potenciales. Esto se logra determinar por la
comercialización de vivienda en las zonas cercanas, logrando aplicar el método inductivo,
prediciendo el mayor potencial de construcción, combinando el cálculo de los índices de
ocupación, construcción y combinando con las densidades de vivienda y límites de vivienda,

198
junto con las cargas urbanísticas por sesiones tipo A, tipo B y tipo C. dando como resultado que
el mayor número real de metros cuadrados a construir es de la diferencia entre Los M2 del Año
de cambio de norma y M2 de la norma anterior. Esto se hace por cada zona física y geoeconómica
de catastro. Se logra determinar los diferentes valores de venta de área construida, delimitada
por las diferentes zonas geoeconómicas de afectación final de la Plusvalía por los
macroproyectos o cambios de usos o por la mayor edificabilidad. Esto arroja precios de venta.

8.3 De los resultados de la plusvalía en el Escenario 2

Se aplican dos escenarios que varían a partir del cálculo del alfa en proyectos similares en la zona,
por ejemplo, se aplicó un alfa de 16 % para el escenario 1, acorde a la vivienda estrato 5 y 6 en el
municipio. Dado que las condiciones diferenciales de las zonas plantean posibilidades de desarrollo a
mediano plazo, se consideró el escenario 2 con un alfa del 14%, arrojando resultados diferenciales.

8.4 De la escogencia del escenario adecuado E2

Se plantearon dos Escenarios dependiendo del valor alfa para los estratos 4 y 5, que va desde el 14%
al 20% (Tabla 10).
Escenario 1 ALFA = 14% El piso para el estrato 4°
Escenario 2 ALFA = 16% el promedio de toda la franja estrato 4° y 5°
Resultado P2= Precio de venta a nuevo
Tabla 10. Valores para seleccionar escenario
Promedio Varianza Desviación estándar Coeficiente de desviación
SIRUMA 1
1.950,00 19168,4025 138,45 7,10%
SIRUMA 2
1.900,00 129,20 16692,64 6,80%
SIRUMA 3
2.200,00 27152,4484 164,78 7,49%

Se recomienda que la administración acoja el Escenario 2 para el beneficio final de los predios con
la Plusvalía. En la Figura 8 se observa un ejemplo de planos de cada predio con los beneficios.

Figura 8. Ejemplo de planos de cada predio con los beneficios

199
9. Reto

▪ Automatizar los análisis realizados con herramientas de modelación, por ejemplo, moldel builder
de Arc Gis.

Referencias

[1] IGAC (1998). Decreto Nacional 1420. Instituto geográfico Agustín Codazzi. Bogotá, Colombia.

200
CAPÍTULO 18

Problema 14. Mapa Estratégico de Ruido para cuantificar afección por ruido en
la población
Jonathan Ochoa V.
Claudia E. Durango V.
Luis A. Tafur J.

Taxonomía Objetivos de Aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Bases de datos espaciales, Calidad de los geodatos, Shapefiles de la zona de estudio, Identificar las normas de calidad
Despliegue de Datos (Layout) aplicables a los geodatos, Resultados de los mapas de ruido

201
1. Planteamiento del problema

Un Mapa Estratégico de Ruido es un mapa diseñado para evaluar globalmente la exposición al ruido
en una zona determinada producto de la existencia de múltiples focos de ruido o para realizar
predicciones globales de una zona. Cuando se requiere un mapa de este tipo se debe identificar la
información necesaria para llevar a cabo su modelado y simulación, además de los atributos
involucrados en diferentes softwares de simulación y predicción acústica. La calidad de los datos de
entrada permite identificar y caracterizar los focos de ruido ambiental, las características del medio de
propagación y la población afectada. A partir de los requisitos establecidos, tanto geográficos como
tabulares, es necesario evaluar la calidad de la información para garantizar el cumplimiento de las
normas nacionales e internacionales. Con la consolidación de los anteriores geodatos se permitirá
generar geovisualizaciones de los resultados de simulación, provenientes del software de predicción
de ruido ambiental.
El problema presentado en este capítulo obedece a la existencia de una afectación por ruido en la
población que no ha sido cuantificada correctamente y, por lo tanto, no ha sido posible hacer gestión
de ruido. Aunque son claras las fuentes de ruido ambiental (medios de transporte, industria y ruido
comunitario), sigue siendo motivo de estudio cuantificar el aporte que cada una de estas fuentes está
realizando en términos de contaminación acústica.
La problemática es aún más apremiante si se tiene en cuenta, que en el país no es una práctica común
realizar mapas estratégicos de ruido por medio de modelos de cálculo. Parte de esta problemática
también está en la no consideración de los criterios establecidos por la OMS respecto a cómo se debe
cuantificar la afectación por ruido en la población (ruido en fachada o ruido al interior).
Desafortunadamente el marco normativo en el país, el cual está dado por la resolución 627 de 2006, no
contempla de manera explícita los modelos de cálculo como metodología para construir mapas de
ruido. Adicionalmente, propone una metodología obsoleta que no tiene en cuenta los criterios de la
OMS y no permite realizar ninguna gestión de ruido. En términos de la información geográfica y tabular
necesaria para estudios de impacto ambiental por ruido, la información no está estructurada en
términos de lo requerido en las herramientas computacionales para la simulación o modelación de
ruido y la información usualmente está incompleta. Las especificaciones del problema son:
▪ Identificar, adquirir y/o actualizar los geodatos, según la zona de estudio requerida para la
generación de los mapas estratégicos de ruido.
▪ Identificar la calidad de los geodatos, evaluar e implementar las normas de calidad requeridas.
▪ Estructurar y crear la base de datos espacial necesaria para la generación de los mapas
estratégicos de ruido.
▪ Generar los shapefiles, identificando los datos alfanuméricos requeridos para el software de
predicción de ruido
▪ Generar plantilla de presentación de los mapas estratégicos de ruido según los requisitos.

2. Evaluación del ruido ambiental: Mapas de ruido

En la evaluación del ruido ambiental la principal herramienta es el mapa de ruido, además de que
es un elemento clave para gestión del ruido. A nivel mundial, la evaluación del ruido ambiental está
orientada a la valoración de la exposición del ruido de la población, que tiene como intención
determinar la efectividad de políticas para proteger la salud humana y mejorar la calidad de vida. La
evaluación del ruido implica cualquier método que permita predecir, calcular medir o estimar un
indicador de ruido [1].

202
Para la valoración del ruido ambiental, es indispensable definir con claridad los diferentes focos de
ruido asociados generalmente a infraestructuras de transporte, tráfico urbano y a la industria. La
diferenciación de los focos de ruido permite identificar diferentes necesidades para la protección de la
salud de la población. De esta forma, los focos de ruido ambiental también están asociados con la
gestión de la movilidad, infraestructuras, la industria, vivienda, salud, y, por ende, ordenamiento
territorial. Los mapas de ruido correspondientes a cada tipo de infraestructura son una herramienta
de referencia para los procesos de gestión como políticas de desarrollo urbano e infraestructuras de
transporte.
Un Mapa Estratégico de Ruido (MER), según lo describe la Directiva 2002/49CE es un mapa
diseñado para poder evaluar globalmente la exposición al ruido en una zona determinada, debido a la
existencia de distintas fuentes de ruido, o para poder realizar predicciones globales para dicha zona
[1]. De acuerdo con lo anterior, el MER presenta de manera global una evaluación suficiente con la cual
es posible establecer estrategias, un diagnóstico inicial y definir prioridades con respecto a los
diferentes procesos de gestión. En un proceso de gestión, herramientas como el MER acompañado de
mapas como de conflicto y fachadas, proporcionan un mayor grado de detalle. Esto tiene como fin,
contemplar particularidades de una zona de estudio, destacando los principales focos y receptores,
análisis completos de las causas del ruido y soluciones.
Las evaluaciones del ruido permiten realizar gestión del territorio según objetivos de calidad que
se establezcan. Herramientas como los mapas de ruido contribuyen a dar respuesta a una evaluación
general. Estos presentan situaciones de las ciudades referentes a las infraestructuras e instalaciones
industriales y pueden evidenciar afectación por contaminación acústica en la población. En el trabajo
de solución se debe encontrar respuesta a: ¿Qué importancia tiene identificar y estructurar los
geodatos para la generación de mapas estratégicos de ruido? ¿Es posible cuantificar la afección por
ruido sobre la población? ¿Los mapas estratégicos de ruido pueden ser usados como herramientas para
realizar gestión sobre el territorio?

2.1 Glosario

▪ Atributo. Propiedad o característica de una clase de elementos en una base de datos, por ejemplo,
la superficie, la población, etc.
▪ Base de datos. Conjunto de datos estructurado para permitir su almacenamiento, consulta y
actualización en un sistema informático las bases de datos relacionales son un caso concreto en
el que la información se organiza en relaciones (llamadas más frecuentemente “tablas”) que son
conjuntos de tuplas (“registros”) cada una de las cuales integra información de un elemento en
un conjunto de campos (uno por atributo del elemento); si dos tablas comparten un campo con
valores dentro del mismo dominio, puede aplicarse una operación de unión mediante la cual las
tuplas se enlazan en función de los valores del campo de enlace.
▪ Geodatabase. (base de datos geográfica gdb). Una estructura de base de datos o archivo que se
utiliza principalmente para almacenar, consultar y manipular datos espaciales. Una gdb es una
tienda geometría, con un sistema de referencia espacial, atributos y reglas de comportamiento
para los datos. Varios tipos de conjuntos de datos geográficos pueden ser recogidos dentro de
una geodatabase, incluyendo clases de entidad, tablas de atributos, conjuntos de datos ráster,
conjuntos de datos de la red, topologías, y muchos otros.
▪ Capa geográfica. Una capa es la representación cartográfica de objetos espaciales de un mismo
tema, y que además asocia la tabla de información que describe a cada uno de estos objetos.
▪ Cartografía. Conjunto de técnicas utilizadas para la construcción de mapas.

203
▪ Curva de nivel. Cartográficamente, es una línea en un mapa que une puntos de igual elevación
basado en un datum vertical, por lo general el nivel del mar.
▪ Feature class. (clases de entidad). En Arcgis es colección de elementos geográficos con el mismo
tipo de geometría (como punto, línea o polígono), los mismos atributos y la misma referencia
espacial. Las feature class pueden ser almacenadas en geodatabases, shapefiles, u otros formatos
de datos. Por ejemplo, autopistas, carreteras principales y caminos secundarios se pueden
agrupar en una clase de entidad de línea denominado " carreteras”. En una geodatabase, los
feature class también pueden almacenar anotaciones y dimensiones.
▪ Feature dataset. En Arcgis, es una colección de clases de entidad almacenadas juntas que
comparten la misma referencia espacial; es decir, que comparten un sistema de coordenadas, y
sus características caen dentro de un área geográfica común. Las clases de entidad con diferentes
tipos de geometría se pueden almacenar en un feature dataset.
▪ Shapefile. Es un tipo de archivo digital nativo de ESRI para el almacenamiento de datos espaciales,
pero actualmente es un formato estándar para el intercambio de información geográfica, que
puede ser usado en software comercial o software libre. Es un formato de almacenamiento de
información vectorial que guarda la localización de elementos geográficos y sus atributos, con la
característica de ser un formato multiarchivo.
▪ Mapa. Modelo gráfico de la superficie terrestre donde se representan objetos espaciales y sus
propiedades métricas, topológicas y atributivas un mapa puede ser analógico (impreso sobre
papel, por ejemplo) o digital (codificado en cifras, almacenado en un ordenador y presentado en
una pantalla) existen mapas métricos, diseñados para representar distancias, superficies o
ángulos y mapa topológicos, diseñados para representar vecindad, inclusión, conectividad y
orden en el contexto de los SIG, un mapa es la presentación de cualquier estructura de datos
usada para reflejar cartográficamente una variable espacial (nominal o cuantitativa)
independientemente del modelo de datos utilizado (vectorial o ráster).
▪ Metadato. Por definición básica, los metadatos son datos que describen otros datos; son los datos
o información detallada de una capa geográfica o de un elemento de datos. La ICDE lo define
como: “un metadato constituye la información estructurada y organizada de un conjunto de
datos que permite consultar, evaluar, comparar, acceder, y/o utilizar la información,
describiendo su autor, semántica, calidad, modo de identificación, restricciones de uso,
mantenimiento, distribución, sistema de referencia, contenido entre otros”.
▪ Modelo digital de elevación (DEM). La representación de los valores de elevación continuos sobre
una superficie topográfica por una disposición regular de los valores z, hace referencia a un dato
común. Los DEMS se suelen utilizar para representar a los desniveles del terreno.
▪ MXD. En arcmap, el archivo que contiene un mapa, su diseño y sus capas asociadas, tablas,
gráficos e informes. Los documentos de mapa pueden ser impresos o integrados en otros
documentos. Archivos de documentos mapa tienen una extensión mxd.
▪ Triangulated Irregular Network (TIN). Estructura vectorial usada para construir modelos
digitales del terreno tin son las siglas de triangulated irregular network; se trata de una
estructura de datos que representa el relieve mediante una red irregular de triángulos adosada
al terreno, sin solapamientos y donde cada vértice se define por coordenadas espaciales (x,y,z).
▪ Topología. Referencia a las propiedades no métricas de un mapa en el contexto de los SIG,
topología hace referencia a las propiedades de vecindad o adyacencia, inclusión, conectividad y
orden, es decir, propiedades no métricas y que permanecen invariables ante cambios
morfológicos, de escala o de proyección se dice que una estructura de datos es ‘topológica’

204
cuando incluye información explícita sobre estas propiedades; en este caso, es posible realizar
análisis y consultas “topológicas” sin necesidad de acudir a las tablas de coordenadas.

2.2 Revisión de conceptos previos

Se recomienda abordar el estándar ISO 1996-2:2009 Acústica. Descripción, medición y evaluación


del ruido ambiental. Parte 2: Determinación de los niveles de ruido ambiental y Guía de Buenas
Prácticas para los mapas estratégicos de ruido y la producción de datos asociados a la exposición [2].

3. Desarrollo del problema

3.1 Identificar los geodatos requeridos para la generación de mapas estratégicos de ruido

Según los requisitos del usuario se debe identificar los focos de ruido dentro de la zona de estudio
además de los recursos tabulares. Para ello, se identifican los geodatos que se encuentran en la zona.
Los principales para mapas de ruido son:
▪ Focos de ruido predominantes: rutas y estaciones de sistemas de transporte masivo, ejes viales.
▪ Información relacionada con el medio de propagación: curvas de nivel y distribución catastral de
los predios (edificaciones) y de las manzanas.
▪ Información relacionada con los receptores: usos del suelo y delimitación de la zona de estudio
▪ Distribución censal de la población por edificaciones.
▪ Sitios de interés principalmente aquellos que requieren tranquilidad, como, por ejemplo;
colegios, escuelas, museos, universidades, clínicas y hospitales, entre otros.
▪ Información tabular de los números de piso y altura por edificación
▪ Ubicación de establecimientos industriales y de comercio.

3.2 Adquirir y actualizar los geodatos requeridos para la generación del MER

Una de las fuentes principales de información geográfica para Medellín es la Alcaldía de Medellín,
en dicha institución organizan los geodatos en bases de datos espaciales. La distribución en el
Municipio de Medellín es por comunas, por lo anterior, la información se encuentra clasificada de la
misma forma. Las capas temáticas de una base de datos espacial son:
▪ Construccion
▪ Frente
▪ LineaAuxiliar
▪ Lote
▪ Manzana
▪ NomenclaturaDomiciliaria
▪ Predio
▪ Toponimia

Adicionalmente también se encuentra:


▪ Limite catastral
▪ MallaVial
▪ Pendientes

205
▪ LineaMetro
▪ EstacionMetro
▪ UsoSuelo

Se realiza una revisión de las capas temática de interés, donde la información encontrada se registra
en un archivo, puede ser Excel, relacionando las características de cada una de las capas: carpeta de
ubicación, subcarpeta, nombre del Feature Class, geometría (polígono, punto, línea), nombre del
atributo, tipo de campo del atributo, longitud del atributo y descripción de cada uno de los atributos
(Figura 1). Durante esta revisión se debe verificar que cada uno de los Feature Class esté en el mismo
sistema de coordenadas.

Figura 1. Ejemplo de archivo de la revisión de la información cartográfica

La estructura del archivo que contiene la revisión de los Feature Class, se debe disponer conforme
se defina la información requerida. Para la elaboración de mapas de ruido se recomienda distribuir de
la siguiente manera: sectores (información precisa de las zonas de interés para el estudio), sitios de
interés (Equipamientos, espacio público), movilidad y Suelo (uso del suelo, manzanas, comunas, curvas
de nivel, etc.). Esta estructura busca tomar la información adecuada que es insumo para la simulación
de mapas de ruido: Curvas de nivel, Edificaciones y Vías. Es importante el análisis minucioso de los
atributos y la calidad topológica de cada uno de ellos.

3.3 Evaluar la calidad de los geodatos requeridos para la generación del MER

La topología es empleada, fundamentalmente, para asegurar calidad en los datos y permitir


representar los elementos geográficos en una forma realística. El principal propósito de la topología es
definir relaciones espaciales entre elementos geográficos de una misma capa o entre diferentes capas,
esto asegura que las entidades asociadas geométricamente formen una estructura topológica bien
definida. La topología trabaja con base a tres conceptos especiales: adyacencia, coincidencia y
conectividad. En este proceso las dos reglas topológicas típicas a aplicar son: Sin traslapar y Sin vacíos.
Antes de proceder con la adecuación de los geodatos, es necesario definir el polígono del área de
estudio. Este debe responder a las necesidades de cada evaluación y a la cobertura requerida para la
evaluación de ruido. A partir de esta se define el área total necesaria para la simulación y que
generalmente es más grande que el área estudio. Esto permite que dentro del área se caracterice
adecuadamente los niveles de ruido como producto de los diferentes focos de ruido dentro o fuera de
la zona.

206
Para la elaboración de los mapas de ruido, es necesario adjudicar los atributos necesarios a cada
una de los shapefiles y que son requeridos por el software de caracterización de ruido ambiental.
Dependiendo del tipo de herramienta informática para la simulación de los mapas de ruido, los
atributos pueden cambiar de denominación, ser requeridos o no, cambiar de dominio o de tipo de dato.
Es necesario que dentro de la edición de la información queden representados los atributos y su
respectiva denominación para el software de predicción que se pretenda usar.
Dentro de la evaluación de los geodatos adquiridos es posible que algunos atributos no tengan un
valor asociado. A nivel internacional se han dispuesto de varias guías metodológicas para la realización
de mapas estratégicos de ruido. En Europa, la “Guía de Buenas Prácticas para los mapas estratégicos
de ruido y la producción de datos asociados a la exposición al ruido”, recomienda para casos específicos
una metodología para la recolección y asociación de los geodatos, partiendo de mediciones o
estimaciones [2].
Por otro lado, atributos que relacionan los usos de suelo y los límites máximos permisibles de
niveles de ruido deben ser descritos conforme a las normativas regionales o nacionales. En los
softwares de simulación y predicción de ruido ambiental es necesario realizar una equivalencia entre
estos usos del suelo, pues a partir de esto es posible realizar análisis concernientes a la superación de
niveles de ruido según el contexto local. Mapas adicionales en 2D y 3D de conflicto y niveles de ruido
en fachada pueden representar situaciones específicas y usan información primaria de usos del suelo.
De igual forma la adquisición de datos poblacionales contribuyen al análisis detallado del número
de habitantes expuestos a determinados niveles de ruido. Los datos pueden ser adquiridos mediante
censos, estadísticas o proyecciones. Lo ideal es que se pueda asignar un número de habitantes por piso
en cada edificación de tipo residencial. Estos datos permiten disponer después de la simulación datos
tabulares en los que se presenta la población expuesta a diferentes rangos de niveles de ruido, por
altura o número de piso.

3.4 Definir el geoalmacenamiento necesario para la generación del MER

Se sugiere estructurar la Base de Datos Espacial de una manera clara y precisa. Esto permite una
ágil manipulación de los tipos de información relacionadas con los proyectos que requieran la
elaboración y presentación de mapas de ruido. En la Figura 2 se presenta el modelo físico de la
información SIG.

Figura 2. Modelo Físico de la Información SIG

207
Dentro de la estructura de las carpetas que almacenan la información espacial y documental
correspondiente al área de SIG, se recomienda los siguientes Subdirectorios:
▪ Geodatabase (GDB): Contiene la geodatabase estructurada durante el desarrollo del proyecto
▪ MXD: Almacena los mapas realizados en ArcGIS, organizados por las diferentes zonas de estudio.
▪ Layers (Simbología): Almacena los colores, símbolos y otros atributos que se emplearán para
representar las características temáticas de los mapas.
▪ PDF: Almacenará las imágenes en formato pdf correspondientes a los mapas de ruido generados
de cada zona de estudio.
▪ Informe: Almacena el documento que relaciona la información cartográfica del proyecto.
▪ Metadatos: contiene los metadatos de los resultados de los mapas de ruido.
▪ Logos: Contiene las imágenes de los logos de cada una de las entidades que participaron de una
u otra forma del proyecto.
▪ Resultados en Excel: Contiene la información atributiva de cada uno de los Feature Class en Excel.

El modelo conceptual para una base de datos para este tipo de proyectos se constituye por elemento
como se muestra en la Figura 3. Estos elementos están diferenciando la información base con la que se
inicia el estudio, la información necesaria para el modelado y la simulación en el software de predicción
acústica y la información resultante de los procesos de simulación.

Figura 3. Diseño lógico de la Base de Datos Espacial

3.5 Exportar los geodatos al software de simulación de ruido

Una vez Estructura la Base de datos y con la actualización de cada uno de los atributos asociados
tanto a las fuentes como los receptores, es necesario preparar los shapefiles requeridos en el software
de predicción de ruido ambiental. Para ejemplificar este proceso, se tomará el software SoundPLAN®
quien utiliza estos archivos para construir un modelo 3D de la zona de estudio y predecir el ruido
producto de fuentes de ruido múltiples o individuales. La exportación de datos requeridos por este
software puede realizarse a través de la herramienta ArcMap®.
Con la Base de datos agregada al espacio de trabajo, se deben cargar los archivos de interés a
exportar. En la Figura 4 se muestra los polígonos correspondientes a edificaciones con diferentes usos,
como establecimientos comerciales, zonas verdes, edificios residenciales, y los demás que defina el
usuario. Es necesario separarlos para las diferentes situaciones de simulación en SoundPLAN®.

208
Figura 4. Datos de edificaciones importadas de un área de estudio

A través de la selección por atributos es posible filtrar y exportar polígonos según sus propiedades.
Es importante asociar los usos del suelo con cada valor asociado entre el software de simulación y la
normativa que se aplique. De acuerdo con esto, en proyectos de acústica ambiental es necesario crear
nuevas capas que contengan polígonos con usos del suelo como:
▪ Zonas Verdes: Generalmente son zonas ajardinadas, parques públicos y espacios naturales.
▪ Establecimientos comerciales: se les asocia un nivel de emisión de ruido (potencia acústica),
producto de alguna actividad ya sea comercial, industrial u otra que genere ruido para un periodo
de tiempo característico.
▪ Edificaciones: todos los edificios diferentes a las zonas verdes, establecimientos comerciales,
industrial. Allí se contemplan dependiendo de la zona edificaciones como residencias, hospitales,
educación, entre otras.
▪ Absorción del terreno: son las áreas dentro de la zona que no corresponden a un polígono de
edificación y que debe ser caracterizado para que el SoundPLAN realice los cálculos teniendo en
cuenta la absorción sonora debido a la formación del terreno.

Dependiendo del tipo de proyecto y de evaluación que se realice los datos pueden ser exportados
como el usuario lo desee. La Figura 5 muestra los archivos filtrados y exportados que harán parte de
una situación de simulación en SoundPLAN®.

Figura 5. Shapefiles exportados a partir de la selección por atributos

209
3.6 Importar las capas temáticas y datos tabulares provenientes del software de simulación

Una vez simulado en el software de predicción de ruido, estos permiten exportar los datos como
archivo tipo Shapefiles. En programas como SoundPLAN® es posible clasificar los niveles de ruido
según normativas, por lo que al momento de la exportación de datos es importante tener claro este
dato. Esto definirá la escala de colores que se debe asignar para la representación de los niveles de
ruido. Todos los archivos resultados, ya sean geográficos o tabulares, deben ser almacenados manera
correcta dentro de la estructura de la base de datos creada. El buen manejo de la información permitirá
a cualquier usuario visualizar los resultados de tal manera que los use en procesos de gestión
territorial.

3.7 Geovisualizar los mapas estratégicos de ruido

La geovisualización de los mapas estratégicos de ruido obedece a la representación de un formato


que define el usuario o la entidad con la que se desarrolla este tipo de proyectos, si es el caso. Con el fin
de presentar los resultados de la simulación, es valioso definir una plantilla con elementos de
cartografía básica. Las convenciones de colores se definen según la normativa aplicada, para el caso de
Colombia se establece en la Resolución 0627 de 2006. En la Figura 7 se aprecia un ejemplo de la
geovisualización.

Figura 7. Ejemplo Geovisualización Mapa de ruido

4. Retos

▪ ¿Cuáles son los geodatos requeridos para la generación de mapas de ruido?


▪ ¿Cómo se adquieren o actualizan los geodatos para la generación de mapas de ruido e
implementación de planes de acción?

210
▪ ¿Cómo se evalúa la calidad de los datos para la generación de mapas de ruido?
▪ ¿Cómo se puede estandarizar la estructuración de los geodatos para la generación de mapas
estratégicos de ruido para cuantificar la afección por ruido en la población, a través de buenas
prácticas de producción de datos asociados con la exposición al ruido?
▪ ¿Cómo se presentan los geodatos resultantes de las simulaciones en software de predicción de
ruido?

Referencias

[1] Diario Oficial de las Comunidades Europeas (2002). Directiva 2002/49/CE del Parlamento Europeo y del
Consejo de 25 de junio de 2002 sobre evaluación y gestión del ruido ambiental. Ministerio de La Presidencia
de España 25.
[2] European Commission Working Group Assessment of Exposure to Noise (WG-AEN) (2006). Good Practice
Guide for Strategic Noise Mapping and the Production of Associated Data on Noise Exposure.

211
CAPÍTULO 19

Problema 15. Determinación de sitios de encuentro para emergencias


Carlos A. Castro C.
Helena Pérez G.
Gabriel E. Taborda B.
Julián D. Giraldo O.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Spatial Análisis de ArcGIS Datos sobre la planta física de cualquier institución donde se
presten servicios

212
1. Planteamiento del problema

Los análisis multicriterio son una de las técnicas de análisis para la toma de decisiones más
utilizadas en los sistemas de información geográfica, una de las teorías más aplicadas es la del proceso
analítico jerárquico y el autor más reconocido desde el punto de vista de la fundamentación teórica de
este método analítico es Thomas Saaty quien en sus obras desde 1977 ha venido explicando y
desarrollando conceptos que han sido acogidos en los procesos de análisis espacial para la toma de
decisiones con SIG con muy buenos resultados [1]. Según Saaty [2] el proceso analítico jerárquico para
tomar una decisión de manera organizada y para generar prioridades se debe realizar a través de los
siguientes pasos:
1. Definir el problema y determinar el tipo de conocimiento buscado o decisión que se pretende
tomar.
2. Determinar la estructura de la jerarquía de toma de decisiones desde la parte superior (criterios
en que se basan los elementos posteriores)
3. Construir la matriz de comparación por parejas.
4. Use las prioridades obtenidas a partir de las comparaciones que sopesar las prioridades en el
nivel inmediatamente inferior.

Antes de desarrollar el caso que se presenta sobre como determinar el punto de encuentro más
apropiado en caso de emergencias, es necesario que se tenga claro desde lo teórico, conceptual y
metodológico cuales son los alcances de la toma de decisiones y como los análisis multicriterio
integrados a los sistemas de información geográfica se han convertido en una herramienta poderosa
en muchos tipos de aplicaciones.
El caso propuesto consiste en que la legislación colombiana vigente determina la obligación y
conveniencia de estar adecuadamente preparados para afrontar con éxito las eventuales situaciones
de emergencia que se puedan presentar en las organizaciones. La respuesta a esta necesidad debe
materializarse en un “plan de prevención, atención y recuperación en emergencias”, su diseño debe
estar alineado con la legislación nacional y la normatividad técnica internacional para la gestión
integral de riesgos, la prioridad de este plan es salvaguardar la vida de las personas que ocupan las
instalaciones en el momento de una emergencia, un componente muy importante de este plan es
definir los puntos de encuentro en caso de presentarse la emergencia. Entendiéndose por puntos de
encuentro o sitios de reunión final como las zonas de seguridad hacia donde se debe evacuar las
personas temporalmente, para desde este sitio coordinar una evacuación segura.
Se sugiere seleccionar un lugar abierto (parque, parqueadero externo, patio, plazoleta, etc.) que no
cuente con objetos que puedan generar riesgo (postes, árboles frondosos, ventanales, etc.). Para
determinar los sitios de encuentro se debe tener en cuenta:
▪ Deben estar alejados un mínimo de 10m de cualquier edificación y 25m de riesgos críticos
▪ No deben ubicarse en lo posible, sobre vías públicas o rutas de acceso a las instalaciones
▪ No deben estar ubicados demasiado lejos y que impliquen largos desplazamientos
▪ No deben ubicarse en lugares que interfieran con las labores de los organismos de socorro
▪ Deben ser lugares despoblados y deben ser priorizados por el área en metros cuadrados ya que
es mejor entre más área tenga el sitio de encuentro, (si es posible que sea mayor a 25 metros
cuadrados).

Además, para una ubicación óptima se tendrá en cuenta los siguientes criterios:

213
▪ Distancia de puntos de atención médica
▪ Distancia de puntos de toma de agua potable
▪ Distancia de puntos de extintores de fuego

En este caso se busca establecer los puntos de encuentro para la planta física de la Universidad de
San Buenaventura - Medellín ubicada en el barrio San Benito. Toda la información requerida debe ser
construida o adquirida de fuentes secundarias, no se cuenta con capas con información, por ejemplo
.shp, o una geodatabase como información cartográfica base de la planta física de la Universidad, por
lo que se requiere elaborar la información con la que se van a realizar los análisis, para lo que se
sugieren los siguientes procedimientos:
▪ Georreferenciar la imagen de USB San Benito, con 10 puntos de control.
▪ Editar una capa (shape file) con cuatro polígonos de bloque (B, C, E y F).
▪ Digitalizar los límites de las áreas libres de construcciones y recordar que se deben considerar
como restringidas las zonas de circulación (como zonas de ingreso a las instalaciones de la
universidad).
▪ Elaborar las capas de puntos con 3 puntos de riesgos críticos, 1 punto de atención médica, 3
puntos de toma de agua potable, 3 puntos de extintores de fuego.

2. Desarrollo del problema

El primer inconveniente en para realizar este análisis es el levantamiento de información, es muy


importante para este proceso determinar la calidad y la precisión de los datos que se requieren,
teniendo en cuenta sobre todo el uso de los resultados obtenidos del análisis. Para el caso de definir un
punto de encuentro, no se requiere una precisión muy alta, es suficiente con la identificación del sitio
de forma aproximada porque en el momento de una evacuación lo que se va a definir en sitio
aproximado en el que las personas se deben reunir. Por esta razón no es necesario usar imágenes de
alta precisión y es suficiente trabajar con imágenes como por ejemplo las de Google earth y realizar
una digitalización manual de los elementos de interés para el análisis como son las edificaciones y sitios
despoblados (Figura 1).

Figura 1. Levantamiento de información básica necesaria para el análisis

2.1 Definir el problema y determinar el tipo de conocimiento buscado

Para el desarrollo hay que tener claro cuál es el objetivo del análisis que se desea realizar, en este
caso el objetivo es determinar los sitios de encuentro que se deben acordar para que en caso de
emergencia las personas se dirijan a esos lugares para facilitar la atención de la emergencia. La
aplicación del caso se hará para la Universidad de San Buenaventura Medellín.

214
Luego se debe seleccionar el tipo de análisis a realizar, para este caso se escogió utilizar un modelo
de análisis en vector para definir las áreas disponibles y en ráster para escoger la mejor alternativa y
considerando las condiciones del problema se realizará la priorización de los sitios de encuentro
utilizando el análisis multicriterio (con ayuda de la calculadora ráster y aplicando matriz de
comparación por pares).

2.2 Determinar la estructura de la jerarquía de toma de decisiones desde la parte superior

El modelo de análisis se define en dos etapas, la primera es la escogencia de las posibles áreas que
pueden llegar a ser punto de encuentro y en la segunda se trata de priorizar o seleccionar a partir de
las alternativas.
Primera etapa analítica: consiste en determinar cuáles son las posibles áreas que pueden llegar a
ser el punto de encuentro por cumplir con todas las condiciones y restricciones que el problema
plantea. La información de partida es una capa vector (Figura 2) donde se encuentran todas las áreas
despobladas y, a partir de ella, se empiezan a eliminar todas las áreas que presentan alguna restricción,
como son estar alejado 10 metros de cualquier edificación, estar alejado 25 metros de riesgos críticos,
coincidir con rutas de acceso o sitios de acceso o desplazamiento y el hecho de no ubicarse donde
interfiera con las labores de los cuerpos de socorro (1 punto de atención médica, 3 puntos de toma de
agua potable, 3 puntos de extintores de fuego).

Figura 2. Esquema para la definición de las áreas elegibles como punto de encuentro

En la segunda etapa analítica se pretende seleccionar las áreas que cumplen con las características
que requiere el punto de encuentro y para priorizar se elabora una matriz de comparación por pares
en la cual la pregunta es ¿Cuál variable es más importante a la hora de priorizar un sitio de encuentro?,
la matriz se construye con los siguientes criterios:
▪ Cercanía a las construcciones
▪ Distancia de puntos de atención médica
▪ Distancia de puntos de toma de agua potable
▪ Distancia de puntos de extintores de fuego

Cada uno de los criterios debe corresponder con una capa ráster que se sugiere sea construida con
la herramienta de distancia euclidiana y reclasificada en valores que permitan una interpretación

215
siendo 1 la situación más deseada, 3 la situación media y 5 la situación no deseada. Con los 4 ráster
reclasificados se puede pasar a realizar el análisis en la calculadora ráster incluyendo los pesos
ponderados definidos para cada criterio. En la Figura 3 se presenta la matriz de ponderación para
realizar el análisis multicriterio. Para realizar este ejercicio se utiliza la escala de Saaty para la
evaluación de criterios en un matriz de comparación por pares.

Figura 3. Escala de comparación de Saaty [3]

La pregunta para realizar la comparación por pares es ¿el criterio 1 es tanto más importante que el
criterio 2 para escoger el sitio de encuentro en caso de emergencias? Los criterios establecidos para
priorizar las áreas elegibles son: no estar muy lejos para evitar largos recorridos, estar alejados de los
puntos de atención médica para evitar interrumpir con la atención de la emergencia, estar alejado de
los puntos de toma de agua porque alrededor de estos puntos se genera movimiento de quienes
atienden la emergencia, como bomberos o socorristas, y estar cerca de los puntos de extintores para
auto protección de quienes esperan a ser evacuados (Figura 4).

Figura 4. Matriz de comparación y suma de columnas

Esta matriz permite definir los pesos ponderados mediante: 1) sumar por columnas, y 2) dividir
cada valor de la tabla por la suma de la respectiva columna (Figura 5).

Figura 5. Valores divididos por la sumatoria de cada columna

Se promedia la sumatoria de filas para sacar los porcentajes para realizar el análisis en la
calculadora ráster (Figura 6).

Figura 6. Tabla para establecer ponderación utilizando la matriz de comparación por pares

216
Todo lo anterior quiere decir que la cercanía a las construcciones tiene un peso del 62%, la distancia
a puntos de atención médica tiene un peso de 20%, la distancia a puntos de toma de agua potable es
del 13% y la distancia a los extintores tiene un peso del 5% en el análisis de la toma de decisiones.

3. Reto

Incluir en el análisis el tiempo de evacuación entre los criterios a considerar para definir un sitio de
encuentro. Dicho cálculo aproximado del tiempo de salida se ejecuta a través de la ecuación (1).

(1)

Donde:
TS: Tiempo
N: Número de Personas
A: Ancho de la salida en metros
K: Constante experimental (1,3 personas / metro – segundo)
D: Distancia total de recorrido en metros
V: Velocidad de desplazamiento (0,6 metros/segundo)

En la Tabla 1 se presenta la estructura para realizar el cálculo de los tiempos teóricos de salida para
cada uno de los bloques.
Tabla 1. Datos para el cálculo de los tiempos de evacuación.
Área Distancia salida* (m) Personas fijas Ancho Puerta** (m) Tiempo en (seg) Tiempo en (min)
Bloque B 40 350 1.10
Bloque C 40 104 1.10
Bloque E 60 240 2.20
Bloque F 58 186 1.10

Referencias

[1] Moreno, J. & Escobar, M. (2000). El pesar en el proceso analítico jerárquico. Estudios de Economía Aplicada
14, pp. 95-115.
[2] Saaty, T. (2008). Decision making with the analytic hierarchy process. Int. J. Services Sciences 1(1), pp. 83-
98.
[3] Osorio, J. & Orejuela, J. (2008). El proceso de análisis jerárquico (AHP) y la toma de decisiones multicriterio.
Ejemplo de aplicación. Scientia et Technica XIV(39), pp. 247-252.

217
CAPÍTULO 20

Problema 16. Diseño de rutas de patrullaje policial con análisis de puntos de


incidencia criminal
Conrado A. Serna U.
Carlos E. Betancourt L.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Análisis de agrupación espacial, Network Analysis (ArcGis), Malla vial comuna 13 ciudad de Medellín, Estadísticas de
Hotspot Analysis distribución de crímenes

218
1. Planteamiento del problema

La complejidad del crimen urbano coloca en riesgo a la sociedad de cualquier país. Éste tiene la
tendencia de agruparse en zonas geográficas por múltiples causas como densidad poblacional,
oportunidad laboral, inversión económica y fragilidad de las autoridades [1]. La suma de estas
variables hace que se disperse el crimen en las grandes ciudades. El incremento de los índices de
criminalidad ha llevado a la Policía Nacional de Colombia a formular estrategias que contrarresten esta
tendencia. Una de estas estrategias es el Modelo Nacional de Vigilancia por Cuadrantes (MNCV), en el
cual se divide la ciudad en zonas geográficas pequeñas (llamadas cuadrantes), las cuales son asignadas
y monitoreadas por una flota de vehículos, compuesta al menos por un automóvil y dos motocicletas.
La flota varía dependiendo del tamaño de área del cuadrante. El modelo también incluye la vigilancia
comunitaria [2], como solución a problemas de focalización de puntos criminales críticos [3].
Dentro del Modelo Nacional de Vigilancia por Cuadrantes (MNCV), los servicios de vigilancia
dependen del conocimiento de los patrulleros con respecto al espacio geográfico, temporal y demás
actividades que se desarrollan en el cuadrante asignando. Este conocimiento permite dar respuesta
inmediata y descentralizada. Bajo este enfoque, la labor de las patrullas en un cuadrante puede
resumirse en dos funciones principales: respuestas a los servicios de la Línea Única de Emergencias 1-
2-3 [3] y a la presencia policial en la calle para evitar delitos [4]; esta función define el alcance del
presente problema de estudio.
La pronta reacción y presencia policial en los sitios del incidente criminal, es uno de los factores que
mayor relevancia tiene en la función de vigilancia. Bajo este objetivo, y según [5], las patrullas realizan
recorridos alrededor de la zona asignada siguiendo una estrategia al azar o una estrategia focal. El
patrullaje al azar es de iniciativa del oficial de policía e incluye actividades de prevención y revisión
como: vigilancia del tráfico, visita a lugares comerciales, patrullaje de calles; esta estrategia permite
que la presencia criminal en la calle disminuya, pero no que baje la tasa de criminalidad en la misma.
Por esta razón las nuevas tendencias, como lo explica [6] son: volver los patrullajes focales, debido a
que la policia se distribuye en el espacio geografico realizando tareas concentradas, que contribuyen a
disminuir la tasa criminal. Con el paso de los años estas teorias han tomado importancia en la lucha
contra el crimen, pero aún se considera que la mayor parte del tiempo la policía realiza servicios de
vigilancia al azar en lugar de patrullajes focales. Una tercera opción busca reunir en un solo modelo de
análisis las estrategias de patrullaje basadas en el azar y las estrategias basadas en puntos focales, de
este punto surgen las siguientes preguntas sobre las cuales se basa el problema de análisis del presente
capitulo: ¿Cómo planear actividades de vigilancia al azar sobre puntos de incidencia criminal? ¿Cuál es
la ruta más corta entre puntos incidentes? ¿Cómo minimizar los costos de las patrullas?
La respuesta a estas tres preguntas debe ser un modelo que relacione las rutas de patrullaje como
resultado del análisis, su eficacia en relación con el cubrimiento del mayor número de puntos de
incidencia criminal y su eficiencia en términos de las distancias recorridas que están en relación directa
con los tiempos de recorrido y consumo de combustible. Un modelo de este tipo debe ser un modelo
integrador que facilite el análisis y relación de las diferentes variables y fuentes de información
asociadas a la seguridad de una ciudad.
Surge la necesidad entonces de utilizar sistemas informáticos inteligentes para captura,
almacenamiento, manipulación, análisis y visualización en mapas de toda la información
geográficamente referenciada de criminalidad. Observar tendencias espaciales y temporales que
permitan evaluar las labores policiacas; así mismo, sirvan para establecer estrategias que permitan
obtener una mayor efectividad en la reducción del crimen, a la vez que optimizan los recursos
humanos, técnicos, económicos, etc., [4]. En este contexto, los sistemas de información geográfica han
ganado mucho terreno constituyéndose como una herramienta robusta y de fácil implementación.

219
Bajo este marco, en las siguientes páginas se describe un modelo de análisis de rutas de patrullaje
policial para una de las regiones de mayor incidencia criminal de la ciudad de Medellín. El modelo está
basado en el sistema de información geográfica ArcGis e integra una estrategia de solución hibrida
basada en la construcción de rutas al azar y puntos focales.
La región de análisis es el sector de Belén (Comuna 16) de la ciudad de Medellín es elegido para
realizar el proceso de análisis de rutas de patrullaje policial. Este sector de la ciudad es una de las zonas
con mayor problemática de hurto simple y agravado, extorsión y microtráfico. En este territorio hay
alta densidad de población que pertenece a diferentes niveles socioeconómicos; se caracteriza por ser
una zona de industria y alta actividad comercial, que tiene gran influencia en la economía de la ciudad.
Actualmente los recorridos policiales son realizados a partir de la segmentación del sector en 15
cuadrantes, a los cuales se les ha asignado sus respectivas patrullas (Figura 1). El objetivo es entonces
encontrar las rutas de patrullaje policial que permitan optimizar los costos de recorrido a la vez que se
aumenta la frecuencia de vigilancia sobre los puntos de mayor incidencia delictiva. El proceso para
realizar este análisis se resume a continuación.

Figura 1. Región de análisis para el problema

2. Proceso de solución

El crimen no se distribuye homogéneamente ni al azar en tiempo y espacio, se ubica en ciertas áreas


y se ausenta en otras, en las comunidades siempre se buscan espacios seguros para vivir, de ahí parte
que el departamento de policía identifica las zonas de alta actividad criminal, observan y analizan
causas de esas concentraciones e implementan respuestas para la reducción del crimen. Aquí se puede
hablar del término hotspot o punto crítico como el área que tiene mayor número promedio de eventos
o áreas donde las personas tienen mayor probabilidad de riesgo de ser víctimas de los delincuentes.
Los hotspot pueden ser de tres tipos o concentraciones con respecto al tamaño [7]:
1. Punto: Fenómeno delictivo que se producen con menos cantidad promedio, donde se indican
incidentes puntuales.
2. Calle o Bloque: Los fenómenos delictivos que se producen en un nivel ligeramente superior, calle
o manzana completa.
3. Barrio o Polígono: Los fenómenos delictivos se producen en grandes áreas, como barrios, pero a
su vez no son muy precisos debido al tamaño.

220
La propuesta de análisis busca presentar una metodología para establecer rutas inteligentes de
vigilancia teniendo en cuenta los puntos críticos de criminalidad con apoyo de Ciencias
Computacionales, estadística y matemáticas para mejorar la reacción y oportunidad ante cualquier
evento criminal que pueda suceder en un espacio geográfico. En la Figura 2 se muestra un mapa que
describe los principales puntos donde se reportan actos delictivos en la región de estudio, y los cuales
fueron registrados a través de la aplicación móvil Seguridad en Línea cuyos reportes pueden ser
consultados en: www.seguridadenlinea.com. Esta aplicación fue desarrollada por la Empresa para la
Seguridad Urbana-E.S.U como estrategia para la lucha contra el crimen siguiendo el PISC en su
componente de Fortalecimiento y Acceso a la Justicia en la línea de acción acceso a justicia y
descentralización de la denuncia.

Figura 2. Mapa de Seguridad en Línea [8]

Para la modelación de rutas se requiere el uso de la teoría grafos que facilite el análisis de la red vial
de la ciudad, la cual puede ser representada con el uso de herramientas de información geográfica. Esta
combinación de técnicas y herramientas permitirá identificar rutas que sean eficientes tanto en tiempo
como distancia. Actualmente, la Policía Nacional realiza patrullajes al azar, que surgen por iniciativa
propia en el grupo de policías que se encuentra en un cuadrante o espacio geográfico y teniendo en
cuenta las actividades criminales y de convivencia ciudadana que se desarrollan en la zona. Esta forma
de operar puede llegar a ser subjetiva y poco eficiente y eficaz. En el proceso de solución que se explica
a continuación, se quiere contribuir a mejorar los recursos empleados por la policía para combatir el
crimen, derivando como punto indispensable volver el patrullaje focal, esto permite ubicar la presencia
policía en una área o zona donde realmente sea necesaria, conservado como referencia las zonas
hotspot, sin descuidar la presencia en el área total del cuadrante. La metodología diseñada a partir del
uso del sistema de información geográfica ArcGis, se desarrolla en las tres fases que se muestran en la
Figura 3.

Figura 3. Metodología de solución

221
2.1 Fase 1. Configuración de la Red Vial

Con ArcGIS Desktop y su extensión Network Analysis se crea una representación gráfica de la red
vial en el sistema de coordenadas WGS84, colocando nodos en cada una de las intersecciones de la vía.
Previamente se realizó la comprobación topológica, en la cual se hace una revisión en busca de
problemas o errores que contengan los nodos o segmentos para ser corregidos, por último, la
herramienta topología de ArcGIS divide los segmentos viales en porciones pequeñas, buscando una
mejor interacción de los vértices o nodos. La configuración de la malla vial es un paso importante en el
estudio, aquí se programa la conectividad de los vértices con los segmentos. En esta investigación no
se usó elevación o Eje Z para la red vial, la utilización de este campo nos permitirá en una investigación
posterior el análisis en tercera dimensión, trabajando con el ráster de modelo digital de terreno-DEM
de la ciudad. Una vez la malla vial está configurada con todas sus propiedades, se interrelacionan con
los datos registrados de los delitos (tipo, ubicación) para realizar el análisis de agrupación espacial o
Clúster.

2.2 Fase 2. Mapas Temáticos en relación con los hotspot

Se realiza el mapa temático que busca determinar los hotspot (Mapa de puntos hotspot), para luego
generar otro mapa temático de hotspot, pero en concentración de calles (Mapa de Calle Hotspot), el cual
va a interactuar con el algoritmo de entropía cruzada para determinar las rutas. A continuación, se
explica el proceso para generar estos dos mapas.
1. Mapa de puntos hotspot. Generar un mapa temático de puntos críticos o “Hotspot Analysis” sobre
los puntos incidente criminales provenientes de las denuncias de www.seguridadenlinea.com, los
pasos para generar el mapa son los siguientes:
▪ Se proyectan los puntos incidentes de 2014 de acuerdo con las coordenadas geográficas en
WGS84.
▪ Se utilizan las herramientas de unión espacial como son Integrate y Collect Events, estas sirven
para alinear las entidades que están a poca distancia y crear puntos con ubicación única. De
este paso se utiliza el ICOUNT.
▪ Se crea una copia de los Eventos.
▪ Se hace un análisis de los datos en relación con su distribución en el espacio con respecto a la
formación de Clusters y su probabilidad de pertenencia a dicho clúster. Para esto se utiliza la
herramienta Getis-Ord o “Hotspot Analysis” de acuerdo con la ecuación (1).
∑𝑛 ̅ 𝑛
𝑗=1 𝑤𝑖,𝑗 𝑥𝑗 −𝑋 ∑𝑗=1 𝑤𝑖,𝑗
𝐺𝐼∗ = (1)
𝑛 2 𝑛 2
√𝑛 ∑𝑗=1 𝑤𝑖,𝑗−(∑𝑗=1 𝑤𝑖,𝑗 )
𝑆
𝑛−1

Donde 𝑥𝑗 es un atributo de valor para la característica 𝑗 , 𝑤𝑖,𝑗 peso espacial entre las
características 𝑖 𝑦 𝑗, 𝑛 es total de las características. El 𝐺𝑖∗ es un marcador de porcentaje. La
estadística Getis Ord realiza para el conjunto da datos transformar los valores de la
distribución normal en valores de una distribución normal estándar con media 0 y desviación
estándar 1. El valor para G* indica dirección y grado en qué valor tiene relación con sus
vecinos determinando puntos altos (Caliente) y bajos (frio) en una agrupación de datos
indicando la distribución del crimen en un espacio geográfico.
▪ Para la visualización del mapa se utiliza la herramienta de análisis espacial densidad Kernel
[9] (cálculo de la densidad de las entidades en un vecindario).

222
2. Mapa de Calle Hotspot. Se traslada el análisis hecho con puntos a determinar los segmentos o
calles críticas de la red vial con el usó de la herramienta de análisis espacial Near [9] y Frequency,
buscando agrupar y calcular la frecuencia de los valores de cada evento dentro de los segmentos
de la red vial, adicionando un nuevo campo a la tabla de atributos llamado Puntos Z. Los valores
aquí generados se obtuvieron con la herramienta Hotspot Analysis, esta utiliza la distancia
inversa con los puntos más cercano para estimar las variables a una banda o valor umbral, para
poder hacer el análisis espacial, básicamente determinan los segmentos de la calle con mayor
probabilidad de delito a lo largo del tiempo [3] que indican dónde se agrupan y ubican los delitos
con los valores altos y bajos.
Para identificar patrones espaciales en los hotspot con dispersión estadísticamente significativa,
se hace una prueba de hipótesis donde la aleatoriedad absoluta es considerada la hipótesis nula,
El estadístico de prueba es el Getis-Ord del que se obtiene Gi* el cual es comparado junto con el
valor P (significancia de la prueba) para aceptar o rechazar la hipótesis nula [9].

2.3 Fase 3. Optimización y determinación de rutas

La mayoría de las rutas de vigilancia se generan por parte de los patrulleros de manera subjetiva y
a propia voluntad, lo que reduce el rendimiento de los servicios de vigilancia. Surge la necesidad
entonces de contar con rutas adecuadas que minimicen los tiempos y las distancias de recorridos, a la
vez que se mejora la presencia policial en los barrios y zonas de mayor incidencia criminal. Sin
embargo, el carácter combinatorio de este tipo de problemas que lo hace pertenecer a la categoría tipo
NP-hard y su condición estocástica, dificulta encontrar soluciones satisfactorias usando métodos de
optimización exactos o determinísticos.
Como estrategia de solución se opta por el método de entropía cruzada el cual incluye estrategias
de simulaciones de Montecarlo para el tratamiento de la incertidumbre. Con esta metodología, se mira
la red vial como un grafo que tiene una serie de segmentos que están conectados y que para poder
viajar de un lado al otro se necesita una probabilidad de transición, cuando hay la probabilidad es
desconocida el proceso de Markov ayuda al sistema a través de técnicas de ensayo y error a encontrar
solución en un ambiente dinámico desconocido [5]. A continuación, se explica este método.
1. Método de Entropía Cruzada (CE). Recientemente, el método de la CE se ha aplicado con éxito a
la estimación de las probabilidades bajas en eventos raros o rare-events en modelos dinámicos,
se descubrió como potente herramienta en resolución de problemas de optimización en
particular los modelos de colas. Aplica en el caso de investigación con los servicios de patrullaje
que son una demanda de la ciudadanía y los ciudadanos les toca esperar que los patrulleros
hagan presencia inmediata cuando han sido vulnerados por el crimen. El método se puede aplicar
fácilmente porque se busca la minimización de la varianza, generando procesos adaptivos
rápidos, terminado con probabilidad de 1 en un número finito de iteraciones. El algoritmo de CE
puede ser visto como un algoritmo de aprendizaje estocástico que implica dos fases iterativas
[10]: Generación de muestras aleatorias y actualización del mecanismo aleatorio de acuerdo con
los parámetros para producir una mejor muestra.

2. Aplicación CE en el sector de estudio. Para desarrollar la búsqueda de las rutas, primero se diseña
el algoritmo Entropía Cruzada siguiendo los siguientes pasos:
▪ Se generan N rutas aleatorias ponderadas, basando la selección en la probabilidad de
transición de cada calle.
▪ Seleccionar un porcentaje de rutas con el mayor valor pesos ponderados, según un límite de
valor mínimo requerido, definido por un promedio de pesos.

223
▪ Ordenar todas las rutas de acuerdo con sus pesos, de mayor a menor.
▪ Actualizar la probabilidad de transición y el peso de cada calle.
▪ Repetir desde paso 1, hasta obtener rutas con valores que alcanzan el máximo posible
(convergencia).

Para desarrollar el paso 1 es requerido un algoritmo que obtenga rutas aleatorias a partir del
grafo construido previamente, a partir de los datos suministrados desde ArcGIS. Además, esta
función debe considerar el número de calles mínimo para considerarlo una muestra importante,
y el número de calles máximo, para comparaciones relativamente cercanas en peso. Para
asegurar la aleatoriedad, las rutas deben generarse en vértices aleatorios. Otro dato importante
es que las calles no deben repetirse en una única ruta. Para cumplir con el segundo paso, es
requerido un algoritmo que ordene las rutas por peso. El tercer paso simplemente toma en
consideración el promedio de pesos en las rutas (hallado este valor por simulaciones previas)
para agrupar las rutas con un mayor valor al promedio. Para cumplir con el cuarto paso se
requiere de un algoritmo que permita ajustar la probabilidad de transición y el peso de aquellas
calles que forman parte de las rutas seleccionadas como las mejores. El quinto paso es ajustable
según las dimensiones del cálculo (Por ejemplo, el número de vértices y aristas). Así, para un
grafo de menor tamaño se requieren pocas iteraciones para lograr la convergencia, a diferencia
de toda la red vial de Medellín. En la Figura 4 se muestra el procedimiento correspondiente al
método Entropía Cruzada creado en Python.
Inicio (Entropía Cruzada)
Ingresa Grafo, Número de rutas, Número de vértices, máximo de iteraciones
Defino iteración Inicial
Mientras iteración Inicial sea menor que máximo de iteraciones haga
Para i menor a Número de rutas haga
Genere rutas aleatorias
Mientras “Numero de vértices de ruta” es menor al número de vértices hacer
Genere rutas aleatorias
Apila lista de rutas ponderadas
Termina mientras
Termina para
Ordena lista de rutas de mayor a menor
Selecciona rutas de acuerdo con probabilidad de transición
Si la selección de rutas es mayor a 0 haga
Actualizar probabilidad de transición
Imprime "Numero de aristas sin modificar probabilidad"
Termina si
Termina mientras
Retorna lista de rutas seleccionadas
Figura 4. Pseudocódigo de Entropía Cruzada

El algoritmo tiene la función de recibir como parámetros el grafo correspondiente al mapa en


estudio, el número de rutas que se desean como muestra aleatoria, el número de calles por ruta
y el número de iteraciones requeridas para lograr la convergencia. El objeto que retorna esta
función es el conjunto de las mejores rutas, después de haber logrado el ajuste de las
probabilidades de transición.
El lenguaje Python se usa para el desarrollo del algoritmo en ArcGIS a través de la librería Igraph
de Python. Uno de los métodos que incluye esta librería es randomRoute(), el cual tiene como fin
generar rutas en un espacio geográfico, debe haber un número de segmentos de calle máximo y
mínimo para que el script en Python pueda iterar, diseñar la rutas y se representan en el script

224
con NUM_EDGES y NUM_EDGES_MIN. Los pasos del procedimiento para generar rutas son los
siguientes:
1. Crear una ruta sin calles.
2. Seleccionar un vértice aleatoriamente y agregar como inicio de ruta
3. Buscar las aristas que concurren a dicho vértice, y obtener la probabilidad de transición y
el peso de cada arista.
4. Hallar una arista por selección aleatoria ponderada.
5. Hallar el otro vértice de la arista obtenida en el paso anterior.
6. Agregar la arista a la ruta.
7. Seleccionar al último vértice hallado como nuevo punto de inicio en la exploración.
8. Repetir desde paso 3 hasta que se halle el total de calles establecido como límite, o se
encuentre una calle ciega.

Otra función a revisar es la correspondiente a la actualización de las probabilidades de transición,


esta se da con updateTransP(), correspondientes a las aristas presentes en las mejores rutas
seleccionadas. La función recibe tres parámetros como argumentos: el grafo correspondiente a
la red, la lista de rutas seleccionadas como mejores, y la lista de todas las rutas generadas en un
ciclo. Así, para cada arista se determina el número de veces que aparece en las mejores rutas, y
el número de veces que aparece en todas las rutas generadas. Sea NRS_i el total de veces que la
arista E_i aparece en las rutas seleccionadas, y NRG_i el número de veces que E_i aparece en todas
las rutas. La probabilidad de transición para cada arista se actualiza mediante la ecuación (2).
𝑁𝑅𝑆_𝑖
𝑃𝑖 = 𝑁𝑅𝐺_𝑖 (2)

Además, el peso de cada arista se actualiza si aparece entre las mejores rutas. Este parámetro
permite definir la mejor arista que tiene mayor valor a la hora de ser seleccionada y generar una
ruta. Por ejemplo, para dos aristas que tengan una probabilidad de transición de 0.5 con pesos
diferentes, hay una mayor probabilidad de seleccionar aquel que tenga mayor peso. Una razón
más para considerar el peso es que puede haber aristas que nunca sean parte de una ruta
escogida entre las mejores, por lo que su probabilidad de transición nunca será modificada bajo
este enfoque. No obstante, su peso siempre será cero, a diferencia de aquellas que van
incrementando su valor por pertenecer a las mejores rutas.
La forma de actualizar el peso es un parámetro regulable, al igual que el número de aristas o el
número de iteraciones; en principio, depende del número de iteraciones y del tamaño del grafo.
Si el grafo es muy grande (Municipio de Medellín, por ejemplo), se requieren más iteraciones y
más rutas aleatorias para cubrir la mayor cantidad de vías posibles, por lo que el incremento del
peso por cada iteración debe ser más pequeño que el aplicado en mapas pequeños.
Finalmente, la función WeightedChoice(), la cual realiza permutaciones uniformes al azar del
único parámetro de entrada: en una lista de opciones, donde cada opción es una arista con su
respectiva probabilidad de transición y peso con la posibilidad de ser seleccionado. Para definir
el modo de seleccionar una arista, se crea una especie de función de distribución, en la que se
suman todas las contribuciones de una arista (peso y probabilidad) y se ubica el valor de la suma
acumulada como un límite. Se genera un valor aleatorio que varían desde cero hasta el total de
las contribuciones dadas por todas las aristas conectadas a un mismo vértice. Luego, según los
límites que definen cada arista en la función de distribución, se captura un índice que

225
corresponde al número de la arista. Un ejemplo explica mejor este proceso: Un vértice conecta 4
aristas, que poseen las siguientes características:
A1: P_1=0.3 y weight=0.4
A2: P_2=0.8 y weight=1.8
A1: P_3=0.7 y weight=0.8
A1: P_4=0.5 y weight=0

Al sumar las contribuciones de la primera arista, resulta un rango de distribución para la arista
1 que varía de 0 a 0.7. Luego, al sumar las contribuciones de la arista 2 resulta una variación de
2.6, pero vista desde la opción anterior significa que va desde 0.7 hasta (0.7+2.6) = 3.3. Con
respecto a la arista 3, variaría desde 3.3 a 4.8. Finalmente, para la arista 4, variaría desde 4.8 a
5.3. En la Figura 5 se observa un ejemplo de las diferencias en rangos.

Figura 5. Ejemplo Grafo Ponderado

3. Desarrollo del problema

A continuación, se presenta la aplicación de la metodología explicada, al sector de Belén (Comuna


16) de la ciudad de Medellín por ser una de las zonas con mayor problemática de hurto simple y
agravado, extorsión y microtráfico. En este territorio hay alta densidad de población que pertenece a
diferentes niveles socioeconómicos; se caracteriza por ser una zona de industria y alta actividad
comercial, que tiene gran influencia en la economía de la ciudad.

3.1 Fase 1 - Configuración de la malla vial (Network Dataset) y Comprobación Topológica

En la Figura 6 se describe la base de datos espacial con el network dataset y proceso de topología
realizado.

Figura 6. Fase 1 - Construcción de Network Dataset y Comprobación Topológica

226
3.2 Fase 2 - Mapa de Concentración Punto – Hotspot

En la Figura 7 se visualiza el mapa temático de puntos críticos, se observa un azul oscuro que
determina las zonas de mayor probabilidad de delitos (Zona Caliente) de acuerdo con la vecindad de la
agrupación de datos y un azul claro en donde la probabilidad es baja.

Figura 7. Puntos Críticos Comuna #16

Mapa de Concentración Calle o Bloque-Hotspot. En la Figura 8 se muestra el mapa temático de hotspot


en la red vial. Aquí se observa que después de haber realizado el Gi* o el análisis hotspot se puede ver
las calles que están en rojo son las que presentan mayor frecuencia de delitos, llegando a una menor
frecuencia que se muestran como color verde.

Figura 8. Calles Criticas Comuna #16

3.3 Fase 3. Optimización y Rutas determinadas por Entropía Cruzada

Los mapas de salida del algoritmo (Figuras 9 a 11) muestran las rutas obtenidas a través del
algoritmo de entropía en diferentes iteraciones, cada ruta se identifica de un color como forma
visualizar los trayectos para ser usadas en patrullajes teniendo en cuenta los puntos criminales.

227
Figura 9. Rutas Identificadas en 50 iteraciones

Figura 10. Rutas identificadas con 80 iteraciones

Figura 11. Rutas identificadas con 150 iteraciones

228
Figura 12. Rutas identificadas con 100 iteraciones

4. Análisis de resultados

La ejecución del script con el algoritmo de entropía cruzada realizo simulaciones para diseñar rutas
para los cuadrantes No. 1, 10, 11, 16, 20, 21, 24, 25, 26, 30, 32, 33,38, 41, 42, por tener la problemática
de tener zonas de alto nivel criminal (mayor concentración puntos calientes) en la comuna. A
continuación, en la Tabla 1 se muestra un resumen de las iteraciones realizadas (50, 80,100 y 150) por
medio de script y rutas que se seleccionaron permitiendo hallar la ruta óptima para esta simulación.
Tabla 1. Rutas Seleccionadas por Entropía Cruzada en toda la comuna16
Ruta # Rutas Creadas por CE Km GiZ- Score Tiempo Puntos Z Total Tiempo T Total
0 2,568 65,628 8
1 3,494 51,780 10
2 3,445 33,935 10
C7_50 3 3,711 29,750 11 241,858 64
4 2,733 21,414 8
5 2,626 16,760 8
6 2,807 22,591 8
0 2,819 70,398 8
1 2,399 49,564 7
2 3,877 52,818 12
C19_100 3 2,599 29,599 8 291,504 60
4 3,002 31,783 9
5 3,113 32,071 9
6 2,330 25,271 7
0 2,670 58,619 8
1 3,579 50,964 11
2 2,196 39,496 7
C17_80 3 3,067 23,484 9 255,475 61
4 2,629 35,609 8
5 3,872 23,268 12
6 2,272 24,035 7
0 2,306 54,176 7
1 3,755 44,746 11
2 3,549 50,537 11
C13_150 253,837 54
3 3,047 34,795 9
4 2,177 44,362 7
5 3,226 25,221 10

A partir del ejercicio planteado e identificando las rutas de acuerdo con las iteraciones, se pudo
establecer que las mejores rutas se obtienen al realizar más de 100 iteraciones, debido a que se obtuvo
rutas con los mejores pesos promedio ponderados de la simulación, el resultado en el Puntos Z total

229
fue 291,504 y obtuvo el segundo menor tiempo de 60 min a una velocidad de 20 km/hora, velocidad
permitida en zonas residencial.
Esta herramienta surge con la posibilidad de ayudar a la planificación y diseño de rutas de vigilancia
en determinado espacio geográfico (Tabla 2). Al establecer una programación semanal, como lo
muestran los resultados, se facilita un análisis delincuencial en tres frentes: táctico, estratégico y
administrativo; cada uno contribuye con las actividades de vigilancia, puesto que los tres frentes
dependen de la actividad delincuencial.
Tabla 2. Ejemplo de Programación Cuadrantes
Turno Personal Ruta Vigilancia L M Mi J V S D
3 Ruta 1-80 X X X X
Ruta 2-80 X X X
Ruta 3-80 X X X X
2 Ruta 1-100 X X X X X X X
Ruta18-100 X X X
4 Ruta 10-150 X X X
Ruta 12-150 X X X X

Las soluciones obtenidas pueden estar sujeta a cambios, actualizando los puntos críticos (hotspot)
o las zonas calientes de acuerdo con la nueva distribución del crimen en el espacio geográfico-temporal.
El algoritmo permite ajustes que generan nuevas rutas que permitan tener cobertura, frecuencia y
control del espacio geográfico para ayudar a bajar los índices criminales. Este efecto produce un mejor
índice de percepción seguridad ciudadana, manteniendo la premisa que los servicios de vigilancia son
preventivos, disuasivos y persuasivos contra el delito. Las rutas se aplicarían para cada cuadrante en
el que se tenga ruta seleccionada.

5. Conclusiones

El algoritmo de entropía cruzada que se planteó para este modelo permite obtener las secuencias
de nodos y segmentos como ruta hallada por el valor del peso ponderado por medio de probabilidades,
el producto de la iteración son rutas recomendables para cierto espacio geográfico. Este método es
correcto desde punto de vista de diseñar rutas en un espacio geográfico, dando solución a lo planteado
en el objetivo. Ideal para planificación de la flota de vehículos de un distrito, estación y CAI (Centro de
Atención Inmediata) de la Policía Nacional para ayudar en la reducción de las tasas de delito.

6. Retos

1. Realizar un análisis de rutas de patrullaje policial para una comuna diferente.


2. Construir una malla vial para toda la ciudad de Medellín y desarrollar la metodología propuesta
en el artículo.
3. Desarrollar este modelo en PostGIS y Postgres en la librería pgrouting para implantarlo en
webGIS, toda esta operación se podrá trabajar con software opensource o de código abierto

Referencias

[1] Dawei, W. ET AL. (2012). Understanding the spatial distribution of crime based on its related variables using
geosptatial discriminative patterns. Computers, Enviroment and urban Systems 39, PP. 93-106.

230
[2] Policia Nacional de Colombia (s.f.). Implementación de la Vigilancia Comunitaria en Colombia. Bogota,
Colombia.
[3] Policia Nacional de Colombia (2014). Modelo Nacional de Vigilancia Comunitaria por Cuadrantes. Bogota,
Colombia.
[4] Reis, D. et al. (2006). Towards Optimal Police Patrol Routes with Genetic Algorithms. En Mehrotra, S. et al
(Eds.), Intelligence and Security Informatics (pp. 481-495). New York: Springer.
[5] Li, L. et al. (2011). An approach to optimize police patrol activities based on the spatial pattern of crime
hotspots. In She, D. et al. (Eds.), Operations, Logistics, and Informatics (pp. 47-50). USA: Academic Press.
[6] Weisburd,, D., Bernasco, W. & Bruinsma, G. (2009). Putting crime in its place: Units of analysis in geographic
criminology. New York: Springer.
[7] Gonzales, A., Schofield, R. & Hart, S. (2005). Mapping Crime : Understanding Hot Spots. Washigton: National
Institute of Justice.
[8] Empresa para la Seguridad Urbana (2015). Seguridad en Linea. Online [Jun 2016].
[9] ESRI. (03 de 2015). Esri resource center. Online [Jun 2016].
[10] De Boer, P. et al. (2005). Tutorial Cross Entropy Method. Annals of Operation Research 134(1), pp. 19-67.

231
PARTE VI

DESPLIEGUE DE GEODATOS

Las ciencias no intentan explicar, apenas intentan interpretar, principalmente hacen modelos. Por
modelo se entiende un constructo matemático que, con la adición de ciertas interpretaciones verbales,
describe los fenómenos observados. La justificación de tal construcción matemática es única y se espera
que funcione con precisión, es decir, que describa con exactitud los fenómenos de un área
razonablemente amplia.
John von Neumann (1903–1956)

En esta parte se presenta, analiza y propone solución a problemas con diferentes niveles de
estructuración, asociados al proceso de comunicación de la información, mediante el cual los datos se
llevan a mapas, datos estadísticos y resúmenes técnicos para la toma de decisiones, que pueden
presentarse en formatos análogos o digitales (geoservicios en la web, visores de escritorio, entre otros).

232
CAPÍTULO 21

Problema 17. El mapa como herramienta de comunicación


Helena Pérez G.
Yuliana Castrillón M.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema:

Herramientas SIG aplicadas Información requerida


Despliegue de Datos (Layout) Cualquier información que se quiera mostrar en un mapa

233
1. Planteamiento del problema

Para realizar el trámite para la formalización de mineros tradicionales, se requiere cumplir con
ciertos requisitos, los cuales son descritos en el Decreto 0933 de 2013. El señor Jairo González, minero
tradicional, requiere presentar un plano donde especifique el área o polígono de interés que solicitará
en el proceso de formalización; este plano deberá cumplir como mínimo con los principios de diseño
cartográfico y las siguientes especificaciones:
1. Georreferenciación con Coordenadas planas de Gauss del área, Coordenadas Geográficas o
Magna Sirgas.
2. Referenciación geográfica de frentes de explotación o Boca Minas activas e inactivas en el área
de interés
3. Concordancia en escala gráfica, numérica y grilla o concordancia en escala numérica y grilla
4. El plano deber ser presentado a escala entre los rangos 1:5.000 a 1:10.000
5. El plano deberá tener orientación, para lo cual deberá indicarse el Norte geográfico
6. Datos básicos del solicitante, es decir: Nombres y apellidos, ubicación del área solicitada
(Departamento, municipio, y en lo posible corregimiento o vereda), mineral explotado y fecha de
elaboración del plano.
7. No debe presentar tachaduras ni enmendaduras

1.1 Principios de diseño cartográfico

Para Aileen Buckley [1] los cinco principios de diseño para la cartografía son legibilidad, contraste
visual, organización figura-fondo, organización jerárquica y equilibrio, que deben tenerse presentes a
la hora de crear mapas con el fin de transferir la información que se pretende al lector.
1. Contraste: Para elaborar el mapa se recomienda utilizar colores similares (Figura 1), que
permitan reconocer las características destacadas, sin tener saturación alta o baja, es decir, que
las tonalidades deben ser distinguibles.

Figura 1. Saturación alta, baja y tonalidades distinguibles

Tener en cuenta que algunas características se destacan más cuando es mayor el contraste entre
ellas (por lo general las características más oscuras o más claras), sin embargo, no se recomienda
el uso del color blanco y negro para contrastar, ya que se considera que no es la mejor
combinación de colores para el mapa.

2. Legibilidad: Este principio de diseño se refiere a la capacidad de ser visto y ser entendido,
especialmente cuando se está hablando de los símbolos y los textos mostrados en el mapa. Para

234
que un texto o un símbolo sea legible debe tener el tamaño adecuado; en el caso de los símbolos,
esto depende de si es un símbolo complejo o un símbolo geométrico, ya que los geométricos son
fáciles de visualizar en tamaños pequeños y los complejos requieren de más espacio para ser
entendidos. Cuando se emplean símbolos geométricos, el tamaño no se puede disminuir hasta el
punto de que no se distinga entre lo que representa el tamaño 1 y el tamaño 2 según lo que
describe la leyenda. Cuando se emplea texto en el mapa el tamaño no se puede disminuir al punto
de no ser legible a simple vista; una representación adecuada de este principio para los textos y
los símbolos se observa en la Figura 2.

Figura 2. Ejemplo de texto y símbolos no legibles y texto legibles

3. Organización figura-fondo: Se trata de resaltar el área de trabajo o el área en la que se quiere que
se fije el lector, con el fin de marcar diferencia entre la figura principal y el fondo “tierra”. Una
representación de este principio se puede ver en la Figura 3.

Figura 3. Figura-fondo recomendado

4. Organización jerárquica: Busca que se estratifique la información o los elementos que contiene
la página, de manera que el lector pueda centrarse en los que es más importante. Con la
estratificación visual se puede lograr que elementos como el mapa se vean más importantes que
otros, tales como el título y la leyenda. En un mapa temático las capas temáticas son más
importantes que las capas base que ofrecen contexto geográfico, por ejemplo, en un mapa
temático de Unidades Geomorfológicas las capas base (límites veredales, municipales o
departamentales) no se deben resaltar, para que la capa temática de Unidades Geomorfológicas

235
tenga mayor jerarquía visual. En un mapa general de referencia se debe usar diferentes tamaños
para el texto y diferentes tamaños y anchos de línea, que son algunas de las formas en las que
puede estratificar el mapa, tal como se observa en la Figura 4.

Figura 4. Organización jerárquica

5. Equilibrio: Este principio implica la organización armónica en la página del mapa y elementos
como el título, la leyenda, entre otros. La información dispuesta en el mapa debe tener un orden
para que el lector entienda la información a la hora de visualizarla, es decir que sus ojos deben ir
en la dirección correcta de acuerdo a como se dispuso la información en la página, un ejemplo de
ello es que el lector debe visualizar primero el título del mapa, segundo el mapa localizador,
tercero la escala, cuarto la leyenda y convenciones y, finalmente, información de quien elaboró,
sistema de coordenadas, logotipo y demás información general. La página no puede estar cargada
de elementos arriba o abajo, sino distribuidos armónicamente (Figura 5).

Figura 5. Distribución armónica de contenido

En el desarrollo del problema se debe elaborar el plano requerido por la autoridad minera como
requisito para que el Señor González se pueda formalizar como minero tradicional, cumpliendo con las
especificaciones y con los cinco principios de diseño cartográfico. Para el ejercicio se recomienda

236
estudiar detenidamente el Decreto 0933 de 2013 por el cual se dictan disposiciones en materia de
formalización minera tradicional y se modifican unas definiciones del glosario minero. Los datos
básicos del solicitante son:
Nombre: Jairo González
Cédula: 009 345 785 9
Ubicación del área solicitada: Vereda Versalles, Municipio de Guacharacas, Departamento de
Corrales.
Tipo de Proyecto: Extracción y aprovechamiento.
Mineral explotado: Oro.

2. Desarrollo del problema

2.1 Capas de información

Para elaborar el plano requerido se cuenta con las capas de información de la Figura 6.

Figura 6. Capas de información necesarias

2.2 Construcción del mapa

La página en la que se elabora el mapa se puede ubicar horizontal o verticalmente, pero en todo caso
deberá tener cuadros como en la Figura 7.

Figura 7. Ubicación y distribución de la hoja para el mapa

En ambos casos la línea exterior azul corresponde a la línea imaginaria que muestra el Layout de
Arc Gis, el espacio entre ella y el primer cuadro (borde rojo) debe ser entre 1,5 y 2 cm y entre los demás
recuadros de 0,5 cm. Para lograr las distancias requeridas se debe configurar previamente el tamaño y
orientación de la página en la opción File/ Page and Print Setup (Figura 8) y, posteriormente, usar la
regla para dibujar líneas imaginarias que le permitirán cumplir el requerimiento de espaciado (Figura
9). La línea roja de estas representaciones se dibuja en Arc Gis de color negro y con grosor 3 (Figura
10). En los cuadros vacíos de la Figura 10 se agregan los elementos básicos para mostrar cartografía:
Nombre del mapa (en el primer cuadro)
Norte, Grilla y Escala numérica y grafica (en el segundo cuadro)
Leyenda y Convenciones (en el tercer cuadro)
Mapa Contexto (en el cuarto cuadro)

237
Datos generales: dueño de los datos, sistema de coordenadas, fecha de elaboración y fuente
cartográfica, nombre de quien reviso y nombre u objeto del proyecto (proyecto para el que se
elaboró la información) y logos de quien elaboro. (en el quinto cuadro)

Figura 8. Tamaño y orientación de la página

Figura 9. Utilización de la regla de la herramienta

Figura 10. Bordes externos

Para cumplir con el requisito de la escala, la cual debe estar entre 1:5000 y 1:10000, se debe cargar
las capas necesarias para mostrar en el mapa y establecer la escala dentro de este rango, según se
requiera para visualizar la información. Una vez elegida la escala se debe fijar haciendo clic derecho
sobre Layers y, posteriormente, seleccionar Properties/ Data Frame/ Extent/ Fixed Scale/Aceptar
(Figura 11).

238
Figura 11. Elección de la escala

Luego de fijar la escala crea la Grilla haciendo clic derecho sobre Layers, seleccionar Properties/
Grids/ New Grid. Una vez abierta la ventana se selecciona la segunda opción de las tres que aparecen;
en la nueva ventana se selecciona la tercera opción “Grid and labels” y en el campo “Instervals” poner a
“X” y “Y” con las mismas distancias, es decir, seleccionar números enteros fáciles de sumar; por ejemplo,
cambiar 20000 a 30000 o viceversa (Figura 12).

Figura 12. Selección de la grilla

Se presiona clic en siguiente y no se modifica nada hasta que aparezca el campo aceptar, que da paso
en la pantalla principal al mapa con su respectiva Grilla, entonces hay que retirar los decimales de los
números en “X” y en “Y” presionando clic derecho sobre Layers/ Properties/ Grids/
Properties/Labels/Additional Properties/Number Format/ Number of Decimal Places, y dejar la
casilla númerica activa en Cero (0), (Figura 13). Posteriormente clic en aceptar hasta cerrar todas las
ventanas.

Figura 13. Formato de los números

239
El resultado final del mapa debe cumplir con los requerimientos del Decreto 0933 de 2013 y con los
cinco principios de diseño cartográfico, tal como se observa en la Figura 14.

Figura 14. Mapa con los requerimientos y principios

3. Retos

▪ ¿Cuántas hectáreas está solicitando el Señor Jairo González en el proceso de formalización


minería tradicional? ¿El área solicitada cumple con el área máxima susceptible a otorgar en un
proceso de formalización minera para personas naturales?
▪ ¿Cómo se podría estandarizar el cumplimiento de los principios como el equilibrio y la
organización jerárquica y además el cumplimiento de las especificaciones de la autoridad minera
para diferentes mineros en proceso de formalización que requieran la elaboración de este plano?

Referencias

[1] Buckley, A. (2012). Make maps people want to look at: Five primary design principles for cartography.
Online [may 2016].

240
CAPÍTULO 22

Problema 18. Uso de herramienta ESRI para la publicación y visualización de


información geográfica
Sergio A. Castrillón I.
Carlos A. Castro C.
Helena Pérez G.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Consulta de información en ArcMap, Publicación de datos Cualquier información que se quiera publicar como un servicio
geográficos, Alojamiento de información ArcGis for Server

241
1. Planteamiento del problema

Se cuenta con información vectorial de los espacios físicos en coordenadas proyectadas, Datum
Magna, origen Bogotá, del campus San Benito de la Universidad de San Buenaventura sede Medellín.
Se desea cargar y publicar dicha información en un servidor de Sistemas de Información Geográfica
(SIG), para ser consumida por un visor web desarrollado a medida para la consulta de dicha
información. Para el desarrollo del problema se deben considerar algunos aspectos básicos de los datos
a publicar, tales como topología, estandarización de datos e integridad referencial y, con el fin de que
la información se encuentre en óptimas condiciones para su carga en el servidor, hay que:
▪ Tener en cuenta la calidad de la información que se requiere subir, es decir, que las validaciones
topológicas y de atributos, sean correctamente ejecutadas sobre los datos.
▪ Es importante tener la última versión de los datos validada por el respectivo control de calidad,
ya que luego de tener los servicios publicados de tipo mapa, se dificultará el proceso de edición
de la información.
▪ Diligenciar completamente en la tabla de atributos, la información correspondiente a cada
registro, teniendo en cuenta que dicha información será desplegada en el visor.
▪ Haber configurado la conexión con el servidor SIG adquiriendo permisos de publicador.

Además, cabe resaltar que, para el desarrollo del problema y una fácil interpretación del lenguaje
usado, se deben contar con ciertos conocimientos y habilidades adquiridas, tales como:
▪ Manejo de software Esri ArcGis en plataformas ArcMap y ArcCatalog.
▪ Conocimiento de la plataforma Esri ArcGis for Server
▪ Consultas y manipulación de bases de datos espaciales.
▪ Fundamentos de programación, específicamente en el lenguaje JavaScript.

2. Desarrollo del problema

Si no cuenta con una configuración previa de conexión al servidor Arcserver y perfil publicador,
dirigirse a la siguiente dirección http://desktop.arcgis.com/es/arcmap/10.3/manage-data/using-
arccatalog/connecting-to-gis-servers.htm [1]. A continuación, se enunciarán las diferentes actividades
desde el punto de partida (capa de espacios físicos cargada en ArcMap), hasta el despliegue del
software desarrollado en un explorador de internet. Se llevará a cabo un paso a paso de la manipulación
de los datos y como estos toman diferentes aspectos de acuerdo con la plataforma.

2.1 Capas de información

El primer paso para publicar información en coordenadas vectoriales consiste en adicionar los datos
que se deseen cargar de forma remota al servidor Arc Gis for Server en la plataforma Arc Map, como se
muestra en la Figura 1, teniendo en cuenta que se deben tener las configuraciones previas de conexión
con el servidor Arc Gis for Server y perfiles de tipo “publisher o publicador” de contenidos en el servidor.

2.2 Publicación de servicio

Luego de tener los datos cargados en la ventana de visualización y en la tabla de contenidos de Arc
Map, se selecciona File / Share As / Service para ingresar a la publicación de los servicios hallados en el
servidor fuente [2] (Figura 2).

242
Figura 1. Datos del problema en Arc Map

Figura 2. Publicación de los servicios

Con la opción Service se despliega el dialogo a continuación, donde se selecciona Publish a Service.
Realmente los datos se publican como un servicio (en este caso, como un servicio de mapa) que
posteriormente se podrá consumir de forma remota en aplicaciones web, móviles o de escritorio. Se
continúa seleccionando la conexión existente al servidor ArcGis for Server (Figura 3) y,
posteriormente, se le asigna el nombre al servicio que se desea publicar en la caja de texto (Figura 4).

Figura 3. Conexión al servidor ArGis Figura 4. Asignación de nombre al servicio

Posteriormente se da nombre a la carpeta del servicio almacenado en el sistema de archivos del


servidor (se recomienda crear una carpeta aparte para realizar este ejercicio). De igual manera se
puede publicar el servicio en la carpeta root, sin embargo, no es recomendable hacerlo de esta manera
porque se pueden presentar confusiones al momento de obtener las direcciones de los servicios. En el
siguiente cuadro de diálogo se realiza la edición del servicio, donde se asignará al servicio geográfico
los respectivos permisos, modo de despliegue, descripción del contenido, parámetros de consulta o

243
edición, entre otros. Es importante verificar en la pestaña de datos generales la dirección de conexión
del servidor, el tipo de servicio y que, al comenzar el servicio, se encuentre activo.
A continuación, se analizan los datos del servicio a publicar, seleccionando el botón analizar. Este
análisis arrojará el estado del mapa que se encuentra en proceso y si hace falta algún componente
esencial que deba ser solucionado antes de su publicación (Figura 5).

Figura 5. Análisis de los datos del servicio

Luego de analizar la información se realiza las correcciones de las alertas obtenidas en el análisis.
Para el análisis de la información que se está cargando en el servidor se requiere visualizar la
información, las etiquetas, el resumen y los rangos de escala. Utilizando la opción Publish se ejecuta el
proceso de publicación de los datos geográficos en el servidor. En el cuadro de diálogo se especifica la
dirección donde se copiarán los datos geográficos en el servidor. Se espera a que se complete el proceso
de carga de datos hasta que se despliega el mensaje de que El servicio ha sido publicado
satisfactoriamente.

Figura 7. Publicación del servicio


2.3 Desarrollo de visor

Una vez se tengan los servicios publicados se comienza el desarrollo de un visor web sencillo, donde
se desplegarán los datos geográficos, y a realizar una consulta de los atributos del Layer. Para esto se
comienza una estructura básica en formato HTML5, donde se almacenarán los diferentes estilos que se
quieran usar y los Scripts para la ejecución de los procesos del visor, al que se asignó el nombre Espacios
Fisicos San Benito. En https://js.arcgis.com/3.17/esri/css/esri.css se encuentra una plantilla base de
estilos de Esri y en https://js.arcgis.com/3.17/init.js el recurso del Script de la API ArcGis para

244
JavaScript [3]. Por último, se declara un div en HTML y se le asigna el id map, que servirá para llevarle
todo lo que se incluya dentro de la variable map, cuando se instancie en el Script. Todo este proceso se
observa en el siguiente código.
<!DOCTYPE html>
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="viewport" content="initial-scale=1, maximum-scale=1,user-scalable=no"/>
<title>Espacios Fisicos San Benito</title>
<link rel="stylesheet" href="https://js.arcgis.com/3.17/esri/css/esri.css">
<style>
html, body, #map {
height: 100%;
margin: 0;
padding: 0;
}
</style>

<script src="https://js.arcgis.com/3.17/"></script>
<script>

</script>
</head>
<body>
<div id="map"></div>
</body>
</html>

Iniciando con la programación de la aplicación web se declara la variable map, que se mostrará en
el div denominado map que contendrá todos los atributos del mapa. Además de declarar la variable
map se identifica los módulos requeridos de la API, en este caso se utilizarán:
▪ Módulo map: Este módulo debe de llamarse en todas las aplicaciones que usen el API de Arc Gis
para JavaScript, debido a que es el que contiene la información total del mapa.
▪ Módulo InfoTemplate: Con este módulo, se definen las plantillas de la información a mostrar en
el mapa.
▪ Módulo FeatureLayer: Dicho módulo contiene los métodos necesarios para llamar el servicio
previamente publicado e incluirlo en la variable map.

Además de identificar los módulos a usar se deben llamar dentro de la función principal de la
aplicación, tal como se observa en las siguientes líneas de código.
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {

});
</script>

245
Luego de declarar la función principal se le asigna un objeto Map a la variable map y se le llevan los
parámetros Basemap, que es el que identifica el tipo de mapa de fondo que se utilizará (topográfico,
satélite, océanos, etc). Se define el parámetro de las coordenadas donde iniciará el visor y la escala:
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {
map = new Map("map", {
basemap: "satellite", //Seleccion de Mapa Base
center: [-75.573087, 6.254419], //Coordenadas donde inicia el visor
zoom: 18
});
});
</script>

Posteriormente, se define la plantilla de los campos que se van a consultar en la capa previamente
publicada, para este caso se crea un objeto llamado InfoEspFisicos de tipo InfoTemplate, que contendrá
el título de la plantilla de atributos y los atributos a mostrar:
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {
map = new Map("map", {
basemap: "satellite", //Seleccion de Mapa Base
center: [-75.573087, 6.254419], //Coordenadas donde inicia el visor
zoom: 18
});

//Deficinicon de plantilla para los campos a consultar


var InfoEspFisicos = new InfoTemplate();
InfoEspFisicos.setTitle("Atributos Espacios Fisicos");
InfoEspFisicos.setContent("<b>DESCRIPCION: </b>${DESCRIPCION}<br/>"+
"<b>NOMENCLATURA: </b>${Label}<br/>");
});
</script>

Se define un objeto de tipo FeatureLayer que llevará como atributos la dirección de publicación de
la capa y que, en este caso, son los espacios físicos de la Universidad de San Buenaventura sede San
Benito, el identificador de la capa, el tipo de carga de la capa, la plantilla para mostrar los atributos
(definida previamente como InfoEspFisicos) y, por último, los campos que se quieren traer en la
consulta de la información:

246
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {
map = new Map("map", {
basemap: "satellite", //Seleccion de Mapa Base
center: [-75.573087, 6.254419], //Coordenadas donde inicia el visor
zoom: 18
});
//Deficinicon de plantilla para los campos a consultar
var InfoEspFisicos = new InfoTemplate();
InfoEspFisicos.setTitle("Atributos Espacios Fisicos");
InfoEspFisicos.setContent("<b>DESCRIPCION: </b>${DESCRIPCION}<br/>"+
"<b>NOMENCLATURA: </b>${Label}<br/>");

//Servicio para llamar al layer que va a ser consumido

var EspFisicos = new FeatureLayer("http://192.168.1.50:6080/arcgis/rest/services/USB/Espacios_


Fisicos_San_Benito/MapServer/0",
{
id: 'Espacios Fisicos',
mode: FeatureLayer.MODE_ONDEMAND,
infoTemplate: InfoEspFisicos,
outFields: ["*"]
});
});
</script>

Para terminar, se carga dentro de la variable map el layer definido de los espacios físicos:
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {
map = new Map("map", {
basemap: "satellite", //Seleccion de Mapa Base
center: [-75.573087, 6.254419], //Coordenadas donde inicia el visor
zoom: 18
});
//Deficinicon de plantilla para los campos a consultar
var InfoEspFisicos = new InfoTemplate();
InfoEspFisicos.setTitle("Atributos Espacios Fisicos");
InfoEspFisicos.setContent("<b>DESCRIPCION: </b>${DESCRIPCION}<br/>"+
"<b>NOMENCLATURA: </b>${Label}<br/>");

247
//Servicio para llamar al layer que va a ser consumido

var EspFisicos = new


FeatureLayer("http://192.168.1.50:6080/arcgis/rest/services/USB/Espacios_Fisicos_San_Benito/MapS
erver/0",
{
id: 'Espacios Fisicos',
mode: FeatureLayer.MODE_ONDEMAND,
infoTemplate: InfoEspFisicos,
outFields: ["*"]
});
//Adicion del layer a la variable map general
map.addLayer(EspFisicos);
});
</script>

Con esta última instrucción se termina la programación del aplicativo web y el código final deberá
contener las siguientes líneas:
<!DOCTYPE html>
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="viewport" content="initial-scale=1, maximum-scale=1,user-scalable=no"/>
<title>Espacios Fisicos San Benito</title>
<link rel="stylesheet" href="https://js.arcgis.com/3.17/esri/css/esri.css">
<style>
html, body, #map {
height: 100%;
margin: 0;
padding: 0;
}
</style>
<script src="https://js.arcgis.com/3.17/"></script>
<script>
var map;
require([
"esri/map",
"esri/InfoTemplate",
"esri/layers/FeatureLayer",
"dojo/domReady!"
],
function(Map,InfoTemplate,FeatureLayer) {
map = new Map("map", {
basemap: "satellite", //Seleccion de Mapa Base
center: [-75.573087, 6.254419], //Coordenadas donde inicia el visor
zoom: 18
});
//Deficinicon de plantilla para los campos a consultar
var InfoEspFisicos = new InfoTemplate();
InfoEspFisicos.setTitle("Atributos Espacios Fisicos");
InfoEspFisicos.setContent("<b>DESCRIPCION: </b>${DESCRIPCION}<br/>"+
"<b>NOMENCLATURA: </b>${Label}<br/>");
//Servicio para llamar al layer que va a ser consumido

248
var EspFisicos = new
FeatureLayer("http://192.168.1.50:6080/arcgis/rest/services/USB/Espacios_Fisicos_San_Benito/MapS
erver/0",
{
id: 'Espacios Fisicos',
mode: FeatureLayer.MODE_ONDEMAND,
infoTemplate: InfoEspFisicos,
outFields: ["*"]
});
//Adicion del layer a la variable map general
map.addLayer(EspFisicos);
});
</script>
</head>
<body>
<div id="map"></div>
</body>
</html>

Para concluir, se guarda el archivo HTML en la ubicación de preferencia y se ejecuta usando un


explorador internet. El resultado se muestra en la Figura 8.

Figura 8. Espacios físicos de la Universidad de San Buenaventura, Sede San Benito

3. Reto

▪ Solucionar este mismo problema empleando herramientas FOSS (Free open source software).

Referencias

[1] ESRI (2016). Conectar a servidores SIG. Online [May 2016].


[2] ESRI (2016). Publicar un servicio de mapas desde ArcGIS for Desktop. Online [May 2016].
[3] ESRI (2016). ArcGIS API for JavaScript. Online [May 2016].

249
CAPÍTULO 23

Problema 19. Despliegue de información en un servidor geográfico


Julio C. Arias B.
Claudia E. Durango V.

Taxonomía Objetivos de aprendizaje


Grado de estructuración Grado de intervención del profesor

Análisis del problema

Herramientas SIG aplicadas Información requerida


Despliegue de información en un servidor geográfico (geo-web Cualquier información que se quiera publicar en un servicio
service) geográfico

250
1. Planteamiento del problema

En este capítulo se ilustrarán, mediante casos prácticos, las necesidades y consideraciones que se
deben tener en cuenta al momento de realiza la publicación de información geográfica, revisando
parámetros de configuración como:
▪ La arquitectura que comprende la publicación de servicios geográficos
▪ Los parámetros de configuración de un servidor geográfico
▪ Los tipos de fuentes de datos y sus parámetros de configuración
▪ Los elementos que hacen parte de un servicio geográfico y que se deben tener en cuenta al
momento ser utilizado desde una interfaz web o desde un software de cliente de escritorio
En este caso, el problema se ubica en el Ministerio de transporte de Colombia, donde se genera alto
volumen de información geográfica que implica la delegación de responsabilidades legales a nivel
departamental y municipal. Por tal motivo se requiere la centralización de la información geográfica
asociada a la división administrativa con el fin de no redundar información y mantener esta
actualizada. Para tal fin se requiere la publicación de un servicio web geográfico basado en los
estándares ogc de tipo wms y wfs, con el fin de facilitar el acceso a esta información desde diferentes
herramientas geográficas. Las especificaciones del problema son:
1. Equipo que cumplirá el rol de servidor de aplicaciones debe tener mínimamente la siguiente
configuración:
▪ Procesador de 2GHz
▪ 1Gb Memoria RAM
▪ 10GB Memoria ROM
▪ Conexión de red
2. Sistema operativo MS Windows.
3. Instalador del servidor geográfico geoserver 2.9.1.
4. Información geográfica que se desea publicar. Shape files de la división administrativa de la
república de Colombia:
▪ Departamentos
▪ Municipios
5. Navegador web con soporte del estándar HTML5.
6. Cuenta de administrador del equipo que cumplirá el rol de servidor de aplicaciones.

1.1 Contexto

Los sistemas de información geográficos tienen como una de sus áreas de acción el procesamiento
y generación de información mediante el uso de estaciones de trabajo o equipos de alto desempeño,
que permiten el análisis de grandes volúmenes de información. Actualmente, uno de los fenómenos
que se presentan con respecto a la información es la masificación y la alta difusión mediante servicios
geográficos, utilizando aplicaciones web, redes sociales y herramientas de mensajería instantánea, que
cada vez exigen nuevos tipos de servicios e información geográfica para complementar y/o
contextualizar sus contenidos.
Mediante el uso de herramientas de publicación de información geográfica se logra el objetivo de
abstraer y procesar una parte de la que se encuentra confinada a herramientas de análisis o bodegas
de datos, con el fin de masificarla a través de servicios geográficos que enriquecen el contenido que se

251
difunde a través de las aplicaciones web y las redes sociales. Para lograr una ágil difusión de la
información geográfica a través de la publicación de servicios web de tipo geográfico, se deben tener
en cuenta las variables que afectan el transporte y procesamiento de la información geográfica desde
su origen (fuente de almacenamiento) hasta su consumo por parte de una aplicación alojada en la web
o una red social. Debido a que los tiempos de respuesta solicitados por los usuarios de este tipo de
entornos son muy reducidos, se debe garantizar un despliegue de información fluido, de lo contrario
se perderá la atención del usuario final en la información geográfica publicada o en la aplicación
contenedora.
▪ Servicios web geográficos. Estos servicios son mecanismos de intercambio de información entre
dos o más elementos de un macro sistema. Este intercambio de información se puede dar de
sistema a sistema o de sistema a usuario final. A la fuente u origen de información se denominará
como proveedor de servicios y al elemento encargado de consultar esta información se le
denominará cliente (Figura 1).

Figura 1. Esquema de intercambio de información

La comunicación entre el proveedor de servicios y el cliente se realiza mediante un protocolo de


comunicación y el contenido o información que se intercambia. La información que se
intercambia se debe enmarcar en un formato común a los elementos que intervienen en el
intercambio de información (Figura 2).

Figura 2. Esquema de comunicación

Los servicios web que se abordarán en este capítulo cuentan con las siguientes características:
▪ El protocolo de comunicación entre el proveedor de servicios y el cliente que hace uso de
éstos es el protocolo http de transferencia de hipertexto que, comúnmente, lo utilizan sitios
web para la transferencia de contenidos. Estos servicios están disponibles a través de
internet o intranet, según se definan los parámetros software y hardware al publicar.
▪ Los formatos que se emplean para el intercambio de información a través de servicios web
son Extesible Markup Language (XML) y JavaScript Object Notation (JSON); este último se
popularizó en la década del 2000, cuando se implementó con la técnica de intercambio de
información para sitios web Asynchronous JavaScript and Xml (AJAX).
▪ Al denominar un servicio web como geográfico se hace referencia a que una de las
dimensiones que componen la información, que se intercambia a través de él, se refiere a
una dimensión espacial y hace parte activa y obligatoria dentro del protocolo de
comunicación. Los formatos de intercambio tienen definiciones específicas, como XML que
con GML [1] y JSON con GEOJSON [2].
▪ Arquitectura básica de un servicio geográfico. La publicación de un servicio geográfico se basa en
un conjunto de elementos hardware, software y especificaciones software, que permiten

252
publicar y consumir información de este tipo. En la Figura 3 se presenta un esquema básico de
publicación de información geográfico.

Figura 3. Arquitectura de un servicio geográfico

▪ Internet: se refiere a la red internacional que conecta equipos y redes a través del mundo,
de forma abierta y compartiendo información y servicios de información.
▪ Intranet: este elemento hace referencia a la red local en la cual se encuentran alojados los
servicios geográficos y de cómputo, a través de los cuales e publica la información
geográfica.
▪ Servidor de aplicaciones: este componente de software se encarga de alojar las aplicaciones
que hacen uso de los servicios geográficos y principalmente a la aplicación encargada de
publicar los servicios geográficos.
▪ Servidor geográfico: este componente de software es el encargado de procesar la
información geográfica proveniente desde múltiples fuentes de datos y compartirla hacia
los clientes en forma de servicios web geográficos.
▪ Motor de base de datos: este componente de software hace referencia al SGDB (Sistemas de
Gestión de Base de Datos) en el cual se almacena la información geográfica de forma
estructurada.
▪ Sistema de archivos: este elemento hace referencia al servidor de almacenamiento que
proporciona los recursos utilizados por el servidor de base de datos y de aplicaciones, para
almacenar información alfanumérica y geográfica.
▪ Clientes internos: este ítem comprende los clientes que se interactúa con el servidor de
información geográfica, que como particularidad no requiere acceso a internet, debido a
que se encuentra en la misma red.
▪ Clientes externos: este ítem comprende los clientes que interactúa con el servidor de
información geográfica, a diferencia de los clientes internos, estos requieren de una
conexión a internet por parte de los clientes como por parte del servidor geográfico.

2. Desarrollo del problema

2.1 Instalación de un servidor geográfico

GeoServer es un software que se ejecuta del lado del servidor, basado en tecnología Java, y les
permite a los usuarios finales la visualización y edición de información geográfica mediante estándares
definidos por el Open Geospatial Consortium (OGC). Además, brinda amplia flexibilidad en la creación

253
de mapas y la distribución de información geográfica. A continuación, se describen los aspectos
técnicos que se debe tener en cuenta al instalar y configurar un servidor geográfico para un entorno
estándar. El servidor para este caso es GeoServer 2.9.1 [3] y el sistema es Microsoft Windows 10.
1. Obtener el software. GeoServer es un software de con licencia OpenSource y su distribución y
utilización es gratuita. Se decarga desde la página de Geoserver y se selecciona una de las
opciones de instalación: para sistema operativo o aplicación web.
▪ Windows installer. Este esquema de instalación se basa en la ejecución de un archivo exe
encargado de instalar a nivel de sistema operativo los siguientes componentes:
▪ Servidor de aplicaciones basado en java
▪ Aplicación web GeoServer mediante un archivo .war
▪ Servicio de sistema operativo para controlar el inicio y detención del servidor de
aplicaciones

▪ Web archive. Este esquema de instalación parte de la premisa de que ya se encuentra instalado
un servidor de aplicaciones tipo java, como Apache Tomcat, Apache Geronimo o RedHat JBoss,
entre otros. La instalación del servidor geográfico GeoServer se realiza como una aplicación
más en el servidor de aplicaciones utilizando un archivo war y simplificando sus componentes
a la gestión de una aplicación web.

2. Instalación. Para el proceso de instalación se utiliza Windows installer y se atiende el paso a paso
para los elementos que se deben tener en cuenta al momento de realizar la instalación y
configuración de este tipo software de servidor.
▪ Paso 1: Debido a que se realizarán cambios en el inicio y ejecución de servicios del sistema
operativo, el proceso se debe realizar con permisos de administrador del sistema operativo.
▪ Paso 2: Se debe tener en cuenta la ubicación de los archivos binarios que permitirán la
ejecución del servidor de aplicaciones y del servidor geográfico, estos archivos se diferencian
de las fuentes de datos porque se pueden restaurar nuevamente en cualquier momento con
una nueva instalación, mientras que las fuentes de datos no.
▪ Paso 3: Otro elemento importante en este proceso es la ubicación y selección de la máquina
virtual de java (JVM), que permite la ejecución del servidor de aplicaciones y el servidor
geográfico.
▪ Paso 4: Se debe tener en cuenta la ubicación de los datos, es decir, una carpeta local o remota
en la que se almacenarán archivos geográficos tales como Shape files, JPG, TIF. Una vez
instalado el servidor geográfico se definen más directorios e inclusive unidades de
almacenamiento en de red.
▪ Paso 5: GeoServer cuenta con un esquema de seguridad basado en usuarios y grupos, que
permite segmentar y limitar el acceso a los servicios geográficos contenidos en él. Para tal fin
es obligatorio definir un usuario administrador, que realizará la configuración y gestión del
servidor geográfico. GeoServer cuenta con usuario (admin) y clave (geoserver) por defecto.
▪ Paso 6: La publicación de servicios web consiste en intercambiar información con base en el
protocolo http y, por lo tanto, hay que definir un puerto para realizarlo. El puerto por defecto
es el 8080.
▪ Paso 7: Para finalizar el proceso de instalación se selecciona el método de ejecución con el que
se configurará el servidor geográfico y las aplicaciones:

254
▪ Run manually: este modo de instalación indica que para la ejecución del servidor de
aplicaciones y el geográfico se requiere una acción explicita del usuario administrador
para iniciar la prestación del servicio.
▪ Install as a service: este modo de instalación indica que la ejecución del servidor de
aplicaciones y el geográfico se realiza de forma automática una vez se inicie el sistema
operativo del equipo. Este método no requiere intervención por parte de un usuario
administrador.
Nota: Hay que tener claro el nombre de usuario y la contraseña asignados al administrador
del servidor de aplicaciones y geográfico, debido a que sin ellos no es posible configurar
ningún parámetro adicional y se requeriría un proceso adicional para cambiar la reinstalación
del servidor de aplicaciones y geográfico.

3. Verificación de instalación. Una vez finalizado el proceso de instalación se inicia el servidor de


aplicaciones y geográfico, según el método de ejecución seleccionado en el “Paso 7”, entonces hay
que verificar el estado en el cual se encuentra el servicio. La administración de GeoServer se
realiza desde una interfaz web donde se puede modificar la mayoría de los parámetros que
intervienen en el proceso de transformar información geográfica en servicios web geográficos.
Para verificar el estado se utiliza http://localhost:8080/geoserver.
La interfaz gráfica inicial que presenta GeoServer hace referencia a las capacidades de servicio
(Capabilities), que son los formatos y tipos de servicios con los que la aplicación intercambia
información. En este punto de acceso no se requiere usar ningún tipo de autenticación. Una vez
en la interfaz de administración del servidor geográfico GeoServer se accede a la consola de
administración con las credenciales de administrador, con el objetivo de tener acceso a los
parámetros de configuración y de publicación de servicios geográficos.

4. Consulta básica de servicios. Una vez verificada la instalación el siguiente paso es consultar la
información geográfica que se encuentra publicada en él. Para ello GeoServer, al igual que la
mayoría de los servidores geográficos, cuenta con un conjunto de servicios de prueba que
permiten acceder y verificar su funcionamiento.
▪ Visualización web: La primera verificación es desde la interfaz web de administración, a la que
se accede desde la página inicial de la interfaz de administración y se selecciona la opción
Previsualización de capas, luego se despliega una lista con las capas que se encuentran
disponibles para visualizar en el servidor geográfico (Figura 4).

Figura 4. Consulta web de capas

Para visualizar la información que contiene una capa se selecciona la opción OpenLayers y se
despliega una nueva ventana con un visor geográfico genérico (OpenLayers), en el que se

255
observa una previsualización de la información publicada en el servicio y las opciones básicas
de navegación.
Otro mecanismo para utilizar los servicios geográficos es vincular el servidor geográfico a una
herramienta GIS desktop. En este caso se trabaja con la herramienta QGIS 2.14.5. El primer
paso es obtener la especificación de las capacidades de servicio (Capabilities). Para lograralo
se abre la página de la interfaz de administración y se selecciona la opción WMS 1.3.0. A
continuación, se abre una ventana con la especificación XML de las Capacidades con las que
cuenta el servidor para el estándar WMS (Figura 5).

Figura 5. Especificación de capacidades de servicio

Luego se adiciona la url que especifica las capabilities del servidor a fuentes de datos de la
aplicación de escritorio QGIS 2.14.5 (Figura 6).

Figura 6. Consulta servicios aplicación Desktop

2.2 Configuración de un servidor geográfico

El proceso de visualización de la información geográfica a través de un navegador o un cliente de


escritorio requiere procesamiento de datos binarios y alfanuméricos, a partir de los que se genera
imágenes. Este proceso se denomina renderización e implica el uso de una serie de recursos a nivel de
hardware que definen la velocidad de respuesta y la cantidad de usuarios soportados por el servidor.

256
Los principales componentes utilizados en el proceso de renderización son el microprocesador
(CPU) y la unidad de procesamiento gráfico (GPU), que se dedica exclusivamente a la realización de
cálculos y procesos de generación y manipulación de imágenes. Además, también se requiere la
memoria RAM, que complementa los procesos ejecutados por CPU y GPU, debido a que se encarga de
gestionar la información procesada por las unidades de proceso y evitar cuellos de botella (Figura 7).

Figura 7. Esquema de procesamiento de información

En la administración y configuración de estos recursos reside la eficiencia de un servidor de


información geográfica, ya que el proceso de generación de imágenes o renderización se puede mejorar
con el manejo de caché y regeneración. Sin embargo, hay que destacar que estos procesos implican la
utilización de recursos adicionales, tales como el incremento de memoria RAM y de almacenamiento
en disco. Para modificar la cantidad de RAM asignada para la ejecución del servidor geográfico se debe
tener en cuenta que está dada por los parámetros que rigen la ejecución de la máquina virtual java.
Para la asignación memoria a la JVM se recomienda utilizar un cuarto del total de RAM de equipo. Para
ajustar la memoria RAM asignada a GeoServer se modifica el archivo de inicio del proceso del servidor
de aplicaciones:
1. Ubicar la carpeta de instalación de GeoServer (C:\Program Files\GeoServer 2.9.1\ para el caso
de la instalación por defecto en sistemas operativos Microsoft Windows) y en ella la carpeta
donde se encuentran los archivos binarios (bin) con los que se inicia el servidor.
2. Se edita el archivo startup.bat y se ubica la propiedad -Xmx, luego se reemplaza el valor máximo
de memoria RAM (heap) asignado al servidor geográfico, por el valor nuevo (recordar que se
debe utilizar valores mútiplos de 1024).
3. Para verificar el cambio hay que reiniciar el servidor geográfico, para que los parámetros
asignados a la máquina virtual Java se hagan efectivos. Desde la consola de administración del
servidor geográfico se puede evidenciar el cambio en la capacidad de memoria RAM que debe
estar disponible (Figura 8).

Figura 8. Verificación de cambios en la RAM

Uno de los principales elementos que se pueden gestionar a través de la interfaz de


administración de GeoServer es el uso de RAM, que se basa en la utilización de las librerías JAI

257
(Java Advanced Imaging API) especializadas en el procesamiento y la gestión de imágenes. Su
desempeño impacta directamente el proceso de renderización de imágenes para los servicios
WMS, WCS y operaciones que impliquen información de tipo ráster. Adicionalmente, la memoria
RAM es el recurso con mayor impacto de uso durante el proceso de generación de imágenes en
formatos PNG/GIF/JPEG.
▪ Capacidad de memoria: este parámetro indica el porcentaje de memoria que se utilizará para
la generación de teselas, sobre la cantidad total de memoria heap que se tiene asignada al
servidor geográfico. Se debe tener cuidado con este parámetro, porque un valor muy bajo hace
que el servidor geográfico requiera mayor utilización recursos como CPU y GPU.
▪ Umbral de memoria: este parámetro indica el porcentaje de memoria caché manejado por las
librerías JAI cuando se ejecuta procesos de eliminación, reciclado de teselas o limpieza de
memoria.
▪ Hilos de ejecución de teselas: las librerías JAI implementan hilos de ejecución para la
generación de teselas y así mejoran el desempeño al ejecutar las tareas. En este parámetro se
especifican cuántos hilos adicionales de procesamiento (subprocesos) se ejecutarán para
culminar las tareas.
▪ Prioridad de hilos de ejecución para teselas: define la prioridad de ejecución de los hilos de
frente a los procesos adicionales que corre el servidor geográfico. Este valor se encuentra en
el rango de 1 (Min) a 10 (Max), con un valor de prioridad por defecto de 5 (Normal).
▪ Aceleración JPEG nativa: esta opción activa/desactiva la característica JAI JPEG Native
Acceleration, que aumenta el desempeño del servidor geográfico al generar imágenes, pero
que puede comprometer otras características como el manejo de errores en la generación de
las mismas.

2.3 Fuentes de datos

Una de las principales características del servidor geográfico GeoServer es que interactúa con
múltiples fuentes de datos, lo que le brinda la habilidad de publicar una gran variedad de servicios de
información geográfica. Las fuentes de datos se deben registrar según sus características en el servidor.
Las fuentes soportadas son:
1. Bases de datos. GeoServer puede establecer comunicación directa con diferentes Sistemas de
gestión de bases de datos (SGDB), entre los que se encuentra: PosgreSQL, MySQL y Oracle. Este
proceso se realiza utilizando conexiones tipo Java Database Connectivity API (JDBC),
especificando una serie de parámetros estándar que establecen la conexión (Figura 9).

Figura 9. Parámetros de conexión a base de datos

La publicación de información geográfica bajo la conexión a bases de datos permite la


divulgación de la información desde el origen, reflejando cualquier cambio sobre la información

258
en el instante que se realiza. Este tipo de conexión permite realizar, directamente, la publicación
de una o de múltiples capas de información geográfica. La conexión a la base de datos se da por
los siguientes parámetros (pueden variar según el motor de base de datos):
▪ Dbtype: este parámetro define el tipo de base de datos al cual se realizará la conexión,
para el caso de PostgreSQL – postgis, ORACLE, MySQL.
▪ Host: nombre de red o dirección IP en donde se encuentra instalado el motor de base de
datos.
▪ Port: puerto de conexión al motor de base de datos.
▪ Database: base de datos a la que se desea conectar.
▪ Schema: esquema en el que se almacena la información geográfica a consultar.
▪ User: usuario con el cual se autentica al conectar a la base de datos.
▪ Password: contraseña utilizada para la realizar la autenticación a la base de datos.

2. Shape files. GeoServer publica cada capa de forma individual bajo el formato shapefile. Las
condiciones que se deben tener en cuenta al realizar la publicación de este tipo de datos son las
siguientes:
▪ Ubicación de archivo shape: ubicación física en el sistema de archivos del servidor
geográfico donde se almacena el archivo shapefile. Se puede encontrar en cualquier unidad
registrada en el sistema operativo.
▪ Conjunto de caracteres utilizado en el archivo DBF: este parámetro especifica el conjunto de
caracteres con los que se representará la información contenida en el archivo DBF del
shapefile. Se debe tener en cuenta este parámetro ya que, si se utiliza un conjunto estándar
como UTF8, se dejará por fuera caracteres especiales como acentos y ñ para el español.
Además, bajo esta modalidad de publicación se establece una restricción de exclusividad
de lectura y escritura sobre los archivos que componen el shapefile.
3. File system. La utilización de este tipo de fuente de datos permite el registro de una ruta física de
almacenamiento en el sistema operativo del equipo. Una vez registrada esta ruta en el servidor
geográfico, cada shapefiles contenido en ella podrá ser publicados como una capa de individual.

4. Archivos ráster. Una de las fuentes de datos más representativas del servidor geográfico
GeoServer es su capacidad de publicar información de tipo ráster, utilizando formatos como
ArcGrid, GeoTIFF, Gtopo30 e ImageMosaic. Para este tipo de información cada fuente de datos
representa una imagen a publicar. El parámetro que se debe configurar es la ruta donde se
encuentra el archivo ráster a publicar, que puede ubicarse en cualquier unidad del sistema de
archivos del servidor geográfico.

5. Proxy services. No es necesario que todas las fuentes de datos se encuentren localmente en el
servidor geográfico o en el sistema de archivos de la organización. Este procedimiento se
denomina proxy y consiste en enmascarar el origen de la fuente de información y la decisión se
puede tomar por dos razones:
▪ Ocultar el origen de los datos: en algunos casos por motivo de seguridad no se debe revelar el
origen de los servicios geográficos que se distribuyen.
▪ Extender servicios a otra área de red: en ocasiones, desde los clientes finales de los servicios
geográficos no se puede acceder a un determinado servidor geográfico por restricciones de
red. En este punto es donde se implementa este tipo de servidor proxy. Bajo este esquema se
pueden configurar servicios WMS o WFS. Los parámetros que se deben tener en cuenta son:

259
▪ URL de documento Capabilities: en la que se especifica los servicios disponibles en el
servidor.
▪ Usuario y Contraseña: se refiere a las credenciales requeridas para acceder a los
servicios que se comparten entre servidores de información geográfica. Este
parámetro es opcional y en caso de no ser necesario se deja en blanco.

2.4 Publicación de información geográfica

Una vez instalado y configurado el geoserver, se procede a la publicación de información (shape


files) que, para el caso de estudio se refiere a las capas asociadas a la división administrativa de
Colombia: departamentos y municipio, que se podrán consultar posteriormente mediante servicios
OGC de tipo WMS y WFS. Para la publicación de un nuevo servicio geográfico de tipo OGC, utilizando
geoserver como servidor geográfico, se deben seguir los siguientes pasos:
1. Creación de un workspace. Es un prefijo que denota un conjunto con el fin de facilitar su
identificación y clasificación. Esta opción se encuentra en la parte izquierda de la consola
principal del servidor de información geográfica geosever. Para crear un nuevo espacio de
trabajo se selecciona la opción agregar un nuevo espacio de trabajo y se especifica:
▪ Nombre: indica el nombre del espacio de trabajo para su gestión en la interfaz de
administración del servidor de información geográfica.
▪ URI: es el identificador único en el servidor que agrupará el conjunto de capas que se
publica, permitiendo su clasificación de una forma ágil y temática.

2. Almacenes de datos. Una vez definido el workspace o, el siguiente paso es definir el tipo y
parámetros del repositorio donde se encuentra la información geográfica que se desea publicar.
Esta opción se encuentra en la parte izquierda de la consola principal del servidor de información
geográfica geosever. Se selecciona la opción Agregar un nuevo almacén con el fin de ubicar una
carpeta en la estructura de almacenamiento del servidor donde se encuentran los archivos shape
files que se desean publicar a través de los servicios geográficos. Los parámetros que se deben
tener en cuenta para la publicación de este tipo de almacén son:
▪ Workspace: se debe seleccionar el workspace creado en el paso anterior.
▪ Nombre del origen de datos: con el que se gestionará el origen de datos en la interfaz de
administración del servidor geográfico.
▪ Directorio de shape files: donde se encuentran los archivos shape files que se desean
publicar. En este caso se hace referencia al directorio en que se encuentran los archivos
shape de departamento y municipio.
▪ Conjunto de caracteres del DBF: se selecciona el juego de caracteres con el que se interpreta
los archivos DBFs que hacen parte de los shape files, permitiendo la una correcta
visualización de caracteres especiales como tildes y acentos.

3. Selección de capa. Una vez creado el nuevo almacén de datos, el servidor lista los archivos de tipo
shape que se encuentran disponibles para publicar como servicio geográfico. En este caso se
selecciona la opción Publicación, ubicada en frente de la capa (shape file).

4. Parámetros de capa. Una vez seleccionada la capa se especifican los parámetros necesarios para
garantizar su correcto despliegue en los visores geográficos web y desktop. Los parámetros que
se deben tener en cuenta son:

260
▪ Nombre: bajo el cual el servidor geográfico gestionará la capa.
▪ Título: Nombre descriptivo con el que se identificará la capa por parte de los clientes web
y desktop al consultar el catálogo de capas disponibles en el servidor geográfico.
▪ Sistema de referencia de coordenadas: en el que se encuentra almacenada la información
geográfica, debe ser preciso y, en lo posible, especificarse con el código EPSG.
▪ Encuadres: especifica el área en la que se encuentran los datos para su representación
geográfica y está dado por dos coordenadas (Xmin, Ymin) (Xmax, Ymax), que se pueden
calcular a partir de los datos que se encuentran en el shape file y el sistema de coordenadas
seleccionado previamente.

2.5 Visualización desde herramienta desktop

Una vez publicadas las capas requeridas ya se encuentran disponibles para utilizarse desde
herramientas desktop y web, tal como se observa en la Figura 10.

Figura 10. Visualización de servicios geográficos desde herramientas desktop

3. Reto

▪ Solucionar este problema empleando tecnologías ESRI.

Referencias

[1] OGC (2016). Geography Markup Language. Open Geospatial Consortium. Onlinea [May 2016].
[2] Butler, H. et al. (2016). Especificación Geojson. Norma técnica RFC 7946. Online [Jun 2016].
[3] Geospatial Foundation (2016). Página oficial del servidor geográfico GeoServer. Online [May 2016].

261
PARTE VII

SEMBLANZA DE LOS AUTORES DE CAPÍTULOS

Para distitinguir las cosas más simples de las complicadas e investigarlas con orden, conviene, en cada
serie de cosas en la que hemos deducido directamente algunas verdades de otras, observar cuál es la
más simple y cómo todas las demás están más o menos, o igualmente, alejadas de ella.
René Descartes (1596-1650)

En esta Parte VII se presenta la semblanza de los investigadores que, con mente crítica y trabajo
decidido, compilaron el producto de su trabajo en cada uno de los capítulos que conforman el libro.

Carlos Arturo Castro Castro


Ingeniero de la Universidad Nacional de Colombia, Especialista en Sistemas de Información Geográfica y
Magister en Geoinformática de USBMed. Docente Investigador de la Facultad de Ingenierías de la Universidad
de San Buenaventura – Medellín, en las áreas de programación, bases de datos, ingeniería del software e
informática educativa. Catedrático de pregrado y posgrado en UdeA, EIA, ITM, TdeA, Uniciencia y
Uniremington. Se ha desempeñado como Vicedecano de Sistemas en Uniremington y Director de Ingeniería
de Sistemas de USBMed. Actualmente, se desempeña como Coordinador de Investigaciones de la Facultad de
Ingenierías de USBMed.

Helena Pérez Garcés


Ingeniera Ambiental de la Universidad de Medellín, Especialista en Sistemas de Información Geográfica de
USBMed, Magister en Ciencias Ambientales de la Universidad de Antioquia y Candidata a Doctora en Geografía
en la Universidad Nacional de Colombia. Catedrática en pregrado y posgrado, docente-investigadora de
USBMed en las líneas de investigación en gestión territorial y sostenibilidad con énfasis en modelación e
indicadores de sostenibilidad rural y herramientas e instrumentos de gestión y ordenamiento territorial para
la defensa del territorio. Cuenta con más de 10 años de experiencia laboral en la aplicación de SIG al
ordenamiento territorial y ordenamiento ambiental del territorio.

Beatriz Elena Arias Vanegas


Licenciada en Educación, Especialista en Gerencia Educativa del CEIPA, Magister en Psicopedagogía de la
UdeA, Doctorada en Ciencias Sociales del CINDE y Postdoctorado en Ciencias Sociales. Catedrática de pregrado
y posgrado en UdeA, TdeA y CINDE. Actualmente, se desempeña como docente investigadora de la Facultad
de Educación de USBMed.

Yuliana Castrillón Martínez


Ingeniera Ambiental de USBMed. Joven investigadora de la Facultad de Ingenierías de la Universidad de San
Buenaventura Medellín. Se ha desempeñado como asistente de investigación, docente de educación superior
y asesora ambiental en Tronex SAS y Conexiones Sostenibles SAS.

Claudia Elena Durango Vanegas


Ingeniera de Sistemas de UdeM, Especialista en Sistemas de Información Geográfica de USBMed, Magister en
Sistemas de la Universidad Nacional de Colombia y Candidata a Doctor en UnalMed. Profesora asociada en la
Facultad de Ingeniería de la Universidad de San Buenaventura Medellín; investigadora del grupo en
Modelamiento y Simulación Computacional de la Facultad de Ingeniería, en las áreas de Gestión de Requisitos
de Software, Ingeniería de Software y Tecnologías Aplicadas en Sistemas de Información Geográfica y/o
Geoinformática.

262
Carolina Arias Muñoz
Ingeniera de Sistemas de UdeM, Especialista en Sistemas de Información Geográfica de USBMed, Magister in
Environmental and Geomatics Engineering y PhD in Environmental Engineering and Infrastructures del
Politécnico de Milán. Profesora asociada en la Facultad de Ingeniería, Universidad de San Buenaventura
Medellín. Actualmente, se desempeña como Coordinadora Académica de la Maestría en Geoinformática de
USBMed.

Oscar Darío Quintero Zapata


Sociólogo y Especialista en Medio Ambiente y Geoinformática de UdeA, Magister en Geoinformática de
USBMed. Se ha desempeñado como asesor técnico y metodológico en gestión de proyectos SIG y en
consultorías para proyectos ambientales. Catedrático en pregrado y posgrados en conceptos generales y
específicos de cartografía, geodesia, fotogrametría, GNSS e implementación de nuevas tecnologías en
diferentes universidades e instituciones del departamento de Antioquia.

Germán Mauricio Valencia Hernández


Ingeniero Ambiental de UdeM, Especialista en Sistemas de Información Geográfica y Magister en
Geoinformática de USBMed, Doctor en Ingeniería de UdeM. Se ha desempeñado como director de la
Especialización en SIG de USBMed y participado en la ejecución de 40 proyectos de investigación y consultoría
para empresas privadas, Universidades (UPB, UNAL, UdeA, UdeM e ITM) y entes territoriales del estado
colombiano. Ha sido catedrático en las universidades de Medellín y de La Salle en Colombia. Como profesor
ha trabajado en la construcción de conceptos alrededor de la Geoinformática y metodologías de formación en
esta área. Actualmente, es docente investigador de la Facultad de Ingenierías de USBMed.

Julián Darío Giraldo Ocampo


Ingeniero de Sistemas y Especialista en Gerencia Informática de Uniremington, Especialista en Sistemas de
Información Geográfica y Magister en Geoinformática de USBMed. Se ha desempeñado como Coordinador del
Programa de Ingeniería de Sistemas en USBMed y Director de Desarrollo Tecnológico en Uniremington.
Actualmente, es profesor de tiempo completo en el Politécnico Colombiano Jaime Isaza Cadavid. Catedrático
en pregrado y posgrados en temas de bases de datos espaciales, geoinformática y programación en UdeA,
USBMed, Uniremington y PCJIC.

Nixon Arley Aristizabal Niño


Ingeniero de Sistemas y Especialista en Medio Ambiente y Geoinformática de UdeA, Especialista en Gerencia
de Proyectos de la Universidad de Tolima y Magister en Geoinformática de USBMed. Se ha desempeñado como
Coordinador del Programa de Medio Ambiente y Geoinformática de UdeA y como consultor en temas
relacionados con los SIG en UPME y EPM.

Juan Carlos Valdés Quintero


Ingeniero de la Universidad de Antioquia, Especialista en Gestión de la Calidad Universitaria, Especialista en
Sistemas de Información Geográfica, Magister en Geoinformática de USBMed y candidato a Doctor en
Ingeniería con énfasis en Modelación Espacial de UdeA. Profesor titular de la Facultad de Ingenierías del
Politécnico Colombiano Jaime Isaza Cadavid, en las áreas de geomática, SIG, recursos naturales y servicios
ecosistémicos. Catedrático de pregrado y posgrado en UdeA, UdeM, ITM, TdeA, UPB, Uniciencia y Unisabaneta.
Se ha desempeñado como Jefe Curricular y Académico y Decano de la Facultad de Ingenierías de USBMed.
Actualmente, se desempeña como Vicerrector de Docencia e Investigación del PCJIC.

Libardo Antonio Londoño Ciro


Ingeniero de la Universidad Nacional de Colombia, Especialista en Sistemas de Información Geográfica y
Candidato a Doctor en Ingeniería de UdeA. Catedrático de pregrado y posgrado en UdeA, USBMed y
Uniremington. Se ha desempeñado como Director de Investigación en Uniremington y Decano de la Facultad
de Ingenierías del Politécnico Colombiano Jaime Isaza Cadavid. Actualmente se desempeña como Director de
Investigación y Posgrados del PCJIC.

263
John Fernando Escobar Martínez
Ingeniero de la Universidad Nacional de Colombia, Especialista en Gestión Ambiental y Magister en Medio
Ambiente y Desarrollo de UnalMed, Especialist Enviroment Et Securité de la Escuela de Minas de Ales, Francia,
Doctor en Ingeniería de UdeA. Es profesor asistente de la Facultad de Ingeniería de UdeA, en las áreas de
geomática, SIG e hidrogeología. Catedrático de pregrado y posgrado en UnalMed, USBMed, UdeM y PCJIC. Se
ha desempeñado como asesor del Banco Mundial, director del Plan Departamental de Aguas de Antioquia.
Actualmente se desempeña como Rector del PCJIC.

Daniel Horfan Álvarez


Ingeniero de Petróleos y Magister en Ingeniería de Sistemas de la Universidad Nacional de Colombia. Cuenta
con más de 20 años de experiencia en diseño e implementación de Sistemas de Información Geográfica.
Profesor de cátedra de las especializaciones en SIG de USBMed y en Medio Ambiental y Geoinformática de
UdeA. Trabaja actualmente como gerente de operaciones en la firma HYG Consultores SAS.

Luis Alberto Tafur Jiménez


Ingeniero de Sonido de la Universidad de San Buenaventura Bogotá, Especialista en Sistemas de Información
Geográfica de USBMed y Magister y PhD en Sonido y Vibraciones de la Universidad de Southampton en Reino
Unido. Obtuvo la beca Rayleigh scholarship de la Universidad de Southampton. Su experiencia profesional
incluye asesoría técnica a los Ministerios de Ambiente y Desarrollo Sostenible y al de Salud en la formulación
de políticas de salud pública, enfocadas al control y la gestión del ruido. En el ámbito de la docencia ha sido
profesor en la Universidad de San Buenaventura, el Politécnico Jaime Isaza Cadavid y la Escuela Naval de
Cadetes.

Oscar Alberto Gómez Colorado


Ingeniero de Petróleos y Especialista en Gestión Ambiental de la Universidad Nacional de Colombia,
Especialista en Sistemas de Información y Bases de Datos y Magister en Geoinformática de USBMed,
Especialista en Formulación y Evaluación de Proyectos de ITM. Se ha desempeñado en los últimos veinte años
en la implementación de Sistemas de Información Geográfica Corporativos y hace parte del grupo de
formulación y diseño de la especialización en SIG de la Universidad de San Buenaventura, donde fue docente
y coordinador por varios años; actualmente, es gerente de HYG Consultores SAS.

John Sergio Marulanda Orozco


Ingeniero de Petróleos de la Universidad Nacional de Colombia y Magister en Geoinformática de USBMed.
Catedrático en pregrado y posgrados en conceptos generales y específicos de cartografía, geodesia y
modelación espacial en UdeA, UnalMed, UdeM, USBMed y PCJIC. Cuenta con más de 20 años de experiencia en
diseño e implementación de Sistemas de Información Geográfica. Es asesor y consultor especializado en
ISAGEN, CORANTIOQUIA y en diferentes entes territoriales. Actualmente, se desempeña como gerente de
GEOSAT.

Julio Eduardo Cañón Barriga


Ingeniero Civil y Magister en Recursos Hídricos de la Universidad Nacional de Colombia, Ph.D. en Hydrology
and Water Resources, in The University of Arizona - Department of Hydrology and Water Resources. Ex-
becario Fulbright. Profesor asociado de la Facultad de Ingeniería de UdeA y miembro del grupo de
Investigación GAIA. Ha sido coordinador académico del programa de Ingeniería Civil y de los programas de
Maestría y Doctorado en Ingeniería Ambiental de UdeA.

Carlos Ernesto Betancourt Lozano


Administrador de empresas de la universidad ICESI de Cali, Especialista en Sistemas de Información
Geográfica de la Universidad de San Buenaventura y auditor interno certificado por Icontec en sistemas de
gestión de la calidad. Cuenta con una sólida experiencia en procesos de transferencia tecnológica, logística y
mercadeo. Sus áreas de interés incluyen, entre otros temas, a los Sistemas de Información Geográfica, sistemas
logísticos, innovación y transferencia de tecnología.

264
Conrado Augusto Serna Urán
Ingeniero Industrial, Magister en Ingeniería de producción y Doctor en Ingeniería de la Universidad Nacional
de Colombia. Actualmente, es investigador Asociado (I) en Colciencias y profesor asociado en la Universidad
de San Buenaventura Medellín. Pertenece a los grupos de investigación I+D+I Logística Industrial -
Organizacional GICO de la Facultad de Minas y al grupo de investigación en Modelamiento y Simulación
Computacional (GIMSC) de la Universidad de San Buenaventura Medellín. Sus áreas de investigación incluyen
entre otras: Sistemas logísticos y de producción, sistemas expertos, sistemas multi agentes, programación e
inferencia difusa, diseño de heurísticas y metaheurísticas.

José Luis Duque Pineda


Ingeniero Geólogo y Especialista en Planeación Urbano-Regional de la Universidad Nacional de Colombia,
Especialista en Sistemas de Información Geográfica y estudiante de la Maestría en Geoinformática de USBMed.
Cuenta con más de 20 años de experiencia como consultor y asesor en el tema de ordenamiento territorial.

Julián Andrés Duque López


Ingeniero Ambiental de la Universidad Católica de Oriente, Especialista en Sistemas de Información
Geográfica de la Universidad de San Buenaventura Medellín. Actualmente, labora en CORNARE en el Oriente
Antioqueño.

Julio Cesar Arias Becerra


Ingeniero de Sistemas de la Universidad de San Buenaventura Medellín y Especialista en Ingeniería del
Software de la Universidad Pontificia Bolivariana. Cuenta con más de 10 años de experiencia el diseño,
desarrollo e implementación de Sistemas de Información Geográfica. Actualmente, es analista de desarrollo
en HYG Consultores SAS.

Gabriel Enrique Taborda Blandón


Ingeniero Químico de UdeA, Máster in Computer Science of Atlantic International University y Magister en
Seguridad Informática de la Universidad Internacional de la Rioja. Catedrático en pregrado y posgrados en
varias universidades. Actualmente, se desempeña como profesor de tiempo completo en ITM.

Jonathan Ochoa Villegas


Ingeniero de Sonido de la Universidad de San Buenaventura Medellín, estudiante de la Maestría en
Geoinformática de la misma universidad. Beneficiario de la Beca Mejores Bachilleres de la ciudad de Medellín,
la cual financió su programa de pregrado. Actualmente, se desempeña como director de Programa de
Ingeniería de Sonido de la Universidad de San Buenaventura Medellín. A nivel profesional se ha desempeñado
como asistente de dirección de proyectos de asesoría técnica en el Ministerio de Ambiente y Desarrollo
Sostenible y la Corporación Autónoma Regional del Valle del Cauca, en temas de salud pública para el control
y gestión del ruido. Participa en diversos proyectos de investigación y proyección social vinculados con temas
de acústica y audio.

Sergio Andrés Castrillón Idárraga


Ingeniero de Sistemas, Especialista en Sistemas de Información Geográfica y estudiante de la Maestría en
Geoinformática de USBMed. Durante su ejercicio profesional ha desempeñado labores de coordinación de
proyectos, desarrollo de software, administración de bases datos, administración de servidores Microsoft y
desarrollo e implementación de Sistemas de Información Geográfica. Posee competencias a nivel
administrativo en temas de gestión de proyectos y presentación de licitaciones adquiridas en organizaciones
privadas. Actualmente, se desempeña como Subgerente en Conestudios S.A.S.

Sergio Andrés Giraldo Mira


Ingeniero Agrícola de la Universidad Nacional de Colombia y Especialista en Medio Ambiente y
Geoinformática de UdeA. Cuenta con más de 10 años de experiencia como consultor y asesor en ordenamiento
y gestión territorial.

265
Geoinformática aplicada con Aprendizaje Basado en Problemas

Este libro es producto del proyecto de investigación Diseño e implementación de objetos virtuales de
aprendizaje basados en problemas, para la formación específica en Sistemas de Información Geográfica
de Código Abierto OPENGIS y Software Libre FOSS (Free and Open Source Software). El propósito de este
texto es exponer metódicamente el análisis y la solución de problemas con componente
geoinformático (adquisición, almacenamiento, procesamiento y despliegue de geodatos), para apoyar
el logro de capacidades en los procesos de formación en las áreas de Sistemas de Información
Geográfica (SIG), Geoinformática y afines, de la misma manera que proponer problemas cuyo proceso
de análisis y solución puedan generar ideas de investigación y nuevas temáticas de trabajo en el aula.

ISBN: 978-958-59127-7-9

Editor
Prof. Edgar Serna M.

Científico Computacional Teórico, Ph.D. en Pensamiento Complejo, Ms.C. en Ingeniería, Graduate Minor in
Teaching in Virtual Environments, Especialista en Computación para la Docencia y Especialista en
Hardware, Ingeniero de Sistemas. Es Certified Software Test Professional (CSTP), Microsoft Certified
Professional (MCP), Microsoft Test Engineer in Operating Systems Atmospheres (MTE) y en Profesionalidad
en Desarrollo de Aplicaciones con Tecnología Web. Reconocido como Profesor Asociado e Investigador
Senior en el Sistema Nacional de Ciencia y Tecnología SCIENTI – Colombia. Actualmente, se desempeña
como investigador en los procesos de Neurociencia Computacional y Ciencias Computacionales, y como
Editor General en la Editorial Instituto Antioqueño de Investigación.

You might also like