You are on page 1of 20

Arquitecturas informáticas para almacenamiento, proceso y

administración de bases de datos para administración de


integridad de ductos

Expositor 1: M. C. Gustavo Calzada Orihuela, Responsable de Transferencia Tecnológica,


ICF, UNAM, México.
gustavocalzada@gmail.com

Expositor 2: Ing. Rodolfo René Superamo Zaleta, Líder de equipo de desarrollo de


proyecto TRIMS, Corrosión y Protección, México.
rene@corrosionyproteccion.com

Autores:
M. C. Gustavo Calzada Orihuela, Colaborador en el desarrollo de proyecto TRIMS y
Responsable de Transferencia Tecnológica, ICF, UNAM, México.
gustavocalzada@gmail.com

Ing. Rodolfo René Superamo Zaleta, Líder de equipo de desarrollo de proyecto TRIMS,
Corrosión y Protección, México.
rene@corrosionyproteccion.com

M. C. Lucía Morales Morales, Transferencia Tecnológica, ICF, UNAM, México.


cialu5040@gmail.com

Dr. Jorge Ascencio Gutiérrez, Coordinador de Transferencia Tecnológica, ICF, UNAM,


México.
ascencio@fis.unam.mx

Dr. Arturo Godoy Simón, Gerente de Proyecto, Corrosión y Protección, México.


arturogodoy@corrosionyproteccion.com

Ing. Enrique Rodríguez Betancourt, Gerente de la subdirección de logística de


hidrocarburos y derivados, Petróleos Mexicanos, México.
enrique.rodriguezb@pemex.com

Ing. José Luis Martínez González, Subgerente de Logística de Hidrocarburos y Distribución


DCO, Petróleos Mexicanos. México.
jose.luis.martinezgo@pemex.com
Resumen
La integridad de ductos que trasportan hidrocarburos es un tema ampliamente desarrollado y
estudiado con cuidado. Para ello se han desarrollado múltiples metodologías y tecnologías
para poder llevar acabo el proceso de evaluación de riesgo de la forma más eficiente
posible. Para ello se han utilizado diferentes herramientas, incluyendo sistemas informáticos
con distintas características arquitectónicas y de operación. PEMEX, ha implementado
algunos de estos sistemas y para efectos de mejorar su eficacia para monitorear y atender la
integridad de sus ductos, está desarrollando el proyecto TRIMS con el objetivo de
modernizar sus recursos informáticos, tanto de operatividad y tratamiento de datos.

Palabras Clave
Almacén de datos, Análisis de riesgo, Arquitecturas informáticas, Bases de datos,
Evaluación de integridad, Evaluación de riesgo, Inteligencia de negocios, Integridad de
ductos.

Introducción
El riesgo en las industrias a nivel mundial ha sido una preocupación constante. La
evaluación y administración del riesgo es una actividad crítica y de alto interés en diversas
áreas y procesos [Brito, 2010]. Una de las industrias más preocupadas por desarrollar
nuevas metodologías continuamente para la evaluación de riesgo es la industria petrolera.

La naturaleza del riesgo que existe en el trasporte y administración de hidrocarburos destaca


la necesidad de un control a detalle los factores que participan en el proceso [Muhlbauer,
2004], así como el desarrollo de modelos de evaluación de riesgo que representen la
realidad de la integridad de los ductos de trasporte de hidrocarburos [Piccardino, 2006].

PEMEX es en México el responsable por el trasporte de hidrocarburos en toda la red de


ductos nacional y como toda organización de clase mundial, necesita tener constantes
evaluaciones a sus sistemas para analizar los distintos niveles de riesgo con el objetivo de
evitar en la mayor medida posible cualquier siniestro relacionado con sus ductos. Para llevar
a cabo las evaluaciones correspondientes, se han invertido recursos en desarrollar e
implementar metodologías y tecnologías que auxilien de forma eficiente a la toma de
decisiones y la prevención de catástrofes que pongan en riesgo a la población, al medio
ambiente o a la empresa. Atendiendo esta preocupación, PEMEX promueve la
implementación de sistemas informáticos que asistan la prevención de situaciones de riesgo
en sus instalaciones y ductos alrededor del país.
Sin embargo estos sistemas que se han utilizado, a pesar de asistir al proceso de toma de
decisiones, tienen diferentes estructuras, arquitecturas, procedimientos, manejo de datos y
producen resultados carentes de normalización entre sistemas, haciendo el análisis de la
información, un proceso complejo y no estandarizado.

Integridad de ductos
De forma general, la integridad de ductos es un proceso de evaluación con el fin de
asegurar, por medio de una metodología definida, que un ducto puede operar de forma
eficiente trasportando hidrocarburos de forma segura [Henderson, 2001]. Para que este
proceso se lleve a cabo, es necesario considerar diversos aspectos que se relacionan con el
ducto, como por ejemplo, diseño, operación, administración, inspecciones, mantenimiento,
procedimientos, factores humanos, ambientales y de entorno

La administración de integridad es un proceso complejo y no existe una única técnica o


metodología que permita la evaluación de un ductos. Sin embargo, existen modelos que
intentan acercarse al desarrollo de estándares para proveer las bases para una evaluación
de integridad satisfactoria. El Instituto Americano del Petróleo (API) desarrolló un marco que
sirve como guía en el cual se toman los elementos mostrados en la Figura 1 [Henderson,
2001]:

Figura 1.- Proceso recomendado por el Instituto Americano del Petróleo para planificar, ejecutar y evaluar un
programa de administración de integridad de ductos.
Se han desarrollado diversas tecnologías para la evaluación de riesgo, sin embargo uno de
los autores más reconocidos en la actualidad en el desarrollo de metodologías para la
evaluación de riesgo para el trasporte de hidrocarburos por medio de ductos es [Muhlbauer,
2004], quien describe detalladamente el proceso de evaluación y la explica los factores
involucrados en los algoritmos. En este trabajo se describe que el proceso de evaluación de
riesgo se compone de los pasos en la Figura 2.

Figura 2. Modelo general cascada para el proceso de evaluación de riesgo.

De acuerdo a los trabajos de [Muhlbauer, 2006] y [Weigold, 2006] se recomienda que la


evaluación de riesgo, ya sea cualitativa o cuantitativa, sea calculada en función de:

 La frecuencia del mecanismo de falla o la Probabilidad (relativa) de falla (LOF por sus
siglas en inglés).
 La Consecuencia de falla (COF por sus siglas en inglés).

Para cada elemento anterior, se definen distintos factores. Para el caso de la LOF, estos
factores son conocidos como amenazas, que son mecanismos de falla que pueden afectar la
integridad un segmento de ducto. Estas amenazas también dependen de muchos otros
factores que son involucrados para obtener valor de impacto de este mecanismo de falla. En
base a la recomendación de elementos a considerar según [Muhlbauer, 2006] y con el
propósito de dar cumplimiento a la norma oficial mexicana [NOM-027, 2010], y a las
recomendaciones descritas en los estándares como por ejemplo [ASME, 2004] y [ASME,
2010], se consideran once mecanismos de falla, incluyendo las nueve definidas por las
referencias anteriores, con las que se evalúa LOF. Estas once amenazas son las que
PEMEX, a través de su experiencia operativa e investigación, ha considerado indispensables
para la metodología a usar para su evaluación de integridad de ductos. Las amenazas se
clasifican conforme a la Tabla 1.

Categoría Amenaza
Corrosión Externa Corrosión exterior
Corrosión Interna Corrosión interior
Stress Corrosion Cacking Agrietamiento por corrosión bajo esfuerzo
Terceras partes Falla instantánea/inmediata
Modo de falla retardado
Vandalismo
Impacto de objetos arrojados sobre el ducto
Sabotaje
Fabricación Costura defectuosa
Metal base defectuoso
Construcción Soldadura circunferencial defectuosa
Falla por alineamiento
Doblez por flexión o pandeo
Materiales
Equipo Falla de los empaques o anillos tipo O
Componente rayado o roto
Mal funcionamiento del equipo de control o
relevo
Falla del sello/bomba
Químico
Clima y Fuerzas Externas Procedimientos de operación incorrectos o
no aplicados
Tormentas eléctricas
Viento, tormentas o inundaciones
Sismos
Deslaves
Huracanes
Erosión
Deslizamiento del lecho marino o del ducto
Tabla 1. Amenazas potenciales consideradas en la NOM-027-SESH-2010 y consideradas para proyecto
TRIMS.

Dentro del conjunto de elementos a considerar está la Consecuencia de falla (COF), la cual
se mide por medio de factores principales:

 Impacto a la población.
 Impacto al medio ambiente.
 Impacto al negocio.

PEMEX ha enfrentado la necesidad de un sistema seguro apoyándose de diversas


herramientas para la evaluación de riesgo utilizando múltiples modelos de negocio, de
arquitecturas informáticas y de bases de datos. Por lo que, previendo la necesidad de
mejorar sus procesos de evaluación de riesgo, busca integrar tecnología y metodologías de
punta para tener una visión completa y detallada de su red de ductos a nivel nacional.

Arquitecturas informáticas
En general, los sistemas informáticos diseñados para la evaluación de riesgo para ductos
que trasportan hidrocarburos se basan en la metodología descrita anteriormente, variando
en tecnologías, procesos y algoritmos. En la Tabla 2 se hace una breve comparación entre
algunos de los sistemas más usados para la evaluación de integridad de ductos.

Sistema Informático Características


IMP (Integrity Management Sistema de escritorio sobre plataforma Windows.
Program) Maneja índices relativos de riesgo.
Considera gas, petroquímicos primarios y
secundarios y amoniacos.
Sólo evalúa ductos terrestres.
Evalúa el Riesgo de falla pero no la de confiabilidad.
Considera las causas de cada mecanismo de falla.
Considera las consecuencias de falla.
Proceso de segmentación fija.
Permite el ingreso a múltiples usuarios.
No tiene implementada la visualización geográfica.
Captura de datos ajustada a su algoritmo pero no
los administra.
No genera reportes.
No cumple en su totalidad las normativas actuales
para la administración de integridad.
Sistema manejador de bases de datos SQL Server
2008
PIRAMID (Pipeline Risk Tiene características de similares al IMP
Analysis for Maintenance and Sistema de Escritorio sobre plataforma Windows.
Inspection Decisions) Permite un solo usuario.
Aunque su función es evaluar la integridad, es más
obsoleto, por lo tanto sus procesos y arquitecturas
también lo son.
Sin embargo, realiza su proceso de segmentación
de forma dinámica.
Maneja una evaluación cuantitativa.
Sólo considera crudo y gas.
Evalúa el Riesgo de falla y las consecuencias
No tiene implementada la visualización geográfica.
Captura de datos ajustada a su algoritmo pero no
los administra.
No genera reportes.
No cumple en su totalidad las normativas actuales
para la administración de integridad.
Sistema manejador de bases de datos Microsoft
Access.
Tabla 2. Tabla de características de los sistemas informáticos más usados para la evaluación de integridad de
ductos

Arquitecturas de Bases de Datos


Cada sistema o arquitectura informática relacionada a la evaluación de integridad de ductos
contiene alguna forma o medido de almacenamiento y por lo menos una metodología para la
administración de datos considerados para este proceso. Sin embargo, las metodologías de
procesamiento de datos varían. Esto se debe a que no existe una única metodología o
conjunto de procedimientos para la evaluación y el análisis de riesgo de integridad de
ductos, por esta razón cada variación en los modelos propone la necesidad de arquitecturas
distintas para el manejo de los datos.

Considerando que una base de datos por definición, es una estructura computacional que
almacena colecciones de datos de interés particular de uno o muchos usuarios, con un
objetivo definido [Rob, 2009], podemos concluir que el número de estructuras o arquitecturas
de bases de datos para la evaluación de la integridad de ductos depende del número de
metodologías, tecnologías, arquitecturas informáticas con las que se relacionan y el número
de diseños. Sin embargo, las estructuras en general de las bases de datos utilizadas para la
integridad de ductos, funcionan bajo los principios de bases de datos relacionales y de
acuerdo a [Brook, 2013], las ventajas más relevantes de este tipo de bases de datos son:

 Control centralizado
 Redundancia reducida
 Transacciones de datos más eficientes
 Reglas para la edición de datos
 Independencia de los datos con las aplicaciones

Otra característica que tienen los sistemas informáticos dirigidos a la evaluación de


integridad de ductos es que no se requieren sólo información “plana”, es decir los datos
alfanuméricos almacenados en una o varias bases de datos, sino que también se han
preocupado por ofrecer al usuario múltiples formas de visualización de la información. Para
graficar los datos en formatos convencionales es importante tener una arquitectura que sea
eficiente para el manejo de datos, pero para dibujar la información obtenida del proceso de
evaluación de riesgo en los ductos en un plano geográfico, es indispensable tener no sólo
una arquitectura para los datos “planos” sino también datos geográficos.

Existen diversos modelos de datos y arquitecturas de bases de datos en los sistemas


utilizados, sin embargo comúnmente, de acuerdo a [MacDonald, 2001] y [Calvo, 1993] una
base de datos geográfica está constituida por dos clases de datos que se interrelacionan
para tener una representación de información completa, la primera clase son los atributos
que comprenden toda la información plana y la segunda clase son las propiedades
geográficas, que son los datos que permiten la localización de los datos en un plano. Los
dos componentes se relacionan para construir un sistema eficiente e independiente a la
aplicación que los necesite, como están descritos en la Figura 3.

Figura 3. Diagrama de composición de una geodatabase para una aplicación genérica.

Los sistemas informáticos actuales utilizan SIG (o GIS por sus siglas en inglés para
Geographic Information System) que, de acuerdo al trabajo [Waicelunas, 2007] y conforme a
uno de los líderes mundiales respecto a información geográfica [Brook, 2013], son un mapa
computarizado que combina una capa de mapa digital con una base de datos relacional,
como se muestra en la Figura 3. De esta forma se puede visualizar dinámicamente los datos
de las evaluaciones en un mapa geográfico combinado con estas capas con las que se
pueden dibujar líneas, formas poligonales, rutas, etc.

De acuerdo con las investigaciones y trabajos de organizaciones mundiales como ESRI


(Enviromental Systems Research Institute), el uso de base de datos relacionales es el
método más usado por su practicidad para administrar y organizar datos geográficos, por lo
que es un modelo que brinda la facilidad de vincular los datos planos y geográficos.
En la actualidad existen más de un modelo de bases de datos geográficas. PODS (Pipeline
Open Data Standard) se caracteriza por ser un modelo relacional, permitiéndole ser flexible
para la integración múltiples sistemas. Está caracterizado por proponer ser un estándar, por
lo que se considera un modelo completo ya que contempla el conjunto de elementos
involucrados con un ducto, abarcando el mayor número de atributos de forma genérica.
PODS, pretendiendo llegar a ser un estándar internacional y siendo una base de datos
relacional, permite implementar tecnologías para el manejo de datos y un fundamento para
el proyecto TRIMS en el estado del arte en bases de datos geográficas.

Proyecto Total Reliability and Integrity Management Solutions

El proyecto TRIMS reúne la interacción de estos elementos y sus factores por medio de los
algoritmos de cálculo recomendado por [Muhlbauer, 2006], la norma [NOM-027, 2010] y
algunos de los estándares como [ASME, 2010] e [ISO-14224, 2004]. Para lo que se
desarrolló la metodología que se muestra de forma general el proceso de evaluación de
riesgo en la Figura 4.

Figura 4. Descripción de proceso de evaluación de riesgo de proyecto TRIMS.


En este proyecto se propone el desarrollo un modelo de evaluación de riesgo que integre
tecnologías del estado de arte en cuanto a la implementación de bases de datos históricas
con procesos de Inteligencia de Negocios, combinando técnicas y arquitecturas que faciliten
la explotación de datos para la extracción y análisis de información. Además de la utilización
de modelos y algoritmos de evaluación de riesgo modernos que presenten un acercamiento
a la realidad, que en conjunto con otras herramientas, ofrezcan una solución integral para
una visualización de los segmentos de ductos en la red de trasporte de hidrocarburos con
sus respectivas evaluaciones de riesgo de forma semaforizada.

Metodología y colecta de datos

El proceso inicial de este método, es la colecta de los datos necesarios para alimentar el
algoritmo de evaluación y para la presentación gráfica y geográfica de los datos. Esta
información proviene de diferentes fuentes, ya sea de bases de datos existentes o por
captura directa de algún operador del ducto. En el caso de que los datos estén almacenados
en otras bases de datos, es necesario un pre proceso de migración para centralizar la
información necesaria. Este pre proceso se lleva a cabo como una serie de cargas masivas
que se necesitan para alimentar el sistema.

Antes de que los datos sean insertados y almacenados en la base de datos central de
TRIMS, se implementa un proceso de estandarización de datos, que básicamente es un
conjunto de sub procesos o reglas previamente definidas con el objetivo de trasformar los
datos provenientes de distintas fuentes y en diferentes formatos, en lo que requiere
específicamente el sistema. Este elemento es muy importante porque es el que va a
normalizar todos los datos de entrada y detectar posibles errores para ser correctamente
admisibles por el algoritmo de cálculo. Una vez que han sido limpiados los datos, se insertan
en la base de datos central donde se almacenan en una estructura de almacén de datos,
para permitir no sólo la parte operativa de la evaluación de integridad sino el
almacenamiento de información histórica. De esta forma, el concepto de la base de datos
propuesta para el proyecto, integra la estructura, arquitectura y características de almacén
de datos. Las principales de acuerdo con el trabajo de [Bernabeu, 2009] son que:

 Proporciona una herramienta para la toma de decisiones.


 Facilita la aplicación de técnicas estadísticas de análisis y modelización para
encontrar relaciones ocultas entre los datos del repositorio.
 Proporciona la capacidad de aprender de los datos del pasado y de predecir
situaciones futuras en diversos escenarios.
 Supone una optimización tecnológica y económica en entornos de centro de
información, estadística o de generación de informes con retornos de la inversión
espectaculares.

El proyecto integra este conjunto de metodologías a la arquitectura de base de datos y a los


procesos de tratamiento de datos con el objetivo de aplicar nuevas tendencias y tecnologías
en el almacenamiento y explotación de datos.

Proceso de Segmentación

La segmentación de un ducto es un proceso clave tanto para la administración de datos,


como para la presentación y graficación. Sin la segmentación, el análisis de riesgo en un
ducto sería inexacto y ambiguo. Por lo que, desde un principio, la segmentación se convirtió
en una preocupación para la industria petrolera y por lo tanto a los sistemas informáticos
para la administración de la integridad de ductos.

Esta segmentación de ducto se realiza de forma fija y dinámica. La primera es el principio


para la administración de los ductos porque es la primera identificación de segmentos del
ducto para separar la longitud entera y analizarla por partes más pequeñas. Sin embargo no
brinda la suficiente flexibilidad en los sistemas para poder hacer el proceso de evaluación y
análisis de riesgo más preciso. Y es por eso que la segmentación dinámica ha sido un
método que permite dividir un tramo de ducto en partes en función de las variaciones de las
amenazas, ofreciendo mayor precisión y flexibilidad para el análisis de datos.

Los eventos para cada uno de las amenazas se dividen como se muestra en la Figura 5, de
acuerdo a [Godoy, 2011], sin embargo estos son los eventos generales se pueden integrar
todas las variables o eventos necesarios.

Temperatura Producto Tráfico Sobrepresión Viento Tipo de Suelo


SCC
Clima
Corrosión exterior

Corrosión interior

Operación
Terceras partes

Recubrimiento Recubrimiento Sabotaje Programas de Heladas Temperatura


PH Inhibidor Frecuencia Seguridad Sismos Presión Cíclica
Tipo de suelo Limpieza Respuesta Sistemas de Asentamientos Recubrimiento
Seguridad
Resistividad Protección Tipo de Colchón Nivel de
Exterior Registros Esfuerzos
Humedad Inhundaciones
Seguridad Materiales Dureza
Radiación Deslaves
Celaje Nivel de
Esfuerzos Sismos

Figura 5. Clasificación de eventos relacionados a la división de segmentos en el proceso de segmentación


dinámica.
Por esto es la importancia de una base de datos con una estructura bien definida que esté
diseñada con una arquitectura que no sólo provea almacenaje de datos en gran cantidad,
sino que también asista al proceso de consultas, eficiente en procesamiento y en
normalización de datos, así como la relación con datos de tipo geográfico para que sea el
núcleo para el análisis de riesgo y posicionar a PEMEX en la vanguardia tecnológica para la
evaluación de la integridad de ductos.

Estructura de la Base de Datos

Desde la perspectiva de almacén de datos, la ventaja principal de este tipo de base de datos
es principalmente el uso de estructuras especializadas (modelo en estrella, copo de nieve y
constelación) que permiten la consulta y el tratamiento de los datos, de forma resumida, pero
conservando la atomicidad, permitiendo apertura a cambios, nuevos algoritmos, nuevas
metodologías o estrategias [Kimball, 2002] y [Inmon, 2005]. Entre las características más
importantes para el repositorio de datos según [Inmon, 2005] y [Bernabeu, 2009] se
muestran en la Figura 6.

Figura 6. Características de un almacén de datos

Básicamente un almacén de datos es una base de datos relacional, pero que está
estructurada de una forma tal que provee la ventaja de integrar características de datos
planos, datos históricos y datos de tipo geográficos. En la Figura 7 se describe una serie de
relaciones simples con las cuales se ejemplifica la relación de la tabla de riesgo, por medio
del elemento Lof que a su vez es relacionado a un conjunto de elementos independientes
denominados como amenazas.
Figura 7.Ejemplo de cómo se compone una tabla central alimentada por otras entidades.

De esta forma, el cálculo de las amenazas, Lof y el Riesgo, permaneces independientes


como objetos, pero vinculados por sus relaciones por las que se alimentan las tablas
centrales. Una vez que se consultaron los datos necesarios para la evaluación de integridad
de un segmento de ducto en particular, se asignan los valores de riesgo al segmento
definido y esta información está vinculada a un objeto geográfico con características
definidas en una base de datos geográfica interna en el almacén para posteriormente ser
consultadas de forma eficiente, como se ejemplifica en la Figura 8.

Figura 8. Ejemplo interacción entre los elementos de cálculo de valores de riesgo y los datos particulares de la
geodatabase.
Las relaciones son clave para crear una arquitectura eficiente, donde se evite la mayor
redundancia posible y dejar disponible una amplia accesibilidad para las futuras consultas a
la base de datos, la cual se construyó en uno o varios esquemas estrella o copo de nieve,
como se muestra en la Figura 9, ejemplo de arquitectura lógica de un segmento de ducto.

Figura 9. Diagrama que ejemplifica un fragmento de la arquitectura de la base de datos planteada para el
proyecto TRIMS.

Este tipo de esquema facilita a repositorio de datos almacenar en una estructura simple,
completa y accesible. Con toda la información histórica almacenada, se pueden incluir otro
tipo de procesos que quedarán considerados para trabajos futuros.
Conclusiones
PEMEX, como empresa responsable y de clase mundial, tiene un alto interés en
implementar metodologías, técnicas y tecnologías en el estado del arte que asista a sus
procesos y procedimientos para brindar servicios y productos responsablemente y de alta
calidad. A su vez coloca su mirada en posicionar a México como una nación en la
vanguardia tecnológica para la administración y evaluación de la integridad de ductos e
instalaciones usados para el trasporte, almacenamiento y distribución de hidrocarburos.

Por esta razón, PEMEX ha procurado invertir esfuerzos y recursos en la investigación,


desarrollo e implementación de tecnologías en sus sistemas de evaluación de riesgo,
comprometiéndose a apegarse y dar cumplimiento a la norma mexicana y los estándares
más relevantes internacionalmente. El proyecto TRIMS, incentivado por esa necesidad,
propone la utilización de tecnologías de bases de datos que independicen a la organización
de sistemas asilados y centralice la información para homogeneizar las distintas áreas y
procesos que están involucrados en la integridad de los ductos.

TRIMS propone utilizar técnicas, procedimientos y tecnologías usadas en áreas como


Ingeniería de Software, Inteligencia de Negocios y Almacenamiento de datos para centralizar
los datos de los ductos e instalaciones y procesarlos para normalizarlos para así insertarlos
en un almacén de datos. Combinando este almacén, sus características y arquitectura, con
un modelo de bases de datos geográficas basado en las recomendaciones del estándar
PODS, podemos construir un repositorio de datos lo más completo posible para el análisis
de datos y la presentación dinámicamente sobre un mapa.

La industria petrolera por su naturaleza conlleva un alto riesgo, sin embargo, PEMEX
promueve la modernización tecnológica no sólo en áreas de operación sino también de
logística son el firme objetivo de prever incidentes que pongan en riesgo a terceros y al
medio ambiente.

Agradecimientos
En colaboración con este trabajo, se extiende un agradecimiento a Corrosión y Protección
Ingeniería S. C. y al Instituto de Ciencias Físicas de la UNAM. En particular al Dr. Lorenzo
Martínez Gómez, al Dr. Jorge A. Ascencio Gutiérrez, Dr. Arturo Godoy Simón, M. Alejandra
de León Ibarra y todos los miembros del equipo de desarrollo de software del proyecto
TRIMS, comenzando por la invaluable ayuda de su líder el Ing. Rodolfo René Superamo
Zaleta.
Tabla de Figuras.
Figura 1.- Proceso recomendado por el Instituto Americano del Petróleo para planificar, 3
ejecutar y evaluar un programa de administración de integridad de ductos.
Figura 2. Modelo general cascada para el proceso de evaluación de riesgo. 4
Figura 3. Diagrama de composición de una geodatabase para una aplicación genérica. 8
Figura 4. Descripción de proceso de evaluación de riesgo de proyecto TRIMS. 9
Figura 5. Clasificación de eventos relacionados a la división de segmentos en el proceso 11
de segmentación dinámica.
Figura 6. Características de un almacén de datos. 12
Figura 7.Ejemplo de cómo se compone una tabla central alimentada por otras entidades. 13
Figura 8. Ejemplo interacción entre los elementos de cálculo de valores de riesgo y los 13
datos particulares de la geodatabase.
Figura 9. Diagrama que ejemplifica un fragmento de la arquitectura de la base de datos 14
planteada para el proyecto TRIMS.

Tabla de Tablas.
Tabla 1. Amenazas potenciales consideradas en la NOM-027-SESH-2010 y consideradas 5
para proyecto TRIMS.
Tabla 2. Tabla de características de los sistemas informáticos más usados para la 6
evaluación de integridad de ductos
Referencias

[NOM-027, 2010] Norma Oficial Mexicana NOM-027-SESH-2010; “Administración de la


integridad de ductos de recolección y transporte de hidrocarburos”; Estados Unidos
Mexicanos, Secretaría de Energía; 2010.

[Henderson, 2001] Henderson Paul, Hopkins Phil, Cosham Andrew; “Extending the life of
ageing pipelines”; Andrew Palmer and Associates; PENSEPEN; Estados Unidos e Inglaterra;
2001.

[ASME, 2010] ASME B31.8S 2010, Supplement to B31.8 on Managing System Integrity of
Gas Pipelines; The American Society of Mechanical Engineers; 2010.

[ASME, 2002] ASME B31.4 2002, “Pipeline Transportation Systems for Liquid Hydrocarbons
and other Liquids”; The American Society of Mechanical Engineers; 2002.

[API, 2005] API Standard 2610, “Design, Construction, Operation, Maintenance, and
Inspection of Terminal and Tank Facilities”; American Petroleum Institute; 2005.

[API, 2006] API Standard 353, “Managing Systems Integrity of Terminal and Tank Facilities –
Managing the Risk of Liquid Petroleum Releases”; American Petroleum Institute; 2006.

[ISO224, 2005] ISO224:1999; “Petroleum and natural gas industries - Collection and
exchange of reliability and maintenance data for equipment”, Revision 2005.

[Weigold, 2006] “A semi-quantitative pipeline risk assessment toll for piggable and un-
piggable pipelines”; Gunnar Weigold, Colin Argent, John Healy, Ian Diggory; Proceedings of
IPC 2006, 6th International Pipeline Conference; September 25, 2006; Calgary, Alberta,
Canada; IPC2006-10280.

[Muhlbauer, 2006] “Enhanced Pipeline Risk Assessment”; W. Kent Muhlbauer; Part 1,


Probability of Failure Assessments, Revision 2.1, www.pipelinerisk.com/downloads, 2006.

[Muhlbauer, 2004] “Pipeline Risk Management manual ideas, Techniques, and Resources”;
W. Kent Muhlbauer; Third Edition, Elsevier Inc, 2004.

[Bouman 2009] Roland Bouman, Jos van Dongen, Pentaho Solutions Business Intelligence
and Data Warehousing with Pentaho and MySQL, WILEY Publishing, Inc, 2009

[Bernabeu, 2009] Bernabeu Ricardo Dario, Hefesto v 1.1,Córdoba, Argentina, Abril 2009

[Brito, 2010] “A multicriteria model for risk sorting of natural gas pipelines based on
ELECTRE TRI integrating Utility Theory”; Anderson J. Brito, Adiel Teixeira de Almeida,
Caroline M. M. Mota; Federal University of Pernambuco, European Journal of Operational
Research 200, 812-821, 2010.

[Kimball, 2002] “The Data Warehouse Toolkit”, Ralph Kimball; Margy Ross; Wiley, Estados
Unidos, 2002.

[Kimball, 2004] “The Data Warehouse ETL Toolkit”, Ralph Kimball; Joe Caserta, Wiley,
Estados Unidos, 2004.

[Inmon, 2005] “Building The Data Warehouse”; William H Inmon; Wiley, Estados Unidos,
2005.

[Curto, 2010] “Introducción al Business Intelligence”; Josep Curto Díaz; (Primera edición).
Barcelona, España, 2010.

[Howson, 2009] “BUSINESS INTELLIGENCE – Estrategias para una implementación


exitosa”; Cindi Howson; (Primera Edición) (2009). México: MC Graw Hill.

[McLaughlin, 2008] “Oracle Database 11g PL/SQL Programing”; Michael McLaughlin; (2008).
(Primera Edición). USA: MC Graw Hill.

[Rob, 2009] “Database Systems Design, Implementation, and Management” Peter Rob;
Carlos Coronel (2009). (Octava Edición). USA: Course Technology.

[Dayal, 2009] “Data Integration Flows for Business Intelligence” Dayal U., Castellanos M.,
Simitsis A., Wilkinson K., 2009, Proceedings of the 12th International Conference on
Extending Database Technology: Advances in Database Technology, ISBN: 978-0-7695-
3545-6, ACM Digital Library

[Soler, 2010] “Un Conjunto de Transformaciones QVT para el modelado de almacenes de


datos seguros”; Soler Emilio; Trujillo Juan, Fernández-Medina Eduardo; Piattini Mario;,
Facultad de Informática, Universidad de Matanzas; Depto de Lenguajes y Sistemas
Informáticos, Universidad de Alicante; Departamento de Tecnologías y Sistemas de
Información, Universidad de Castilla-La Mancha.

[Gaurav, 2012] Gaurav Jindal, Simmi Bali, “Hierarchical Model Leads To the Evolution of
Relational Model “, International Journal of Engineering and Management Research, Vol. 2,
Issue-4, August 2012, ISSN No.: 2250-0758.

[Brook, 2013] Robert Brook, "Data modeling for GIS”, ESRI, NG oil &Gas US, GDS
Publishing Ltd, United States, 2013.

[MacDonald, 2001] Andrew MacDonald, "Building a Geodatabase", GIS by ESRI, United


States, 2001.
[INEGI, 2000] Instituto Nacional de Estadística Geográfica e Informática, "Diccionario de
Datos Geológicos", INEGI, México, 2000.

[Piccardino, 2006] Jean Régis Piccardino, Marie Pajot, Jean Alain Moreau, "How to use data
to highlight pipeline threat and prepare an inspection schedule", Management de l’integrité,
TIGF, 2006.

[Calvo, 1993] M. Calvo Melero, "Sistemas de información geográficas digitales", Sistemas


geomáticos, IVAP, Victoria, 1993.

[Dupuis, 2004] Bruce Dupuis, Jason Humber “Pipeline integrity: Establishment Data
Management Value”; Proceedings of IPC 2004, International Pipeline Conference; October 8,
2004; Calgary, Alberta, Canada; IPC04-0246.

[Douillard, 2009] B. Douillard, J. Underwood, V. Vlaskine, A. Quadros, S. Singh, “A Pipeline


for the segmentation and classification of 3D point clouds”; 2009.

[Waicelunas, 2007] Alex Waicelunas, Danial Wittas, Mike Garci, “Using GIS for pipeline data
management at the Palo Verde Nuclear Facility”; Advances and Experiences with Trenchless
Pipelines Projects; 2007.

[Godoy, 2011] Arturo Godoy, Fernando Rubi, Alejandra de León Ibarra, Lorenzo M. Martinez-
dela-Escalera, Jorge Canto, Leonardo de Silva-Munoz, Jorge A. Ascencio, and Lorenzo
Martínez; “Likelihood evaluation of pipelines corrosion in the mexican soil assisted by
geographic information systems”; NACE international. Paper No. 11401; 2011.

[Cadkin, 2002] Alex Jennifer Cadkin; “Understanding Dynamic Segmentation”; ESRI; 2002.

[Curtin, 2007] Kevin M. Curtin, Greta Nicoara, Rumana Reaz Arifin; “A Comprehensive
Process for Linear Referencing”. URISA Journal • Vol. 19, No. 2, 2007.

[Yokozawa, 2002] Yuko Yokozawa; “Dynamic Segmentation”; Based on procedures


developed in D. Wright’s Davey Jones’ Locker Lab, Oregon State University; 2002.

[ESRI, 2012] ESRI “Segmentación Dinámica”

http://help.arcgis.com/es/arcgisdesktop/10.0/help/index.html#//003900000026000000;
Visitado en 2012.

[Chen, 2003] Gen-Huey Chen, Maw-Sheng Chern, Jin-Hwang Jang; “Pipeline architectures
for dynamic programming algorithms”; Elsevier; 2003.

[Chen, 2003] Gen-Huey Chen, Maw-Sheng Chern, Jin-Hwang Jang; “Pipeline architectures
for dynamic programming algorithms”; Elsevier; 2003.
[Iyer, 2005] Shivprakash Iyer , Sunil K. Sinha; “A robust approach for automatic detection and
segmentation of cracks in underground pipeline images”; Elsevier; 2005

You might also like