You are on page 1of 15

Cada día, ciudades de todo el mundo se enfrentan a un número creciente de

problemas operacionales que afectan a la calidad de los servicios que ofrecen a


sus ciudadanos. Para poder garantizar la seguridad pública, el suministro de
agua, las fuentes energéticas, el transporte y otros servicios, las ciudades tienen
que acceder a una información cada vez más voluminosa, conseguir que los
distintos organismos municipales y agencias se comuniquen y colaboren en
tiempo real y anticipar los posibles problemas antes de que se produzcan. En un
entorno como el actual, de presupuestos limitados y ciudadanos cada vez más
informados y demandantes, las corporaciones municipales necesitan hacer más
por menos y por tanto deben hacer las cosas de forma diferente.
Un elemento clave en esta transformación, será la capacidad y voluntad de los
líderes municipales, incluyendo las distintas agencias y empresas municipales,
de probar y adoptar nuevas ideas y promover la innovación y el cambio a todos
los niveles de la gestión municipal.
El avance actual de la tecnología y el acceso a múltiples fuentes de información
van a tener un papel muy importante en este proceso de cambio. Las ciudades
guardan y tienen acceso a una gran cantidad de datos de fuentes y formatos muy
diversos. Sin embargo, no los están aprovechando para convertirlos en
conocimiento e inteligencia procesable que permitan proporcionar información
relevante a los distintos niveles de gestión y operación municipal para tomar
decisiones informadas que mejoren las respuestas y actuaciones.
Muchos ayuntamientos guardan esta información en sistemas independientes
que se encuentran en departamentos aislados, lo que impide tener una visión
operativa global y dificulta la coordinación de las actuaciones de los distintos
organismos y agencias. Si una ciudad no cuenta con una vista única e integrada
de los eventos, incidentes o crisis inminentes y no puede compartir la información
rápidamente, es posible que no pueda dar servicio de forma eficaz y sostenible,
ni proteger a los ciudadanos o impulsar el crecimiento económico. En muchas
ocasiones descubrimos tras un incidente que se disponía de suficiente
información para haberlo anticipado o incluso evitado, si los organismos
adecuados hubieran tenido en el momento oportuno la información relevante
para la coordinación de actuaciones.

Resumen

El ensayo presenta una investigación sobre Big Data y la importancia del análisis de
datos como parte fundamental y estratégica para obtener el éxito cuando se habla de
Big Data, no solo se habla de almacenamiento de datos, sino generar información y
obtener conocimiento para poder potenciar el negocio en las empresas. Contar con un
científico de datos es importante, ya que es la persona que analiza los datos haciendo
uso de sus conocimientos en matemáticas, estadística, tecnología, área a la que esta
enfocada la empresa para así potenciar a la empresa y obtener estrategias de
negocio, se debe contar con información depurada para lograr obtener un análisis
eficiente.
El crecimiento acelerado y la producción de datos día a día, los datos generados
pueden ser estructurados y semiestructurados, la limitación de las herramientas
tradicionales han dado lugar al aparecimiento de Big Data, siendo este para las
empresas un desafío tecnológico ya que pueden tener dificultades para analizarlos,
capturarlos y explotarlos, los cuales brindarán importantes recompensas a las
empresas.

Introduccion

En la actualidad vivimos una realidad en la que estamos conectados la mayoría


del tiempo al internet compartiendo fotos, documentos, vivencias y experiencias.
En las últimas décadas la cantidad de información que debemos manejar,
constantemente se ha multiplicado, generándose así cada vez más y más datos
que analizar y debido a que la sociedad hoy por hoy da mayor importancia a
dicha información no es raro afirmar que esta viene siendo y será el pilar que
sustente la toma de decisiones para las organizaciones y empresas en los años
próximos, enmarcando así un nuevo campo de estudio y preparación para los
profesionales en ingeniería de sistemas.
En este ensayo se verán las siguientes interrogantes: “¿Qué es Big Data? Y
¿Cómo podemos implementar Big Data?”
Con el correr de los años han sido muchas las técnicas, métodos, herramientas
que han sido desarrolladas para la recopilación y procesamiento de datos
obtenidos en diferentes escalas y diversas temáticas o campos de estudio. Una
de estas técnicas y se podría decir que es la más utilizada debido a que la
información que genera fácilmente puede ser visualizada como datos
estadísticos, es la minería de datos cuyo objetivo es capturar información de un
grupo de datos y transformar esta información en una estructura que sea
comprensible para uso posterior.
Qué es Big Data?

“Conjuntos de datos cuyo tamaño va más allá de la capacidad de captura,


almacenado, gestión y análisis de las herramientas de base de datos” [1]. Esta
definición se introdujo con la popularización de este término, la cual no describe
el objetivo concreto del término, por lo que ha esta definición se le han acotado
algunos términos.
Uno de los significados mas completos y que será usado como punto base para
este ensayo es el significado por Gartner.
“Big data son activos de información caracterizados por su alto volumen,
velocidad y variedad, que demandan soluciones innovadoras y eficientes de
procesado para la mejora del conocimiento y toma de decisiones en las
organizaciones” [2]
Se denomina Big Data a la administración y análisis de cantidades gigantescas
de data que no deben de tratarse de manera normal ya que rebasan las
capacidades y limites de herramientas de software que son usadas normalmente
para la gestión, captura y procesamiento de datos.
Este concepto incluye tecnologías, infraestructuras y servicios creados para dar
soluciones a procesamientos enormes de conjuntos de datos estructurados, no
estructurados o semiestructurados, estos pueden provenir de sensores, archivos
de audio, micrófonos, cámaras, escáneres médicos, imágenes, teléfonos
inteligentes entre otros.

Historia de Big Data

El Big Data y la analítica de datos es algo que hoy en dia esta muy de moda,
pero también es algo que no surgió hace un par de dias. En 1930 ya se llevaba
a cabo las primeras tareas de análisis de datos, aunque no con el volumen como
el que ahora se mueve.
La predictibilidad de la analítica, desde el siglo XX ha cambiado mucho, tanto asi
que era usada en la II Guerra Mundial para descifrar mensajes. “La analítica
predictiva se está convirtiendo en la tecnología del siglo XXI”, comenta Andrew
Jennings, director de analítica de Fico Labs. “Se puede mirar hacia atrás y ver
su importancia en el pasado, pero hemos llegado a un punto en el que el Big
Data, el cloud computing y la tecnología de analítica está llevándonos a una
innovación masiva y disrupción en el mercado”.
Según los resultados de Fico Labs, todos los dias se crean 2,5 trillones de bytes
relacionados con big data, esto explicaría claramente que la venta de soluciones
de analítica haya pasado de facturar 11.000 millones de dólares en 2000 a
35.000 millones de dólares en 2012 y ademas, el número de puestos de trabajo
relacionados con estas soluciones haya crecido un 15.000% entre 2011 y 2012.

Características de Big Data

Las características de Big Datas hacen referencia a las tres “Vs” (3Vs): Volumen,
variedad y velocidad, sin embargo existen algunas empresas que han
incursionado en big data han ampliado la definición original, incorporando dos
características nuevas: valor del dato y veracidad, por lo tanto se puede
consideran cinco “Vs” (5Vs).
Volumen
Cuando se habla de Big Data se consideran grandes volúmenes de datos,
refiriéndose a Terabytes o Petabytes que superan a la gestión de estos datos en
sistemas tradicionales, es por esto que el avance tecnológico ha dado el
surgimiento al aparecimiento de big data que permite manejar los enorme
cantidades de datos y gestionarlos.
Variedad
Esta característica se refiere a incluir varias fuentes de datos de diferentes a las
que se manejan en el sistema tradicional, pudiendo ser obtenida de redes
sociales, de dispositivos electrónicos que se encuentran conectados y cada vez
en un número mayor, sensores que permiten conocer movimientos y hábitos
cotidianos, es decir, diversas fuentes externas que obtienen datos.
Es importante recalcar que los datos que puede manejar big data pueden ser
estructurados y semiestructurados. La gestión de la información desestructura,
precisa el uso de tecnologías que permitan tomar decisiones basadas en
información obtenida con gran exactitud, los algoritmos para el tratamiento de
los datos utilizan lógica difusa.
Velocidad
Esta característica se basa en la rapidez con la que se reciben los datos,
procesan y se toma decisiones en función de estos. En la mayoría de sistemas
tradicionales es imposible analizar los grandes volúmenes de datos de forma
inmediata los en el momento de receptarlos, pero big data este concepto es
imprescindible por ejemplo en sistemas de detención de fraude o realizar ofertas
personalizadas de clientes, entre otros.
Veracidad
Esta característica no hay que dejarla de lado, es la confianza de los datos,
extrayendo los datos de calidad y eliminado la imprevisibilidad de algunos, por
ejemplo en el tiempo, economía, etc. De esta forma se puede llegar a obtener la
información precisa para tomar decisiones correctas.
Valor del Dato
Esta característica se refiere a la importancia del dato en el negocio, se debe
tener en claro que datos se van analizar, apareciendo el científico de datos (data
scientists) un profesional con perfil científico, tecnológico y con visión del
negocio, el cual será el encargado de analizar los datos y prestando servicio
tanto a los clientes como a los ejecutivos para la toma de decisiones. Esta
profesión es una del futuro, en pocos años aumentará el requerimiento de estos
profesionales para el análisis de datos. Es de vital importancia formar a gente
con este perfil de innovación en las tendencias actuales.
Big data proveerá en el futuro de negocio que producirá grandes cantidades de
dinero, es necesario contar con científicos de datos (data scientists) que son
especialistas en analizar y correlacionar big data para así obtener ventajas
competitivas en las compañías; Amazon, Facebook, LinkedIn, Google, Youtube
constantemente se busca como usar la enorme cantidad de datos que se
producen a diario, para aprovechar las oportunidades de negocio basado en el
análisis de los datos y las oportunidades de mercado. Los científicos de datos no
solo están centrados en el análisis de datos, sino también en las necesidades de
usuarios y ayudar los ejecutivos hacer nuevos productos.
Existen varios modelos de análisis de datos, orientados al análisis de datos de
miles de datos y actualmente se habla de millones de datos aún falta por obtener
nuevos modelos análisis aplicables para hoy en día.
Se necesita formar emprendedores para estas nuevas tendencias hay que salir
del estado de trance en el que de cada profesional se dedica a lo que sabe, se
quedan en una área de confort sin el objetivo del querer cambiar las cosas,
involucrándose en nuevos retos y proyectos.
Hay varios retos que resolver y uno de esos son el almacenamiento, discos de
estado sólido como se está usando actualmente, procesamiento de datos,
administración de información a través de bases NoSQL.
En este ensayo se va a realizar algunas revisiones orientadas al análisis
predictivos usadas en big data, la importancia de big data es obtener información
de los datos que se almacenan con el objetivo de producir la información para la
toma de decisiones, por lo que es imprescindible contar con un científico de datos
en la empresa para lograr los objetivos fijados proyectándose sobre el resto de
empresas, siendo efectivas y productivas.

Tipos de análisis predictivos

Los tipos análisis predictivos que se mencionan son: modelos predictivos,


modelos descriptivos, modelos de decisión.

Modelo Predictivo

Los modelos predictivos examinan resultados anteriores para estimar una


probabilidad del comportamiento especifico en un futuro ya sea de un cliente o
un posible candidato para ser empleado.
Comprende también los modelos que buscan patrones discriminatorios de datos
para contestar preguntas ya sea sobre el comportamiento de empleados con el
perfil buscado o comportamientos del cliente , tales como la detección de tipos
de fraudes, los modelos de predicción a menudo realizan cálculos en tiempo real,
durante las operaciones.

Fig 1. “Como se desarolla un modelo predictivo”


Fuente: www.scoremind.com

Modelo Descriptivo

Los modelos descriptivos especifican los vínculos que se dan en los datos para
poder diferenciar y separar a las personas en grupos según su comportamiento.
Los modelos descriptivos determinan los diferentes vínculos entre personas o
productos. Aunque los modelos descriptivos no clasifican a los clientes según su
probabilidad de tomar una acción en particular. Los modelos descriptivos
normalmente son usados “offline” un ejemplo de esto seria el clasificar a los
clientes por sus preferencias de los productos según su etapa de vida.

Modelo de Decisión

Los modelos de decisión explican las diferentes relaciones entre todos los
elementos de una decisión, los datos que se conocen, la decisión y el plan de
variables y valores que determina la decisión, con el fin de revelar los resultados
de las decisiones de muchas variables. Estos modelos pueden ser utilizados en
optimización.

Objetivo de Big Data

El objetivo principal de Big Data, como los sistemas analíticos convencionales, es el de


transformar los datos en información para si facilitar la toma de decisiones a tiempo
real. La importancia no es solo en cuestión de tamaño sino en una oportunidad de
negocio.
Las empresas que utilizan Big Data lo hacen para obtener el perfil del cliente, sus
empleados y futuros empleados y comprender las necesidades, factores clave y
patrones de gente empleada, esto adquiere una especial relevancia y permite a la
empresa adecuar la forma de interacción con los clientes en saber cómo les prestan el
servicio y con los interesados en ser empleados el perfil que están buscando.
EL concepto de manejar grandes volúmenes de datos no es nuevo y no es bueno
asociar este concepto Big Data, existen varias empresas que llevan bastante tiempo
operando volúmenes muy grandes de data a través de DataWarehouses y
herramientas analíticas con potencial que les hace posible el tratar apropiadamente
esos tamaños de volumen. La evolución de la tecnología ha dado el surgimiento de
Big data, el bajo costo de almacenamiento han creado que los volúmenes que se
operan por estas aplicaciones han aumentado de manera importante permitiendo la
toma de decisiones convirtiendo los datos en información.

Filosofía para adoptar big data

Para adoptar correctamente la filosofía Big Data en una empresa hay que tener en
cuenta que no sólo es una cuestión solamente tecnológica, la empresa requiere tener
una visión lo suficientemente transparente de los beneficios que le genera el basar el
negocio en data, el valor del conocimiento que se extraerá, englobando los datos
internos como los externos.
Es muy importante el poder contar con gente profesional en este campo que cuenten
con conocimientos que les permitan traspasar esa barrera entre los factores técnicos y
los de negocio, por lo que da cabida nuevamente y recobra importancia el sentido de
la posición del científico de datos.
Sean Owen de Cloudera define al científico de datos como “una persona que entiende
la estadística mejor que un ingeniero software y es mejor en ingeniería software que
cualquier estadístico”. A parte de estas herramientas que sin duda son indispensables
se debe agregar la experiencia del negocio y capacidad para proyectar las preguntas
convenientes.
Las opiniones son diversas y no coincidentes, pero la mejor forma de comenzar a
“realizar Big Data” es un paso a la vez, tomando el tiempo necesario e incluyendo
proyectos cuyos objetivos deben ser enfocados. Los candidatos indicados para probar
con esta tecnología son los procesos que tienen un cuello de botella, existen
diferentes situaciones que surgen de la necesidad de innovar, a través del vinculo de
data externa o también el diseño de los productos basados en la data.
Se puede citar un buen ejemplo como es la iniciativa de Big Data desde el Centro de
Innovación BBVA que proporciona información agregada sobre transacciones de
tarjetas de crédito.
La fuente más importante de donde extraer los datos es la obtenida en las redes
sociales, los datos están marcados por la heterogeneidad que ofrece, es una de las
fuentes de datos que plantea varios retos.

Utilidad de Big Data

Las personas estamos constantemente creando y guardando información de todo tipo


en volúmenes gigantescos. Esta información la podemos obtener ya sea en industrias,
compañias que mantienen volúmenes grandes de data transaccionales, agrupando
información acerca de sus empleados, proveedores, clientes operaciones, entre otros.
Y asi mismo pasa con el sector publico. En diferentes lugares del mundo bases de
data que contienen data de censo de población, registros médicos, impuestos, etc..
son almacenados y si aparte se le agrega transacciones financieras realizadas en
línea o por celular, análisis de redes sociales ( twitter tiene aproximadamente 12
terabytes de tweets diariamente y Facebook guarda aproximadamente 100 peta bytes
de fotos y videos), zona geográfica usando coordenadas GPS, lo que quiero decir,
todas las actividades que realizamos dia con dia con nuestros “Smartphone”, se habla
de que se crean aproximadamente 2.5 quintinillones de bytes diariamente en el
mundo.
Toda esa gran cantidad de información es tomada por las empresas ya sean privadas
públicas, gubernamentales para ser rotulada entre confiable y poco confiable para
luego ser tratada por herramientas de procesamiento de grandes cantidades de datos
como son: hadoop, pentaho, netezza, vertica, DataFlux, Greenplum entre otros. Con la
finalidad de obtener un tipo de información relevante para la actividad de la empresa y
dependiendo de los intereses de la misma.

Big Data y el análisis de datos

Las organizaciones y entidades de información hasta hace poco se enfocaban


principalmente al almacenamiento de información para ser utilizada por los usuarios.
La visión más “agresiva” se le da a través de los profesionales de información que no
sólo toman la data o los volúmenes grandes de información, pero que realizan
informes, producto de análisis, los cuáles facilitan la conversión de grandes cantidades
de datos en información sintetizada y confiable. El análisis de información ayuda y ha
transformado la toma de decisiones, en una tarea cada vez más dinámica y que
requiere de una base informativa bien sustentada.
El estudio de información empieza en la simple recolección y lectura de textos hasta la
interpretación, el objetivo se basa en adquirir ideas, obtenidas de las diferentes fuentes
de información permitiendo manifestar el contenido sin confusiones, con la meta de
guardar y recuperar la data contenida.

Fig 4. “Big Data y Análisis de Datos”

Fuente: http://www.breva.biz/big-data-y-analisis-de-la-informacion/

Para analizar la información surgen tecnologías como data warehouse, (almacén de


datos) es un conjunto de data dirigida a un ámbito determinado, en los sistemas data
warehouse la información no se cambia ni se desecha, ya que un dato se guarda, éste
es convertido en información de lectura, y se mantiene para consultas futuras, los
cambios producidos en la data a lo largo del tiempo quedan inscritos para que las
interpretaciones que se hagan puedan reflejar estas variaciones, que ayudarán a la
toma de decisiones.
El almacenamiento de la data no se usa con data de uso actual. En los almacenes de
data se podría encontrar volúmenes grandes de información que se clasifican a veces
en unidades lógicas mas chicas que dependen del subsistema de la entidad de la que
proceden o para el que sea necesario, existe un inconveniente en los data warehouses
convencionales y su almacenamiento no se puede escalar hasta Terabyte de datos y
soportar analítica avanzada.
Las diferentes tecnologías de la información han creado grandes e importantes
crecimientos desde los años 50, a una velocidad en el que la potencia de la
informática crece enormemente año con año y a la par de este crecimiento de la
informática está acompañada la información, cuyos volúmenes están haciendo cada
vez más indescifrables.
El análisis de datos es vital en big data, puesto que sólo el almacenamiento de datos
en bruto no nos ofrece nada, se lo puede ejemplificar como una mina donde para
extraer el oro se debe procesar cantidades de roca para obtener el valioso metal. En la
cotidianidad de la vida real sucede algo similar, una cadena de farmacias, puede tener
almacenada las ventas de cinco años y antes de desechar toda esa información podría
analizarla como por ejemplo saber en cuáles regiones se compran qué medicamento
con mayor demanda que otros, en qué temporada un medicamento tiene una mayor
demanda, qué factores externos influyen en la demanda de productos, que sucursales
de determinadas regiones, son factibles de tener personal médico, etc.
Encontrar y emplear científicos de data es totalmente decisivo para el éxito de
cualquier proyecto de Big Data pues proporciona el talento de definir, entender,
manejar y contextualizar data de varias fuentes en varios formatos. El científico de
datos tiene como reto aplicar su experiencia y conocimiento que en la actualidad este
es ajeno a la mayoría de los departamentos de tecnología informática y también para
la mayor parte de las corporaciones.

El 45% de los planes de Business Intelligence fallan por escases de conocimiento de


los datos del personal de las empresas. Así lo concluyó una encuesta realizada por
GigaOm, “los requisitos de los conocimientos de Big Data son más rigurosos que los
de la mayoría de los proyectos de business intelligence, lo que significa que los índices
de fracaso debido a la falta de conocimientos deben ser aún mayores”. Según la
definición de IBM, la ciencia de los datos requiere capacitación en ciencias de la
computación, aplicaciones, modelado de datos, estadística, analítica y matemáticas
avanzadas. También requiere capacitación en procesos o manejo de negocios con el
fin de identificar los requisitos de la organización y los datos que podrían empatarlos.
“Un científico de datos no simplemente recolecta y genera reportes de datos, sino que
también los analiza desde muchos ángulos, determina su significado y luego
recomienda formas de aplicarlos”.
F. BIG

Data y la nube

Uno de los mayores inconvenientes que las empresas enfrentan es no poder


costearse la infraestructura física para interpretar grandes volúmenes de datos
desestructurados. Actualmente existen proveedores de almacenamiento de datos que
ofrecen soluciones en la nube con una gama de productos, comercializan soluciones
asequibles y accesibles. Lo aconsejable será que las empresas alquilen espacio de
almacenamiento en potentes servidores que pueden acceder en línea, es decir la
infraestructura será provista por la nube como cimientos estables que sustentarán a
Big Data, permitiendo contar con servidores con aplicaciones que han sido diseñadas
especialmente para manejar grandes volúmenes de datos, y para conseguir resultados
rápidos, en tiempo real dando una solución accesible a las empresas.
La infraestructura que ofrece la nube son:
Nube privada: ofrece una infraestructura virtualizada y específica dentro del firewall.
Nube privada externa: ofrece una infraestructura común, aunque personalizada, que
se alberga fuera del firewall
Nube pública: ofrece una infraestructura compartida que alberga un tercero.
Híbrida: ofrece un entorno mixto de dispositivos en las instalaciones, nube privada
(interna y externa) y nube pública
Big Data en Recursos Humanos

A la aplicación de de Analytics y Big Data en RRHH se conoce como Talent Analytics y


habla de un grupo de herramientas clave y procesos estadísticos que se basan en las
cantidades enormes de información ya mencionadas y que de acuerdo a los análisis
que se necesitan llevar a cabo, permiten resolver diferentes preguntas y agilizar
procesos de RRHH. Los datos necesitados existen y se actualizan diario, la clave es
saber procesarlos para tomar la mejor decisión posible.

Hoy en dia, por el gran desequilibrio de talento y la recesion global, las organizaciones
se están concentrando en intercambiar los sistemas convencionales de RRHH por el
razonamiento de la analítica aplicada al talento. Como se muestra en la siguiente
figura, las las evoluciones se empieza por conocimiento básico e informes y crece
hacia el análisis predictivo y precisamente esto es lo que esta ocurriendo en RRHH.

Fig. 3 “el inevitable cambio RRHH y analítica del talento”

Fuente: http://www.peopletreespain.com/big-data-en-rr-hh-porque-esta-aqui-y-lo-que-significa-i/
El uso de Big Data en RRHH es una estrategia que puede ayudar o facilitar a
contestar las preguntas mas comunes que surgen los departamentos de RRHH,
como: Cuál es el mejor candidato para ocupar la vacante?, Cuáles factores son
los que determinan la rotación de empleados?, Cuáles son los empleados con el
mejor desempeño?, Qué empleados tienen mayor potencial? Y Qué factores se
repiten en nuestro perfil ideal de empleado?

Un muy buen ejemplo del uso de Big Data en recursos humanos para citar es el
de Josh Besin, consultor y especialista en RRHH de Forbes, para una
organización financiera estadounidense, que mediante el uso de Big Data y
análisis estadístico se estudiaron los datos de ventas y rotación de vendedores
donde se incluyo con el desempeño total de la compañía, variables de factores
demográficos y tasas de retención anuales para asi poder identificar a sus
empleados con mejor desempeño y hacer una selección de los mejores
aspirantes para asi mejorar sus indicadores de productividad y poder fortalecer
su departamento comercial.
Con los resultados obtenidos se creo un nuevo sistema en la política de RRHH
y con su empleo se aumento el ingreso de la organisacion en 4 millones de
solares anuales. Con este ejemplo podemos decir que en la mayor parte de las
empresas de contratación, la promoción, las decisiones de gestión y las
recompensas se siguen basando en la experiencia personal, el instituto y los
sistemas de creencias corporativas.

Las organizaciones tienen acceso a millones de datos de todo tipo sobre sus
propios empleados ya sean de rotación laboral, formación, demográficos, historia
académica, índice de rendimiento, etc. Y muchas empresas no la toman en
cuenta o no le dan la importancia necesaria en la toma de decisiones ya sea para
fortalecer la productividad, gestión y competencia.

Consideraciones

Se debe tener en cuenta algunas consideraciones:


Fuente Abierta: es importante contar con conocimientos sólidos cuando se
escoge una herramienta de código abierto como por ejemplo Hadoop tanto si se
va contar en las instalaciones físicas o en la nube.
Almacenamiento y procesamiento de datos: es mportante analizar con qué tipo
de nube se va a contar a la hora de gestionar el almacenamiento y
procesamiento de datos ya que de esto dependerá el acceso que se tenga a los
mimos.
Competencias: Contar con especialistas es importante, los científicos de datos
son quienes proporcionarán el conocimiento sobre esos datos
Asistencia: se requiere contar con asistencia sobre la infraestructura que
dependerá del tipo de nube seleccionada ya que si es privada se deberá contar
con un equipo interno que brinde asistencia en el otro caso el proveedor deberá
brindar la asistencia oportuna.
Rendimiento: Se debe gestionar el tráfico de la red ya que esto afectará en el
rendimiento y acceso a los datos, por tratarse de grandes volúmenes de
información por acceder no debe dejarse de lado el rendimiento de aplicaciones
y accesos a datos.
Integración: Es importante la integración del big data en los sistemas internos y
externos, dentro y fuera de la nube, se debe integrar el big data en las
aplicaciones, sistemas y procesos existentes.
Privacidad: A través de Big Data se puede acceder ya sea a fuentes externas
como internas, pero nunca hay q dejar de lado la privacidad de estos datos.

Conclusiones

El crecimiento de volúmenes de datos no es un limitante para biga data, la


información crece cada día en terabytes hasta Petabytes, es evidente que si se
proyecta se tendría un incremento de aproximadamente un 40% teniendo en
cuenta que los datos no solo se producen con sistemas de las empresas, sino
que viene de diversas fuentes con redes sociales, sensores, teléfono
inteligentes, etc. Es importante tener un análisis de los datos en un tiempo real
para poder consumir la información en tiempo real.
El tratamiento de la información no se limita a los datos estructurados, no solo
fila y columnas sino se extiende a un análisis de información de cualquier tipo de
datos que van desde archivos pdf, vídeos, hojas de cálculo, fotos, etc.
Las empresas deben considerar el contar con científicos de datos que son los
encargados de analizar la información, contemplar nuevas fuentes datos para
poder extraer información que aportarán mayor valor agregado, visón al negocio
y contratar a la gente adecuada.
Los usuarios podrán consumir la información de big data, dando la apariencia de
contar con un autoservicio y la tendencia será prescindir de un administrador de
sistemas sino se podrá consumir la información directamente por parte de
usuarios y ejecutivos de negocios.
En el mundo actual estamos interconectados lo que hace que se exija velocidad
en procesos y a través de big data se procesa información en tiempo real en
grandes volúmenes de información por lo que se requiere que el análisis de datos
sea óptimo y que se optimicen algoritmos para análisis de lenguaje natural,
inteligencia artificial, evitando errores en el procesamiento.
Los datos de producen de distintas fuentes y pueden ser capturados para poder
hacer uso en distintas áreas como en el marketing, medir la satisfacción de
clientes, determinar sus necesidades con lo que se potencia la creación de
nuevos servicios, constantemente pueden ser monitoreados los servicios
prestados y mejorarlos.
Biga data ofrece oportunidades para las empresas u organizaciones sean más
eficaces y competitivas y el reto de la empresas es gestionar grandes volúmenes
de datos que van creciendo día a día.
La tecnología debe ser innovadora no se puede usar la misma que se ha
trabajado años atrás, para big data se requiere mayor velocidad, capacidad de
almacenamiento y análisis así como disponer en cualquier momento, por lo que
se puede hablar de la nube como un buen aliado.

Citas

[1] McKinsey Global Insitute (MGI), “Definición Big Data”, Junio de 2011
[2] GARTNER – IT GLOSSARY “Defición Big Data” https://www.gartner.com/it-
glossary/big-data/.

Bibliografia

- FUNDACION BIG DATA - ANALISIS PREDICTIVO disponible en:


http://fundacionbigdata.org/analisis-predictivo
- BIG DATA Y EL ANALISIS DE LA INFORMACIÓN,
- TRANSFORMACION BASADA EN ANÁLISIS,
http://www.atkearney.es/analisis-de-datos/areas-competencia/capability/-
/asset_publisher/BqWAk3NLsZIU/content/analytics-
transformation/10192?redirect=http%3A%2F%2Fwww.atkearney.es%2F
analisis-de-datos%2Fareas-
competencia%2Fcapability%3Fp_p_id%3D101_INSTANCE_BqWAk3NL
sZIU%26p_p_lifecycle%3D0%26p_p_state%3Dnormal%26p_p_mode%3
Dview%26p_p_col_id%3Dcolumn-
2%26p_p_col_pos%3D1%26p_p_col_count%3D2
- BIG DATA PRESENTE Y FUTURO,
http://www.abc.es/tecnologia/informatica-soluciones/20131207/abci-data-
analisis-201312051430.html
- BIG DATA http://www.wobi.com/es/articles/big-data
- BBVA Innovation Center
https://www.centrodeinnovacionbbva.com/magazines/innovation-
edge/publications/21-big-data/posts/153-big-data-en-que-punto-estamos
- QUË ES BIG DATA,
http://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/
- LA NUBE Y BIG DATA,
http://www.sas.com/offices/europe/spain/sascom/Q32013/Nube_BigData
.pdf
- BIG DATA, EL FUTURO EN LA GESTION DE RECURSOS HUMANOS,
http://www.acsendo.com/es/blog/big-data-el-futuro-en-la-gestion-de-
recursos-de-humanos/

You might also like