Clase virtual
La consigna es :
Hacer un estudio en internet de todo lo referente a Big data
Descripcion
Caracteristicas
Proveedores
Casos de aplicacion
El informe no debe superar las 3 hojas. Y deberan subirlo a su propio blog
Que es Big Data
El Big Data o Datos
Masivos se refiere a sistemas informáticos basados en la acumulación a
gran escala de datos y de los procedimientos usados para identificar patrones
recurrentes dentro de esos datos. En la literatura científica en español con
frecuencia se usa directamente el término en inglés Big Data (de big [amount
of] data), tal como aparece en el ensayo seminal de Viktor
SchönbergerBig data: La revolución de los datos masivos.1
La disciplina dedicada a los datos masivos se
enmarca en el sector de las tecnologías de la información
y la comunicación. Esta disciplina se ocupa de todas las actividades
relacionadas con los sistemas que manipulan grandes conjuntos de
datos. Las dificultades más habituales vinculadas a la gestión de
estas cantidades de datos se centran en la captura, el almacenamiento,2 búsqueda,
compartición, análisis,3 y
visualización. La tendencia a manipular ingentes cantidades de datos se debe a
la necesidad en muchos casos de incluir los datos relacionados del análisis en
un gran conjunto de datos, como los análisis de negocio, publicitarios, los
datos de enfermedades infecciosas, el espionaje y seguimiento a la población o
la lucha contra el crimen organizado.4
El límite superior de procesamiento se ha ido
desplazando a lo largo de los años. De esta forma, los límites fijados en 2008
rondaban el orden de petabytes a zettabytes de
datos.5 Los
científicos con cierta regularidad encuentran limitaciones debido a la gran
cantidad de datos en ciertas áreas, tales como la meteorología,
la genómica,6 la conectómica, las complejas simulaciones de
procesos físicos7 y
las investigaciones relacionadas con los procesos biológicos y ambientales,8 Las
limitaciones también afectan a los motores de búsqueda en internet, a los
sistemas finanzas y
a la informática de negocios. Los data
sets crecen en volumen debido en parte a la introducción de
información ubicua procedente de los sensores inalámbricos y
los dispositivos móviles (por ejemplo las VANETs), del constante
crecimiento de los históricos de aplicaciones (por ejemplo de los logs),
cámaras (sistemas de teledetección),
micrófonos, lectores de radio-frequency
identification.9 10 La
capacidad tecnológica per-cápita a nivel mundial para almacenar datos se dobla
aproximadamente cada cuarenta meses desde los años ochenta.11 Se
estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de
datos (del inglés quintillion, 2.5×1018).12
¿Qué es exactamente y para qué sirve?
Cada día existen más y más empresas que manejan una incalculable
cantidad de información, casos en que hablamos de petabytes. Si a ello sumamos
la gestión de datos proveniente de redes sociales como, Facebook, Twitter y
LinkedIn surge el concepto de Big Data, por lo que podríamos decir que es
el término que se utiliza para describir los grandes volúmenes de datos que
componen Internet y la posibilidad de obtener información sobre ellos.
Algunos números clarificarán la situación: se calcula en más de 1000
millones los internautas del mundo que alimentan a diario la Red con cerca de
15 petabytes de datos. ¿A qué equivale? 1000 petabytes son un exabyte, 1000
exabytes son un zettabyte. En el año 2015 habrá 8 zettabytes de información en
la Red según la consultora IDC. Un zettabyte corresponde a 75 mil millones de
iPads de 16 gigas o a mil millones de discos rígidos como los de una
computadora promedio de escritorio. Hoy, en 2012, la Red contiene 2,7
zettabytes de datos, aproximadamente, y aunque es difícil pensar en esta
cantidad de información, definirla y analizarla promete grandes beneficios para
los usuarios.
Según IDC, la cantidad de información en la Web se duplica cada 18 meses
y aunque América Latina todavía representa menos del 10% de la audiencia total
mundial de Internet -8.9% según ComScore-, la participación en la Red no para
de crecer y nuestro país es especialmente proclive al uso intensivo de las
herramientas sociales y de la Web en general.
Big Data, entonces, alude a un conjunto de datos (gran cantidad de ellos, no
tradicional como los provenientes de redes sociales o multimedios. datos no
explotados en el pasado) cuyo tamaño constituye un desafío a la capacidad de la
mayoría de los softwares utilizados para capturar, gestionar y procesar la
información dentro de un lapso tolerable.
Si a ello, agregamos que junto con el gigantesco volumen de datos, las
organizaciones enfrentan el problema de que la información está repartida por
toda la estructura y en lugares físicos distantes, donde, los datos provienen
de diversas fuentes, muchas de ellas desestructuradas, es allí donde surge la
necesidad, por parte de las organizaciones, de contar con un habilitador
tecnológico que les permita aprovechar todo el potencial de su Big Data.
¿Cómo accedemos al Big Data?
El Big Data puede ser el mejor activo de una organización o una de sus
obligaciones más gravosas: todo depende de las estrategias y las soluciones que
se pongan en marcha para afrontar el ingente crecimiento del volumen, la
complejidad, la diversidad y la velocidad de los datos.
Teniendo herramientas a las que recurrir, es vital que las entidades que
manejan una gran cantidad de datos pongan en práctica todas las acciones disponibles
para gobernar su Big Data, y de este modo utilizarla como insumo para el
negocio, teniendo en cuenta que los mismos están dentro y fuera de las
organizaciones, en hojas de cálculo, bases de datos, redes sociales, sistemas
de telemedición, correos electrónicos, etc.. Esto constituye un desafío, ya que
durante décadas, las empresas han tomado sus decisiones basándose en datos de
transacciones que se encontraban en sus propias bases de datos relacionales.
Pero más allá, hay un mundo de datos no estructurados, provenientes de diversas
fuentes, que pueden ser aprovechados para tomar decisiones de negocio más
inteligentes.
La propuesta integral de Oracle
Oracle, apuesta por soluciones extremo a extremo orientadas a hacer el
entorno de trabajo más productivo al integrar la tecnología y respetando que el
mundo del Big Data es open source.
Dado que la reducción en los costos en el área de almacenamiento y en el
área de capacidad de computación está haciendo posible aprovechar el inmenso
caudal de datos disponibles en Internet, Oracle propone un ciclo desde la
adquisición de los datos hasta la toma de decisiones de negocio, pasando por la
organización de la información y su análisis. Todo ello se sustenta en una
propuesta tecnológica capaz de soportar cada una de las fases.
Así, la propuesta pasa por sistemas de ingeniería conjunta
(como el Oracle Big Data Appliance) de hardware y software para
crear sistemas de rendimiento excepcional, como es en este caso que, junto con
el software estándar como Hadoop-MapReduce y NoSQL, coloca a Oracle a la
vanguardia de las empresas tecnológicas en este campo. A la hora de analizar
cómo pueden las organizaciones extraer valor de sus proyectos de Big Data, hay
que tener en cuenta que el mayor valor se encuentra en la integración de los
datos estructurados (generalmente información propia de la empresa que reside
en sus sistemas) con los datos no estructurados en fuerte expansión. Es esa
integración lo que permitirá a las empresas adquirir una ventaja competitiva,
al permitirles desarrollar propuestas personalizadas para sus clientes que
tengan en cuenta tanto la trayectoria de esos clientes con la propia
organización como la información que esté disponible públicamente. La
tecnología está ya disponible a costos razonables, por lo que es previsible una
progresiva implantación, comenzando por aquellos sectores que ya en la
actualidad manejan grandes volúmenes de datos (comunicaciones, finanzas,
retail, utilities, etc.). El reto empresarial asociado a Big Data es tan
complejo como las empresas quieran imaginar. Es tan simple como hacer realidad
servicios de geolocalización que permitan realizar una campaña de marketing
personalizada, en función de la ubicación del cliente en un momento dado, de
las preferencias que ha mostrado en redes sociales y de la propia trayectoria
de compras -y no compras- con la empresa.
Según lo ya señalado, Big Data no es una tecnología, se trata más bien de un conjunto de nuevos procesos empresariales e ideas de negocio de los que se lleva hablando desde hace algunos años (aprovechamiento del inmenso caudal de datos estructurados y desestructurados para obtener beneficios de negocio), pero que sólo ahora son posibles gracias a que hay tecnologías disponibles a precios razonable
Según lo ya señalado, Big Data no es una tecnología, se trata más bien de un conjunto de nuevos procesos empresariales e ideas de negocio de los que se lleva hablando desde hace algunos años (aprovechamiento del inmenso caudal de datos estructurados y desestructurados para obtener beneficios de negocio), pero que sólo ahora son posibles gracias a que hay tecnologías disponibles a precios razonable
Fases del proceso
Consisten en:
1) Obtener los datos
Sacar el máximo partido de grandes volúmenes de datos significa analizar
rápidamente un gran volumen de datos que se generan en muchos formatos
diferentes, desde cualquier fuente
2) Organizarlos
Una plataforma de datos grande necesita para procesar cantidades masivas
de datos en lotes y en paralelo de filtrado, transformación y clasificación
antes de colocarlo en un almacén de datos empresariales. Oracle ofrece una
selección de productos para la organización de grandes volúmenes de datos,
incluyendo: Oracle Big Data Appliance Oracle Data Integrator Oracle Big Data
Connectors
3) Analizarlos
El análisis de grandes volúmenes de datos en el contexto de todos los
otros datos de su empresa puede revelar nuevos conocimientos que puedan tener
un impacto significativo en sus resultados finales. Oracle ofrece una gama de
herramientas para el análisis estadístico y avanzadas que complementan Oracle
Exadata, que incluyen: Oracle Advanced Analytics Oracle Exadata Database
Machine Oracle Data Warehousing Oracle Exalytics In-Memory Machine y por
último, poner esa información en valor en el proceso de toma de
decisiones.
Así, los beneficios que ofrecería la tecnología de Oracle serían:
- Ofrecer una plataforma Enterprise Ready para Big Data
- Manejar y analizar todos los datos
- Bajar los riesgos y la puesta en producción del negocio
- Tener un punto de soporte.
Big Data, tres casos de éxito: T- Mobile, Unilever y MoneyBall
Como hemos comentado en anteriores ocasiones, el Big Data es ya hoy en día una gran oportunidad en el ámbito del marketing. Los profesionales del campo deben entender bien su funcionamiento y las ventajas que presenta a la hora de diseñar y ejecutar campañas de marketing.
En esta nueva entrega de nuestro especial os presentamos tres casos de éxito que muestran cómo aplicando estrategias y técnicas del Big Data podemos conseguir alcanzar nuestros objetivos (T-Mobile), importantes ventajas competitivas frente a nuestros rivales (Moneyball) o conocer con mayor precisión el comportamiento y las necesidades de nuestros consumidores (Unilever).
Cómo el Big Data ayudó a T-Mobile a reducir a la mitad el número de portabilidades
T-mobile consiguió reducir a la mitad el número de portabilidades (de 100.000 el primer trimestre de 2011 a 50.000 en el segundo trimestre) gracias a la aplicación de técnicas sobre Big Data. Las operadoras de telefonía móvil e Internet tienen un número impresionante de datos sobre sus clientes: la cantidad de llamadas que realizan, las horas en las que tienen lugar, sus números favoritos, el número de llamadas que se cortan por problemas de cobertura y un larguísimo etcéterca.
Con todos estos datos en la mano y analizando las interacciones de sus clientes en medios sociales, en T-Mobilese propusieron rebajar sustancialmente el número de portabilidades hacia otros competidores en Estados Unidos. Para ello la empresa utilizó tres herramientas básicas: sus propios sistemas de cobro (billing systems), herramientas de monitorización social, además de Splunk y Tableau Software para analizar la información y presentarla de una forma visual.
Combinando toda esta información en T-Mobile descubrieron que las expectativas de portabilidades pueden determinarse a través del análisis de tres factores:
- Facturas
- Llamadas que se cortan debido a mala cobertura
- Conversaciones de los clientes: positivas, negativas o neutrales
Todos estos factores fueron asociados a la influencia o reputación en medios sociales de cada uno de sus clientes, partiendo de la hipótesis de que clientes con un gran número de seguidores o influencia podrán tener un efecto positivo o negativo (según las circunstancias) en otros potenciales clientes de la marca.
La combinación de todos los aspectos mencionados anteriormente llevó a T-Mobile a calcular para cada cliente un ‘Customer Lifetime Value‘, un valor monetario individual según las expectativas de negocio y permanencia. Esta información era transmitida en tiempo real a cada agente de la compañía para presentar a los clientes ofertas personalizadas en función de su valor personal.
De esta forma la empresa pasó de casi 100.000 portabilidades en el primer trimestre de 2011 pasaron a tan sólo 50.000 en el segundo trimestre, una reducción del 50% gracias a un buen aprovechamiento del Big Data y de todos los datos e información que la operadora tiene de sus clientes.
Unilever: del las conversaciones en redes sociales al comportamiento real del los consumidores
Durante el Mobile World Congress de Barcelona, el CMO de Unilever Keith Weed, afirmó que a la hora de integrar el Big Data en las tomas de decisiones de la empresa “la medición de datos y comportamientos es clave para afrontar el proceso”.
Hace unos meses Unilever se planteó el reto de conocer si las conversaciones de los potenciales consumidores en medios sociales difieren mucho de su comportamiento real de compra. Para ello se aprovecharon de software proporcionado por Compete (para medir el ROI), Cymfony (‘social media listening’) y de su propia herramienta de analítica, CybrTrack90, que realiza dos funciones principales: seguir las menciones de sus marcas (o a las categorías de productos en los casos en los que la marca no fuese mencionada expresamente) en medios sociales y también analizar el comportamiento de los usuarios en las búsquedas que éstos realizan en internet.
Lo que los directivos de marketing de Unilever descubrieron es que existen tres actividades diferentes en el proceso de compra: conversaciones, soluciones y compras. Las conversaciones sobre las diversas marcas de comida de Unilever tenían lugar fuera de los comercios y espacios de compra, por lo que la empresa debería encontrar una forma de acercarse a ellos en esos momentos.
Otra conclusión a la que llegaron en la compañía fue que las decisiones de compra de los consumidores están influenciadas por una serie de factores que van más allá del precio o la comunicación, como por ejemplo factores relacionados con la salud, el bienestar o la preparación de las comidas. Por ello desde la empresa se plantearon atacar también estos momentos, con el objetivo de facilitar el consumo a los potenciales compradores y que éstos tuviesen una experiencia más simple y satisfactoria con los alimentos de la marca.
En definitiva, con la combinación de tres herramientas como CybrTrack90, Compete y Cymfony, Unilever fue capaz de comprobar que lo que los consumidores dicen en entornos online difiere, en ocasiones, de la vida real. Y que acercarse a sus consumidores más fieles para simplificar la compra y el consumo pueden ser claves en el futuro de la marca y en el bienestar de sus clientes.
Unilever combinó los resultados provenientes del sistema de ‘social media listening‘ y los datos de clicks en sus diferentes páginas web asociadas para entender el comportamiento de sus potenciales consumidores y adaptar su oferta y comunicación a dichos hábitos en tiempo real, definiendo estrategias diferentes en sus canales según el día y momento de la semana para que los consumidores encontrasen aquello que se ajusta a sus necesidades.
Moneyball: el Big Data aplicado al baseball
Las decisiones en el mundo de los deportes siempre han estado basadas en dos tipos de factores: personales/subjetivos y monetarios. Sin embargo Billy Beane, general manager de los Oakland Athletics de la Major League Baseball estadounidense, decidió poner fin a estas limitaciones.
Billy Beane utilizó una serie de métodos estadísticos propios de los mercados financieros para determinar la valía de sus jugadores y de otros potenciales. El general manager llegó a la conclusión de que en el mundo del baseball se prestaba demasiada atención a una serie de estadísticas y se dejaba de lado otras muchas que tenían un gran valor intrínseco a la hora de seleccionar jugadores, como por ejemplo los porcentajes ‘on-base‘ o ‘slugging‘.
Esta aplicación poco convencional del Big Data en el mundo de los deportes llevó a Billy Beane a sentar cátedra entre sus compatriotas, a crear una nueva escuela de pensamiento en el mundo del deporte y convirtió a Moneyball en un éxito de masas con su adaptación en el cine. Pero los éxitos no se quedaron aquí, ya que el extrovertido directivo de los Oakland A’s llevó a su equipo a competir con otros como los New York Yankees con un presupuesto mucho más ajustado: $45 millones de dólares frente a $125 millones. Una utilización efectiva del Big Data que muestra que con recursos limitados también pueden obtenerse grandes resultados.
Como hemos podido ver con estos tres ejemplos, el Big Data es aplicable en muchos ámbitos relacionados con el marketing, desde el sector de las telecomunicaciones al de la comida, pasando por el deporte profesional. Un análisis exhaustivo de los datos y una adaptación ágil y rápida de la estrategia de comunicación y marketing de las empresas puede ofrecer unos excelentes resultados. ¿Conocéis otros claros casos de éxito en la aplicación del Big Data?