miércoles, 3 de junio de 2015

Trabajo Pràctico Nº 7, fecha 08/05/15, procesamiento de datos II, Big Data clase virtual

Clase virtual

La consigna es :
Hacer un estudio en internet de todo lo referente a Big data  
Descripcion
Caracteristicas
Proveedores
Casos de aplicacion 
El informe no debe superar las 3 hojas. Y deberan subirlo a su propio blog


Que es Big Data
El Big Data o Datos Masivos se refiere a sistemas informáticos basados en la acumulación a gran escala de datos y de los procedimientos usados para identificar patrones recurrentes dentro de esos datos. En la literatura científica en español con frecuencia se usa directamente el término en inglés Big Data (de big [amount ofdata), tal como aparece en el ensayo seminal de Viktor SchönbergerBig data: La revolución de los datos masivos.1
La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la captura, el almacenamiento,2 búsqueda, compartición, análisis,3 y visualización. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos, como los análisis de negocio, publicitarios, los datos de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen organizado.4
El límite superior de procesamiento se ha ido desplazando a lo largo de los años. De esta forma, los límites fijados en 2008 rondaban el orden de petabytes a zettabytes de datos.5 Los científicos con cierta regularidad encuentran limitaciones debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica,6 la conectómica, las complejas simulaciones de procesos físicos7 y las investigaciones relacionadas con los procesos biológicos y ambientales,8 Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la introducción de información ubicua procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification.9 10 La capacidad tecnológica per-cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta.11 Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del inglés quintillion, 2.5×1018).12



Descripción: http://www.kit.com.ar/admin/_kit/imagenes/notas/0000100/0000182.jpg Big Data, se ha convertido en una de las tendencias del mercado tecnológico. Como otros temas que han sido hits tecnológicos, no surgen de la noche a la mañana sino que coadyuvan circunstancias que los potencian exponencialmente como para generar una categoría conceptual nueva en el universo de la TI.
¿Qué es exactamente y para qué sirve?
Cada día existen más y más empresas que manejan una incalculable cantidad de información, casos en que hablamos de petabytes. Si a ello sumamos la gestión de datos proveniente de redes sociales como, Facebook, Twitter y LinkedIn surge el concepto de Big Data, por lo que podríamos decir que es el término que se utiliza para describir los grandes volúmenes de datos que componen Internet y la posibilidad de obtener información sobre ellos.
Algunos números clarificarán la situación: se calcula en más de 1000 millones los internautas del mundo que alimentan a diario la Red con cerca de 15 petabytes de datos. ¿A qué equivale? 1000 petabytes son un exabyte, 1000 exabytes son un zettabyte. En el año 2015 habrá 8 zettabytes de información en la Red según la consultora IDC. Un zettabyte corresponde a 75 mil millones de iPads de 16 gigas o a mil millones de discos rígidos como los de una computadora promedio de escritorio. Hoy, en 2012, la Red contiene 2,7 zettabytes de datos, aproximadamente, y aunque es difícil pensar en esta cantidad de información, definirla y analizarla promete grandes beneficios para los usuarios.
Según IDC, la cantidad de información en la Web se duplica cada 18 meses y aunque América Latina todavía representa menos del 10% de la audiencia total mundial de Internet -8.9% según ComScore-, la participación en la Red no para de crecer y nuestro país es especialmente proclive al uso intensivo de las herramientas sociales y de la Web en general.
Big Data, entonces, alude a un conjunto de datos (gran cantidad de ellos, no tradicional como los provenientes de redes sociales o multimedios. datos no explotados en el pasado) cuyo tamaño constituye un desafío a la capacidad de la mayoría de los softwares utilizados para capturar, gestionar y procesar la información dentro de un lapso tolerable.
Si a ello, agregamos que junto con el gigantesco volumen de datos, las organizaciones enfrentan el problema de que la información está repartida por toda la estructura y en lugares físicos distantes, donde, los datos provienen de diversas fuentes, muchas de ellas desestructuradas, es allí donde surge la necesidad, por parte de las organizaciones, de contar con un habilitador tecnológico que les permita aprovechar todo el potencial de su Big Data. 
¿Cómo accedemos al Big Data?
El Big Data puede ser el mejor activo de una organización o una de sus obligaciones más gravosas: todo depende de las estrategias y las soluciones que se pongan en marcha para afrontar el ingente crecimiento del volumen, la complejidad, la diversidad y la velocidad de los datos.
Teniendo herramientas a las que recurrir, es vital que las entidades que manejan una gran cantidad de datos pongan en práctica todas las acciones disponibles para gobernar su Big Data, y de este modo utilizarla como insumo para el negocio, teniendo en cuenta que los mismos están dentro y fuera de las organizaciones, en hojas de cálculo, bases de datos, redes sociales, sistemas de telemedición, correos electrónicos, etc.. Esto constituye un desafío, ya que durante décadas, las empresas han tomado sus decisiones basándose en datos de transacciones que se encontraban en sus propias bases de datos relacionales. Pero más allá, hay un mundo de datos no estructurados, provenientes de diversas fuentes, que pueden ser aprovechados para tomar decisiones de negocio más inteligentes. 
La propuesta integral de Oracle
Oracle, apuesta por soluciones extremo a extremo orientadas a hacer el entorno de trabajo más productivo al integrar la tecnología y respetando que el mundo del Big Data es open source.
Dado que la reducción en los costos en el área de almacenamiento y en el área de capacidad de computación está haciendo posible aprovechar el inmenso caudal de datos disponibles en Internet, Oracle propone un ciclo desde la adquisición de los datos hasta la toma de decisiones de negocio, pasando por la organización de la información y su análisis. Todo ello se sustenta en una propuesta tecnológica capaz de soportar cada una de las fases.
Así, la propuesta pasa por sistemas de ingeniería conjunta (como el Oracle Big Data Appliance) de hardware y software para crear sistemas de rendimiento excepcional, como es en este caso que, junto con el software estándar como Hadoop-MapReduce y NoSQL, coloca a Oracle a la vanguardia de las empresas tecnológicas en este campo. A la hora de analizar cómo pueden las organizaciones extraer valor de sus proyectos de Big Data, hay que tener en cuenta que el mayor valor se encuentra en la integración de los datos estructurados (generalmente información propia de la empresa que reside en sus sistemas) con los datos no estructurados en fuerte expansión. Es esa integración lo que permitirá a las empresas adquirir una ventaja competitiva, al permitirles desarrollar propuestas personalizadas para sus clientes que tengan en cuenta tanto la trayectoria de esos clientes con la propia organización como la información que esté disponible públicamente. La tecnología está ya disponible a costos razonables, por lo que es previsible una progresiva implantación, comenzando por aquellos sectores que ya en la actualidad manejan grandes volúmenes de datos (comunicaciones, finanzas, retail, utilities, etc.). El reto empresarial asociado a Big Data es tan complejo como las empresas quieran imaginar. Es tan simple como hacer realidad servicios de geolocalización que permitan realizar una campaña de marketing personalizada, en función de la ubicación del cliente en un momento dado, de las preferencias que ha mostrado en redes sociales y de la propia trayectoria de compras -y no compras- con la empresa.
Según lo ya señalado, Big Data no es una tecnología, se trata más bien de un conjunto de nuevos procesos empresariales e ideas de negocio de los que se lleva hablando desde hace algunos años (aprovechamiento del inmenso caudal de datos estructurados y desestructurados para obtener beneficios de negocio), pero que sólo ahora son posibles gracias a que hay tecnologías disponibles a precios razonable
Fases del proceso
Consisten en:
1) Obtener los datos
Sacar el máximo partido de grandes volúmenes de datos significa analizar rápidamente un gran volumen de datos que se generan en muchos formatos diferentes, desde cualquier fuente
2) Organizarlos
Una plataforma de datos grande necesita para procesar cantidades masivas de datos en lotes y en paralelo de filtrado, transformación y clasificación antes de colocarlo en un almacén de datos empresariales. Oracle ofrece una selección de productos para la organización de grandes volúmenes de datos, incluyendo: Oracle Big Data Appliance Oracle Data Integrator Oracle Big Data Connectors
3) Analizarlos
El análisis de grandes volúmenes de datos en el contexto de todos los otros datos de su empresa puede revelar nuevos conocimientos que puedan tener un impacto significativo en sus resultados finales. Oracle ofrece una gama de herramientas para el análisis estadístico y avanzadas que complementan Oracle Exadata, que incluyen: Oracle Advanced Analytics Oracle Exadata Database Machine Oracle Data Warehousing Oracle Exalytics In-Memory Machine y por último, poner esa información en valor en el proceso de toma de decisiones. 
Así, los beneficios que ofrecería la tecnología de Oracle serían:
- Ofrecer una plataforma Enterprise Ready para Big Data
- Manejar y analizar todos los datos
- Bajar los riesgos y la puesta en producción del negocio
- Tener un punto de soporte.





Big Data, tres casos de éxito: T- Mobile, Unilever y MoneyBall


Como hemos comentado en anteriores ocasiones, el Big Data es ya hoy en día una gran oportunidad en el ámbito del marketing. Los profesionales del campo deben entender bien su funcionamiento y las ventajas que presenta a la hora de diseñar y ejecutar campañas de marketing.
En esta nueva entrega de nuestro especial os presentamos tres casos de éxito que muestran cómo aplicando estrategias y técnicas del Big Data podemos conseguir alcanzar nuestros objetivos (T-Mobile), importantes ventajas competitivas frente a nuestros rivales (Moneyball) o conocer con mayor precisión el comportamiento y las necesidades de nuestros consumidores (Unilever).

Cómo el Big Data ayudó a T-Mobile a reducir a la mitad el número de portabilidades

T-mobile consiguió reducir a la mitad el número de portabilidades (de 100.000 el primer trimestre de 2011 a 50.000 en el segundo trimestre) gracias a la aplicación de técnicas sobre Big Data. Las operadoras de telefonía móvil e Internet tienen un número impresionante de datos sobre sus clientes: la cantidad de llamadas que realizan, las horas en las que tienen lugar, sus números favoritos, el número de llamadas que se cortan por problemas de cobertura y un larguísimo etcéterca.
Con todos estos datos en la mano y analizando las interacciones de sus clientes en medios sociales, en T-Mobilese propusieron rebajar sustancialmente el número de portabilidades hacia otros competidores en Estados Unidos. Para ello la empresa utilizó tres herramientas básicas: sus propios sistemas de cobro (billing systems), herramientas de monitorización social, además de Splunk y Tableau Software para analizar la información y presentarla de una forma visual.
Combinando toda esta información en T-Mobile descubrieron que las expectativas de portabilidades pueden determinarse a través del análisis de tres factores:
  • Facturas
  • Llamadas que se cortan debido a mala cobertura
  • Conversaciones de los clientes: positivas, negativas o neutrales
Todos estos factores fueron asociados a la influencia o reputación en medios sociales de cada uno de sus clientes, partiendo de la hipótesis de que clientes con un gran número de seguidores o influencia podrán tener un efecto positivo o negativo (según las circunstancias) en otros potenciales clientes de la marca.
La combinación de todos los aspectos mencionados anteriormente llevó a T-Mobile a calcular para cada cliente un ‘Customer Lifetime Value‘, un valor monetario individual según las expectativas de negocio y permanencia. Esta información era transmitida en tiempo real a cada agente de la compañía para presentar a los clientes ofertas personalizadas en función de su valor personal.
De esta forma la empresa pasó de casi 100.000 portabilidades en el primer trimestre de 2011 pasaron a tan sólo 50.000 en el segundo trimestre, una reducción del 50% gracias a un buen aprovechamiento del Big Data y de todos los datos e información que la operadora tiene de sus clientes.

Unilever: del las conversaciones en redes sociales al comportamiento real del los consumidores

Durante el Mobile World Congress de Barcelona, el CMO de Unilever Keith Weed, afirmó que a la hora de integrar el Big Data en las tomas de decisiones de la empresa “la medición de datos y comportamientos es clave para afrontar el proceso”.
Hace unos meses Unilever se planteó el reto de conocer si las conversaciones de los potenciales consumidores en medios sociales difieren mucho de su comportamiento real de compra. Para ello se aprovecharon de software proporcionado por Compete (para medir el ROI), Cymfony (‘social media listening’) y de su propia herramienta de analítica, CybrTrack90, que realiza dos funciones principales: seguir las menciones de sus marcas (o a las categorías de productos en los casos en los que la marca no fuese mencionada expresamente) en medios sociales y también analizar el comportamiento de los usuarios en las búsquedas que éstos realizan en internet.
Lo que los directivos de marketing de Unilever descubrieron es que existen tres actividades diferentes en el proceso de compra: conversaciones, soluciones y compras. Las conversaciones sobre las diversas marcas de comida de Unilever tenían lugar fuera de los comercios y espacios de compra, por lo que la empresa debería encontrar una forma de acercarse a ellos en esos momentos.
Otra conclusión a la que llegaron en la compañía fue que las decisiones de compra de los consumidores están influenciadas por una serie de factores que van más allá del precio o la comunicación, como por ejemplo factores relacionados con la salud, el bienestar o la preparación de las comidas. Por ello desde la empresa se plantearon atacar también estos momentos, con el objetivo de facilitar el consumo a los potenciales compradores y que éstos tuviesen una experiencia más simple y satisfactoria con los alimentos de la marca.
En definitiva, con la combinación de tres herramientas como CybrTrack90, Compete y Cymfony, Unilever fue capaz de comprobar que lo que los consumidores dicen en entornos online difiere, en ocasiones, de la vida real. Y que acercarse a sus consumidores más fieles para simplificar la compra y el consumo pueden ser claves en el futuro de la marca y en el bienestar de sus clientes.
Unilever combinó los resultados provenientes del sistema de ‘social media listening‘ y los datos de clicks en sus diferentes páginas web asociadas para entender el comportamiento de sus potenciales consumidores y adaptar su oferta y comunicación a dichos hábitos en tiempo real, definiendo estrategias diferentes en sus canales según el día y momento de la semana para que los consumidores encontrasen aquello que se ajusta a sus necesidades.

Moneyball: el Big Data aplicado al baseball

Las decisiones en el mundo de los deportes siempre han estado basadas en dos tipos de factores: personales/subjetivos y monetarios. Sin embargo Billy Beane, general manager de los Oakland Athletics de la Major League Baseball estadounidense, decidió poner fin a estas limitaciones.
Billy Beane utilizó una serie de métodos estadísticos propios de los mercados financieros para determinar la valía de sus jugadores y de otros potenciales. El general manager llegó a la conclusión de que en el mundo del baseball se prestaba demasiada atención a una serie de estadísticas y se dejaba de lado otras muchas que tenían un gran valor intrínseco a la hora de seleccionar jugadores, como por ejemplo los porcentajes ‘on-base‘ o ‘slugging‘.
Esta aplicación poco convencional del Big Data en el mundo de los deportes llevó a Billy Beane a sentar cátedra entre sus compatriotas, a crear una nueva escuela de pensamiento en el mundo del deporte y convirtió a Moneyball en un éxito de masas con su adaptación en el cine. Pero los éxitos no se quedaron aquí, ya que el extrovertido directivo de los Oakland A’s llevó a su equipo a competir con otros como los New York Yankees con un presupuesto mucho más ajustado: $45 millones de dólares frente a $125 millones. Una utilización efectiva del Big Data que muestra que con recursos limitados también pueden obtenerse grandes resultados.
Como hemos podido ver con estos tres ejemplos, el Big Data es aplicable en muchos ámbitos relacionados con el marketing, desde el sector de las telecomunicaciones al de la comida, pasando por el deporte profesional. Un análisis exhaustivo de los datos y una adaptación ágil y rápida de la estrategia de comunicación y marketing de las empresas puede ofrecer unos excelentes resultados. ¿Conocéis otros claros casos de éxito en la aplicación del Big Data?

No hay comentarios.:

Publicar un comentario