Este programa puede sufrir cambios y cancelaciones por motivos que escapan a nuestro control.
Las empresas han estado utilizando Big Data desde hace siglos, pero el concepto solamente ha sido ampliamente accesible en la última década, como potencia de cálculo se ha convertido en el software más barato y de código abierto y se ha ampliado de forma espectacular el número de empresas que pueden permitirse las herramientas de Big Data. Voy a ofrecer una historia de Big Data, siguiendo su uso entre las empresas y el gobierno. También voy a explorar su acogida reciente por intereses comerciales, trataré de cuantificar su impacto, y ver lo que puede hacer por nosotros en el futuro.
Uno de los principios más importantes de NoSQL es que el mismo tamaño no sirve para todos. Pero la proliferación de opciones hace que sea difícil saber cuál es la solución más adecuada para su problema. Jonathan abarcará cinco preguntas importantes con los que evaluar las posibles soluciones, y dar ejemplos de cómo Apache Cassandra responde a esas preguntas.
La revolución Big Data es más que sólo terabytes o petabytes de datos. Es también la aplicación de nuevos paradigmas, lenguajes y herramientas para estos conjuntos de datos. Esta es la gran fortaleza del big data, pero también una gran responsabilidad. Estas herramientas tienen diferentes modelos de datos, diferentes utilidades para la lectura y escritura de datos y marcos diferentes para incluir código de usuario.
La informática y los recursos de almacenamiento masivo que se necesitan para dar soporte a aplicaciones de big data hacen de los entornos cloud un ajuste ideal. Ahora más que nunca, hay un número cada vez mayor de opciones de proveedores de infraestructura cloud, desde Amazon AWS, OpenStack ofrecido por HP, Rackspace y pronto incluso Dell, VMware vCloud, así como ofertas privadas de cloud basada en OpenStack, CloudStack, vCloud y más. También hay un nuevo tipo de herramientas Cloud de SoftLayer y PistonCloud que proporcionan recursos de alto rendimiento diseñados para aplicaciones de E/S y CPU intensivas que no funcionan tan bien en recursos virtuales. Los recientes anuncios de Google y Microsoft sobre su nueva infraestructura como una oferta de servicios, agrega otros factores importantes dentro de este mercado en crecimiento.
Teniendo en cuenta las diversas opciones los entornos dinámicos envueltos, se hace cada vez más importante para mantener la flexibilidad, elegir la herramienta Cloud adecuada para el trabajo.
En esta sesión, aprenderá cómo implementar y administrar el clúster Hadoop en cualquier Nube, así como gestionar el resto de su grupo de aplicaciones de datos utilizando un nuevo marco de código abierto llamado Cloudify.
Google conoce Big Data - Nuestras aplicaciones web escalan a cientos de millones de usuarios y petabytes de datos. Google ha desarrollado tecnologías a medida para analizar estos datos y tomar decisiones inteligentes sobre productos. Hemos empezado a abrir algunas de estas tecnologías como APIs que permiten a los desarrolladores concentrarse en sus problemas de negocio, mientras que Google se encarga de la infraestructura subyacente.
Google BigQuery es una herramienta de análisis de Big Data nacido de una tecnología interna conocido como Dremel. BigQuery permite a los desarrolladores analizar terabytes de conjuntos de datos en cuestión de segundos mediante una API REST y un lenguaje de consulta similar a SQL. Vamos a demostrar cómo se pueden incorporar BigQuery Google en sus propias aplicaciones, y cómo las consultas son procesadas. También vamos a mostrar ejemplos aplicando la Freebase de conocimiento y demos construidas por otros desarrolladores como tú.
Hay una necesidad continua de alto rendimiento informático: grandes retos científicos, de ingeniería, geofísica, bioinformática, etc. Sin embargo, la energía se está convirtiendo en uno de los recursos más caros y el elemento de costo dominante para el funcionamiento de un centro de computación de gran tamaño. De hecho, el costo de la energía total de unos años de funcionamiento casi puede ser igual al costo de la infraestructura de hardware. La eficiencia energética es ya una preocupación primordial para el diseño de cualquier sistema informático y que es unánimemente reconocido que los sistemas Big Data se verán fuertemente restringidos por este coste energético.
Una forma importante de hacer Big Data pequeño es utilizar herramientas open-source como MongoDB para permitir análisis en tiempo real sobre los ingentes conjuntos de datos. Incluso las tecnologías como Hadoop tienden a ser demasiado lenta y demasiado complicada para la mayoría de los desarrolladores.
En esta presentación, Brendam argumentará que hacer Big Data poderoso significa hacerlo útil para el negocio, y no sólo a los científicos de datos. Mientras apunta a los beneficios de MongoDB para una variedad de casos de uso, que se centrará en las implicaciones más amplias de tecnologías y enfoques que pueden hacer Big Data más manejable.
En los meses de verano de 2012, Plain Concepts tenido la oportunidad de trabajar con un socio de larga duración en el desarrollo de SHARP (SCADA Análisis histórico y Plataforma de informes) - su recopilación de nuevos datos y el sistema de análisis - construido con la distribución de Microsoft Hadoop y SQL Server 2012.
SHARP realiza la carga de datos de las plantas de energía eólica en todo el mundo a un clúster Hadoop, que sirve para muchos propósitos, que van desde el almacenamiento histórico, la generación de los resultados del modelo y fuente de datos para los datos agregados a un almacén de datos relacional, por encima de los cuales, modelos tabulares OLAP de SQL Server 2012 están diseñados para alto rendimiento y análisis en tiempo real aprovechando PowerView y otras herramientas.
* Pueden producirse cambios en el programa