Entries with zylk-blog hadoop ecosystem times .

Actualidad

Zylk participará en LibreCon 2016

avatar
Pilar Peña Nov 02, 2016
Zylk

La cita, que prevé reunir a más de 1.500 expertos y responsables de compañías, estará orientada a los nuevos retos de la Industria 4.0 y del sector Financiero. La VI edición del Congreso Nacional pretende dar respuesta a través del software libre y las tecnologías abiertas a los nuevos retos de la Industria 4.0, previstos para el primer día, así como de la banca online (Open Finances), contenidos programados para la segunda jornada. LibreCon 2016, organizada por la Federación Nacional de......

Read More

ZYLK Industry Advanced Analytics participa en el reto Velatia - Ormazabal

avatar
David Olmos Oct 04, 2016
Zylk

El viernes 30 de septiembre ZYLK Advanced Analytics se presentó al reto Velatia (Grupo Ormazabal) enmarcado dentro del programa de Innovación Abierta de Bizkaia Open Future, impulsado por la diputación de Bizkaia y Telefónica. Zylk propone soluciones para la monitorización remota de máquinas aisladas así como elementos de seguridad IT para las mismas. Así mismo dispone de una herramienta de monitorización predictiva en tiempo real para los centros de datos de su organización. ZYLK Advanced......

Read More

ZYLK Industry Advanced Analytics wants to accelerate its growth via BIND 4.0

avatar
David Olmos Sep 17, 2016
Zylk

Bind 4.0 is a public-private acceleration program that lasts 24 weeks and takes place in the Basque Country. It focuses on Industry 4.0 early-stage startups involved in big data, additive manufacturing, artificial vision, cloud computing, augmented reality, cybersecurity, cyberphysical systems and/or collaborative robotics. They offer “A contract with one of our top industry firm partners for the development of an Industry 4.0 project.” and that is what we wanted the most. We already work for......

Read More

Zylk Industry is here Big Data and IoT together

avatar
David Olmos Sep 02, 2016
Zylk

Zylk Industry is here. Big Data and IoT together for our customers. your industry is full of data, are you aware of that? ZYLK Industry is a project that was born 2 years ago from the Big Data Team experience in Energy, Automotive, and Telecomunications industries. Our team is formed by professionals with extensive experience in Big Data, IoT, telecommunications, front-end interfaces and data analytics. ZYLK Industry has given a step foward and has developed a non-intrusive 360º data......

Read More

Visión general de una arquitectura de microservicios basada en yarn

avatar
Gustavo Fernández Jan 11, 2016
Zylk

Siguiendo con la evolución de las arquitecturas orientadas a servicios ... ahí va un gráfico que completa la visión general explicada en anteriores post Los servicios son servicios modelados con avro/RP y pueden operar en tres modalidades POJOs Como servicio RPC en local Como servicio RPC en un cluster de yarn (escalado, tolerancia a fallos etc..)...

Read More

Avro RCP yarn and slider

avatar
Gustavo Fernández Nov 29, 2015

Siguiendo con los artículos relacionados con YARN, SLIDER y arquitecturas relacionadas con BigData mostramos a continuación una posible arquitectura basda en los siguientes tres elementos YARN SLIDER AVRO RPC Donde lo importante es que con este tipo de arquitectura podríamos disponer de servicios con las caraterísticas indicadas Resilence (http://hortonworks.com/blog/rm-yarn-resilience/) Elastic (https://slider.incubator.apache.org/) Horizontal Scaling (http://hortonworks.com/hadoop/slider/)......

Read More

Usando yarn y slider para levantar procesos en un cluster de hortonworks

avatar
Gustavo Fernández Nov 22, 2015

Siguiendo con las pruebas y las arquitecturas relacionados con bigdata vamos a inspeccionar las capacidades de yarn para levantar procesos en un cluster HDP. Lo primero que habría que introducir es el producto yarn. De la página siguiente de hortonworks podemos obtener la siguiente definición YARN is the prerequisite for Enterprise Hadoop, providing resource management and a central platform to deliver consistent operations, security, and data governance tools across Hadoop clusters. YARN......

Read More

Monitorizando el cluster de hadoop y kafka con Ganglia

avatar
Gustavo Fernández Jan 05, 2015

Siguiendo con los artículos anteriores relacionados con los nuevos paradigmas del desarrollo, hemos montado en el laboratorio donde hacemos las pruebas, en zylk.net, un sistema de monitorización para tener métricas de los siguientes productos Sistema operativo HDFS MAP&REDUCE (yarn) Hbase Kafka Todos estos productos ya los hemos ido describiendo en anteriores entradas del blog y ahora lo que hemos hecho es agrupar todas las metrircas que los mismos producen y almacenarlas usando el siguiente......

Read More

Seguimos jugando con phoenix

avatar
Gustavo Fernández Nov 17, 2014

Siguiendo con el anterior post relacionado con Phoenix, he estado probando más características que hay que evaluar para ver hasta donde nos puede llevar Phoenix + Hbase+ Pentaho + Saiku. 1) Herramientas de bulk 2) Rendimeinto de las queries 3) Creación de índices secundarios 4) Análisis de los planes de ejecución de las queries En la imagen podemos ver los resultados de los juegos ... la verdad es que apunta maneras. La siguiente prueba consistirá en recoger los datos de un proyecto típico de......

Read More

Cubos OLAP con hbase, pentaho, saiku y phoenix

avatar
Gustavo Fernández Nov 07, 2014

Hace unos meses que el proyecto phoenix ha salido de la incubadora de apache. Por esta razón he decidido hacer unas pruebas de concepto para ver como se podría integrar los cubos R-OLAP basados en mondrian y consumidos desde la interfaz de saiku como componente de servidor de pentaho. ¿por qué puede ser interesante esto?. Mondrian es un proyecto que traduce queries MDX a SQL Phoenix es un proyecto que traduce queries SQL a queries de HBase Por tanto integrando phoenix en pentaho podríamos......

Read More

Cargando librerias nativas para hadoop 2, come evitar el WARNING Unable to load native-hadoop library

avatar
Gustavo Fernández Aug 27, 2014

Siguiendo con los posts anteriores (I, II) relacionados con el laboratorio de hadoop 2, el primer post dejé un warning en el arranque de hdfs sin resolver. El warning está relacionado con el uso de librerías nativas del sistema operativo para los procesos de compresión y descompresión. Parece que estos procesos realizados por medio de código java son un 40% más lentos que si los realizan los comandos nativos del sistema operativo. Así que hemos montado el laboratiorio para que haga uso de......

Read More

Montando un laboratorio de big-data basado en hadoop 2 servicios arrancados

avatar
Gustavo Fernández Aug 26, 2014

Siguiendo con el post anterior, los servicios que al final hemos arrancado, y la forma de arrancarlos es la siguiente: Arrancar el filesystem distribuido, el yarn y el servidor de histórico de tares realizadas por yarn >>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-dfs.sh >>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-yarn.sh >>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./mr-jobhistory-daemon.sh start historyserver Arrancar el gateway de nfs >>>hadoop@lug000:/zoo/hadoop-2.5.0/bin$ sudo ./hdfs......

Read More

Montando un laboratorio de big data basado en Hadoop 2

avatar
Gustavo Fernández Aug 25, 2014

LLevamos ya un tiempo usando el llamado zoo de hadoop para hacer algunos proyectos relacionados con big-data. Hasta ahora siempre hemos usado la versión de hadoop 1.x porque era la versión con la que empezamos a hacer las pruebas de concepto. Pero como parece ya seguro que hadoop ha venido para quedarse no está de más hacer pruebas con las nuevas versiones. En concreto hemos montado un laboratorio de hadoop con última versión estable, que a día de hoy es la 2.5. La hemos montado para analizar......

Read More

Usando hadoop para intercambio masivo de ficheros en un contexto de big data II

avatar
Gustavo Fernández Jul 03, 2013

Uno de los últimos proyectos en los que ha estado trabajando el equipo ha sido la segunda parte del proyecto relacionado con el intercambio de ficheros usando HADOOP comentado en el post Usando hadoop para intercambio masivo de ficheros en un contexto de big data. El equipo responsable del desarrollo ha sido el mismo que en el caso anterior. Por parte de EJIEOscar Guadilla en la definición de la arquitectura y gestión del proyecto, Carlos Gonzalez de Zarate y Roberto Tajada en la parte de......

Read More

Big data explorando los nuevos paradigmas del desarrollo

avatar
Gustavo Fernández Jul 02, 2013

El pasado día 6 de Junio asistimos a una jornada de introducción al Big Data en enpresadigitala donde Jorge Ubero nos introdujo en el paradigma de Big Data. Y es que tal y como dijo Eric Schmidt (CEO de Google) cada día producimos tanto contenido como produjo toda la humanidad desde hace 2000. Esto son aproximadamente unos 2.5 Exabytes de datos procesables cada día. Esto hace que el modelo de escalabilidad vertical, presente en la mayor parte de los proyectos, con sus arquitecturas de CPD......

Read More

Usando hadoop para intercambio masivo de ficheros en un contexto de big data

avatar
Gustavo Fernández Jan 05, 2012

Durante los últimos tres meses en zylk hemos estado desarrollando, conjuntamente con personal de EJIE (Oscar Guadilla en la definición de la arquitectura y gestión del proyecto, Carlos Gonzalez de Zarate y Roberto Tajada en la parte de platea integración y Juan Uralde en la parte de xlnets) , una aplicación horizontal para el intercambio temporal de ficheros. La problemática que se quería resolver era la siguiente: Disponer de un sistema para que las distintas aplicaciones, situadas en los......

Read More
— 20 Items per Page
Showing 21 - 36 of 36 results.