Open IT Experts for Enterprise

Zylk empresa de desarrollo de ecommerce

Nombre del autor:Gustavo Fernández

Creando mini aplicaciones basdas en el CMS de liferay

Una de las características interesantes a la hora de gestionar los contenidos basados en estructuras y templates en liferay es la posibilidad de hacer lógica y mini-aplicaciones basadas en velocity. En este caso vamos a explicar como montar una agenda de eventos sencilla basada en un contenido estructurado tipo evento. Para ello necesitaremos varias cosas …

Creando mini aplicaciones basdas en el CMS de liferay Leer más »

Montando un laboratorio de big-data basado en hadoop 2 servicios arrancados

Siguiendo con el postanterior, los servicios que al final hemos arrancado, y la formade arrancarlos es la siguiente: Arrancar el filesystem distribuido, el yarn y el servidor dehistórico de tares realizadas por yarn>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-dfs.sh>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-yarn.sh>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$./mr-jobhistory-daemon.sh start historyserver Arrancar el gateway de nfs>>>hadoop@lug000:/zoo/hadoop-2.5.0/bin$ sudo./hdfs portmap>>>hadoop@lug000:/zoo/hadoop-2.5.0/bin$ sudo./hdfs nfs3 UPDATE: Hemos incorporado hbase al laboratorio >>>hadoop@lug000:/zoo/hbase-0.98.5-hadoop2$ ./bin/start-hbase.sh Y …

Montando un laboratorio de big-data basado en hadoop 2 servicios arrancados Leer más »

Montando un laboratorio de big data basado en Hadoop 2

LLevamos ya un tiempo usando el llamado zoo dehadoop para hacer algunos proyectosrelacionados con big-data.Hasta ahora siempre hemos usado la versión de hadoop 1.x porque era laversión con la que empezamos a hacer las pruebas de concepto. Perocomo parece ya seguro que hadoop ha venido para quedarse noestá de más hacer pruebas con las nuevas …

Montando un laboratorio de big data basado en Hadoop 2 Leer más »

Cargando librerias nativas para hadoop 2, come evitar el WARNING Unable to load native-hadoop library

Siguiendo con los posts anteriores (I,II)relacionados con el laboratorio de hadoop 2, elprimer post dejé un warning en el arranque de hdfs sin resolver. Elwarning está relacionado con el uso de librerías nativas del sistemaoperativo para los procesos de compresión y descompresión. Parece queestos procesos realizados por medio de código java son un 40% máslentos …

Cargando librerias nativas para hadoop 2, come evitar el WARNING Unable to load native-hadoop library Leer más »

Cubos OLAP con hbase, pentaho, saiku y phoenix

Hace unos meses que el proyecto phoenix ha salido de la incubadora de apache. Por esta razón he decidido hacer unas pruebas de concepto para ver como se podría integrar los cubos R-OLAP basados en mondrian y consumidos desde la interfaz de saiku como componente de servidor de pentaho. ¿por qué puede ser interesante esto?. …

Cubos OLAP con hbase, pentaho, saiku y phoenix Leer más »

Configurando liferay para que deje las trazas en colas de kafka

Siguiendo con las pruebas de los productos mencionados en anteriores post, una de las cosas más o menos sencillas que se puede hacer es, configurar los distintos productos que usan log4j para añadirles un nuevo appender de tipo cola de kafka. El propio proyecto de kafka trae un appender para log4j Para hacer uso del …

Configurando liferay para que deje las trazas en colas de kafka Leer más »

Monitorizando el cluster de hadoop y kafka con Ganglia

Siguiendo con los artículos anteriores relacionados con los nuevos paradigmas del desarrollo, hemos montado en el laboratorio donde hacemos las pruebas, en zylk.net, un sistema de monitorización para tener métricas de los siguientes productos Sistema operativo HDFS MAP&REDUCE (yarn) Hbase Kafka Todos estos productos ya los hemos ido describiendo en anteriores entradas del blog y …

Monitorizando el cluster de hadoop y kafka con Ganglia Leer más »

Implementando servicios REST con jaxrs sustituyendo JSON por Protocol Buffer

Una de las particularidades de las orientaciones SOA es que servicios consumen servicios, y desde hace un tiempo ya estos servicios no se orientan a SOAP con webservices si no que se orientan más a servicios más ligeros basados en REST. En la siguiente firgura podemos ver un ejemplo de lo comentado Donde podemos ver, …

Implementando servicios REST con jaxrs sustituyendo JSON por Protocol Buffer Leer más »

CDF. Extendiendo el componente tabla en los dashboards de pentaho.

Durante el desarrollo de un proyecto de BI con pentaho, similar al proyecto que describimos el año pasado que hicimos con las empresa cianoplan, nos ha surgido la necesidad de ampliar la funcionalidad del componente tabla del CDF. La idea es que queríamos calcular algunos totales en la tabla. Buscando por internet en los foros …

CDF. Extendiendo el componente tabla en los dashboards de pentaho. Leer más »

Nueva versión de sinadura, ahora firmamos factura-e y disponemos de perfiles de firma

La nueva versión de sinadura Desktop ha visto hoy la luz… puedes descargártela en la zona de descarga del site de sinadura. Las principales características de esta nueva versión se pueden agrupar en dos grandes grupos Gestión mejorada de los perfiles de firma de los documentos PDFs. Posibilidad de realizar firmas de facturas electrónicas en …

Nueva versión de sinadura, ahora firmamos factura-e y disponemos de perfiles de firma Leer más »

Reactive programming, circuit-breaker y otros patrones de interés para trabajar con flujos de datos

LLevo un par de meses metido en un proyecto bastante interesante, y hasta que no finalice no me está dando tiempo a escribir sobre el mismo. Así que al menos voy a publicar un conjunto de links, muy interesantes, de temas que estamos usando. Patrones, paradigmas de desarrollo etc… Todos están relacionados con el tratamiento …

Reactive programming, circuit-breaker y otros patrones de interés para trabajar con flujos de datos Leer más »

Como añadir un nuevo idioma a sinadura desktop

La semana pasada un miembro de la comunidad de sinadura (Luís Jorge Pinho), aportó la traducción al portugues. Desde zylk.net queremos agradecerle el trabajo realizado mediante este post. Además queremos explicar como se añaden estos nuevos idiomas al producto sin que tengáis que esperar a que publiquemos una nueva versión con dicha traducción añadida. Para …

Como añadir un nuevo idioma a sinadura desktop Leer más »

Empaquetando aplicaciones java para MacOSX

A continuación voy a da algunas referencias que nos han ayudado en la automatización de la generacion de empaquetados para MacOSX, de aplicaciones java. En zylk.net empezamos a hacer nuestros primeros desarrollos multiplataforma allá por el año 2009 cuando desarrollamos, junto a otros miembros de la comunidad, la primera versión de sinadura. Después de 6 …

Empaquetando aplicaciones java para MacOSX Leer más »

Usando yarn y slider para levantar procesos en un cluster de hortonworks

Siguiendo con las pruebas y las arquitecturas relacionados con bigdata vamos a inspeccionar las capacidades de yarn para levantar procesos en un cluster HDP. Lo primero que habría que introducir es el producto yarn. De la página siguiente de hortonworks podemos obtener la siguiente definición YARN is the prerequisite for Enterprise Hadoop, providing resource management …

Usando yarn y slider para levantar procesos en un cluster de hortonworks Leer más »

Avro RCP yarn and slider

Siguiendo con los artículos relacionados con YARN, SLIDER y arquitecturas relacionadas con BigData mostramos a continuación una posible arquitectura basda en los siguientes tres elementos YARN SLIDER AVRO RPC Donde lo importante es que con este tipo de arquitectura podríamos disponer de servicios con las caraterísticas indicadas Resilence (http://hortonworks.com/blog/rm-yarn-resilience/) Elastic (https://slider.incubator.apache.org/) Horizontal Scaling (http://hortonworks.com/hadoop/slider/) Packaging …

Avro RCP yarn and slider Leer más »