Quantcast
Channel: Business Intelligence y Big Data: ¡Aprende Gratis sobre Analytics!
Viewing all 866 articles
Browse latest View live

6 motivos para llevar tu BI a la nube y 1 por el que no

$
0
0

De todos es sabido que una de las principales tendencias en estos últimos años es que muchos sistemas Business Intelligence se están llevando a la nube. Pero, también es cierto, que los sistemas que se están llevando a la nube no siempre son para áreas críticas de negocio o que manejen datos sensibles.

Esto limita las posibilidades para llevar tu Business Intelligence al cloud o tener un BI Corporativo con las ventajas de ambos modelos.

Os vamos a contar 6 motivos por los que puedes llevar tu BI a la nube y uno por el que no:

1. Reducción de Costes
Si te adaptas a las características de las soluciones BI que te proponen muchas empresas, con los límites, niveles premium, etc... puedes conseguir unos precios mensuales/anuales muy buenos por usuario

2. Aumentar los recursos, según se necesiten
En negocios y sectores en los que puedes tener variaciones en las concurrencias de uso muy altas, incrementos de volumenes de datos en determinados periodos, análisis real-time puntuales, etc... la posibilidad de asignar más recursos de forma fléxible es una gran ventaja


3. Desarrollos más ágiles
El no tener que depender de las áreas de sistemas, o de la disponibilidad de hardware en tiempo y capacidad de forma adecuada, hace que los desarrollos de proyectos e implementación se puedan demorar en gran manera


4. Entornos compatibles
Llevar tu BI a la nube te puede permitir tener algunos componentes y conectores desplegados de forma nativa, referentes a redes sociales, machine learning, bases de datos, etc...


5. Seguridad y Disponibilidad
Aunque no tener los datos en tus propias máquinas puede darte qué pensar, lo cierto, es que muchas compañías, para gran cantidad de información tienen más seguridad de no perderla o de tener brechas si confían en un entorno en la nube que en sus organizaciones internas, de las que no confían tanto

6. Acceso desde cualquier lugar y momento
Cada vez más, desde que se produjo la democratización del Business Intelligence y más usuarios, analistas, etc... hacen uso de los sistemas BI desde todo tipo de redes, accesos, dispositivos móviles... los entornos en la nube pueden garantizar un acceso común y similar para cada uno de ellos





Y por qué no mover a la nube?

Todas esas ventajas tienen el inconveniente de que si quieres desplegar el BI 'on premise', en tus propios entornos, controlando los datos sensibles y accesos, te topas con que el coste de las correspondientes licencias se dispara hasta niveles increíbles. 
Es el 'peaje' a pagar, por salirte del camino marcado en la nube por los grandes proveedores.

Salvo que.... y esa es la gran ventaja del modelo open source o sin coste de licencias, que se está extendiendo, que puedas desplegarlo 'on premise' o en una 'nube privada', controlada por tí, con todas las ventajas anteriores, más la de ahorro de costes.

Confía en las soluciones BI Open Source o sin coste de licencias y que tener tu BI en la nube o 'on premise' no sea un problema

Marketing Analytics, Open Source based Solution

$
0
0

As powerful as an enterprise version, with the advantages of being Open Source based. Discover LinceBI, the most complete Bussines Intelligence platform including all the functionalities you need for Marketing






Dashboards
  • User friendly, templates and wizard
  • Technical skills is not mandatory
  • Link to external content
  • Browse and navigate on cascade dependency graphs



Analytic Reporting
  • PC, Tablet, Smartphone compatibility
  • Syncs your analysis with other users
  • Download information on your device
  • Make better decisions anywhere and anytime

Bursting
  • Different output formats (CSV, Excel, PDF, HTML)
  • Task scheduling to automatic execution
  • Mailing
Balance Scorecard
  • Assign customized weights to your kpis
  • Edit your data on fly or upload an excel template
  • Follow your key performance indicators
  • Visual kpis, traffic lights colours
  • Assign color coding to your threshold
  • Define your own key performance indicators
Accessibility
  • Make calculated fields on the fly
  • Explore your data on chart
  • Drill down and roll up capabilities
  • What if analysis and mailing

Adhoc Reporting
  • Build your reports easily, drag and drop
  • Models and languaje created to Business Users
  • Corporative templates to your company
  • Advanced filters
Alerts
  • Configure your threshold
  • Mapping alerts and business rules
  • Planning actions when an event happen

Marketing KPIs:


Check FAQs section for any question


    Web Reporting open source based tool

    $
    0
    0
    Some new features of one of 'our favourites tools' in analytics that you can use it for Adhoc web reporting for end users. 

    You can use it 'standalone', with some BI solutions like Pentaho (check online Demo), suiteCRM, Odoo... or as a part of predefined solutions like LinceBI

    You can see STReport main new functionalities on this video including:

    - Graph support
    - Indentify cardinality of elements
    - Parameter filter for end users access
    - Cancel execution of long queries
    - Upgraded to new Pentaho versions
    - Many other minor enhacements and bugs fixed

    Contact info


    PowerBI + Open Source = Sports Analytics

    $
    0
    0

    Here you can see a nice sample combining PowerBI with open source based Business Intelligence solutions, like LinceBI, in order to provide the most complete BI solution with an affordable cost

    - Predefined Dashboards
    - Adhoc Reporting
    - OLAP Analysis
    - Adhoc Dashboarding
    - Scorecards

    More info:
    - PowerBI functionalities
    - PowerBI training

    Comparativa Kettle (Pentaho Data Integration) y Talend

    $
    0
    0
    Hace unos días os hablábamos de que el ETL es crucial y hoy os mostramos una comparativa de las dos mejores herramientas Open Source de ETL (Kettle de Pentaho y Talend), que tampoco empieza a ser arriesgado a decir que se están convirtiendo en las mejores, sobre todo si valoramos el coste y la posibilidad de integración y modificación respecto a Informatica Powercenter, Oracle, Microsoft o IBM

    Tanto Kettle como Talend son grandes herramientas, muy visuales, que nos permiten integrar todo tipo de fuentes, incluyendo también Big Data para hacer todo tipo de transformaciones y proyectos de integración o para preparar potentes entornos analíticos, también con soluciones Open Source como podéis ver en esta Demo Online, donde se han usado Kettle y Talend en el backend





    Descargar la comparativa de Excella 

    Metodologias Agiles para Analytics (Business Intelligence, Big Data)

    $
    0
    0




    En este post, os vamos a contar como hacer proyectos ágiles en Analytics (Business Intelligence/Big Data Analytics). Realmente, os vamos a contar unos tips o consejos que cada vez más usamos y que nos cuenta Emilio Arias de Stratebi.  

    Tradicionalmente, este enfoque se ha aplicado más a proyectos en los que el componente de 'desarrollo' tiene un peso muy importante y se hace muy difícil aplicarlo al BI/DW, donde los requisitos, el manejo de datos de negocio y la participación de perfiles de interlocutores muy diversos lo hace muy difícil.


    A. El enfoque tradicional de planificación en BI/DW

    - La planificación de proyectos en cascada (con diagramas de Gantt) que todos conocéis (lleva usándose más de 70 años) se ha demostrado imperfecto a la hora de conseguir que un proyecto BI sea exitoso. Que quiere decir 'un proyecto BI exitoso'? quiere decir 'que se use' por la mayor parte de la organización y es porque les ofrece 'lo que necesitan'

    - Los diferentes planteamientos teóricos de construcción (Kimball, Inmon, Data Vault) se han demostrado muy útiles para reflejar el diagrama de modelos y almacenes de datos, pero la ejecución en el día a día, nos ha demostrado que se requieren enfoques ágiles para llevarlos a la práctica



    - Los problemas surgen pues 'Cómo se había hecho una planificación', 'con muchos meses por delante', cuando surge un problema de arquitectura, de volumen, cambio de requerimientos, mejoras de software... el encaje y respuesta rápida se hace imposible

    - Al ser proyectos con un alcance ya cerrado y difícil de cambiar, 'proyectos caja negra', los usuarios e interesados en el proyecto no lo sienten como suyo, generando reticencias sobre su uso, al no sentirse partícipes, pues sus propuestas y sugerencias, 'suelen llegar tarde'




    B. Los 20 puntos clave para un proyecto Agile BI/DW

    1. Haz prototipos (antes, durante y después). No dejes de hacerlos, son la mejor herramienta para garantizar que se va en el buen camino

    2. Ten un entorno preparado para los prototipos rápidos (entorno en la nube, componentes predefinidos, procesos automatizados...)

    3. Usa metodologías ágiles. Hay muchas... (scrum...), lo más importante es el cambio de mentalidad y empezar a usarlas

    4. La regla de oro: mejor rehacer un 30% ahora que un 100% dentro de 6 meses. No tengas miedo a que te hagan cambios en los prototipos. Siempre será mejor que ir a ciegas

    5. Todo el equipo se siente implicado desde el momento inicial. Y sienten que sus opiniones cuentan

    6. La tradicional batalla entre usuarios-IT-Consultores, por sus diferentes prioridades, se minimiza al colaborar desde momentos muy tempranos y con la tranquilidad de que 'hay tiempo para corregir errores'

    7. En este tipo de proyectos, encontrar un 'product owner' es complicado, pero lo tenéis que hacer. Debe ser de negocio

    8. Solventa cuanto antes los puntos de fricción 'top-down', 'down-top', desde la importancia de la calidad del datos, los procesos ETL y los metadatos a los análisis de negocio en tiempo real, KPIs, etc... (en el punto intermedio, todos los participantes deberán alinearse)

    9. Haz los planes de pruebas no al final, sino al día siguiente de empezar

    10. Necesitas un Project Manager (el que está al tanto de todo, conoce a todos, convoca y resume las reuniones, etc...) Necesitas una cabeza visible y clara que todos 'identifiquen con el proyecto'

    11. Mide y cuenta los avances, genera satisfacción con lo conseguido
    12. Reuniones breves al principio de cada día y más amplias cada semana

    13. Nunca pongas la presentación de un hito, avance, etc.. un lunes por la mañana (es de malos gestores, contar con el fin de semana de colchón) y genera ansiedades

    14. Usa el BI (cubos, dashboards..) de forma ágil para validar rápidamente la calidad de los datos, tiempos de ejecución, etc... BI por partida doble

    15. Deja que los usuarios se acerquen al BI. Desde las fases iniciales pierde el miedo a que accedan, toquen, rompan, se frustren, se sorprendan, se quejen de lo que van viendo...

    16. No dejes el diseño y usabilidad para el final. Aunque pienses que es secundario y posterior, deber ir paralelo al desarrollo. Si no lo haces, la implicación de usuarios decaerá enormemente

    17. Con AgileBI vas a tener que seguir documentando (de otra forma, con herramientas online (trello, podio, etc...), pero lo harás

    18. Con AgileBI se necesita más disciplina, no menos. Esto es muy importante. Se asocia a cierto caos y es todo lo contrario. Se trata de trabajar como los mecánicos que cambian las ruedas en Formula 1

    19. Tienes que tener a la gente motivada en el proyecto (esto se consigue con todo lo anterior), pero si haces todo lo anterior y no están motivados, 'el problema eres tú'

    20. Un proyecto BI/DW nunca, nunca, nunca se acaba. Si lo das por acabado, también será un fracaso

    Adenda: Si usas BI Open Source (por su flexibilidad, ahorro de costes e integración), tienes 'muchos' más puntos para conseguir tu objetivo

    Te puede interesar:

    - Big Data para Dummies
    - Comparativa de herramientas Business Intelligence
    - Descarga gratuita del Libro de un buen amigo y gran especialista, Roberto Canales: 'Transformacion Digital y Metodologías Agiles'
    - Así se convierten los datos en conocimiento
    - Como aprender Big Data en dos horas



    Ebook gratuito, La Consultoria con Humor

    $
    0
    0

    Ya podéis bajaros el libro de 'La Gacela de Wirayut' para leer en vuestro tablet preferido de forma gratuita, en formato pdf.

    A todos los que habéis trabajado, trabajais en el mundo de la consultoría, o habéis tratado con consultores, seguro que hay muchas cosas que os resultan familiares.

    Se da un repaso a la inutilidad de muchas reuniones de trabajo, la relación con los jefes, el uso del e-mail y de internet, la hipocresía en muchas empresas.

    Un apasionante viaje a las profundidades de las empresas. Lugares en donde pasamos gran parte de nuestra vida sin comprender realmente que hacemos allí. Esperemos que os guste y además gratis!!

    ¿Te llevas bien con tu jefe o solo disimulas?, ¿Utilizas Internet para temas relacionados con tu trabajo o con tu ocio?, ¿Alguna vez has trabajado en el extranjero sin saber apenas inglés?


    Indice

    0. Introducción. La Gacela de Wirayut
    1. De moquetas y despachos
    2. Tienes un e-mail
    3. Haciendo amigos (seguridad, limpieza, mantenimiento)
    4. Que bien.... reunión
    5. Trabajar en el extranjero (Como Tarzán en Sarajevo)
    6. En tierra extraña (cuando se llega a una empresa ‘cliente’)
    7. El Alien ‘ado’
    8. Reuniones anuales, Kick-offs
    9. ¿Un coffee y hablamos?
    10. Internet... no se puede estar sin él
    11. Momento Rocky Balboa



    30 años del Data Warehouse


    Libro gratuito: Ultimate Guide To Data Science Interviews

    $
    0
    0

    What’s inside? 
    90 pages of original research, interviews with real data scientists and hiring managers at some of the best data science teams on earth, as well as recruiters and successful candidates who are now data scientists, and actionable checklists. We’ll walk you, step-by-step through everything you need to know to ace the data science interview. 
    • You’ll start by understanding the different roles and industries within data science so you can apply for jobs that are the best fit for you.
    • Next, you’ll learn how to apply for these jobs to maximize your chances of getting an interview.
    • Then, you’ll go over every step of the data science interview process so that you can prepare for what’s coming.
    • Next, you’ll get free sample questions that cover the categories of questions you can expect to receive, which you can use to practice how you approach the data science interview.
    • Then, you’ll get advice on what to do after the interview to move the process forward.
    • Finally, you’ll know what to do if you’re juggling between different offers.

    Table of Contents:
    Introduction
    What is Data Science?
    Different Roles within Data Science
    How Different Companies Think About Data Science:
    1. Early­stage startups (200 employees or fewer) looking to build a data product
    2. Early­stage startups (200 employees or fewer) looking to take advantage of their data
    3. Mid­size and large Fortune 500 companies who are looking to take advantage of their data
    4. Large technology companies with well­ established data teams
    Industries that employ Data Scientists
    Getting a Data Science Interview
    Nine Paths to a Data Science Interview
    Traditional Paths to Job Interviews:
    1. Data Science Job Boards and Standard Job Applications
    2. Work with a Recruiter
    3. Go to Job Fairs
    Proactive Paths to Job Interviews:
    1. Attend or Organize a Data Science Event
    2. Freelance and Build a Portfolio
    3. Get Involved in Open Data and Open Source
    4. Participate in Data Science Competitions
    5. Ask for Coffees, do Informational Interviews
    6. Attend Data Hackathons
    Working with Recruiters
    1. How to Apply
    2. CV vs LinkedIn
    3. Cover Letter vs Email
    4. How to get References and Your Network to Work for You
    5. Preparing for the Interview
    What to Expect:
    1. The Phone Screen
    2. Take­home Assignment
    3. Phone Call with a Hiring Manager
    4. On­site Interview with a Hiring Manager
    5. Technical Challenge
    6. Interview with an Executive
    What a data scientist is being evaluated on
    1. The Categories of Data Science Questions
    2. Behavioral Questions
    3. Mathematics Questions
    4. Statistics Questions
    5. Scenario Questions
    6. Tackling the Interview
    7. Conclusion
    What Hiring Managers are Looking For:
    1. Interview with Will Kurt (Quick Sprout)
    2. Interview with Matt Fornito (OpsVision Solutions)
    3. Interview with Andrew Maguire (PMC/Google/Accenture)
    4. Interview with Hristo Gyoshev (MasterClass)
    5. Conclusion
    How Successful Interviewees Made It:
    1. Sara Weinstein
    2. Niraj Sheth
    3. Sdrjan Santic
    4. Conclusion
    7 Things to Do After The Interview:
    1. Send a follow­up thank you note
    2. Send them thoughts on something they brought up in the interview
    3. Send relevant work/homework to the employer
    4. Keep in touch, the right way
    5. Leverage connections
    6. Accept any rejection with professionalism
    7. Keep up hope
    The Offer Process
    1. Handling Offers
    2. Company Culture
    3. Team
    4. Location
    5. Negotiating Your Salary
    6. Facts and Figures
    7. Taking the Offer to the Best First Day
    Templates
    1. Reaching out to get a referral
    2. Following up after an interview

    Curso gratuito de Machine Learning por Google

    Quieres trabajar en Big Data/Analytics y tienes ganas de aprender?

    $
    0
    0


    Tenemos un plan de formación y carrera para profesionales con una base inicial y muchas ganas de aprender. Escríbenos a rrhh@stratebi.com (Octubre 2019)

    Podrás participar en proyectos y en desarrollos con las tecnologías más modernas, como Dashboards en tiempo real.
    Hemos creado también la solución LinceBI, que está revolucionando el Business Intelligence basado en open source

    El trabajo puede ser presencial en Madrid o remoto, en cualquier parte del globo, :-)



    Ejemplo de Wall Dashboard real time que desarrollamos


    ·        Requisitos:
    o   Descripción: Una persona con interés en Business Intelligence y Big Data, no es necesaria mucha experiencia, pero con ganas de aprender y formar equipo. Por ejemplo, i), una persona que acabe de terminar una Ingeniería Informática y/o su trabajo de fin de carrera sea sobre Big Data/Business Intelligence, ii), una persona que esté haciendo I+D en Big Data/Business Intelligence  o iii), que haya hecho un máster en Big Data/Business Intelligence o tenga algunos años de experiencia y quiera avanzar en su carrera 
    o   Salario: Según valía
    o   Habilidades recomendadas:
    ·         Conocimientos teóricos básicos de Big Data.
    o   Qué es el Big Data.
    o   Debe tener claro el paradigma Map Reduce.
    ·  Conocimientos teóricos básicos de las siguientes tecnologías de arquitectura Hadoop.
    o   HDFS
    o   Spark
    ·         Conocimientos teóricos sobre Machine Learning.
    ·     Programación en i) Python y ii) Scala o Java para Machine Learning, con mínima experiencia demostrable 
    ·         Conocimiento de Bases de Datos
    o   Soltura con lenguaje SQL.
    o   Modelado relacional.
    o   Experiencia mínima demostrable en al menos uno de los siguientes SGBD:
    §  MySQL
    §  PostgreSQL
    §  Microsoft SQLServer
    §  Oracle
    §  Opcionales (alguno de estos conocimientos serían muy interesantes):
    ·         (+) Conocimientos teóricos básicos de arquitectura Hadoop.
    o   Hive
    o   HBase
    o   Kafka
    o   Flume
    o   Distribuciones Cloudera o Hortonworks:
    §  Características
    §  Instalación.
    ·         Conocimientos teóricos Business Intelligence
    o   Teoría de Data Warehouses.
    §  Modelado en estrella.
    ·         Experiencia con alguna herramienta de ETL.
    o   Ideal con Pentaho Data Integration o Talend
    o   Cualquier otra.
    ·         Experiencia en diseño y carga de un Data Warehouse.


    x50 faster 'near real time' Big Data OLAP Analytics Architecture

    $
    0
    0


    We´ve posted several times about 'near real time analysis' and olap hadoop improved performance, using Apache Kylin, Pentaho, LinceBI tools and other Big Data components

    Let us now explain about a real 'user case' where analytics specialized company, Stratebi, has been working (spanish):


    • Amazon Elastic MapReduce(EMR): Distribución de Hadoop para el despliegue de un clúster de procesamiento y almacenamiento distribuido.
    • Procesos ETL (minutes):
    •Apache Sqoop: carga de datos relacionales (tablas) desde Aurora.
    •Apache Hive (con LLAP): consultas de agregación y otras transformaciones (ETL).
    Pentaho Data Integration (PDI) coordinar procesos ETL con diseño visual (abstracción).

    • Procesos ETL (Real Time): Kafka permite conectar a binlog de Aurora para cargar en Hive o Kylin.
    • Consultas SQL Ad-Hoc Interactivas (segundos): Apache Hive con tecnología LLAP y conexión con las STTools
    • Análisis OLAP (milisegundos): Apache Kylin genera cubos M-OLAP que pueden explotados con la herramientas STTools.

    Aquí tenéis una buena presentación que muestra el funcionamiento de OLAP en Hadoop y unos cuantos ejemplos:




    More info:

    Use Case “Dashboard with Kylin (OLAP Hadoop) & Power BI”
    Cuadros de mando con Tableau y Apache Kylin (OLAP con Big Data)
    BI meet Big Data, a Happy Story
    7 Ejemplos y Aplicaciones practicas de Big Data
    Analysis Big Data OLAP sobre Hadoop con Apache Kylin
    Real Time Analytics, concepts and tools

    Hadoop Hive y Pentaho: Business Intelligence con Big Data (Caso Practico)

    Nueva solucion Machine Intelligence: Pentaho, R, Python y Spark juntos para Machine Learning Analytics

    $
    0
    0



    Se acaba de presentar Machine Intelligence: el plugin para Pentaho Data Integration que facilita enormemente la ejecución de algoritmos sobre tecnologías Machine Learning, orquestados desde un completo entorno gráfico ETL

    Gracias a este plugin puedes convertir algoritmos de machine learning en 'steps' de PDI desde R, Python, Spark y Weka




    Gracias a este plugin consigues de forma sencilla:


    1. Hacer Machine Learning mucho más sencillo de construir, usar y ejecutar, sin necesidad de codificar
    2. Se combina en una sola herramienta las capacidades de integración y 'data preparation' de una herramienta ETL con todas las capacidades de Machine Learning para 'orquestar' los procesos de forma visual y sencilla
    3. Es muy fácilmente extensible, pudiendo añadir nuevos pasos en PDI al componente de Machine Learning





    Instalación:

    El plugin de Machine Intelligence se puede instalar directamente desde el Marketplace de Pentaho


    Nuevos algoritmos añadidos:




    • Decision Tree Classifier – Weka, Python, Spark & R
    • Decision Tree Regressor – Weka, Python, Spark & R
    • Gradient Boosted Trees – Weka, Python, Spark & R
    • Linear Regression – Weka, Python, Spark & R
    • Logistic Regression – Weka, Python, Spark & R
    • Naive Bayes – Weka, Python, Spark & R
    • Naive Bayes Multinomial – Weka, Python & Spark
    • Random Forest Classifier – Weka, Python, Spark & R
    • Random Forest Regressor – Weka, Python & Spark
    • Support Vector Classifier – Weka, Python, Spark & R
    • Support Vector Regressor – Weka, Python, & R
    • Naive Bayes Incremental – Weka

    Ejemplos:

    A continuación, tenéis dos ejemplos, de detección de fraude en comercios y para monitorización de modelos







    Documentación:

    PMI_Installation_Linux.pdfInstallation guide for the Linux OS platform.
    PMI_Installation_Windows.pdfInstallation guide for the Windows OS platform.
    PMI_Installation_Mac_OSX.pdfInstallation guide for Mac OS X platform.
    PMI_Developer_Docs.pdfA developer's guide to extending and contributing to the PMI framework.
    PMI_MLChampionChallengeSamples.zip

    Saber más:

    Introducing Plug-in Machine Intelligence
    4-Steps to Machine Learning Model Management



    Comparativa de tecnologias de streaming en tiempo real

    $
    0
    0
    Tabla de evaluación

    En la tabla siguiente se muestra un resumen de la comparativa:





    Hoja de referencia rápida

    Más abajo se expone una hoja de referencia rápida que puede servir de ayuda a los desarrolladores, como muestra de cada framework, y a los arquitectos, para conocer las características principales de cada herramienta.





    Visto en Blog GFT

    Organizamos el workshop SevillaData

    $
    0
    0

    Tras el exito de los eventos realizados en Madrid y Barcelona: Big Data Analytics y el Futuro del Business Intelligence, nos vamos a Sevilla, en donde el próximo 23 de Octubre organizamos el SevillaData

    Aquí tenéis disponibles para descargar las presentaciones de los últimos eventos realizados en Madrid y Barcelona

    Registro de SevillaData y toda la información!!


    CONOCE LAS TECNOLOGÍAS LÍDERES DE BIG DATA Y ANALYTICS
    (DESDE DATA LAKES A DASHBOARDS)


    SOBRE ANALYTICS & BIG DATA

    Las tecnologías Big Data que han surgido en los últimos tiempos nos permiten el procesamiento de enormes conjuntos de datos, en tiempo real y procedentes de muchas fuentes, tanto internas como externas a nuestra organización. Gracias a dichas tecnologías, podemos mejorar aún más los procesos de toma decisiones y, por tanto, el rendimiento de nuestro negocio. Sin embargo, la elección del stack de tecnologías y técnicas más adecuadas para la implementación de nuestro Big Data Warehouse suele ser un problema que puede condicionar el éxito de nuestro proyecto.


    PÚBLICO OBJETIVO

    Este workshop está destinado especialmente para los responsables de desarrollo de negocio, tecnología (CTO's), consultores Business Intelligence, científicos de datos, desarrolladores Business Intelligence, Big Data y, en general, a todas aquellas personas que estén interesadas en conocer las posibilidades de tecnologías Big Data más novedosas para la mejora de su negocio


    SOBRE EL WORKSHOP


    Este workshop, impartido en colaboración con el portal TODOBI ofrece los conocimientos fundamentales para los profesionales que se quieren dedicar o profundizar sus conocimientos en unas de las áreas de mayor crecimiento hoy en día. En él se mostrarán ejemplos reales y casos prácticos de aplicación en grandes empresas y organizaciones, así como orientaciones de precios y costes de cada una de las tecnologías y de lo que podría ser un proyecto BI/DW completo.



    Un dia en la vida de un Data Scientist

    $
    0
    0

    Muy ilustrativo este video del día a día de un Data Scientist

    Diccionario Business Intelligence: KPI

    $
    0
    0
    kpi

    Continuamos con nuestro Diccionario Business Intelligence, encaminado a hacer lo más sencillo posible conocer conceptos. Ya hemos comenzado con Molap y Análisis Adhoc.

    Hoy le toca el turno a los KPI´s (Key Performance Indicators). Indicadores Claves de Negocio:
    Diríamos que son aquellos indicadores, cálculos, ratios, métricas, etc... que nos permiten medir los factores y aspectos críticos de un negocio. Algunos ejemplos serían las ventas mensuales de las principales lineas de negocio, el coste de las materías primas principales, la evolución de la masa salarial, el nivel de liquidez, etc...
    Estos indicadores deben observarse y analizarse dentro del conjunto de dimensiones o ejes representativos del negocio: tiempo, productos, centros de costes, etc...

    Puedes ver en funcionamiento un ejemplo de herramienta Balance Scorecard, basada en Open Source: STCard

    Por ello, los KPI´s no son un término tecnológico, generado por el Business Intelligence, si no que se trata de un concepto ligado a la Gestión Empresarial. No obstante, el desarrollo de la tecnología y de especialidades como el Business Intelligence, han permitido que su medición, control y respresentación visual se haga de un modo mucho más eficiente y rápido.
    Si pretendemos llevar una gestión eficiente de nuestro negocio, apoyándonos en el uso de herramientas Business Intelligence, y no usamos los KPI´s, es como si estuviéramos conduciendo por una carretera de montaña de noche sin luces.

    Normalmente, en la definición de los KPI´s se usa un acrónimo, SMART, que ayuda en el proceso de selección de los mismos:

    - eSpecificos (Specific)
    - Medibles (Measurable)
    - Alcanzables (Achievable)
    - Realista (Realistic)
    - a Tiempo (Timely)


    Los KPI´s han cogido mucha más relevanca si cabe, conforme se ha ido extendiendo y popularizando el uso de la Metodología de Balance Scorecard, Cuadro de Mando Integral, creado por los 'archiconocidos' profesores Norton y Kaplan.
    Presentado en 1992, el Cuadro de Mando Integral o balance scorecard (BSC) es un método para medir las actividades de una compañía en términos de su visión y estrategia. Proporciona a los administradores una mirada general del rendimiento del negocio.


    Es una herramienta de management que muestra continuamente cuando una compañía y sus empleados alcanzan los resultados perseguidos por la estrategia.


    En la representación visual de un Balance Scorecard, es muy importante tener en cuenta aspectos tales como:

    - Establecer los indicadores (KPI´s) por áreas o perspectivas
    - Uso de codificación semafórica (amarillo, rojo y verde) para resaltar tendencias y excepciones
    - Indicar de forma detalla explicaciones del comportamiento esperado y objetivo de cada kpi.
    - Establecer el departamento y/o persona responsable de cada kpi (su definición, medición objetiva y esperada, umbrales de referencia, etc...)
    - Establecer el periodo de análisis para el que se mide y revisa su valor.
    - Definir las acciones o tareas correctivas derivadas de un comportamiento fuera de los umbrales esperados.

    Curso de Talend en Madrid (13, 14 de Noviembre)

    $
    0
    0


    Nuestros compañeros de Stratebi, que son partners de Talend y grandes espcialistas en Business Intelligence, Integración de datos, etc... organizan el próximo 13 y 14 de Noviembre curso en Madrid.

    Os dejamos todos los detalles aquí


    Mas info sobre Talend útil:


    Descarga el paper con tips para Talend


    Os damos acceso a un interesante paper de nuestros compañeros de Stratebi, Partners de Talend (la potente solución ETL open source, con versión también Enterprise), que aborda los temas de la integración con Google Big Query, como realizar cargas incrementales y debugging Descargar paper Mas info: Caso Practico: trabajando con APIs y Talend agosto 29, 2018  destacado, Documentacion, ETL, Talend  No...

    Integracion Talend-Salesforce (Paper)


    El propósito de este documento es realizar un pequeño ejercicio entre la herramienta Talend Open Studio (v7.1) y Salesforce Descargar Salesforce es un servicio en nube (cloud service) y como tal, trae nuevos conflictos y retos. A diferencia de las bases de datos relacionales la mayoría de características no están disponibles en el servicio cloud y es necesario una herramienta adicional de integración para el consumo de datos.  Salesforce...

    Tips y Tecnicas de optimización de Vertica con Talend


    Os traemos unos cuantos trucos y recomendaciones sobre dos de nuestras herramientas favoritas: Vertica y Talend Configuring Talend for Use with Vertica To configure Talend for use with Vertica, you must understand: Using Talend Components for Vertica Using the Talend SQL Builder Enabling Parallelization in Talend ...

    Comparacion entre Talend y Pentaho


    Hace un tiempo os poníamos una primera Comparación entre Pentaho Data Integration Talend Open Studio. Hoy traemos otra comparación interesante: Talend: Talend is an open-source data integration tool whereas Pentaho Kettle is a commercial open-source data integration tool Talend offers limited connectivity to concurrent databases, and other forms of data but has a dependency factor of Java drivers to connect to the data sources...


    CARACTERÍSTICAS TÉCNICAS

    Talend Open Studio: Los productos de Talend Open Studio crean una flexibilidad sin igual para que pueda resolver los retos de integración de su organización. Talend reduce la curva de aprendizaje y minimiza las barreras de adopción de la integración de datos, Data Profiling, Big Data, integraciones/migraciones entre aplicaciones, y mucho más ...
     

    TALEND OPEN STUDIO

    Ofrece una integración de datos robusta en una arquitectura abierta y escalable.
    • 900+ conectores y componentes
    • Interfaz intuitiva
    • Business modeler
    • Jobs Designer
    • Open Source 100%
    Talend Data Integration

     

    TALEND OPEN PROFILER

    Una solución de perfiles de datos que analiza el contenido, estructura y calidad de las estructuras de datos complejas.
    Talend Open Profiler

     

    TALEND DATA QUALITY

    Un producto de Data Quality que limpia los datos inexactos e incoherentes, identifica y resuelve los registros duplicados y proporciona la capacidad para aumentar y mejorar los datos.
    Talend Data Quality

     

    TALEND MDM

    Un conjunto de funciones de gestión de datos maestros que proporciona la funcionalidad para la integración, la calidad, el buen gobierno, el dominio y la colaboración en datos de la empresa:
    • Herramientas basadas en Eclipse
    • Data profiling
    • 900+ conectores y componentes
    • Data model activo
    • Auditoría de Master Data
    Talend MDM

    What is a 'Data Lake'?

    $
    0
    0

    What is a data lake?

    A data lake is a repository designed to store large amounts of data in native form. This data can be structured, semi-structured or unstructured, and include tables, text files, system logs, and more.
    The term was coined by James Dixon, CTO of Pentaho, a business intelligence software company, and was meant to evoke a large reservoir into which vast amounts of data can be poured. Business users of all kinds can dip into the data lake and get the type of information they need for their application. The concept has gained in popularity with the explosion of machine data and rapidly decreasing cost of storage.
    There are key differences between data lakes and the data warehouses that have been traditionally used for data analysis. First, data warehouses are designed for structured data. Related to this is the fact that data lakes do not impose a schema to the data when it is written – or ingested. Rather, the schema is applied when the data is read – or pulled – from the data lake, thus supporting multiple use cases on the same data. Lastly, data lakes have grown in popularity with the rise of data scientists, who tend to work in more of an ad hoc, experimental fashion than the business analysts of yore.


    Comparacion de sistemas Open Source OLAP para Big Data

    $
    0
    0
    Ya os hemos hablado en este blog mucho de nuestra solucion Open Source OLAP para Big Data preferida, que es Apache Kylin:





    -x50 faster 'near real time' Big Data OLAP Analytics Architecture
    Use Case “Dashboard with Kylin (OLAP Hadoop) & Power BI”
    Cuadros de mando con Tableau y Apache Kylin (OLAP con Big Data)
    BI meet Big Data, a Happy Story
    7 Ejemplos y Aplicaciones practicas de Big Data
    Analysis Big Data OLAP sobre Hadoop con Apache Kylin
    Real Time Analytics, concepts and tools 
    Hadoop Hive y Pentaho: Business Intelligence con Big Data (Caso Practico)


    Hoy os vamos a contar sobre otras alternativas gracias a Roman Lementov:

    I want to compare ClickHouseDruid and Pinot, the three open source data stores that run analytical queries over big volumes of data with interactive latencies.
    ClickHouse, Druid and Pinot have fundamentally similar architecture, and their own niche between general-purpose Big Data processing frameworks such as Impala, Presto, Spark, and columnar databases with proper support for unique primary keys, point updates and deletes, such as InfluxDB.
    Due to their architectural similarity, ClickHouse, Druid and Pinot have approximately the same “optimization limit”. But as of now, all three systems are immature and very far from that limit. Substantial efficiency improvements to either of those systems (when applied to a specific use case) are possible in a matter of a few engineer-months of work. I don’t recommend to compare performance of the subject systems at all, choose the one which source code you are able to understand and modify, or in which you want to invest.
    Among those three systems, ClickHouse stands a little apart from Druid and Pinot, while the latter two are almost identical, they are pretty much two independently developed implementations of exactly the same system.
    ClickHouse more resembles “traditional” databases like PostgreSQL. A single-node installation of ClickHouse is possible. On small scale (less than 1 TB of memory, less than 100 CPU cores). 

    ClickHouse is much more interesting than Druid or Pinot, if you still want to compare with them, because ClickHouse is simpler and has less moving parts and services. I would say that it competes with InfluxDB or Prometheus on this scale, rather than with Druid or Pinot.
    Druid and Pinot more resemble other Big Data systems in the Hadoop ecosystem. They retain “self-driving” properties even on very large scale (more than 500 nodes), while ClickHouse requires a lot of attention of professional SREs. Also, Druid and Pinot are in the better position to optimize for infrastructure costs of large clusters, and better suited for the cloud environments, than ClickHouse.
    The only sustainable difference between Druid and Pinot is that Pinot depends on Helix framework and going to continue to depend on ZooKeeper, while Druid could move away from the dependency on ZooKeeper. On the other hand, Druid installations are going to continue to depend on the presence of some SQL database.
    Currently Pinot is optimized better than Druid. (But please read again above — “I don’t recommend to compare performance of the subject systems at all”, and corresponding sections in the post.)
    Viewing all 866 articles
    Browse latest View live