Menu Close

Workshop Big Data: “Building a Data Lake in AWS”

El concepto de Big Data está cobrando cada vez más importancia a nivel Empresarial y Comercial en Chile. Más Empresas están dispuestas a aprovechar al máximo todo el potencial que reside en sus datos, es por eso que AWS Chile y Morris & Opazo (Advanced Partner especialista en Big Data) organizaron durante la mañana del 9 de noviembre el Workshop “Construyendo un Data Lake en AWS”, que se llevó a cabo en las oficinas de Amazon Web Services en Chile, mostrando todo su reconocido conocimiento en la premiación de APN.

Desde AWS el Workshop estuvo a cargo de Jesús Federico ( https://www.linkedin.com/in/jesusf/ ), Arquitecto de Soluciones de AWS Chile, quien durante la primera parte del Workshop expuso de manera muy clara y concisa qué es AWS y los aspectos fundamentales de AWS Cloud; cuáles son sus principales servicios, las mejores prácticas de la arquitectura de la nube y los diferentes enfoques para implementar las arquitecturas de AWS, el modelo de responsabilidad compartida y las regiones y zonas de disponibilidad en AWS.

Categorías de servicios disponibles en la Nube de AWS
Categorías de servicios disponibles en la nube de AWS


Esta primera parte fue crucial y permitió que los asistentes al evento (incluidos los directores de tecnología de empresas como Forum, SmartHomy, DIN SA, Maisasa, Entel, Grupo CGE, WOM, Facenote y abcdin) comenzaran a generar curiosidad sobre cómo AWS Cloud Computing, las características de Serverless y los diferentes servicios de AWS podrían beneficiar a varias áreas de sus empresas.

Muy contento de esta invitacion al evento.  La verdad es muy constructivo ir aprendiendo, no sólo de lo que digamos es AWS, sino de su socio.  ¡Así que muy agradecido!
Estoy muy contento con esta invitación al evento. Honestamente, ha sido muy constructivo aprender, no solo sobre AWS, sino también sobre su socio. Así que estoy muy agradecido. ( Luis Contreras, Compañía General de Electricidad SA )


Durante el descanso, los asistentes pudieron hacer networking y al mismo tiempo resolver dudas y preguntas con los expositores del Taller.

Eliana Correa, Greenfield Sales AWS Chile, compartiendo experiencias con los asistentes al Taller
Eliana Correa, AWS Chile Greenfield Sales, compartiendo experiencias con los asistentes al Workshop “Construyendo un Data Lake en AWS”
Durante el break del Worskhop fue posible encontrarse con los conocimientos y lecciones aprendidas de nuestro Especialista en Big Data, Marcelo Rybertt
Durante el receso del Taller fue posible conocer los conocimientos y lecciones aprendidas de nuestro Especialista en Big Data, Marcelo Rybertt
Una de las potencialidades de los Workshop de AWS y Morris & Opazo: Resolver dudas e inquietudes de manera personalizada (derecha = Jesús Federico, Solutions Architect de AWS Chile; izquierda = Luis Contreras, Jefe de Tecnología de CGE).
Una de las fortalezas de AWS y Morris&Opazo Workshop: Resolver dudas y consultas de forma personalizada (derecha = Jesús Federico, AWS Chile Solutions Architect; izquierda = Luis Contreras, Chief Technology Officer, CGE).


Esta introducción también sirvió como antesala a la segunda parte del Workshop en el que Marcelo Rybertt, nuestro Country Manager, expuso en detalle qué es Big Data, qué es un Data Lake, cómo es su Data Flow, y cuáles son los servicios y herramientas que AWS nos proporciona los diferentes componentes del flujo de datos.

Para finalizar el Workshop, William Guzmán (Chief Operations Officer, Morris & Opazo) presentó en tiempo real 3 de los múltiples casos de uso en los que Big Data puede apoyar las operaciones de una Empresa. Estos incluyeron:

Big Data no fue el único protagonista del Workshop.  Marcelo Rybertt explicó también qué es Dark Data y el por qué es importante tenerla en consideración
El Big Data no fue el único protagonista del Workshop. Marcelo Rybertt también explicó qué es Dark Data y por qué es importante tenerlo en cuenta


Análisis de Sentimiento en Tiempo Real en Redes Sociales:

Twitter brinda una excelente oportunidad para probar el concepto de transmisión de datos. Durante el Taller se solicitó a los asistentes que publicaran Tweets con ciertas palabras clave que luego serían reconocidas por una aplicación de Twitter.
Previamente en una instancia EC2 se ejecutaba una aplicación Nodejs, que ‘escuchaba’ los tweets generados y seleccionaba aquellos que coincidían con las palabras claves configuradas. Una vez que se detectaron los tweets, esta aplicación de Nodejs alimentó un flujo de datos en Amazon Kinesis que envió a un depósito S3 los tweets sin realizar ningún análisis hasta ese momento.

Una vez que se almacenó un objeto en el lago de datos, se ‘activó’ una función de AWS Lambda que, con el respaldo de Amazon Comprehend, identificó las entidades de cada tweet y realizó un análisis de sentimiento. Si el idioma original del tweet era diferente al inglés, la función Lambda usaba Amazon Translate para generar la traducción correspondiente a este idioma. El resultado de estos 3 análisis (entidades, opiniones y traducciones) se almacenó nuevamente en el lago de datos (en diferentes cubos).

Amazon Athena se encargó de realizar análisis a los datos no estructurados generados por la función Lambda, y puso esta información a disposición de cualquier consumidor. El elegido para el Workshop fue Amazon Quicksight, en el que los asistentes pudieron ver cómo aparecían en las diferentes secciones del dashboard tweets que ellos mismos habían creado durante la sesión:

  • Tipos de entidades más citadas
  • Sentimientos por minuto
  • Texto original, traducción y opinión de cada tuit
  • Geolocalización del tuit

Jesús Federico, Solutions Architect de AWS Chile, explicando a la audiencia los conceptos básicos de la Nube de AWS.
Jesús Federico, Arquitecto de Soluciones de AWS Chile, explicando a los asistentes los conceptos básicos de AWS Cloud.


Análisis de llamadas de Call Center con Machine Learning

A través de un tablero implementado en Kibana, las empresas que asistieron al Workshop vieron cómo se procesaban y analizaban diferentes archivos de audio para identificar en ellos las palabras clave, entidades, textos, datos y metadatos que contenía cada uno. Con este ejercicio evidenciaron una de las Best Practices for Cloud Architecture, dado que no existía un acoplamiento rígido entre cada componente del flujo de datos (para este caso se usó Kibana como consumidor del Data Lake, un sistema diferente al caso anterior pero con en S3 como lago de datos).


Reconocimiento de imágenes y videos usando Machine Learning

Los asistentes al evento pudieron ver cómo se entrenaba un sistema soportado por Amazon Rekognition subiendo una foto de una persona, y luego identificar en otro video o foto si se encontraba o no el rostro de la persona con la que se entrenaba el sistema.

No solo fue posible encontrar este tipo de coincidencias. Además de esto, Rekognition entregó información detallada sobre las etiquetas, funciones, características y celebridades que se encuentran en el video o la foto en tiempo real.

Son precisamente este tipo de actividades las que permiten a AWS y Morris & Opazo llevar a las empresas todo el potencial del Cloud Computing, en este caso particular, el valor agregado de las soluciones Big Data. Pero sobre todo, nos permiten escuchar de ‘primera mano’ las inquietudes que generan los temas técnicos abordados de manera presencial, práctica y colaborativa. A todos los asistentes, ¡muchas gracias por su activa participación en nuestro Workshop!

La activa participación de los asistentes fue vital durante todo el desarrollo del Workshop
La participación activa de los asistentes fue vital durante todo el Workshop “Construyendo un Data Lake en AWS”


Texto:
Morris & Opazo / WG height_on_tabs_portrait=”10″ height_on_mob_landscape=”10″ height_on_mob=” 10″][/vc_columna][/vc_fila]

Write us!

Posted in »News, News Top About

Close Bitnami banner
Bitnami