Skip to main content

The Data Architecture Experience: Data Lakehouse & Data Mesh para Time

Join Microsoft Reactor and engage with developers, entrepreneurs, and startups live

Ready to get started with AI and the latest technologies? Microsoft Reactor provides events, training, and community resources to help developers, entrepreneurs and startups build on AI technology and more. Join us!

The Data Architecture Experience: Data Lakehouse & Data Mesh para Time

Join Microsoft Reactor and engage with developers, entrepreneurs, and startups live

Ready to get started with AI and the latest technologies? Microsoft Reactor provides events, training, and community resources to help developers, entrepreneurs and startups build on AI technology and more. Join us!

Go back

The Data Architecture Experience: Data Lakehouse & Data Mesh para Time

  • Format:
  • alt##In personIn person (Sao Paulo)
  • alt##LivestreamLivestream

Topic: Modern Data and Analytics

Language: Portuguese

  • Events in this Series:
  • 2

O Data Architecture Experience é uma conferência focada em trazer os mais novos conceitos do mercado de Dados para o Brasil. Data Lakehouse e Data Mesh são os tópicos mais relevantes para profissionais de dados que necessitam trabalhar em uma cultura Data-Driven para entregar valor ao seu negócio.

Neste evento iremos navegar nos conceitos e tecnologias mais pertinentes sobre esses tópicos e trazer dicas das trincheiras em como de fato trabalhar e operacionalizar isso no mundo real.

Past Events in this Series

All times in - Coordinated Universal Time

Sep

28

Thursday

2023

The Data Architecture Experience: Data Lakehouse & Data Mesh para Times de Dados

12:00 PM - 9:00 PM (UTC)

A transmissão ao vivo será dividida em duas partes: Manhã: https://www.youtube.com/watch?v=slIkAb_c2Lo Tarde: https://www.youtube.com/watch?v=DEEsHXlWpa4 Sobre o Evento O Data Architecture Experience é uma conferência focada em trazer os mais novos conceitos do mercado de Dados para o Brasil. Data Lakehouse e Data Mesh são os tópicos mais relevantes para profissionais de dados que necessitam trabalhar em uma cultura Data-Driven para entregar valor ao seu negócio. Neste evento iremos navegar nos conceitos e tecnologias mais pertinentes sobre esses tópicos e trazer dicas das trincheiras em como de fato trabalhar e operacionalizar isso no mundo real. Programação 09:00Hs às 09:50Hs: Data Lakehouse para Dummies Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ O Data Lake atua como repositório central fornecendo o acesso a diversos formatos de dados democraticamente. O Data Warehouse é o repositório central de data marts com as visões de negócios da empresa. A arquitetura de Data Lakehouse é a junção das características do Data Lake e do Data Warehouse, sendo uma camada que gerencia o armazenamento e permite o processamento de grandes volumes de dados. Nesta apresentação será mostrado as características fundamentais de um Data Lakehouse e o seu uso em um projeto de Big Data. 10:00Hs às 10:50Hs: Databricks como Plataforma de Data Lakehouse Speaker: Jonas Inácio - The Plumbers Moderator https://www.linkedin.com/in/vitojon/ Databricks se tornou uma plataforma de dados de entrega fim a fim para qualquer empresa que necessita estar no mercado de forma rápida e ágil. Entender como essa plataforma pode entregar valor para times de dados é uma responsabilidade totalmente ligada aos profissionais que trabalham com a mesma. Nessa sessão você irá aprender como o Databricks pode entregar uma solução de fim a fim para uma arquitetura de Data Lakehouse. 11:00Hs às 11:50Hs: Microsoft Fabric como Plataforma de Data Lakehouse Speaker: Sidney Oliveira - Microsoft Fabric & Azure Synapse Analytics Support Engineer na Microsoft https://www.linkedin.com/in/sidneyoliveiracirqueira/ A Microsoft sempre traz produtos revolucionários para seus clientes, porém o Microsoft Fabric vai muito além disso. Todos os melhores produtos e componentes dentro de uma plataforma de dados unificada para atender demandas de Analytics e AI. O produto flagship da Microsoft que entrega one-stop shop para qualquer profissional de dados que deseja entregar uma solução fim a fim de forma ágil e sem precedentes. Nessa sessão você irá aprender como essa plataforma entrega uma visão unificada de pipelines de dados e como utilizar o Data Lakehouse de forma fácil e rápida. 14:00Hs às 14:50Hs: Deep Dive de Apache Iceberg como Formato para Data Lakehouse Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Nesta sessão você irá aprender como o Apache Iceberg pode entregar valor na entrega de um Data Lakehouse para times de dados. Esse formato revolucionário tem mudado o cenário de Analytics de uma forma positiva além de ser totalmente open-source. Descubra internamente como essa engine funciona, assim como suas configurações e dicas das trincheiras. 15:00Hs às 15:50Hs: Deep Dive de Delta Lake como Formato para Data Lakehouse Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Nesta sessão você irá aprender como o Delta Lake revolucionou o mercado de Analytics impactando todas as empresas do globo. Descubra como sua estrutura interna funciona e todas as mais recentes atualizações dessa engine fascinante. Embarque nessa jornada e aprenda o que não é mostrado. 16:00Hs às 16:50Hs Modelagem Data Vault para Projetos de Data Lakehouse Speaker: Leonardo Côco - Data Architect na One Way Solution https://www.linkedin.com/in/leonardo-c%C3%B4co-9863712a/ Como modelar ambientes de Data Lakehouse de uma forma efetiva e escalável. Essa é uma questão que está aberta no mercado de dados a um bom tempo e que se é falado pouco. Nesta sessão você irá aprender sobre uma arquitetura medalhão, melhores práticas de modelagem como StarSchema e OBT além de compreender o tão famoso modelo Data Vault. 17:00Hs às 17:50Hs: Use-Case Data Lakehouse Fim a Fim Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Demonstração fim a fim de uma solução de dados utilizando Data Lakehouse.

  • Format:
  • alt##In personIn person (Sao Paulo)
  • alt##LivestreamLivestream

Topic: Modern Data and Analytics

Language: Portuguese

View on Demand

Sep

29

Friday

2023

The Data Architecture Experience: Data Lakehouse & Data Mesh para Times de Dados

12:00 PM - 9:00 PM (UTC)

A transmissão ao vivo será dividia em duas partes: Manhã: https://www.youtube.com/watch?v=SQ_TucIsMz4 Tarde: https://www.youtube.com/watch?v=b7XQ_Hg-x4Y Sobre o Evento O Data Architecture Experience é uma conferência focada em trazer os mais novos conceitos do mercado de Dados para o Brasil. Data Lakehouse e Data Mesh são os tópicos mais relevantes para profissionais de dados que necessitam trabalhar em uma cultura Data-Driven para entregar valor ao seu negócio. Neste evento iremos navegar nos conceitos e tecnologias mais pertinentes sobre esses tópicos e trazer dicas das trincheiras em como de fato trabalhar e operacionalizar isso no mundo real. Programação 09:00Hs às 09:50Hs: Data Mesh para Dummies Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ É comum projetos de Big Data centralizarem as tecnologias e responsabilidades no provisionamento de pipeline de dados na figura do engenheiro de dados, essa abordagem traz vantagens e desvantagens. A vantagem é o controle da infraestrutura e processos dos dados, a desvantagem é a falta de integração das áreas de negócio que só os colaboradores setoriais conhecem. A descentralização dos dados, a organização dos produtos de dados em domínios e infraestrutura automatizada são algumas características do Data Mesh que ajudam garantir a consistência e harmonia na gestão e criação dos produtos de dados. Nesta sessão você irá entender a estrutura completa de uma Data Mesh e como é possível operacionalizar o mesmo. 10:00Hs as 10:50Hs: Apache Pinot como OLAP em Tempo-Real para Projetos de Data Mesh Speaker: Victor Grudtner - Staff Data Engineer na One Way Solution https://www.linkedin.com/in/victor-grudtner-boell-092b6853/ O tempo é um fator crítico na entrega dos dados e no valor das informações extraída das análises dos dados, um banco de dados tradicional ou um data warehouse padrão não são adequados para análises de grandes volumes de dados em tempo real. O Apache Pinot é um sistema OLAP que pode ser integrado ao Data Mesh para construir produtos de dados que demandam análises em tempo real. Nesta apresentação serão abordados os principais aspectos de streaming em Data Mesh e como construir produtos de dados com Apache Pinot. 11:00Hs às 11:50Hs: A ser definida 14:00 Hs às 14:50 Hs: Confluent Cloud como Sistema Nervoso Central para Data Mesh Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ O Apache Kafka se tornou um sistema nervoso central capaz de conectar produtos e soluções dentro do conceito de Data Mesh não somente pela sua capacidade de armazenamento, mas sim pela entrega de uma solução fim a fim que possa armazenar, processar e entregar dados em tempo real para domínios de dados. A Confluent Cloud juntamente com o Kora Engine pode entregar até 10x mais velocidade e valor para seus usuários finais. Nessa seção você irá entender como a Confluent Cloud entrega Data Mesh para seus clientes e como construir essa solução dentro da sua empresa. 15:00Hs às 15:50Hs: Orquestrando Domínios de Data Mesh com Apache Nifi Speaker: Leonardo Côco - Data Architect na One Way Solution https://www.linkedin.com/in/leonardo-c%C3%B4co-9863712a/ O Apache Nifi é a ferramenta de movimento de dados Open-Source mais utilizada no mercado de dados trazendo uma experiência para times de dados fácil e intuitiva. Nessa sessão você aprenderá como utilizar o Apache Nifi ao seu favor para a construção de domínios dentro do Data Mesh. 16:00Hs às 16:50Hs: DataOps com Lenses para Data Pipelines em Tempo-Real Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ A Lenses é uma plataforma de DataOps completa que entrega soluções de tempo real fim a fim. Operacionalizar o Apache Kafka e Data Mesh pode ser muito desafiador sem uma ferramenta que possa entregar valor dentro dos domínios de dados e rapidamente reagir a problemas assim como observar e resolver problemas complexos de forma fácil e em uma interface gráfica amigável. Nessa sessão você irá aprender como o Lenses juntamente com o Apache Kafka pode entregar valor ao seu negócio de ponta a ponta. 17:00Hs às 17:50Hs: Use-Case Data Mesh Fim a Fim Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ Demonstração fim a fim de uma solução de dados utilizando Data Mesh.

  • Format:
  • alt##In personIn person (Sao Paulo)
  • alt##LivestreamLivestream

Topic: Modern Data and Analytics

Language: Portuguese

View on Demand

Past Events in this Series

All times in - Coordinated Universal Time

Sep

28

Thursday

2023

The Data Architecture Experience: Data Lakehouse & Data Mesh para Times de Dados

12:00 PM - 9:00 PM (UTC)

A transmissão ao vivo será dividida em duas partes: Manhã: https://www.youtube.com/watch?v=slIkAb_c2Lo Tarde: https://www.youtube.com/watch?v=DEEsHXlWpa4 Sobre o Evento O Data Architecture Experience é uma conferência focada em trazer os mais novos conceitos do mercado de Dados para o Brasil. Data Lakehouse e Data Mesh são os tópicos mais relevantes para profissionais de dados que necessitam trabalhar em uma cultura Data-Driven para entregar valor ao seu negócio. Neste evento iremos navegar nos conceitos e tecnologias mais pertinentes sobre esses tópicos e trazer dicas das trincheiras em como de fato trabalhar e operacionalizar isso no mundo real. Programação 09:00Hs às 09:50Hs: Data Lakehouse para Dummies Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ O Data Lake atua como repositório central fornecendo o acesso a diversos formatos de dados democraticamente. O Data Warehouse é o repositório central de data marts com as visões de negócios da empresa. A arquitetura de Data Lakehouse é a junção das características do Data Lake e do Data Warehouse, sendo uma camada que gerencia o armazenamento e permite o processamento de grandes volumes de dados. Nesta apresentação será mostrado as características fundamentais de um Data Lakehouse e o seu uso em um projeto de Big Data. 10:00Hs às 10:50Hs: Databricks como Plataforma de Data Lakehouse Speaker: Jonas Inácio - The Plumbers Moderator https://www.linkedin.com/in/vitojon/ Databricks se tornou uma plataforma de dados de entrega fim a fim para qualquer empresa que necessita estar no mercado de forma rápida e ágil. Entender como essa plataforma pode entregar valor para times de dados é uma responsabilidade totalmente ligada aos profissionais que trabalham com a mesma. Nessa sessão você irá aprender como o Databricks pode entregar uma solução de fim a fim para uma arquitetura de Data Lakehouse. 11:00Hs às 11:50Hs: Microsoft Fabric como Plataforma de Data Lakehouse Speaker: Sidney Oliveira - Microsoft Fabric & Azure Synapse Analytics Support Engineer na Microsoft https://www.linkedin.com/in/sidneyoliveiracirqueira/ A Microsoft sempre traz produtos revolucionários para seus clientes, porém o Microsoft Fabric vai muito além disso. Todos os melhores produtos e componentes dentro de uma plataforma de dados unificada para atender demandas de Analytics e AI. O produto flagship da Microsoft que entrega one-stop shop para qualquer profissional de dados que deseja entregar uma solução fim a fim de forma ágil e sem precedentes. Nessa sessão você irá aprender como essa plataforma entrega uma visão unificada de pipelines de dados e como utilizar o Data Lakehouse de forma fácil e rápida. 14:00Hs às 14:50Hs: Deep Dive de Apache Iceberg como Formato para Data Lakehouse Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Nesta sessão você irá aprender como o Apache Iceberg pode entregar valor na entrega de um Data Lakehouse para times de dados. Esse formato revolucionário tem mudado o cenário de Analytics de uma forma positiva além de ser totalmente open-source. Descubra internamente como essa engine funciona, assim como suas configurações e dicas das trincheiras. 15:00Hs às 15:50Hs: Deep Dive de Delta Lake como Formato para Data Lakehouse Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Nesta sessão você irá aprender como o Delta Lake revolucionou o mercado de Analytics impactando todas as empresas do globo. Descubra como sua estrutura interna funciona e todas as mais recentes atualizações dessa engine fascinante. Embarque nessa jornada e aprenda o que não é mostrado. 16:00Hs às 16:50Hs Modelagem Data Vault para Projetos de Data Lakehouse Speaker: Leonardo Côco - Data Architect na One Way Solution https://www.linkedin.com/in/leonardo-c%C3%B4co-9863712a/ Como modelar ambientes de Data Lakehouse de uma forma efetiva e escalável. Essa é uma questão que está aberta no mercado de dados a um bom tempo e que se é falado pouco. Nesta sessão você irá aprender sobre uma arquitetura medalhão, melhores práticas de modelagem como StarSchema e OBT além de compreender o tão famoso modelo Data Vault. 17:00Hs às 17:50Hs: Use-Case Data Lakehouse Fim a Fim Speaker: Luan Moreno - Sr. Cloud Consultant na Pythian https://www.linkedin.com/in/luanmoreno/ Demonstração fim a fim de uma solução de dados utilizando Data Lakehouse.

  • Format:
  • alt##In personIn person (Sao Paulo)
  • alt##LivestreamLivestream

Topic: Modern Data and Analytics

Language: Portuguese

View on Demand

Sep

29

Friday

2023

The Data Architecture Experience: Data Lakehouse & Data Mesh para Times de Dados

12:00 PM - 9:00 PM (UTC)

A transmissão ao vivo será dividia em duas partes: Manhã: https://www.youtube.com/watch?v=SQ_TucIsMz4 Tarde: https://www.youtube.com/watch?v=b7XQ_Hg-x4Y Sobre o Evento O Data Architecture Experience é uma conferência focada em trazer os mais novos conceitos do mercado de Dados para o Brasil. Data Lakehouse e Data Mesh são os tópicos mais relevantes para profissionais de dados que necessitam trabalhar em uma cultura Data-Driven para entregar valor ao seu negócio. Neste evento iremos navegar nos conceitos e tecnologias mais pertinentes sobre esses tópicos e trazer dicas das trincheiras em como de fato trabalhar e operacionalizar isso no mundo real. Programação 09:00Hs às 09:50Hs: Data Mesh para Dummies Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ É comum projetos de Big Data centralizarem as tecnologias e responsabilidades no provisionamento de pipeline de dados na figura do engenheiro de dados, essa abordagem traz vantagens e desvantagens. A vantagem é o controle da infraestrutura e processos dos dados, a desvantagem é a falta de integração das áreas de negócio que só os colaboradores setoriais conhecem. A descentralização dos dados, a organização dos produtos de dados em domínios e infraestrutura automatizada são algumas características do Data Mesh que ajudam garantir a consistência e harmonia na gestão e criação dos produtos de dados. Nesta sessão você irá entender a estrutura completa de uma Data Mesh e como é possível operacionalizar o mesmo. 10:00Hs as 10:50Hs: Apache Pinot como OLAP em Tempo-Real para Projetos de Data Mesh Speaker: Victor Grudtner - Staff Data Engineer na One Way Solution https://www.linkedin.com/in/victor-grudtner-boell-092b6853/ O tempo é um fator crítico na entrega dos dados e no valor das informações extraída das análises dos dados, um banco de dados tradicional ou um data warehouse padrão não são adequados para análises de grandes volumes de dados em tempo real. O Apache Pinot é um sistema OLAP que pode ser integrado ao Data Mesh para construir produtos de dados que demandam análises em tempo real. Nesta apresentação serão abordados os principais aspectos de streaming em Data Mesh e como construir produtos de dados com Apache Pinot. 11:00Hs às 11:50Hs: A ser definida 14:00 Hs às 14:50 Hs: Confluent Cloud como Sistema Nervoso Central para Data Mesh Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ O Apache Kafka se tornou um sistema nervoso central capaz de conectar produtos e soluções dentro do conceito de Data Mesh não somente pela sua capacidade de armazenamento, mas sim pela entrega de uma solução fim a fim que possa armazenar, processar e entregar dados em tempo real para domínios de dados. A Confluent Cloud juntamente com o Kora Engine pode entregar até 10x mais velocidade e valor para seus usuários finais. Nessa seção você irá entender como a Confluent Cloud entrega Data Mesh para seus clientes e como construir essa solução dentro da sua empresa. 15:00Hs às 15:50Hs: Orquestrando Domínios de Data Mesh com Apache Nifi Speaker: Leonardo Côco - Data Architect na One Way Solution https://www.linkedin.com/in/leonardo-c%C3%B4co-9863712a/ O Apache Nifi é a ferramenta de movimento de dados Open-Source mais utilizada no mercado de dados trazendo uma experiência para times de dados fácil e intuitiva. Nessa sessão você aprenderá como utilizar o Apache Nifi ao seu favor para a construção de domínios dentro do Data Mesh. 16:00Hs às 16:50Hs: DataOps com Lenses para Data Pipelines em Tempo-Real Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ A Lenses é uma plataforma de DataOps completa que entrega soluções de tempo real fim a fim. Operacionalizar o Apache Kafka e Data Mesh pode ser muito desafiador sem uma ferramenta que possa entregar valor dentro dos domínios de dados e rapidamente reagir a problemas assim como observar e resolver problemas complexos de forma fácil e em uma interface gráfica amigável. Nessa sessão você irá aprender como o Lenses juntamente com o Apache Kafka pode entregar valor ao seu negócio de ponta a ponta. 17:00Hs às 17:50Hs: Use-Case Data Mesh Fim a Fim Speaker: Mateus Oliveira - Data Solution Architect na One Way Solution https://www.linkedin.com/in/mateushenriqueoliveira/ Demonstração fim a fim de uma solução de dados utilizando Data Mesh.

  • Format:
  • alt##In personIn person (Sao Paulo)
  • alt##LivestreamLivestream

Topic: Modern Data and Analytics

Language: Portuguese

View on Demand

For questions please contact us at reactor@microsoft.com