Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Brasil ou nos centros de treinamento locais NobleProg no Brasil. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Big Data

CódigoNomeDuraçãoVisão geral
smtwebintPanorama da Web Semântica 7 horasA Web Semântica é um movimento colaborativo liderado pelo World Wide Web Consortium (W3C), que promove formatos comuns de dados na World Wide Web. A Web Semântica fornece uma estrutura comum que permite que os dados sejam compartilhados e reutilizados nos limites de aplicativos, empresas e comunidades.
datavaultData Vault: Building a Scalable Data Warehouse28 horasA modelagem de área segura de dados é uma técnica de modelagem de banco de dados que fornece armazenamento histórico de dados de longo prazo originado de várias origens Um cofre de dados armazena uma única versão dos fatos, ou "todos os dados, o tempo todo" Seu design flexível, escalável, consistente e adaptável engloba os melhores aspectos da terceira forma normal (3NF) e do esquema em estrela Neste treinamento presencial instruído, os participantes aprenderão como construir um Cofre de Dados No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e design por trás do Data Vault 20 e sua interação com Big Data, NoSQL e AI Use técnicas de compartimentação de dados para ativar a auditoria, o rastreamento e a inspeção de dados históricos em um data warehouse Desenvolver um processo consistente e repetível de ETL (Extrair, Transformar, Carregar) Construa e implante armazéns altamente escaláveis ​​e repetíveis Público Modeladores de dados Especialista em data warehousing Especialistas em Business Intelligence Engenheiros de dados Administradores de banco de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
sparkpythonPython e Spark para Big Data (PySpark)21 horasPython é uma linguagem de programação de alto nível famosa por sua sintaxe clara e com legibilidade de código. O Spark é um mecanismo de processamento de dados usado na consulta, análise e transformação de big data. O PySpark permite que os usuários façam interface com o Spark com o Python.

Neste treinamento os participantes aprenderão como usar o Python e o Spark juntos para analisar big data enquanto trabalham em exercícios práticos.

No final deste treinamento, os participantes serão capazes de:

- Aprender a usar o Spark com Python para analisar Big Data
- Trabalhar em exercícios que imitam as circunstâncias do mundo real
- Usar diferentes ferramentas e técnicas para análise de big data usando o PySpark

Público

Desenvolvedores
Profissionais de TI
Cientistas de dados
Formato do curso

Palestra, discussão, exercícios e prática
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 horasAvanços em tecnologias e a crescente quantidade de informações estão transformando a forma como a aplicação da lei é conduzida Os desafios que o Big Data representa são quase tão assustadores quanto a promessa do Big Data Armazenar dados de forma eficiente é um desses desafios; efetivamente analisá-lo é outra Neste treinamento presencial instruído, os participantes aprenderão a mentalidade com a qual abordarão as tecnologias de Big Data, avaliarão seu impacto nos processos e políticas existentes e implementarão essas tecnologias com a finalidade de identificar atividades criminosas e prevenir o crime Estudos de casos de organizações policiais de todo o mundo serão examinados para obter insights sobre suas abordagens de adoção, desafios e resultados No final deste treinamento, os participantes serão capazes de: Combine a tecnologia Big Data com os processos tradicionais de coleta de dados para reunir uma história durante uma investigação Implementar soluções industriais de armazenamento e processamento de big data para análise de dados Preparar uma proposta para a adopção das ferramentas e processos mais adequados para permitir uma abordagem orientada para as investigações criminais Público Especialistas em aplicação da lei com formação técnica Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
BDATRBig Data Analytics for Telecom Regulators16 horasPara atender à conformidade dos reguladores, os CSPs (provedores de serviços de comunicação) podem acessar o Big Análise de dados que não apenas os ajuda a atender a conformidade, mas dentro do escopo do mesmo projeto eles podem aumentar a satisfação do cliente e, assim, reduzir a rotatividade Na verdade, desde conformidade está relacionada com a Qualidade de serviço ligada a um contrato, qualquer iniciativa para conformidade, melhorará a “vantagem competitiva” dos CSPs Portanto, é importante que Os reguladores devem ser capazes de orientar / orientar um conjunto de práticas analíticas de Big Data para os CSPs que ser de benefício mútuo entre os reguladores e os DEP 2 dias de curso: 8 módulos, 2 horas cada = 16 horas .
graphcomputingIntroduction to Graph Computing28 horasUm grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
matlabpredanalyticsMatlab para Análise Preditiva21 horasA análise preditiva é o processo de análise de dados para fazer previsões sobre o futuro. Este processo usa dados juntamente com técnicas de data mining, estatísticas e técnicas de machine learning para criar um modelo preditivo para a previsão de eventos futuros.

Nessa formação treinada por instrutor e treinamento, os participantes aprenderão como usar o Matlab para criar modelos preditivos e aplicá-los a grandes conjuntos de dados de amostra para prever eventos futuros com base nos dados.

Ao final deste treinamento, os participantes serão capazes de:

- Crie modelos preditivos para analisar padrões em dados históricos e transacionais
- Use modelagem preditiva para identificar riscos e oportunidades
- Construa modelos matemáticos que captem tendências importantes
- Use dados para dispositivos e sistemas de negócios para reduzir o desperdício, economizar tempo ou reduzir custos

Público

- Desenvolvedores
- Engenheiros
- Especialistas em domínio

Formato do curso

Palestras, discussão parcial, exercícios e prática.
nifidevApache NiFi for Developers7 horasO Apache NiFi (Hortonworks DataFlow) é uma plataforma de logística de dados integrada e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas Ele é escrito usando programação baseada em fluxo e fornece uma interface de usuário baseada na web para gerenciar fluxos de dados em tempo real Neste treinamento presencial instruído, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando o Apache NiFi No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e fluxo de dados da NiFi Desenvolva extensões usando NiFi e APIs de terceiros Custom desenvolve seu próprio processador Apache Nifi Ingerir e processar dados em tempo real de formatos de arquivo e origens de dados diferentes e incomuns Público Desenvolvedores Engenheiros de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
nifiApache NiFi for Administrators21 horasO Apache NiFi (Hortonworks DataFlow) é uma plataforma de logística de dados integrada e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas Ele é escrito usando programação baseada em fluxo e fornece uma interface de usuário baseada na web para gerenciar fluxos de dados em tempo real Neste treinamento ao vivo com instrutores, os participantes aprenderão como implantar e gerenciar o Apache NiFi em um ambiente de laboratório ao vivo No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apachi NiFi Gerencie, transforme e gerencie dados de fontes de dados distribuídas e díspares, incluindo bancos de dados e grandes lagos de dados Automatize os fluxos de dados Ativar análise de fluxo contínuo Aplicar várias abordagens para ingestão de dados Transforme Big Data e insights de negócios Público Administradores do sistema Engenheiros de dados Desenvolvedores DevOps Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
solrcloudSolrCloud14 horasO Apache SolrCloud é um mecanismo de processamento de dados distribuído que facilita a pesquisa e a indexação de arquivos em uma rede distribuída.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como configurar uma instância do SolrCloud no Amazon AWS.

No final deste treinamento, os participantes serão capazes de:

- Entender os recursos do SolCloud e como eles se comparam aos dos clusters master-slave convencionais
- Configurar um cluster centralizado do SolCloud
- Automatizar processos como comunicação com shards, adição de documentos aos fragmentos, etc.
- Usar o Zookeeper em conjunto com o SolrCloud para automatizar ainda mais os processos
- Usar a interface para gerenciar o relatório de erros
- Balanceamento de carga de uma instalação do SolrCloud
- Configurar o SolrCloud para processamento contínuo e failover

Público

Desenvolvedores Solr

Gerentes de projeto

Administradores de sistema

Analistas de pesquisa

Formato do curso

Palestra, discussão, exercícios e prática.
datameerDatameer for Data Analysts14 horasO Datameer é uma plataforma de business intelligence e análise construída sobre o Hadoop Ele permite que os usuários finais acessem, explorem e correlacionem dados em larga escala, estruturados, semi-estruturados e não estruturados de maneira fácil Neste treinamento presencial instruído, os participantes aprenderão como usar o Datameer para superar a curva de aprendizado do Hadoop à medida que avançam na configuração e análise de uma série de fontes de big data No final deste treinamento, os participantes serão capazes de: Crie, organize e explore interativamente um lago de dados corporativos Acessar data warehouses de business intelligence, bancos de dados transacionais e outras lojas analíticas Use uma interface de usuário de planilha para projetar pipelines de processamento de dados de ponta Acesse funções pré-construídas para explorar relacionamentos de dados complexos Use os assistentes de draganddrop para visualizar dados e criar painéis Use tabelas, gráficos, gráficos e mapas para analisar os resultados da consulta Público Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
memsqlMemSQL28 horasO MemSQL é um sistema de gerenciamento de banco de dados SQL, distribuído e distribuído para cloud e onpremises É um data warehouse em tempo real que fornece informações imediatas a partir de dados ao vivo e históricos Neste treinamento presencial instruído, os participantes aprenderão os fundamentos do MemSQL para desenvolvimento e administração No final deste treinamento, os participantes serão capazes de: Entenda os principais conceitos e características do MemSQL Instalar, projetar, manter e operar o MemSQL Otimizar esquemas no MemSQL Aprimore as consultas no MemSQL Desempenho de benchmark no MemSQL Construa aplicativos de dados em tempo real usando o MemSQL Público Desenvolvedores Administradores Engenheiros de Operação Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
tigonTigon: Real-time Streaming for the Real World14 horasO Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 horasIn this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
vespaVespa: Serving Large-Scale Data in Real-Time14 horasVespa um mecanismo de processamento e exibição de big data de grande porte criado pelo Yahoo Ele é usado para responder a consultas de usuários, fazer recomendações e fornecer conteúdo e anúncios personalizados em tempo real Este treinamento presencial instruído apresenta os desafios de servir dados em larga escala e conduz os participantes através da criação de um aplicativo que pode calcular as respostas às solicitações do usuário, em grandes conjuntos de dados em tempo real No final deste treinamento, os participantes serão capazes de: Use a Vespa para calcular rapidamente os dados (armazenar, pesquisar, classificar, organizar) no tempo de exibição enquanto um usuário aguarda Implemente a Vespa em aplicativos existentes que envolvem pesquisa de recursos, recomendações e personalização Integre e implemente a Vespa com sistemas de big data existentes, como o Hadoop e o Storm Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
apexApache Apex: Processing Big Data-in-Motion21 horasApache Apex é uma plataforma YARNnative que unifica fluxo e processamento em lote Ele processa grandes datainmotion de uma forma escalonável, performant, fault-tolerant, stateful, secure, distributed e easily operable Este treinamento ao vivo com instrutor apresenta a arquitetura de processamento de fluxo unificado do Apache Apex e conduz os participantes por meio da criação de um aplicativo distribuído usando o Apex no Hadoop No final deste treinamento, os participantes serão capazes de: Entender conceitos de pipeline de processamento de dados, como conectores para fontes e coletores, transformações de dados comuns etc Construa, dimensione e otimize um aplicativo Apex Processe fluxos de dados em tempo real de forma confiável e com latência mínima Use o Apex Core e a biblioteca Apex Malhar para permitir o rápido desenvolvimento de aplicativos Use a API do Apex para gravar e reutilizar o código Java existente Integrar o Apex a outros aplicativos como um mecanismo de processamento Ajustar, testar e dimensionar aplicativos Apex Público Desenvolvedores Arquitetos corporativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
alluxioAlluxio: Unifying Disparate Storage Systems7 horasO Alexio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento distintos e permite que os aplicativos interajam com os dados na velocidade da memória É usado por empresas como Intel, Baidu e Alibaba Neste treinamento presencial instruído, os participantes aprenderão a usar o Alexio para interligar diferentes estruturas de computação com sistemas de armazenamento e gerenciar com eficiência dados em escala de vários arquivos à medida que avançam na criação de um aplicativo com o Alluxio No final deste treinamento, os participantes serão capazes de: Desenvolva um aplicativo com o Alluxio Conecte sistemas e aplicativos de big data enquanto preserva um namespace Extraia com eficiência o valor do Big Data em qualquer formato de armazenamento Melhore o desempenho da carga de trabalho Implantar e gerenciar o Alluxio autônomo ou em cluster Público Cientista de dados Desenvolvedor Administrador do sistema Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
flinkFlink for Scalable Stream and Batch Data Processing28 horasO Apache Flink é uma estrutura de código aberto para fluxo escalável e processamento de dados em lote Este treinamento ao vivo com instrutores apresenta os princípios e as abordagens por trás do fluxo de dados em lote e do processamento de dados e conduz os participantes por meio da criação de um aplicativo de fluxo de dados em tempo real No final deste treinamento, os participantes serão capazes de: Configurar um ambiente para desenvolver aplicativos de análise de dados Empacotar, executar e monitorar aplicativos de fluxo de dados baseados em Flink e tolerantes a falhas Gerenciar cargas de trabalho diversas Realize análises avançadas usando o Flink ML Configurar um cluster multinode Flink Meça e otimize o desempenho Integre o Flink com diferentes sistemas de Big Data Compare os recursos do Flink com os de outras estruturas de processamento de big data Público Desenvolvedores Arquitetos Engenheiros de dados Profissionais de análise Gerentes técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
samzaSamza for Stream Processing14 horasO Apache Samza é um framework computacional assíncrono para o processamento de fluxo Ele usa o Apache Kafka para mensagens e o Apache Hadoop YARN para tolerância a falhas, isolamento do processador, segurança e gerenciamento de recursos Este treinamento ao vivo instruído introduz os princípios por trás dos sistemas de mensagens e processamento de fluxo distribuído, enquanto percorre os participantes através da criação de um projeto de amostra com Samzabased e execução de trabalho No final deste treinamento, os participantes serão capazes de: Use o Samza para simplificar o código necessário para produzir e consumir mensagens Desacoplar o manuseio de mensagens de um aplicativo Use o Samza para implementar computação assíncrona em tempo quase real Use o processamento de fluxo para fornecer um nível mais alto de abstração nos sistemas de mensagens Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
zeppelinZeppelin for Interactive Data Analytics14 horasO Apache Zeppelin é um notebook baseado na web para capturar, explorar, visualizar e compartilhar dados baseados no Hadoop e Spark Este treinamento ao vivo instruído introduz os conceitos por trás da análise de dados interativos e conduz os participantes através da implantação e uso do Zeppelin em um ambiente de usuário único ou multiusuário No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Zeppelin Desenvolva, organize, execute e compartilhe dados em uma interface baseada em navegador Visualize os resultados sem se referir à linha de comando ou aos detalhes do cluster Execute e colabore em longos fluxos de trabalho Trabalhe com vários plug-ins / languageprocessingbackends, como o Scala (com o Apache Spark), o Python (com o Apache Spark), o Spark SQL, o JDBC, o Markdown e o Shell Integre o Zeppelin com Spark, Flink e Map Reduce Instâncias multiusuário seguras do Zeppelin com o Apache Shiro Público Engenheiros de dados Analistas de dados Cientistas de dados Desenvolvedores de software Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
magellanMagellan: Geospatial Analytics on Spark14 horasO Magellan é um mecanismo de execução distribuída de código aberto para análise geoespacial em big data Implementado sobre o Apache Spark, ele estende o Spark SQL e fornece uma abstração relacional para análise geoespacial Este treinamento ao vivo instruído apresenta os conceitos e abordagens para implementar a análise geoespacial e orienta os participantes por meio da criação de um aplicativo de análise preditiva usando o Magellan no Spark No final deste treinamento, os participantes serão capazes de: Consultar, analisar e juntar-se com eficiência a conjuntos de dados geoespaciais em escala Implementar dados geoespaciais em aplicativos de business intelligence e de análise preditiva Use o contexto espacial para ampliar os recursos de dispositivos móveis, sensores, registros e dispositivos portáteis Público Desenvolvedores de aplicativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
hadooppythonHadoop with Python28 horasO Hadoop é uma estrutura popular de processamento de Big Data Python é uma linguagem de programação de alto nível, famosa por sua sintaxe clara e legibilidade de código Neste treinamento presencial instruído, os participantes aprenderão a trabalhar com o Hadoop, o MapReduce, o Pig e o Spark usando o Python enquanto percorrem vários exemplos e casos de uso No final deste treinamento, os participantes serão capazes de: Entenda os conceitos básicos por trás do Hadoop, MapReduce, Pig e Spark Use o Python com o sistema de arquivos distribuídos Hadoop (HDFS), MapReduce, Pig e Spark Use o Snakebite para acessar programaticamente o HDFS no Python Use mrjob para escrever trabalhos MapReduce em Python Gravar programas Spark com Python Estenda a funcionalidade do porco usando UDFs Python Gerenciar tarefas MapReduce e scripts Pig usando o Luigi Público Desenvolvedores Profissionais de TI Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
monetdbMonetDB28 horasO MonetDB é um banco de dados de código aberto que foi pioneiro na abordagem de tecnologia columnstore Neste treinamento presencial instruído, os participantes aprenderão como usar o MonetDB e como extrair o máximo valor dele No final deste treinamento, os participantes serão capazes de: Entenda o MonetDB e seus recursos Instalar e começar a usar o MonetDB Explore e execute diferentes funções e tarefas no MonetDB Acelerar a entrega de seu projeto, maximizando os recursos do MonetDB Público Desenvolvedores Especialistas técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
PentahoDIFundamentos do Pentaho Data Integration21 horas

O Pentaho Data Integration é uma ferramenta de integração de dados de código aberto para definir tarefas e transformações de dados.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como usar os poderosos recursos de ETL do Pentaho Data Integration e do rich GUI para gerenciar todo um ciclo de vida de big data, maximizando o valor dos dados para a organização.

- No final deste treinamento, os participantes serão capazes de:
- Crie, visualize e execute transformações básicas de dados contendo etapas e saltos
- Configurar e proteger o Repositório Empresarial Pentaho
- Aproveitar as diferentes fontes de dados e gere uma versão única e unificada da verdade em um formato pronto para análise.
- Fornecer resultados para aplicativos de terceiros para processamento adicional

Público

Analista de informações Desenvolvedores de ETL

Formato do curso

Palestra, discussão, exercícios e prática
introtostreamprocessingA Practical Introduction to Stream Processing21 horasProcessamento de Fluxo refere-se ao processamento em tempo real de "dados em movimento", isto é, a realização de cálculos em dados à medida que são recebidos Esses dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade de usuários de sites, transações financeiras, furtos de cartão de crédito, fluxos de cliques etc As estruturas Stream Processing podem ler grandes volumes de dados recebidos e fornecer informações valiosas quase instantaneamente Neste treinamento instructorled, ao vivo (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas de Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software e microsserviços relacionados No final deste treinamento, os participantes serão capazes de: Instale e configure diferentes estruturas de Stream Processing, como Spark Streaming e Kafka Streaming Entenda e selecione a estrutura mais apropriada para o trabalho Processo de dados continuamente, simultaneamente, e em um registro por meio de um registro Integre soluções de Stream Processing com bancos de dados existentes, data warehouses, data lagkes, etc Integrando a biblioteca de processamento de fluxo mais apropriada com aplicativos corporativos e microsserviços Público Desenvolvedores Arquitetos de software Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Notas Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
dataminpythonData Mining with Python14 horasThis instructor-led, live training (onsite or remote) is aimed at data analysts and data scientists who wish to implement more advanced data analytics techniques for data mining using Python.

By the end of this training, participants will be able to:

- Understand important areas of data mining, including association rule mining, text sentiment analysis, automatic text summarization, and data anomaly detection.
- Compare and implement various strategies for solving real-world data mining problems.
- Understand and interpret the results.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
sparkcloudApache Spark in the Cloud21 horasApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 horasA análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos A aplicação da análise de big data nos dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico Neste treinamento ao vivo instruído (remoto), os participantes aprenderão a executar a análise de big data na área da saúde, conforme passarem por uma série de exercícios handson livelab No final deste treinamento, os participantes serão capazes de: Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark Compreender as características dos dados médicos Aplicar técnicas de big data para lidar com dados médicos Estude grandes sistemas de dados e algoritmos no contexto de aplicações de saúde Público Desenvolvedores Cientistas de dados Formato do Curso Parte palestra, parte discussão, exercícios e prática handson pesado Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
arrowApache Arrow for Data Analysis across Disparate Data Sources14 horasO Apache Arrow é uma estrutura de processamento de dados de memória de código aberto É frequentemente usado em conjunto com outras ferramentas de ciência de dados para acessar diferentes armazenamentos de dados para análise Ele se integra bem a outras tecnologias, como bancos de dados de GPU, bibliotecas e ferramentas de aprendizado de máquina, mecanismos de execução e estruturas de visualização de dados Neste treinamento presencial, no local, os participantes aprenderão a integrar o Apache Arrow a várias estruturas do Data Science para acessar dados de fontes de dados diferentes No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apache Arrow em um ambiente de cluster distribuído Use o Apache Arrow para acessar dados de fontes de dados diferentes Use o Apache Arrow para ignorar a necessidade de construir e manter pipelines ETL complexos Analise dados em diferentes fontes de dados sem precisar consolidá-los em um repositório centralizado Público Cientistas de dados Engenheiros de dados Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 horasO Sqoop é uma ferramenta de software de código aberto para transferência de dados entre o Hadoop e bancos de dados relacionais ou mainframes Ele pode ser usado para importar dados de um sistema de gerenciamento de banco de dados relacional (RDBMS), como MySQL ou Oracle, ou de um mainframe para o HDFS (Hadoop Distributed File System) Posteriormente, os dados podem ser transformados no Hadoop MapReduce e, em seguida, reexportados de volta para um RDBMS Neste treinamento presencial instruído, os participantes aprenderão como usar o Sqoop para importar dados de um banco de dados relacional tradicional para o armazenamento do Hadoop, como HDFS ou Hive e vice-versa No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Sqoop Importar dados do MySQL para HDFS e Hive Importar dados do HDFS e Hive para o MySQL Público Administradores do sistema Engenheiros de dados Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .

Próximos Cursos de Big Data

CursoData do CursoPreço do Curso [A distância / Presencial]
Alluxio: Unifying Disparate Storage Systems - Salvador - Mundo Plazater, 2019-02-05 09:30R$9.188 / R$10.788
Alluxio: Unifying Disparate Storage Systems - Fortaleza - Meirelesqui, 2019-02-21 09:30R$9.188 / R$10.838
Alluxio: Unifying Disparate Storage Systems - Belo Horizonte - Amadeus Business Towerqua, 2019-02-27 09:30R$9.188 / R$10.888
Alluxio: Unifying Disparate Storage Systems - Recife - JCPM Trade Centerseg, 2019-03-11 09:30R$9.188 / R$10.788
Alluxio: Unifying Disparate Storage Systems - Rio de Janeiro - Candeláriaqui, 2019-03-21 09:30R$9.188 / R$10.888
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Descontos em Cursos

CursoLocalData do CursoPreço do Curso [A distância / Presencial]
UIPath: Implantação de uma Força de Trabalho RobóticaSão Paulo, Top Center Paulistaseg, 2019-01-28 09:30R$41.625 / R$43.525
Implementação e Administração do ElasticsearchFortaleza - Meirelester, 2019-02-05 09:30R$21.563 / R$23.513
Build Native iOS and Android Apps with FlutterBrasília - Corporate Financial Centerqua, 2019-02-06 09:30N/A / R$17.363
Aprendizagem de Máquinas (Machine Learning) AplicadoFortaleza - Meirelesqui, 2019-02-21 09:30R$21.188 / R$22.988
Gerenciando Processos de Negócios com ProcessMakerRio de Janeiro - Candeláriaqua, 2019-02-27 09:30R$15.563 / R$17.463
Introdução ao Drools 6 para DesenvolvedoresRio de Janeiro - Candeláriater, 2019-03-12 09:30R$30.938 / R$33.038
Automação Avançada com AnsibleBelo Horizonte - Amadeus Business Towerqui, 2019-03-14 09:30R$15.563 / R$17.463
WebServices com SOAP e WSDL BásicoBelo Horizonte - Amadeus Business Towerqua, 2019-05-29 09:30R$15.563 / R$17.463
Introdução ao Domain Driven DesignRecife - JCPM Trade Centerqua, 2019-06-19 09:30R$15.407 / R$17.107
Power BI para DesenvolvedoresCuritiba - Corporate Evolutionseg, 2019-07-01 09:30R$29.963 / R$31.863
Projetos Ágeis de Gestão com KanbanFortaleza - Meirelester, 2019-07-02 09:30R$15.563 / R$17.363

Boletim Informativo de Descontos

Nós respeitamos a privacidade dos seus dados. Nós não vamos repassar ou vender o seu email para outras empresas.
Você sempre poderá editar as suas preferências ou cancelar a sua inscriçāo.

Nossos Clientes

is growing fast!

We are looking to expand our presence in Brazil!

As a Business Development Manager you will:

  • expand business in Brazil
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!