Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Brasil ou nos centros de treinamento locais NobleProg no Brasil. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Nossos Clientes

Programa de curso Big Data

Nome do Curso
Duration
Overview
Nome do Curso
Duration
Overview
21 hours
Overview
Apache Accumulo é um armazenamento de chave / valor distribuído e classificado que fornece armazenamento e recuperação de dados escaláveis e robustos. Ele é baseado no design da BigTable da Go ogle e é desenvolvido com o Apache Hadoop , o Apache Zookeeper e o Apache Thrift .

Este curso ao vivo, ministrado por instrutor, cobre os princípios de trabalho por trás do Accumulo e orienta os participantes no desenvolvimento de um aplicativo de exemplo no Apache Accumulo .

Formato do Curso

- Palestra em parte, discussão em parte, desenvolvimento prático e implementação, testes ocasionais para avaliar a compreensão
21 hours
Overview
As estimativas de Internet das coisas ou o valor de mercado da IoT são enormes, pois, por definição, a IoT é uma camada integrada e difusa de dispositivos, sensores e poder de computação que se sobrepõe a setores inteiros de consumidores, empresas e governos. A IoT será responsável por um número cada vez maior de conexões: 1,9 bilhão de dispositivos hoje e 9 bilhões em 2018. Naquele ano, será aproximadamente igual ao número de smartphones, TVs inteligentes, tablets, computadores vestíveis e PCs combinados. ; No espaço do consumidor, muitos produtos e serviços já passaram para a IoT, incluindo utensílios domésticos e de cozinha, estacionamento, RFID, produtos de iluminação e aquecimento, e várias aplicações na Internet Industrial. No entanto, as tecnologias subjacentes da IoT não são novidade, uma vez que a comunicação M2M existia desde o nascimento da Internet. No entanto, o que mudou nos últimos dois anos é o surgimento do número de tecnologias sem fio de baixo custo adicionadas pela adaptação esmagadora de telefones inteligentes e Tablet em todas as casas. O crescimento explosivo de dispositivos móveis levou à demanda atual de IoT. Devido a oportunidades ilimitadas em negócios de IoT, um grande número de pequenos e médios empreendedores entrou na onda do ouro da IoT. Também devido ao surgimento da eletrônica de código aberto e da plataforma IoT, o custo de desenvolvimento do sistema de IoT e o gerenciamento adicional de sua produção considerável é cada vez mais acessível. Os proprietários de produtos eletrônicos existentes estão sofrendo pressão para integrar seu dispositivo à Internet ou ao aplicativo para dispositivos móveis. Este treinamento destina-se a uma análise de tecnologia e negócios de uma indústria emergente para que os entusiastas / empreendedores da IoT possam compreender os conceitos básicos da tecnologia e negócios de IoT. Objetivos do curso & nbsp; O objetivo principal do curso é apresentar opções tecnológicas emergentes, plataformas e estudos de caso de implementação de IoT em home & amp; automação urbana (casas e cidades inteligentes), Internet Industrial, saúde, Governo, Celular Móvel e outras áreas. & nbsp; Introdução básica de todos os elementos da IoT-Mechanical, da plataforma Electronics / sensor, dos protocolos Wireless e wireline, da integração Mobile to Electronics, da integração Mobile to enterprise, do Data-analytics e do plano Total control. Protocolos sem fio M2M para IoT-WiFi, ZigBee / Zwave, Bluetooth, ANT +: quando e onde usar qual deles? & nbsp; Mobile / Desktop / Web app para registro, aquisição de dados e controle & ndash; Disponível & nbsp; plataforma de aquisição de dados M2M para IoT- & ndash; Xively, Omega e NovoTech, etc. Problemas de segurança e soluções de segurança para IoT Plataforma de código aberto / eletrônica comercial para IoT-Rasberry Pi, Adruino, ArmMbedLPC etc. Plataforma de nuvem empresarial open source / comercial para IoT-Ayla, Bridge iO, Libellium, Axeda, nuvem de rã Cisco Estudos de negócios e tecnologia de alguns dos dispositivos comuns de IoT, como & nbsp; automação residencial, alarme de fumaça, veículos, militares, & nbsp; saúde em casa, etc. Público-alvo & nbsp; Investidores e empreendedores da IoT & nbsp; Gerentes e engenheiros cuja empresa está se aventurando no espaço da IoT & nbsp; Analistas de negócios & amp; Investidores
21 hours
Overview
A análise preditiva é o processo de análise de dados para fazer previsões sobre o futuro. Este processo usa dados juntamente com técnicas de data mining, estatísticas e técnicas de machine learning para criar um modelo preditivo para a previsão de eventos futuros.

Nessa formação treinada por instrutor e treinamento, os participantes aprenderão como usar o Matlab para criar modelos preditivos e aplicá-los a grandes conjuntos de dados de amostra para prever eventos futuros com base nos dados.

Ao final deste treinamento, os participantes serão capazes de:

- Crie modelos preditivos para analisar padrões em dados históricos e transacionais
- Use modelagem preditiva para identificar riscos e oportunidades
- Construa modelos matemáticos que captem tendências importantes
- Use dados para dispositivos e sistemas de negócios para reduzir o desperdício, economizar tempo ou reduzir custos

Público

- Desenvolvedores
- Engenheiros
- Especialistas em domínio

Formato do curso

Palestras, discussão parcial, exercícios e prática.
7 hours
Overview
Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão os principais conceitos por trás da Arquitetura MapR Stream à medida que desenvolvem um aplicativo de streaming em tempo real.

No final deste treinamento, os participantes poderão criar aplicativos para produtores e consumidores para o processamento de dados em fluxo em tempo real.

Público

- Desenvolvedores
- Administradores

Formato do curso

- Palestra parcial, parte discussão, exercícios e prática prática

Nota

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 hours
Overview
O Magellan é um mecanismo de execução distribuída de código aberto para análises geoespaciais em big data. Implementado no Apache Spark , ele estende o Spark SQL e fornece uma abstração relacional para análises geoespaciais.

Este treinamento ao vivo, conduzido por instrutor, introduz os conceitos e abordagens para a implementação de análises geoespaciais e orienta os participantes na criação de um aplicativo de análise preditiva usando o Magellan no Spark.

Ao final deste treinamento, os participantes serão capazes de:

- Consulta, análise e junção eficiente de conjuntos de dados geoespaciais em escala
- Implementar dados geoespaciais em aplicativos de business intelligence e análise preditiva
- Use o contexto espacial para ampliar os recursos de dispositivos móveis, sensores, logs e vestíveis

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 hours
Overview
O Apache Kylin é um mecanismo de análise distribuído extremo para grandes volumes de dados Neste treinamento ao vivo com instrutores, os participantes aprenderão como usar o Apache Kylin para configurar um data warehouse em tempo real No final deste treinamento, os participantes serão capazes de: Consuma dados de streaming em tempo real usando o Kylin Utilize os poderosos recursos do Apache Kylin, incluindo suporte ao esquema floco de neve, uma rica interface SQL, cubagem de centelha e latência de consulta de subsegundos Nota Nós usamos a última versão do Kylin (no momento em que escrevi, Apache Kylin v20) Público Engenheiros de Big Data Analistas de Big Data Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
7 hours
Overview
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
A Plataforma KNIME Analytics é uma opção líder de código aberto para inovação orientada a dados, ajudando a descobrir o potencial oculto em seus dados, buscando novas informações ou prever novos futuros. Com mais de 1000 módulos, centenas de exemplos prontos para execução, uma ampla variedade de ferramentas integradas e a maior variedade de algoritmos avançados disponíveis, a KNIME Analytics Platform é a caixa de ferramentas perfeita para qualquer cientista de dados e analista de negócios.

Este curso para a Plataforma KNIME Analytics é uma oportunidade ideal para iniciantes, usuários avançados e especialistas em KNIME serem apresentados ao KNIME , para aprender como usá-lo com mais eficiência e como criar relatórios claros e abrangentes com base nos KNIME trabalho do KNIME
21 hours
Overview
Descoberta de conhecimento em bancos de dados (KDD) é o processo de descoberta de conhecimento útil a partir de uma coleção de dados. Aplicações da vida real para esta técnica de mineração de dados incluem marketing, detecção de fraude, telecomunicações e manufatura.

Neste curso presencial ministrado por instrutor, apresentamos os processos envolvidos em KDD e realizamos uma série de exercícios para praticar a implementação desses processos.

Público

- Analistas de dados ou qualquer pessoa interessada em aprender como interpretar dados para resolver problemas

Formato do Curso

- Após uma discussão teórica do KDD, o instrutor apresentará casos reais que exigem a aplicação do KDD para resolver um problema. Os participantes irão preparar, selecionar e limpar conjuntos de dados de amostra e usar seu conhecimento prévio sobre os dados para propor soluções com base nos resultados de suas observações.
7 hours
Overview
O Kafka Streams é uma biblioteca do lado do cliente para criar aplicativos e microsserviços cujos dados são transmitidos para e de um sistema de mensagens Kafka. Tradicionalmente, o Apache Kafka conta com o Apache Spark ou o Apache Storm para processar dados entre produtores e consumidores de mensagens. Ao chamar a API Kafka Streams de dentro de um aplicativo, os dados podem ser processados diretamente no Kafka, ignorando a necessidade de enviar os dados para um cluster separado para processamento.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão a integrar o Kafka Streams em um conjunto de aplicativos Java de amostra que transmitem dados para e do Apache Kafka para processamento de fluxo.

No final deste treinamento, os participantes serão capazes de:

- Entenda os recursos e vantagens do Kafka Streams em relação a outras estruturas de processamento de fluxo
- Processar dados do fluxo diretamente dentro de um cluster Kafka
- Escreva um aplicativo ou microsserviço Java ou Scala que se integre com Kafka e Kafka Streams
- Escrever código conciso que transforma tópicos de entrada do Kafka em tópicos de saída do Kafka
- Construa, empacote e implante o aplicativo

Público

- Desenvolvedores

Formato do curso

- Palestra parcial, parte discussão, exercícios e prática prática

Notas

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para
21 hours
Overview
Stream Processing refere-se ao processamento em tempo real de "dados em movimento", ou seja, executando cálculos nos dados à medida que eles são recebidos. Esses dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade do usuário do site, operações financeiras, furtos de cartão de crédito, fluxos de cliques, etc. Stream Processing estruturas de Stream Processing são capazes de ler grandes volumes de dados recebidos e fornecer informações valiosas quase instantaneamente.

Neste treinamento ao vivo, ministrado por instrutor (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas de Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software e microsserviços relacionados.

Ao final deste treinamento, os participantes serão capazes de:

- Instale e configure diferentes estruturas de Stream Processing , como Spark Streaming e Kafka Streaming.
- Entenda e selecione a estrutura mais apropriada para o trabalho.
- Processo de dados de forma contínua, simultânea e de forma a registro.
- Integre soluções de Stream Processing a bancos de dados, data warehouses, lagos de dados, etc.
- Integre a biblioteca de processamento de fluxo mais apropriada aos aplicativos e microsserviços corporativos.

Público

- Desenvolvedores
- Arquitetos de software

Formato do Curso

- Parte palestra, parte discussão, exercícios e prática prática pesada

Notas

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
7 hours
Overview
This instructor-led, live training (onsite or remote) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
Audience

- Developers

formato do curso

- palestras, hands-on prática, pequenos testes ao longo do caminho para avaliar a compreensão
21 hours
Overview
O Cloudera Impala é um query engine SQL MPP de código aberto feito para clusters Apache Hadoop.
Ele permite aos usuarios a abertura de queries SQL de latencia baixa para todos os dados guardados no Hadoop Distributed File System e Apache Hbase sem requerir movimento de dados ou transformacao.
Este curso vai dirigido a analistas de sistemas e cientístas de dados.
7 hours
Overview
Este curso cobre o básico sobre como utilizar a linguagem Hive SQL, para todas aquelas pessoas que querem extraír dados do Hive. O objetivo deste curso é proporcionar todas as ferramentas necessárias para que os participantes possam analizar os dados de forma clara e precisa.
21 hours
Overview
Hortonworks Data Platform (HDP) é uma plataforma de suporte Apache Hadoop código aberto que fornece uma base estável para o desenvolvimento de soluções de Big Data no ecossistema Apache Hadoop .

Este treinamento ao vivo conduzido por instrutor (no local ou remoto) introduz a Hortonworks Data Platform (HDP) e Hortonworks Data Platform (HDP) participantes através da implementação da solução Spark + Hadoop .

No final deste treinamento, os participantes serão capazes de:

- Use o Hortonworks para executar o Hadoop maneira confiável em grande escala.
- Unifique os recursos de segurança, governança e operações do Hadoop com os fluxos de trabalho analíticos ágeis do Spark.
- Use o Hortonworks para investigar, validar, certificar e suportar cada um dos componentes em um projeto do Spark.
- Processar diferentes tipos de dados, incluindo estruturados, não estruturados, em movimento e em repouso.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 hours
Overview
Este curso introduz HBase, e é dirigido a todos aqueles desenvolvedores que utilizarão o HBase para desenvolver aplicações, e administradores que vao manejar clusters HBase.

Vamos a guiar um desenvolvedor através da arquitetura HBase e modelagem de dados e desenvolvimento de aplicações em HBase. Também vamos discutir utilizando MapReduce com HBase, e alguns tópicos administrativos.
28 hours
Overview
O Hadoop é uma estrutura popular de processamento de Big Data Python é uma linguagem de programação de alto nível, famosa por sua sintaxe clara e legibilidade de código Neste treinamento presencial instruído, os participantes aprenderão a trabalhar com o Hadoop, o MapReduce, o Pig e o Spark usando o Python enquanto percorrem vários exemplos e casos de uso No final deste treinamento, os participantes serão capazes de: Entenda os conceitos básicos por trás do Hadoop, MapReduce, Pig e Spark Use o Python com o sistema de arquivos distribuídos Hadoop (HDFS), MapReduce, Pig e Spark Use o Snakebite para acessar programaticamente o HDFS no Python Use mrjob para escrever trabalhos MapReduce em Python Gravar programas Spark com Python Estenda a funcionalidade do porco usando UDFs Python Gerenciar tarefas MapReduce e scripts Pig usando o Luigi Público Desenvolvedores Profissionais de TI Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
Público:

Este curso pretende desmistificar a tecnologia big data / hadoop e mostrar que não é difícil de entender.
14 hours
Overview
À medida que mais e mais projetos de software e TI migram do processamento local e de dados para processamento distribuído e big data, os Gerentes de Projeto estão descobrindo a necessidade de aprimorar seus conhecimentos e habilidades para compreender os conceitos e práticas relevantes para projetos e oportunidades de Big Data Este curso apresenta aos gerentes de projeto a estrutura de processamento de Big Data mais popular: o Hadoop Neste treinamento com instrutores, os participantes aprenderão os principais componentes do ecossistema Hadoop e como essas tecnologias podem ser usadas para resolver problemas em larga escala Ao aprender essas fundações, os participantes também melhorarão sua capacidade de se comunicar com os desenvolvedores e implementadores desses sistemas, bem como com os cientistas e analistas de dados que muitos projetos de TI envolvem Público Gestores de Projecto que pretendam implementar o Hadoop no seu desenvolvimento ou infra-estrutura de TI existente Gerentes de projeto que precisam se comunicar com equipes interfuncionais que incluem engenheiros de big data, cientistas de dados e analistas de negócios Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
O Hadoop é a estrutura de processamento de Big Data mais popular .
28 hours
Overview
Mem SQL é um sistema de gerenciamento de banco de dados SQL distribuído e em memória para nuvem e local. É um data warehouse em tempo real que fornece informações imediatamente a partir de dados ao vivo e históricos.

Neste treinamento ao vivo, conduzido por instrutor, os participantes aprenderão o essencial do Mem SQL para desenvolvimento e administração.

Ao final deste treinamento, os participantes serão capazes de:

- Compreender os principais conceitos e características do Mem SQL
- Instalar, projetar, manter e operar o Mem SQL
- Otimizar esquemas no Mem SQL
- Melhorar consultas no Mem SQL
- Desempenho de referência no Mem SQL
- Crie aplicativos de dados em tempo real usando Mem SQL

Público

- Desenvolvedores
- Administradores
- Engenheiros de Operação

Formato do curso

- Parte palestra, parte discussão, exercícios e prática prática pesada
28 hours
Overview
O MonetDB é um banco de dados de código aberto que foi pioneiro na abordagem de tecnologia columnstore Neste treinamento presencial instruído, os participantes aprenderão como usar o MonetDB e como extrair o máximo valor dele No final deste treinamento, os participantes serão capazes de: Entenda o MonetDB e seus recursos Instalar e começar a usar o MonetDB Explore e execute diferentes funções e tarefas no MonetDB Acelerar a entrega de seu projeto, maximizando os recursos do MonetDB Público Desenvolvedores Especialistas técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
Teradata é um sistema de Management Database Management Database relacional popular para a criação de aplicativos de armazenamento de dados em larga escala. Teradata consegue isso por meio do paralelismo.

Esse treinamento ao vivo, conduzido por instrutor (no local ou remoto), destina-se a desenvolvedores e engenheiros de aplicativos que desejam dominar usos mais sofisticados do banco de dados Teradata .

Ao final deste treinamento, os participantes serão capazes de:

- Gerencie o espaço Teradata .
- Proteger e distribuir dados no Teradata .
- Leia Explique o plano.
- Melhore a proficiência em SQL .
- Use os principais utilitários do Teradata .

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
7 hours
Overview
O Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como a computação que está sendo executada. Esta informação pode ser usada para realizar otimizações. Dois usos comuns para o Spark SQL são:
- para executar consultas SQL .
- para ler dados de uma instalação existente do Hive .

Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando o Spark SQL .

No final deste treinamento, os participantes serão capazes de:

- Instale e configure o Spark SQL .
- Realize a análise de dados usando o Spark SQL .
- Consultar conjuntos de dados em diferentes formatos.
- Visualize dados e resultados de consulta.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 hours
Overview
Apache Zeppelin is a web-based notebook for capturing, exploring, visualizing and sharing Hadoop and Spark based data.

This instructor-led, live training introduces the concepts behind interactive data analytics and walks participants through the deployment and usage of Zeppelin in a single-user or multi-user environment.

By the end of this training, participants will be able to:

- Install and configure Zeppelin
- Develop, organize, execute and share data in a browser-based interface
- Visualize results without referring to the command line or cluster details
- Execute and collaborate on long workflows
- Work with any of a number of plug-in language/data-processing-backends, such as Scala (with Apache Spark), Python (with Apache Spark), Spark SQL, JDBC, Markdown and Shell.
- Integrate Zeppelin with Spark, Flink and Map Reduce
- Secure multi-user instances of Zeppelin with Apache Shiro

Audience

- Data engineers
- Data analysts
- Data scientists
- Software developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
14 hours
Overview
Vespa um mecanismo de processamento e exibição de big data de grande porte criado pelo Yahoo Ele é usado para responder a consultas de usuários, fazer recomendações e fornecer conteúdo e anúncios personalizados em tempo real Este treinamento presencial instruído apresenta os desafios de servir dados em larga escala e conduz os participantes através da criação de um aplicativo que pode calcular as respostas às solicitações do usuário, em grandes conjuntos de dados em tempo real No final deste treinamento, os participantes serão capazes de: Use a Vespa para calcular rapidamente os dados (armazenar, pesquisar, classificar, organizar) no tempo de exibição enquanto um usuário aguarda Implemente a Vespa em aplicativos existentes que envolvem pesquisa de recursos, recomendações e personalização Integre e implemente a Vespa com sistemas de big data existentes, como o Hadoop e o Storm Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
O Teradata é um dos populares sistemas de gerenciamento de banco de dados relacional. É principalmente adequado para a construção de aplicações de armazenamento de dados em larga escala. Teradata consegue isso pelo conceito de paralelismo.

Este curso apresenta os participante ao Teradata
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Descontos em Cursos

Boletim Informativo de Descontos

Nós respeitamos a privacidade dos seus dados. Nós não vamos repassar ou vender o seu email para outras empresas.
Você sempre poderá editar as suas preferências ou cancelar a sua inscriçāo.

is growing fast!

We are looking to expand our presence in Brazil!

As a Business Development Manager you will:

  • expand business in Brazil
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!