Curso virtual de:Edureka |
El entrenamiento de certificación Apache Kafka de Edureka lo ayuda a aprender los conceptos sobre la arquitectura Kafka, la configuración del clúster Kafka, el productor Kafka, el consumidor Kafka, el monitoreo Kafka.
El entrenamiento de certificación Apache Kafka está diseñado para proporcionar información sobre la integración de Kafka con
Hadoop, Storm and Spark, entienden las API de Kafka Stream, implementan Twitter Streaming con Kafka,
Canal a través de estudios de casos de la vida real.
SOBRE EL CURSO
El entrenamiento de certificación Apache Kafka está diseñado para brindarle los conocimientos y habilidades para convertirse en un exitoso desarrollador de Kafka Big Data. La capacitación abarca los conceptos fundamentales (como Kafka Cluster y Kafka API) de Kafka y cubre los temas avanzados (como Kafka Connect, Kafka streams, Kafka Integration con Hadoop, Storm and Spark) lo que le permite adquirir experiencia en Apache Kafka.
OBJETIVOS DEL CURSO
Después de completar el curso de Análisis en tiempo real con Apache Kafka en Edureka, debería poder: Aprender Kafka y sus componentes Establecer un clúster de Kafka de extremo a extremo junto con el clúster Hadoop y YARN Integrar Kafka con sistemas de transmisión en tiempo real como Spark & Storm Describa las características básicas y avanzadas involucradas en el diseño y desarrollo de un sistema de mensajería de alto rendimiento. Use Kafka para producir y consumir mensajes de varias fuentes, incluidas fuentes de transmisión en tiempo real como Twitter Obtenga una idea de la API de Kafka Comprenda las API de Kafka Stream Trabaje en un proyecto de la vida real , 'Implementando Twitter Streaming con Kafka, Flume, Hadoop y Storm
INTRODUCCIÓN A BIG DATA Y APACHE KAFKA. Objetivo: en este módulo, comprenderá dónde encaja Kafka en el espacio de Big Data y Kafka Architecture. Además, aprenderá sobre Kafka Cluster, sus componentes y cómo configurar las habilidades de un clúster: Kafka Concepts Instalación de Kafka Configuración de Kafka Cluster Objetivos: Al final de este módulo, debería poder: Explicar qué es Big Data Comprender por qué Big Data Analytics es importante Describa la necesidad de Kafka Conozca el rol de cada componente de Kafka Comprenda el rol de ZooKeeper Instale ZooKeeper y Kafka Clasifique diferentes tipos de Kafka Clusters Trabaje con un solo nodo - Temas de clúster de intermediario único: Introducción a Big Data Análisis de Big Data Necesidad de Kafka ¿Qué es Kafka? Características de Kafka Conceptos de Kafka Arquitectura de Kafka Componentes de Kafka ZooKeeper ¿Dónde se usa Kafka? Instalación de Kafka Clúster de Kafka Tipos de clústeres de Kafka Configuración de un solo nodo Clúster de un solo agente Práctico: Instalación de Kafka Implementación de un solo nodo Clúster de un solo agente Obtenga un programa detallado del curso en su bandeja de entrada Descargar el plan de estudios
KAFKA PRODUCER . Objetivo: los productores de Kafka envían registros a los temas. Los registros a veces se denominan mensajes. En este módulo, trabajará con diferentes API de Kafka Producer. Habilidades: Configurar Kafka Producer Construir Kafka Producer API de Kafka Producer Manejar particiones Objetivos: Al final de este módulo, debería ser capaz de: Construir un Productor Kafka Enviar mensajes a Kafka Enviar mensajes Sincrónicamente y asincrónicamente Configurar productores Serializar usando Apache Avro Crear y manejar Temas de particiones: Configuración de clúster de intermediario único de nodo único Construcción de un productor de Kafka Enviar un mensaje a Kafka Producir mensajes con clave y sin clave Enviar un mensaje de forma sincrónica y asincrónica Serializadores de productores Serialización con Apache Avro Partitions Hands On:
KAFKA CONSUMER . Objetivo: las aplicaciones que necesitan leer datos de Kafka utilizan un consumidor de Kafka para suscribirse a los temas de Kafka y recibir mensajes de estos temas. En este módulo, aprenderá a construir Kafka Consumer, procesar mensajes de Kafka con Consumer, ejecutar Kafka Consumer y suscribirse a Temas Habilidades: Configurar Kafka Consumer Kafka Consumer API Construir Kafka Consumer Objetivos: Al final de este módulo, debería poder para: Realizar operaciones en Kafka Definir grupos de consumidores y consumidores de Kafka Explicar cómo se produce el equilibrio de particiones Describir cómo se asignan las particiones a Kafka Broker Configurar Kafka Consumer Crear un consumidor de Kafka y suscribirse a los temas Describir e implementar diferentes tipos de compromiso Deserializar los mensajes recibidos Temas:
KAFKA INTERNALS. Objetivo: Apache Kafka proporciona una plataforma unificada, de alto rendimiento y baja latencia para manejar alimentaciones de datos en tiempo real. Obtenga más información sobre cómo ajustar Kafka para satisfacer sus necesidades de alto rendimiento. Habilidades: API de Kafka Almacenamiento de Kafka Objetivos del intermediario de configuración: Al final de este módulo, debería ser capaz de: Comprender las partes internas de Kafka Explicar cómo funciona la replicación en Kafka Diferenciar entre las réplicas sincronizadas y no sincronizadas Comprender la asignación de particiones Clasificar y Describa las solicitudes en Kafka Configure Broker, Producer y Consumer para un sistema confiable Valide las confiabilidades del sistema Configure Kafka para temas de ajuste de rendimiento:
Sesiones dirigidas por instructores tenderán todas tus inquietudes en tiempo real.
Acceso ilimitado al repositorio de aprendizaje en línea del curso.
Desarrolle un proyecto con acompañamiento en vivo, basado en cualquiera de los casos vistos
En cada clase tendrá tareas prácticas que le ayudarán a aplicar los conceptos enseñados.
Hola, ¿En qué puedo ayudarte? ¿te interesa algún curso? ¿Sobre qué tema?
Add a review