Hay diferentes roles disponibles en Big data Hadoop para elegir para comenzar su carrera en esta tecnología en auge Big data Hadoop. Puede seleccionar uno de los siguientes roles según su interés y perfil actual:
Desarrollador Hadoop
La descripción del trabajo de desarrollador de Hadoop es escribir programas según los diseños del sistema y debe tener un conocimiento justo sobre el lado de codificación y programación de la historia. El rol de un desarrollador de Hadoop es similar al desarrollador de software pero en el dominio de Big Data. El trabajo de desarrollador de Hadoop también incluye la comprensión y el trabajo para encontrar soluciones a los problemas, el diseño, el arquitecto y las sólidas habilidades de documentación.
- ¿Cuál es la mejor manera de obtener una pasantía en comercio?
- ¿Es posible comenzar un trabajo soñado como lo desee?
- ¿Qué tipo de deberes habrá para un oficial de IES (mecánico), porque vi a oficiales de IES enseñando en las clases de entrenamiento?
- ¿Cuáles son los trabajos mejor pagados en Inglaterra con solo GCSES?
- Necesito ganar $ 600 adicionales por mes. Eso es solo un extra de $ 150 por semana, pero tengo un trabajo a tiempo completo. ¿Cuál es mi mejor curso de acción? Escribir respuesta
Un desarrollador de Big Data es un programador con habilidades comprobadas para escribir códigos de alta calidad, altamente optimizados, de alto rendimiento y mantenibles para soluciones de Big Data.
ROLES Y RESPONSABILIDADES DEL DESARROLLADOR DE HADOOP
- Definiendo flujos de trabajo
- Administrar y revisar archivos de registro de Hadoop
- Servicios de coordinación de clústeres a través de Zookeeper
- Administre trabajos de Hadoop usando el planificador
- Admite programas MapReduce que se ejecutan en el clúster Hadoop.
Conjunto de habilidades requerido:
- Experiencia en la escritura de scripts de Pig Latin y HiveQL
- Conocimiento comprobado de flujo de trabajo / planificadores como Oozie
- Capacidad para manejar herramientas de carga de datos como Flume y Sqoop
Arquitecto Hadoop
La descripción del trabajo del arquitecto Hadoop es diseñar cómo debe funcionar el sistema y luego administrar el ciclo de vida completo de una solución Hadoop. Debe tener experiencia en la materia y experiencia de entrega trabajando en plataformas de distribución populares de Hadoop como Cloudera, HortonWorks y MapR.
ROLES Y RESPONSABILIDADES DEL ARQUITECTO DE HADOOP
- Realizar el análisis de requisitos necesario
- Diseño de la arquitectura técnica y personalización de la aplicación.
- Emprender el despliegue del diseño de la solución propuesta
HABILIDADES REQUERIDAS
- Amplio conocimiento sobre la arquitectura Hadoop y HDFS
- Colmena, cerdo
- Java Map Reduce
- HBase
Administrador de Hadoop
La descripción del trabajo del administrador de Hadoop es similar al trabajo del administrador del sistema. Las funciones y responsabilidades administrativas de Hadoop incluyen la configuración de clústeres de Hadoop, copias de seguridad, recuperación y mantenimiento de los mismos. El administrador de Hadoop requiere un buen conocimiento de los sistemas de hardware y la arquitectura de Hadoop.
FUNCIONES Y RESPONSABILIDADES DEL ADMINISTRADOR DE HADOOP:
- Mantenimiento y soporte de HDFS
- Planificación y selección de clústeres de Hadoop
- Realizar un seguimiento de todos los problemas de conectividad y seguridad
- Configurar nuevos usuarios de Hadoop
Habilidades requeridas:
- Conocimiento profundo de Hbase
- Experiencia práctica en Oozie, HCatalog, Hive
- Fuertes habilidades de scripting en entorno Linux
Probador de Hadoop
La descripción del trabajo del probador de Hadoop es garantizar que el proceso que se está diseñando esté sincronizado con el proceso requerido por la organización. Su función principal es encontrar y corregir errores en las aplicaciones de Hadoop.
HADOOP TESTER ROLES Y RESPONSABILIDADES
- La responsabilidad principal incluye la resolución de problemas y la búsqueda de defectos en el programa e informarlos al desarrollador de Hadoop para tomar medidas correctivas
- Informe de todos los casos de prueba positivos y negativos en componentes Hadoop / Pig / Hive
HABILIDADES REQUERIDAS
- Conocimiento de JUnit, MRUnit framework para pruebas
- Conocimiento de Java para probar los trabajos de MapReduce
- Conocimiento práctico de Hive, Pig