Ingeniero de datos de GCP Phoenix, Arizona

Ingeniero de datos de GCP

Tiempo completo • Phoenix, Arizona
Naturaleza: Día uno En el sitio
Duración: 24 meses
Candidatos requeridos: 04
Experiencia: 5 a 8 años

A continuación se muestra la descripción del trabajo para el rol de un ingeniero de datos,

Conjunto de habilidades obligatorias: Apache Spark, Hive, Hadoop, BigQuery, BigTable, Cloud Composure, Dataflow, Google Cloud Storage, Python, SQL, Shell Scripting, Git.
Es bueno tener un conjunto de habilidades: CI/CD, Jenkins, Seguridad y Redes, Scala, GCP Gestión de Identidades y Accesos (IAM).
Responsabilidades:
1. Procesamiento de datos: Diseñar, desarrollar y mantener canalizaciones de procesamiento de datos escalables y eficientes utilizando tecnologías como Apache Spark, Hive y Hadoop.
2. Lenguajes de programación: Dominio de Python, Scala, SQL y Shell Scripting para el procesamiento, la transformación y la automatización de datos.
3. Experiencia en Cloud Platform: experiencia práctica con los servicios de Google Cloud Platform (GCP), incluidos, entre otros, BigQuery, BigTable, Cloud Composer, Dataflow, Google Cloud Storage y Identity and Access Management (IAM).
4. Control de versiones y CI/CD: Implemente y mantenga el control de versiones mediante Git y establezca canalizaciones de integración continua/implementación continua (CI/CD ) para los flujos de trabajo de procesamiento de datos.
5. Integración de Jenkins: Experiencia con Jenkins para automatizar la creación, las pruebas y la implementación de canalizaciones de datos.
6. Modelado de datos: Trabajar en el modelado de datos y el diseño de bases de datos para garantizar un almacenamiento y recuperación óptimos de los datos.
7. Optimización del rendimiento: Identificar e implementar técnicas de optimización del rendimiento para el procesamiento de datos a gran escala.
8. Colaboración: Colabore con equipos multifuncionales, incluidos científicos de datos, analistas y otros ingenieros, para comprender los requisitos de datos y ofrecer soluciones.
9. Seguridad y redes: Poseer conocimientos básicos de GCP Networking y GCP IAM para garantizar un procesamiento de datos seguro y conforme.
10. Documentación: cree y mantenga documentación completa para los procesos, flujos de trabajo e infraestructura de ingeniería de datos.
Calificaciones:
1. Experiencia comprobada con Apache Spark, Hive y Hadoop.
2. Fuertes habilidades de programación en Python, Scala, SQL y Shell Scripting.
3. Experiencia práctica con los servicios de GCP, incluidos BigQuery, BigTable, Cloud Composer, Dataflow, Google Cloud Storage y Identity and Access Management (IAM)
4. Familiaridad con el control de versiones con Git y experiencia en la implementación de canalizaciones de CI/CD.
5. Experiencia con Jenkins para la automatización de procesos de canalización de datos.
6. Conocimientos básicos de GCP Networking.
7. Excelentes habilidades analíticas y de resolución de problemas.
8. Fuertes habilidades de comunicación y colaboración.




(si ya tienes un currículum en Indeed)

O aplicar aquí.

* campos requeridos

Ubicación
Or
Or