GCP Professional Data Engineer – Guía Septiembre 2020

Hace poco tiempo recordé mi primera experiencia con GCP. Fue en Londres, poco antes de las Olimpiadas de 2012, en un proyecto del ámbito online gaming, inicialmente pensado para AWS que fue migrado a App Engine – plataforma PAAS que evolucionaría a la actual GCP.

Mi impresión inicial fue buena, aunque la plataforma imponía un cierto número de limitaciones al desarrollo, que serían reducidas posteriormente con el lanzamiento de App Engine Flexible.

Coincidiendo con el lanzamiento de Tensor Flow como framework Open Source en 2015, tuve la suerte de asistir a un workshop sobre redes neuronales – impartido por uno de los científicos AI de Google Seattle – donde tuve mi segunda experiencia con la plataforma. Quedé muy sorprendido por la simplicidad de configuración y despliegue, el concepto NoOps y una oferta de Machine Learning / AI, sin competencia en aquel momento.

¿Sueñan los androides con ovejas eléctricas? Philip K. Dick habría “alucinado” con los sueños eléctricos de las redes neuronales – alimentadas por Tensor Flow.

Examen

La estructura del examen es la habitual en los exámenes de GCP: 2 horas y 50 preguntas, con un formato definitivamente dirigido hacia las preguntas tipo escenario, mezclando preguntas de dificultad alta, con otras más sencillas de dificultad media – baja.

En general, para seleccionar la respuesta correcta hay que aplicar criterios técnicos y de negocio. Es necesario, por tanto, un conocimiento profundo de los servicios desde el punto de vista tecnológico, así como destreza / experiencia para aplicar los criterios de negocio de forma contextual, según pregunta, tipo de entorno, sector, aplicación etc …

Imagen 1, Data Lake, la arquitectura ubicua – Imágen propiedad de GCP

Podemos agrupar los servicios relevantes según los estados (y subestados) del ciclo del dato:

Ingestión, Almacenamiento, Transformación y Análisis.

  • Ingestión Batch / Data Lake : Cloud Storage.
  • Ingestión Streaming: Kafka, Pub/Sub, Computing Services, Cloud IoT Core.
  • Migraciones: Transfer Appliance, Transfer Service, Interconnect, gsutil.
  • Transformación: Dataflow, Dataproc, Cloud Dataprep, Hadoop, Apache Beam.
  • Computación: Kubernetes Engine, Compute Instances, Cloud Functions, App Engine.
  • Almacenamiento: Cloud SQL, Cloud Spanner, Datastore / Firebase, BigQuery, BigTable, HBase, MongoDB, Cassandra.
  • Cache: Cloud Memorystore, Redis.
  • Análisis: / Data Operations: BigQuery, Cloud Datalab, Data Studio, DataPrep, Cloud Composer, Apache Airflow.
  • Machine Learning: AI Platform, BigQueryML, Cloud AutoML, Tensor Flow, Cloud Text-to-Speech API, Cloud Speech-to-Text, Cloud Vision API, Cloud Video AI, Translations, Recommendations API, Cloud Inference API, Natural Language, DialogFlow, Spark MLib.
  • IoT: Cloud IoT Core, Cloud IoT Edge.
  • Seguridad y encriptación: IAM, Roles, Encryption, KMS, Data Prevention API, Compliance …
  • Operaciones: Kubeflow, AI Platform, Cloud Deployment Manager …
  • Monitorización: Cloud Stackdriver Logging, Stackdriver Monitoring.
  • Optimización: Control de costes, Autoscaling, Preemptive instances …

Pre-requisitos y recomendaciones

A este nivel de certificación las preguntas no se refieren, en general, a un solo tópico. Es decir, una pregunta del dominio Analytics puede requerir conocimientos más o menos avanzados de Computación, Seguridad, Networking o DevOps para poder resolverla con éxito. Recomiendo estar en posesión de la certificación GCP Associate Cloud Engineer o tener conocimientos equivalentes.

  • Experiencia GCP a nivel arquitecturalEl examen está enfocado, en parte, a la solución de arquitectura, diseño y despliegue de pipelines de datos; selección de tecnologías para solucionar problemas de negocio, y en menor medida al desarrollo. Recomiendo el estudio del mayor número posible de arquitecturas de referencia, como las que muestro en la presente guía.
  • Experiencia GCP a nivel desarrollo. Aunque en mi set de preguntas, y en el examen de prueba, no aparecen preguntas explícitas de programación, el examen requiere conocimiento a nivel técnico de servicios y de APIS: SQL, Python, REST, algoritmos, Map-Reduce, Spark, Apache Beam (Dataflow) …
  • Experiencia GCP a nivel Seguridad. Dominio presente de forma transversal en casi todas las certificaciones. Recomiendo conocimientos (al menos) a nivel de Associate Engineer.
  • Experiencia GCP a nivel Networking. Otro dominio presente de forma transversal. Recomiendo conocimientos (al menos) a nivel de Associate Engineer.
  • Conocimientos de Data Analytics. Es una obviedad, pero es imprescindible conocimiento del dominio. En caso contrario, recomiendo estudiar libros como “Data Analytics with Hadoop” o realizar cursos como Programa especializado: Data Engineering, Big Data and ML on Google Cloud en Español. Así mismo, realizar laboratorios o proyectos pet, para obtener cierta experiencia práctica.
  • Conocimientos del ecosistema Hadoop – Spark, conectado con el punto anterior. Son necesarios conocimientos a alto nivel del ecosistema: Map Reduce, Spark, Hive, Hdfs, Pig, …
  • Conocimientos de Machine Learning e IoT. Imprescindible conocimientos avanzados en Data Science y Machine Learning, aparte del conocimiento específico de los productos de GCP. Hay preguntas exclusivamente sobre este dominio – al nivel de certificaciones como AWS Machine Learning o superior. IoT aparece en el examen de una forma más ligera, pero es imprescindible conocer la arquitectura y servicios de referencia.
  • Experiencia DevOps. Conceptos como CI/CD, infraestructura o configuración como código, son de gran importancia en la actualidad, y así se refleja en el examen, aunque no tiene un gran peso específico.

Preguntas tipo

Pregunta representativa del nivel de dificultad del examen.

Imagen propiedad de GCP

Escenario práctico de migración donde se incluyen servicios cloud y del ecosistema Hadoop, así como conceptos propios del dominio Analytics.

Servicios a estudiar de forma detallada

Imagen 2 – propiedad de GCP
  • Cloud Storage – Servicio core que aparece de forma consistente en todas las certificaciones, y figura central en los entonor denominados Data Lake. Recomiendo su estudio en detalle a nivel arquitectural – ver Imagen 1 – configuraciones según la temperatura del dato, y como elemento de integración / almacenamiento entre los diferentes servicios
  • BigQuery – Servicio central en el dominio Analytics GCP como elemento de BI y almacenamiento. Fundamental en el examen, por lo que es conveniente estudiarlo en detalle: arquitectura, configuración, backups, export/import, streaming, batch, seguridad, partitioning, sharding, proyectos, datasets, vistas, integración con otros servicios, coste, querys y optimización SQL (legacy y standard) a niveles de tablas, keys …
  • Pub / Sub – Servicio central como elemento de ingesta y de integración. Su estudio en profundidad es muy recomendable: casos de uso, arquitectura, configuración, API, seguridad e integración con otros servicios (p.e Dataflow, Cloud Storage) – servicio “mirror” cloud nativo de Kafka.
  • Dataflow – Servicio central en el dominio Analytics GCP como elemento de proceso y transformación. Implementación basada en Apache Beam que es necesario conocer a alto nivel y de diseño de pipelines. Casos de uso, arquitectura, configuración, API e integración con otros servicios.
  • Dataproc – Servicio central en el dominio Analytics GCP como elemento de proceso y transformación. Es un servicio basado en Hadoop, y por lo tanto, es el servicio indicado para una migración al cloud. En este caso, no solo son necesarios conocimientos de Dataproc, sino también en los servicios nativos: Spark, HDFS, HBase, Pig… casos de uso, arquitectura, configuración, import/export, reliability, optimización, coste, API e integración con otros servicios.
  • Cloud SQL, Cloud Spanner – Bases de datos relacionales nativas cloud. Casos de uso, arquitectura, configuración, seguridad, performance, reliability, coste y optimización: clusters, transaccionalidad, disaster recovery, backups, export/import, performance y optimización SQL, tablas, queries, keys y depuración. Integración con otros servicios.
  • Cloud Bigtable – Base de datos manejada NoSQL de baja latencia, indicada para time series, IoT, … ideal para reemplazar una instalación HBase on premise. Casos de uso, arquitectura, configuración, seguridad, performance, reliability y optimización: clusters, CAP, backups, export/import, partitioning, performance, y optimización de tablas, queries, keys. Integración con otros servicios.
  • Machine Learning – Uno de los puntos fuertes de la certificación es el dominio “Operationalizing machine learning models”. Mucho más denso y complejo de lo que puede parecer en un principio, ya que no solo incluye la operatividad y el conocimiento de los servicios relevantes de GCP; así mismo, incluye el manejo a nivel conceptual de los fundamentos Data Science: selección de algoritmos, optimización, métricas … El nivel de dificultad de las preguntas es variable, pero comparable al de certificaciones específicas, como AWS Certified Machine Learning – Specialty. Servicios más importantes: BigQuery ML, Cloud Vision API, Cloud Video Intelligence, Cloud AutoML,Tensorflow, Dialogflow, GPU´s, TPU´s
  • Security – La Seguridad es transversal a todos los dominios, y aparece de forma consistente en todas las certificaciones. Es este caso, aparece como tópico técnico independiente, crosscutting concern o como business requirement: KMS, IAM, Policies, Roles, Encriptación, Data Prevention API
Imagen 3 – IoT Arquitectura de Referencia – propiedad de GCP

Servicios muy importantes a tener en cuenta

  • Networking – Dominio transversal que puede aparecer en forma de cuestiones técnicas independientes, cross cutting concerns o como business requirements: VPC, Direct Interconnect, Multi Region / Zone, Hybrid connectivity, Firewall rules, Load Balancing, Network Security, Container Networking, API Access (private / public)
  • Hadoop – El examen cubre ecosistemas y servicios de terceros como Hadoop, Spark, HDFS, Hive, Pig… casos de uso, arquitectura, funcionalidad, integración y migración a GCP.
  • Apache Kafka – Servicio alternativo a Pub/Sub, por lo que es recomendable estudiarlo a alto nivel: casos de uso, características operacionales, configuración, migración e integración con GCP – plugins, conectores.
  • IoT – Puede aparecer en varias preguntas a nivel arquitectural: casos de uso, arquitectura de referencia e integración con otros servicios. IoT core, Edge Computing.
  • Datastore / Firebase – Repositorio NoSQL tipo documental. Casos de uso, configuración, performance, modelo de entidades, keys y optimización de índices, transaccionalidad, backups, export/import e integración con otros servicios. No tiene tanto peso como los otros repositorios de datos.
  • Cloud Memory Store / Redis – Repositorio tipo caché de datos estructurados. Casos de uso, arquitectura, configuración, performance, reliability y optimización: clusters, backups, export/import e integración con otros servicios.
  • Cloud Dataprep – Casos de uso, funcionamiento a nivel general y consola, formatos admitidos e integración con Dataflow.
  • Cloud Stackdriver – Casos de uso, monitorización y logging, tanto a nivel de sistema como aplicación: Cloud Stackdriver Logging, Cloud Stackdriver Monitoring, Stackdriver Agent y plugins.

Otros servicios

  • MongoDB, Cassandra – Bases de datos NoSQL que pueden aparecer en distintos escenarios . Casos de uso, arquitectura e integración con otros servicios.
  • Cloud ComposerCasos de uso, funcionamiento a nivel general y consola web, configuración tipos de diagramas, formatos admitidos, import / export, integración con otros servicios, conectores.
  • Cloud Data Studio – Casos de uso, configuración, networking, seguridad, funcionamiento a nivel general y entorno e integración con otros servicios.
  • Cloud Data Lab – Casos de uso, funcionamiento a nivel general y consola web, tipos de diagramas, formatos admitidos, import / export e integración con otros servicios.
  • Kubernetes Engine – Casos de uso, arquitectura, clustering e integración con otros servicios.
  • Kubeflow – Casos de uso, arquitectura, configuración entorno, Kubernetes.
  • Apache Airflow – Casos de uso, arquitectura y funcionamiento general.
  • Cloud Functions Casos de uso, arquitectura, configuración e integración con otros servicios – como Cloud Storage y Pub/Sub, en modo Push / Pull.
  • Compute Engine – Casos de uso, arquitectura, configuración, high availability, reliability e integración con otros servicios.
  • App Engine – Casos de uso, arquitectura e integración con otros servicios.

Bibliografía & recursos esenciales

Google proporciona una gran cantidad de recursos para la preparación de esta certificación, en forma de cursos, libro guía oficial, documentación y exámenes de prueba. Estos recursos son muy recomendables, y en algunos casos, diría que esenciales.

El Curso de Preparación para la certificación, contenido en el Programa Especializado Data Engineering disponible en Coursera, incluye un examen extra, y una gran cantidad de consejos y materiales adicionales, así como laboratorios – utilizando la herramienta externa Qwik Labs.

Bibliografía (selección) que he utilizado para la preparación de la certificación

Como he indicado previamente, los cursos de Google en Coursera me parecen excelentes, ya que combinan una serie de videos cortos, material de lectura, laboratorios y preguntas de prueba, creando de esta manera una experiencia muy dinámica. De cualquier forma, deben considerarse solamente como punto de partida, siendo necesaria la profundización – según experiencia – en cada uno de los dominios utilizando, por ejemplo, la excelente documentación de GCP.

Pero no solo de documentación y cursos vive el hombre. No puedo ocultar que me encantan los libros en general, y los libros de IT en particular. De hecho, poseo una enorme colección de libros que data desde los años 80s, que en algún momento donaré a librería Cervantina local.

Los libros proporcionan una experiencia más profunda y dinámica que los vídeos, que pueden resultar un poco monótonos si son de larga duración – además de ser una experiencia mucho más pasiva – como ver TV. Lo ideal es la combinación de medios audiovisuales y escritos, creando así tu propio camino de aprendizaje.

Laboratorios

Imagen 4 – Data Lake basado en Cloud Storage – propiedad de GCP

Parte del trabajo como Data Engineer consiste en la creación, integración, despliegue y mantenimiento de pipelines de datos, tanto en modalidad batch como streaming.

Data Engineering Quest contiene varios laboratorios que introducen a la creación de distintas pipelines de transformación de datos, IoT y Machine Learning, por lo que me parecen excelentes ejercicios – y no solo de cara a la certificación.

¿Merece la pena?

El nivel de la certificación es avanzado, y en general, no debería ser la primera certificación del ámbito cloud a obtener. Abarca gran cantidad de material y dominios, por lo que afrontarla sin un cierto nivel de conocimientos previos, puede ser una tarea bastante compleja.

Si la comparamos con la certificación espejo en la plataforma AWS, cubre casi el doble de material, debido sobre todo a la inclusión de preguntas sobre el dominio Machine Learning / Data Science – que en el caso de AWS han sido eliminadas para pasar a su propia certificación. Por tanto, es como tomar dos certificaciones en una sola.

¿Merece la pena? desde luego, pero no como una primera certificación – dependiendo de la experiencia aportada.

Las certificaciones son un buen modo, no solo de validar los conocimientos de forma externa, sino de recopilar información actualizada, validar buenas prácticas y consolidar conocimientos con casos prácticos reales (o casi).

¡Buena suerte a todos!

AWS Certified Developer Recargado

Voy a compartir mi reciente experiencia con la recertificación – Junio 2020 – AWS Developer, una mis certificaciones favoritas, sin ninguna duda. Una experiencia que ha sido muy distinta a la de la convocatoria anterior, ya que, si mi memoria no me engaña, no encontré ninguna pregunta repetida.

La estructura del examen es la habitual para el nivel asociado: 2 horas y 65 preguntas, con un formato evolucionado, aún más, hacia las preguntas tipo escenario. No recuerdo ninguna pregunta directa, y desde luego, ninguna extremadamente fácil. Dicho esto, me parece un examen bastante más equilibrado que la versión anterior, donde algunos servicios tenían mucho más peso que otros – API gateway, I´m looking at you.

Prácticamente, todos los servicios Core / Serverless – importantes – tienen representación en el examen:

  • S3
  • In Memory Databases: Elastic Cache, Memcache, Redis
  • Bases de datos: RDS, DynamoDB …
  • Seguridad y encriptación: KMS, Policies ..
  • Despliegue, Configuración e IAC: ElasticBeanstalk, Codepipeline, Cloudformation …
  • Serverless: Funciones Lambda, API Gateway, Cognito …
  • Microservicios: SQS, SNS, Kinesis, Contenedores, Step Functions …
  • Monitorización: Cloudwatch, Cloudwatch Logs, Cloudtrail, X-Ray …
  • Optimización: Control de costes, Contenedores, Autoscaling, Spot Fleets …

Developer es la certificación Serverless por excelencia, aunque algunos servicios, como Step Functions o Contenedores tipo Fargate, están pobremente representados – apenas una o dos preguntas, y de dificultad elevada.

Serverless es una gran opción para sistemas IoT

Pre-requisitos y recomendaciones

No voy a repetir la información que ya está disponible en la web de AWS; en cambio, voy a dar mis recomendaciones y observaciones personales.

En el siguiente post reflexiono sobre la presente certificación, y cómo debería ser la primera obtenida, en muchos casos:

https://metanube.org/2020/06/22/aws-certified-solutions-architect-mas-alla-del-hype/

Profesionales con experiencia en desarrollo Serverless – sobre todo en AWS – Microservicios, o experiencia con aplicaciones de tipo React, son los que más cómodos se encontrarán a la hora de preparar y enfrentarse a esta certificación.

  • Experiencia AWS. Certificación indicada para aquellos profesionales con poca o ninguna experiencia en AWS. Recomiendo al menos obtener la AWS Certified Cloud Practitioner.
  • Experiencia en Desarrollo. Imprescindible poseer un cierto nivel, ya que muchas de las preguntas son eminentemente prácticas, y son fruto de la experiencia en el campo de desarrollo. Conocimientos de lenguajes de programación como Python, Javascript o Java es algo muy deseable. El examen plantea problemas de programación de forma indirecta, mediante conceptos, depuración de errores y optimización. La falta de este conocimiento o experiencia, genera la impresión en muchos profesionales que esta certificación es de un nivel de dificultad muy elevada, cuando en mi opinión, no lo es.
  • Experiencia en Arquitectura. El examen está enfocado en gran parte al desarrollo de aplicaciones Cloud, especialmente Serverless – Microservicios. Sin embargo, algunas preguntas pueden requerir conocimientos a nivel de patrones arquitectura Cloud / Serverless / Containers.
  • Experiencia DevOps. Conceptos como CI/CD, infraestructura o configuración como código, son de gran importancia en la actualidad, y así se refleja en el examen. Obviamente, las pregunta se centran – mayoritariamente – en productos AWS, pero el conocimiento de otros productos – Docker, Jenkins, Spinaker, Git – y principios generales pueden ser de gran ayuda. No olvidemos que esta certificación, junto con SysOps, forman parte del path recomendado para obtener la certificación AWS DevOps Pro, y su obtención re-certifica automáticamente las dos anteriormente mencionadas.

Neo, no es lo mismo conocer el camino que recorrerlo” – Morpheus. The Matrix, 1999


Imagen aws.amazon.com

AWS Technical Essentials: curso introductorio, nivel bajo. Live remoto o presencial – de pago.

Developing on AWS: curso centrado en el desarrollo de aplicaciones AWS usando la SDK. Es de nivel intermedio, y el temario me parece bastante relevante para la certificación. Live remoto o presencial – de pago.

Advanced Developing on AWS: interesante curso, pero centrado en Arquitectura AWS: migraciones, re-arquitectura, microservicios … Live remoto o presencial – de pago.

Exam Readiness Developer: imprescindible. Gratuito y digital.

AWS Certified Cloud Practitioner: certificación oficial AWS, especialmente dirigida a aquellos profesionales con escasos conocimientos sobre Cloud en general, y AWS en particular.

Examen

Como he comentado previamente, el formato del examen es similar a la mayoría de certificaciones, asociadas o no. Es decir, “scenario based”, y en este caso de dificultad media, media-alta. No vais a encontrar preguntas “directas” o excesivamente sencillas. Al ser un examen de nivel asociado cada pregunta se centra en un sólo tópico, es decir, si la pregunta es sobre DynamoDB, la pregunta no contendrá cross cutting concerns, como Seguridad, por ejemplo.

Examinemos una pregunta tomada del cuestionario de ejemplo la certificación:

Pregunta muy representativa del nivel de dificultad medio – alto del examen. Estamos hablando de una certificación orientada al desarrollo, por lo que os vais a encontrar con preguntas de carácter técnico, conocimiento profundo de API´s, configuración, optimización y depuración. En este caso, nos plantean un ejemplo real de configuración y diseño de índices para una tabla de DynamoDB.

DynamoDB es parte integral de la oferta Serverless de AWS y la base de datos estrella – con permiso de Aurora Serverless. Base de datos NOSQL de baja latencia ideal para IoT, eventos, time – series etc … Su naturaleza puramente Serverless permite su utilización sin necesidad de proveer y gestionar servidores, o la necesidad de situarla dentro de una VPC. Este hecho proporciona una gran ventaja a la hora de acceder a la misma de forma directa desde funciones Lambda, ya que no es necesario que estas “vivan” dentro de una VPC, con el gasto añadido de gestión de recursos y posibles problemas de rendimiento – “enter Hyperplane“.

DynamoDB apenas aparece en la nueva certificación AWS Databases, por lo que recomiendo su estudio para la presente certificación, por la profundidad y número de preguntas que pueden aparecer.

Servicios a estudiar de forma detallada

Los siguientes servicios son de gran importancia – no solo para aprobar la certificación – por lo que recomiendo su estudio en profundidad.

Imagen aws.amazon.com
  • AWS S3 – Servicio Core. Aparece de forma consistente en todas las certificaciones. Casos de uso, seguridad, encriptación, API, desarrollo y depuración.
  • Seguridad: Aparece de forma consistente en todas las certificaciones: encriptación KMS, Certificate Manager, AWS Cloud HMS, Federación, Active Directory, IAM, Policies, Roles etc …
  • AWS Lambda – Casos de uso, creación, configuración-sizing, despliegue, optimización, depuración y monitorización (X-RAY).
  • AWS DynamoDB – Casos de uso, creación de tablas, configuración, optimización, índices, API, DAX, DynamoDB Streams.
  • AWS API Gateway – Casos de uso, configuración, API, despliegue, seguridad e integración con S3, Cognito y Lambda. Optimización y depuración.
  • AWS ElastiCache – Casos de uso, configuración-sizing, API, despliegue, seguridad, optimización y depuración. Tiene gran peso en el examen – al menos en mi set de preguntas.
  • AWS Cognito – Casos de uso, configuración e integración con otros servicios Serverless y Federación. Conceptos como SAML, OAUTH, Directorio Activo etc … son importantes para el examen.
  • AWS Cloudformation – Casos de uso, configuración, creación de scripts, conocimiento de la nomenclatura / comandos CLI.
  • AWS SQS – Casos de uso, arquitectura, configuración, API, seguridad, optimización y depuración. Pueden aparecer preguntas de diferente nivel de dificultad.

Servicios muy importantes a tener en cuenta

  • AWS SNS – Conocimientos de casos de uso a nivel arquitectura, configuración, endpoints, integración con otros servicios Serverless.
  • AWS CLI – Conocimiento medio sobre distintos comandos y nomenclatura. En mi set de preguntas no aparecieron muchas, pero en cualquier caso, es muy positivo tener cierta soltura a nivel consola.
  • AWS Kinesis – En esta versión del examen aparecen algunas preguntas de mayor complejidad que en la encarnación anterior. Casos de uso, configuración, sizing, KPL, KCL, API, depuración y monitorización.
  • AWS CloudWatch, Events, Log – Aparece de forma consistente en todas las certificaciones. Conocimientos arquitectura, configuración, métricas, alarmas, integración, casos de uso.
  • AWS X-RAYCasos de uso, configuración, instrumentación e instalación en diferentes entornos.
  • AWS Pipeline, CodeBuild, Cloud Deploy, CodeCommit, CodeStar – Funcionamiento a alto nivel, arquitectura, integración y casos de uso. Recomiendo un estudio más detallado de Pipeline y CodeBuild.
  • AWS ELB / Certificates – Casos de uso, tipos de ELB, integración, depuración, monitorización, seguridad – instalación de certificados.
  • AWS EC2, Autoscaling – Parecido al caso interior. Casos de uso, integración con ELB.
  • AWS Beanstalk – Arquitectura, casos de uso, configuración, depuración y tipos de despliegue – muy importante para el examen: All at Once, Rolling etc …
  • AWS RDS – Uno de los servicios estrella de AWS y de la Databases Certification. Aquí hace su aparición de forma limitada: casos de uso. configuración, integración – caches – , depuración y monitorización.

Otros servicios

  • AWS Networking – arquitectura y conocimientos básicos de red: VPC, security groups, Regiones, Zonas, VPN … Aparecen de forma general y limitada, en comparación con el resto de certificaciones. Es una de las razones por la cual esta certificación es ideal para principiantes. La arquitectura de red en AWS puede ser un tema muy complejo y árido.
  • AWS Step FunctionsUn servicio muy utilizado en el entorno empresarial, pero que en las certificaciones aparece de forma circunstancial. Recomiendo estudiar arquitectura, casos de uso y nomenclatura – las preguntas no son sencillas.
  • AWS SAM – Casos de uso, configuración y despliegue. Comandos SAM CLI.
  • AWS ECS / Fargate – Su aparición en las certificaciones es bastante decepcionante, y más si lo comparamos con las certificaciones de Google Cloud, donde Kubernetes – GKE – tiene un papel principal – lógico, ya que es una tecnología nativa de Google. Está claro que la estrategia de AWS es otra, ya que los contenedores son unas de las tecnologías más utilizadas hoy en día – obvio espejo de Serverless. Recomiendo estudiar la arquitectura, casos de uso – microservicios – configuración, integración y monitorización (X-RAY).
  • AWS Cloudfront – Funcionamiento general y casos de uso. Integración con S3.
  • AWS Glue – Funcionamiento general y casos de uso.
  • AWS EMR Funcionamiento general y casos de uso.
  • AWS DataPipeline – Funcionamiento general y casos de uso.
  • AWS Cloudtrail – Funcionamiento general y casos de uso.
  • AWS GuardDuty – Funcionamiento general y casos de uso.
  • AWS SecretsManager – Funcionamiento general y casos de uso.

Recursos esenciales

  • AWS Certification Website.
  • Preguntas de ejemplo
  • Curso de preparación – recomendado, con preguntas de práctica adicionales.
  • AWS Whitepapers – “Storage Services Overview“, “Hosting Static Websites on AWS“, “In Memory Processing in the Cloud with Amazon ElastiCache“, “Serverless Architectures with AWS Lambda“, “Microservices“.
  • FAQS para cada servicio – especialmente para Lambda, API Gateway, DynamoDB, Cognito, SQS y ElastiCache.
  • AWS Compute Blog
  • Examen de práctica – recomendado, nivel de dificultad representativo del examen.

Laboratorios

Os propongo un ejercicio práctico incremental, de mi propia cosecha, que puede ser de utilidad de cara a la preparación del examen.

Aplicación Web Serverless orientada a Microservicios

Imagen aws.amazon.com
  • Crear una web estática y alojarla en S3. Utilizar AWS CLI y APIS para crear un bucket y copiar los contenidos.
  • Crear un repositorio con CodeCommit y subir los ficheros de la Web al mismo.
  • Integrar S3 y Cloudfront, creando una distribución Web.
  • Crear un backend Serverless con API Gateway, Lambda y DynamoDB, o en su defecto Aurora Serverless, utilizando Cloudformation y el modelo AWS SAM.
  • Codificar las Lambdas con uno de los runtimes soportados – Python, Javascript, Java … – y utilizar Boto para insertar y leer en DynamoDB. Cada Lambda se corresponderá con un método de API Gateway, accesibles desde la Web.
  • Integrar X-Ray para tracear las Lambdas.
  • Crear el Stack desde desde la consola.
  • Subir los ficheros YAML´s generados a CodeCommit.
  • Opcional: crear un pipeline usando CodePipeline y CodeCommit.
  • Opcional: integrar Cognito con API Gateway para autenticar, gestionar y restringir el uso de la API.
  • Opcional: sustituir DynamoDB por RDS e integrar ElasticCache.
  • Opcional: añadir una cola SQS. que será alimentada desde una Lambda. Crear otra Lambda que consuma la cola de forma periódica.

¿Merece la pena?

Las certificaciones son un buen modo, no solo de validar los conocimientos de forma externa, sino de recopilar información actualizada, validar buenas prácticas y consolidar conocimientos con casos prácticos reales (o casi).

La obtención de la AWS Certified Developer me parece un “no brainer” en la mayoría de los casos, como he explicado anteriormente en otro post, y en este mismo.

¡Buena suerte a todos!

AWS Certified Solutions Architect – más allá del hype

La certificación AWS Certified Solutions Architect Associate es una de las más demandadas en el universo cloud en general, y del ecosistema AWS en particular. Decenas de cursos, posts y artículos pueden encontrarse en la red, prometiendo grandes salarios y oportunidades profesionales con solo aprobar un examen …

Este interés lo he podido comprobar tanto en mi entorno profesional directo, donde he estado impartiendo una serie de formaciones guiadas, como en el entorno online / networking, dónde recibo un gran número de mensajes, mayoritariamente de profesionales jóvenes con – relativa – poca experiencia en general, y/o en entornos cloud. Se da la circunstancia que muchos de ellos, o ya han obtenido la certificación, o bien quieren saber si la obtención de la misma les va a abrir las puertas del mundo cloud.

La pregunta se auto-contesta simplemente cruzando los mensajes de estos dos grupos. La realidad es que hay un gran número de certificados a nivel mundial y un número limitado de posiciones sin cubrir de estas características. Existe un claro desnivel entre oferta y demanda, que no se había producido en otros momentos históricos de aparición de nuevas tecnologías: JAVA, IOS / Android etc … la demanda se cubría con profesionales de poca experiencia.

Surgen, por tanto, varias preguntas:

  • ¿Hasta qué punto el hype es cierto?, después de todo es un examen de validación profesional.
  • ¿Realmente la obtención un examen de certificación arquitectural es el punto de comienzo ideal para una posible carrera en el sector cloud o tecnológico?
  • ¿Por qué no se cubren los puestos vacantes existentes?

Becoming a Solutions Architect

La Solución de Arquitectura es una disciplina compleja que engloba un conocimiento holístico de varios dominios y áreas de expertise – no solo técnicos: Arquitectura, Seguridad, Infraestructura, Performance, Reliability, Integración, Diseño, Compliance, Stakeholder / Team Management, Cost Control, Patrones etc etc …

Al adentramos en el campo de la Arquitectura Cloud el tema se vuelve todavía más complejo. Prácticamente ningún sistema cloud vive aislado, sino en conjunción con los sistemas “on premise / legacy” tradicionales, a los que complementa, amplía o sustituye parcialmente. Entramos, por tanto, en el mundo de la computación híbrida, donde temas complejos de infraestructura y seguridad – para empezar – , hacen de los proyectos complicados encajes de bolillos, donde el conocimiento combinado cloud + digital o tradicional es imperativo.

Encontrar Arquitectos de Soluciones que tengan menos de 10 a 15 años de experiencia, expertos en diferentes dominios y sectores tecnológicos, es algo complejo. A este rol se llega de forma gradual, mediante un proceso evolutivo y de maduración que dura años. La mayoría de Arquitectos Cloud vienen o de Arquitectura Digital, o del entorno de Administración de Sistemas – orientados a la Arquitectura DevOps, es decir, provienen de un reciclaje progresivo.

Se corresponde con mi propia experiencia.

A partir del año 2010 he participado en distintos proyectos que integran elementos de Arquitectura Cloud, y de esta forma progresiva y proactiva, he ido entrando de lleno en el sector.

Pensemos que este tipo de proyectos no son de tipo aplicación Web, que cumplen un cometido de dominio de negocio muy concreto, y que residen en la infraestructura del cliente. Son proyectos que forman parte integral de la misma, desde backups en S3 hasta plataformas completas core de negocio, que a su vez, pueden contener varias de estas aplicaciones Web. En cualquier caso, requieren como mínimo un estudio de integración, seguridad, infraestructura, costes etc.. incluso para un caso sencillo de Lift & Shift o backups en S3.

Encontramos, por tanto, la causa del desfase entre puestos no ocupados y profesionales certificados. Si en el pasado se contrataban profesionales con limitada experiencia para el desarrollo y arquitectura – sobre todo de aplicaciones Web – este hecho ya no se produce en la actualidad, debido a varios factores. Entre ellos, la maduración de una industria con una creciente complejidad tecnológica y unos sistemas que conforman el “core de negocio” de muchas empresas, los cuales están siendo digitalizados a marchas forzadas.

Podemos realizar una sencilla analogía. En caso de necesitar un cirujano cardiovascular, seguro que preferimos uno que ya haya operado previamente, en distintos casos y pacientes, aunque sea con técnicas tradicionales. Es cuestión “de confianza”.

Más allá del hype

Las certificaciones son una gran manera de validar los conocimientos sobre un dominio por parte de terceros, para dar una confianza añadida de cara al mercado laboral y profesional, así como un medio de actualización y de ampliación de conocimientos.

Imagen propiedad de aws.com

No son ciclos formativos, aunque como vemos en diagrama superior AWS y otros proveedores proporcionan “Learning Paths” para obtener las competencias necesarias para aprobar las diferentes certificaciones.

¿Son suficientes los Learning Paths?

Depende del caso, sobre todo de la experiencia previa y de los objetivos buscados. Pueden ser un punto de inicio válido, o simplemente una manera aprobar unos exámenes bastantes complejos.

AWS Certified Developer, la alternativa

En mi opinión, la certificación que debería ser el punto de partida para la mayoría de profesionales con poca experiencia, y que deseen entrar en el mundo cloud, es AWS Certified Developer.

Las razones son variadas.

Es más sencillo entrar en el mundo cloud a través de proyectos de implementación o de infraestructuras DevOps, que no desde la Solución de Arquitectura. Es un camino mucho más natural, que permite un conocimiento progresivo y más directo del ecosistema, así como su integración con los sistemas “on premise” y sus diferentes dominios – a través de tareas más acotadas y hands on.

La certificación se centra, en gran parte, en los servicios Serverless más conocidos de AWS: funciones Lambda. API Gateway, S3, DynamoDB etc … una área de gran demanda y de una complejidad asumible – a nivel asociado – que puede ser una buena manera de introducirse en el mundo cloud, con resultados prácticos inmediatos – y muy satisfactorios.

La dificultad de esta certificación es de nivel medio si la comparamos con las otras certificaciones del mismo nivel asociado. De hecho, me acabo de re-certificar, y publicaré un post sobre la misma en breve.

Para el grupo de profesionales que quieran conocer a alto nivel AWS y sus productos, la certificación Solutions Architect puede ser un complemento adecuado a la muy básica AWS Cloud Practitioner.

AWS Data Analytics Specialty, is it worth it?

On April 13, the journey of the new AWS Data Analytics Specialty certification officially began – prior to the beta phase in December 2019 / January 2020. It coincided in time with the AWS Database Specialty Beta, which forced me to choose between the two. Finally, I decided on taking the Databases Specialty, as I had recently tested from AWS Big Data.

The “Beta exam” experience is very different from the “standard” one: 85 questions and 4 hours long – that is, 20 questions and one more hour – a really intense experience. I recommend taking a 5-minute break – in the centers they are allowed – since after the third hour it is very difficult to stay focused.

The certification is the new version of AWS Big Data Specialty, an exam that will be withdrawn in June 2020. I will not go into much depth on the differences, suffice it to say that the domain of Machine Learning has been eliminated, expanding and updating the rest of domains in depth. But beware, Machine Learning and IoT continue to appear integrated in the other domains, therefore, it is necessary to know them at an architectural level, at the very least.

Image from aws.amazon.com

Prerequisites and recommendations

I will not repeat the information that is already available on the AWS website; instead, I am going to give my personal recommendations and observations, as I consider the Learning Path that AWS suggests to be somewhat light for the current level of the exam.

  • AWS experience at the architectural level. The exam is largely focused on advanced architecture solution – 5 pillars – and to a lesser extent on development, which is present mainly in services such as Kinesis and Glue. I recommend being in possession of the AWS Architect Solutions Pro certification or alternatively the AWS Architect Associate + AWS Security Specialty.
  • Advanced AWS security experience. it is a complete domain of the exam, but can be found – cross domain – in many questions. If you are in possession of the AWS Architect Solutions Pro, general security knowledge may be sufficient – not the specific certification knowledge for each service. Otherwise, the AWS Security Specialty is a good option, or equivalent knowledge in certain services – that I will indicate later on.
  • Analytics knowledge. Otherwise, I´d recommend studying books such as “Data Analytics with Hadoop” – O’Reilly 2016, or taking the courses indicated in the AWS Learning Path. Likewise, carry out laboratories or pet projects to obtain some practical experience.
  • Hadoop´s ecosystem knowledge. Connected to the previous point. High-level and architectural knowledge of the ecosystem is a must: ​​Hive, Presto, Pig, …
  • Knowledge of Machine Learning and IoT – AWS ecosystem. Sagemaker and core IoT services at the architectural level

Imagen aws.amazon.com

Exam

The questions follow the style of other certifications such as AWS Pro Architect or Security or Databases Specialty. They are all “scenario based”, long and complex – most of them. You are not going to find many simple questions. Certainly, between 5% and 10% of “easy” questions appeared, but all in a “scenario” format.

Let’s look at an example taken from the AWS sample questions:

Imagen amazon.aws.com

I´d classify this question as “intermediate” level of difficulty. If you have taken the Architect PRO, or some specialty such as Security or Big Data, you will know what I am talking about. Certainly, the level of the questions is much higher and deeper than in the previous version of the exam.

I´d recommend doing the new specialty directly, as the old one contains questions about already deprecated services – or outdated information.

Services to know in depth

Image from aws.amazon.com

AWS Kinesis – in its three modalities, Data Streams, Firehose and Analytics. Architecture, dimensioning, configuration, integration with other services, security, troubleshooting, metrics, optimization and development. Questions of various levels, some of them very complex and of great depth.

AWS Glue – in deep for ETL and discover – an integral part of the exam. Questions of different levels – I did not find them to be the most difficult.

AWS Redshift – architecture, design, dimensioning, integration, security, ETL, backups … a large number of questions and some of them very complex.

AWS EMR / Spark – architecture, sizing configuration, performance, integration with other services, security, integration with the Hadoop ecosystem – very important, but not as important as the previous three services. Very complex questions that require advanced and transversal knowledge of all domains and the Hadoop ecosystem: Hive, HBase, Presto, Scoop, Pig

Security – KMS encryption, AWS Cloud HMS, Federation, Active Directory, IAM, Policies, Roles etc … in general and for each service in particular. Transversal questions to other domains and of a high difficulty.

Very important services to consider

  • AWS S3 – core service base (storage, security, rules) and new features like AWS S3 Select. It appears consistently across all certifications, which is why I´d assume it’s known in depth except for the new features.
  • AWS Athena – architecture, configuration, integration, performance, use cases. It appears consistently and as an alternative to other services.
  • AWS Managed Kafka – alternative to Kinesis, architecture, configuration, dimensioning, performance, integration, use cases.
  • AWS Quicksight – subscription formats, service features, different ways of viewing, use cases. Alternative to other services.
  • AWS Elastic Search y Kibana (ELK) – architecture, configuration, dimensioning, performance, integration, use cases. Alternative to other services.
  • AWS Lambda – architecture, integration, use cases.
  • AWS StepFunctions – architecture, integration, use cases.
  • AWS DMS – architecture, integration, use cases.
  • AWS DataPipeline – architecture, integration, use cases.
Image from aws.amazon.com

Other services

  • AWS Networking – basic network architectures and knowledge: VPC, security groups, Direct Connect, VPN, Regions, Zones … network configuration of each particular service.
  • AWS DynamoDB, ElasticCache – architecture, integration, use case knowledge. These services, which appeared very prominently in the previous version of the exam, have much less weight in the current one.
  • AWS CloudWatch, Events, Log – architecture, configuration, integration, use case knowledge.
  • AWS RDS y Aurora – architecture, configuration, integration, use case knowledge.
  • EC2, Autoscaling – knowledge of architecture, integration, use cases.
  • SQS, SNS – knowledge of architecture, integration, use cases.
  • AWS Cloudformation – knowledge of architecture, use cases, devops.
  • Sagemaker y AWS IoT core – knowledge of architecture, integration, use cases.

Essential Resources

Is it worth it?

Let´s see 🙂

AWS Data Analytics Specialty is a complex and difficult certification; expensive (300 euros), which requires a very important investment of time – even having experience in analytics and AWS. Therefore, it is not a decision that can be taken lightly.

In my personal case, I found it very convenient to have done it, since I having been working on several projects of that kind – fast data, IoT – under AWS in recent times – apart from being the only certification that I needed to complete the full set of thirteen – if Big Data is included – certifications.

Certifications are a good way, not only to validate knowledge externally, but to collect updated information, validate good practices and consolidate knowledge with real (or almost) practical cases.

For those interested in the analytics field or who have professional experience in it, and who want to make the leap to the cloud, my recommendation is to first obtain an AWS Architect-type certification – preferably PRO – and optionally the Security specialty or equivalent knowledge , at least in the services that I have mentioned in previous points.

For those who already have AWS certifications, but no professional experience in the specific field, it may be a good way to start, but it will not be an easy or short path. I recommend doing labs or pet projects, in order to get some experience necessary to pass the exam.

So is it worth it? Absolutely, but not as a first certification. Especially aimed at people with advanced knowledge of AWS architecture who want to delve deeper into the analytics – cloud field.

Good luck to you all!

AWS Data Analytics Specialty, ¿merece la pena?

El 13 de Abril comenzó de forma oficial el recorrido de la nueva certificación AWS Data Analytics Specialty – previa fase beta en Diciembre 2019 / Enero 2020. Coincidió en el tiempo con AWS Database Specialty Beta, lo que me obligó a elegir entre las dos. Finalmente, me decidí por Databases, ya que me había examinado recientemente de AWS Big Data Specialty,

La experiencia “examen Beta” es muy diferente a la “standard“: 85 preguntas y 4 horas de duración – es decir, 20 preguntas y una hora mas – lo que da lugar a una experiencia muy intensa. Recomiendo hacer algún descanso de 5 minutos – en los centros están permitidos – ya que a partir de la tercera hora el examen se hace muy pesado, y es difícil mantener la concentración.

La certificación es la nueva versión de AWS Big Data Specialty, examen que será retirado en Junio de 2020. No voy a entrar en mucha profundidad en las diferencias, basta decir que se ha eliminado el dominio de Machine Learning, expandiendo y actualizando el resto de dominios en profundidad. Pero atención, Machine Learning e IoT siguen apareciendo integrados en el resto de dominios, por lo tanto, es necesario conocerlos a nivel arquitectural, como mínimo.

Pre-requisitos y recomendaciones

No voy a repetir la información que ya está disponible en la web de AWS; en cambio, voy a dar mis recomendaciones y observaciones personales, ya que considero que el Learning Path que sugiere AWS es algo ligero para el nivel actual del examen.

  • Experiencia AWS a nivel arquitectural. El examen está enfocado en gran parte a la solución de arquitectura avanzada – 5 pilares – y en menor medida al desarrollo, que tiene presencia sobre en todo en servicios como Kinesis y Glue. Recomiendo estar en posesión de la certificación AWS Architect Solutions Pro, y en su defecto la AWS Architect Associate + AWS Security Specialty.
  • Experiencia AWS a nivel de seguridad. Es un dominio completo del examen, pero se encuentra presente de forma transversal en muchas preguntas. Si se está en posesión de la AWS Architect Solutions Pro los conocimientos generales de seguridad pueden ser suficientes – no los específicos de la certificación para cada servicio. En caso contrario, la AWS Security Specialty es una buena opción, o conocimientos equivalentes en ciertos servicios que indicaré en siguientes puntos.
  • Conocimientos de Analytics. En caso contrario, recomiendo estudiar libros como “Data Analytics with Hadoop” , O’Reilly 2016, o tomar los cursos que se indican en el Learning Path de AWS. Así mismo, realizar laboratorios o proyectos pet para obtener cierta experiencia práctica.
  • Conocimientos del ecosistema Hadoop – Spark, conectado con el punto anterior. Son necesarios conocimientos de alto nivel y arquitectural del ecosistema: Hive, Presto, Pig, …
  • Conocimientos de Machine Learning e IoT en el ecosistema AWS. Sagemaker y servicios core IoT a nivel arquitectural.

Imagen aws.amazon.com

Examen

Las preguntas siguen el estilo de otras certificaciones cómo AWS Pro Architect, Security o Databases Specialty. Son todas “scenario based”, largas y complejas – la mayoría de ellas. No vais a encontrar preguntas “directas” o muy sencillas. Ciertamente, aparecieron entre un 5% y 10% de preguntas “asequibles”, pero todas en formato “escenario”.

Veamos un ejemplo tomado de las preguntas de ejemplo de AWS:

Imagen amazon.aws.com

Esta pregunta la clasifico como dificultad “intermedia”. Si os habéis examinado del Architect PRO, o de alguna especialidad como Security o Big Data, sabréis de lo que hablo. Ciertamente, el nivel de las preguntas es mucho más alto y profundo que en la versión anterior del examen.

Recomiendo realizar directamente la nueva especialidad, ya que la antigua contiene preguntas sobre servicios ya deprecados – o información desactualizada.

Servicios a conocer de forma profunda – inside out

AWS Kinesis – en sus tres modalidades, Data Streams, Firehose y Analytics. Arquitectura, dimensionamiento, configuración, integración con otros servicios, seguridad, troubleshooting, métricas, optimización y desarrollo – parte integral del examen. Preguntas de diverso nivel, algunas complejas y de gran profundidad.

AWS Glue – de forma profunda para ETL y discovery, parte integral del examen. Preguntas de diverso nivel – no me parecieron las más difíciles.

AWS Redshift – arquitectura, diseño, dimensionamiento, integración, seguridad, ETL, backups… gran número de preguntas, tantas que sorprende – y algunas muy complejas.

AWS EMR / Spark – arquitectura, dimensionamiento, configuración, performance, integración con otros servicios, seguridad, integración con el ecosistema Hadoop – muy importante, pero no tanto como los tres servicios anteriores. Preguntas muy complejas que requieren conocimientos avanzados y transversales a todos los dominios y al ecosistema Hadoop: Hive, HBase, Presto, Scoop, Pig …

Seguridad: encriptación KMS, AWS Cloud HMS, Federación, Active Directory, IAM, Policies, Roles etc … en general y para cada servicio en particular. Preguntas transversales a otros dominios y de dificultad elevada.

Servicios muy importantes a tener en cuenta

  • AWS S3 – servicio core base (almacenamiento, seguridad, reglas) y nuevas funcionalidades como AWS S3 Select. Aparece de forma consistente en todas las certificaciones, por lo que doy por supuesto que se conoce en profundidad, excepto las nuevas características.
  • AWS Athena – arquitectura, configuración, integración, performance, casos de uso. Aparece de forma consistente y como alternativa a otros servicios.
  • AWS Managed Kafka – alternativa a Kinesis, arquitectura, configuración, dimensionamiento, performance, integración, casos de uso.
  • AWS Quicksight – formatos de subscripción, características del servicio, diferentes formas de visualización, casos de uso. Alternativa a otros servicios.
  • AWS Elastic Search y Kibana (ELK) – arquitectura, configuración, dimensionamiento, performance, integración, casos de uso. Alternativa a otros servicios.
  • AWS Lambda – arquitectura, integración, casos de uso.
  • AWS StepFunctions – arquitectura, integración, casos de uso.
  • AWS DMS – conocimientos arquitectura, integración, casos de uso.
  • AWS DataPipeline – conocimientos arquitectura, integración, casos de uso.

Otros servicios

  • AWS Networking – arquitecturas y conocimientos básicos de red: VPC, security groups, Direct Connect, VPN, Regiones, Zonas … configuración de red de cada servicio en particular.
  • AWS DynamoDB, Elastic Cache – conocimientos arquitectura, integración, casos de uso. Estos servicios que aparecían de forma muy prominente en la anterior versión del examen, tienen mucho menos peso en la actual.
  • AWS CloudWatch, Events, Log – conocimientos arquitectura, configuración, integración, casos de uso.
  • AWS RDS y Aurora – conocimientos arquitectura, integración, casos de uso.
  • EC2, Autoscaling – conocimientos arquitectura, integración, casos de uso.
  • SQS, SNS – conocimientos arquitectura, integración, casos de uso.
  • AWS Cloudformation – conocimientos alto nivel del servicio, casos de uso, DevOps.
  • Sagemaker y AWS IoT core – conocimientos arquitectura, integración, casos de uso.

Recursos esenciales

  • AWS Certification Website.
  • Preguntas de ejemplo
  • Curso de preparación – imprescindible, contiene gran cantidad de información y recursos – incluye test de 20 preguntas
  • AWS Whitepapers – “Big Data Analytics Options” en AWS.
  • AWS FAQS para cada servicio – especialmente para Kinesis, Glue, Redshift, EMR.
  • AWS Big Data Blog
  • Examen de práctica – imprescindible y de nivel representativo del examen

¿Merece la pena?

Veamos 🙂

AWS Data Analytics Specialty es una certificación compleja y difícil; cara (300 euros), que requiere una inversión de tiempo muy importante – aun teniendo experiencia en analytics y AWS. Por lo tanto, no es una decisión que se pueda tomar a la ligera.

En mi caso personal, me pareció muy conveniente realizarla al haber estado trabajando en varios proyectos de tipo analytics – fast data, IoT – bajo AWS en los últimos tiempos – aparte de ser la única certificación que me faltaba para completar el full set de trece – si se incluye Big Data – certificaciones.

Las certificaciones son un buen modo, no solo de validar los conocimientos de forma externa, sino de recopilar información actualizada, validar buenas prácticas y consolidar conocimientos con casos prácticos reales (o casi).

Para los interesados en el campo analytics o que tienen experiencia profesional en el mismo, y que quieran dar el salto al cloud, mi recomendación es obtener primero una certificación AWS de tipo Arquitecto – preferiblemente la PRO – y optativamente la especialidad de Seguridad o conocimientos equivalentes, al menos en los servicios que he mencionado en puntos anteriores.

Para aquellos que tengan ya certificaciones AWS, pero no experiencia profesional en el campo específico, puede ser una buena forma para empezar, pero no va a ser un camino fácil o corto. Recomiendo la realización de laboratorios o proyectos pet, para así obtener cierta experiencia necesaria para superar el examen.

¿Merece la pena? desde luego, pero no como una primera certificación. Especialmente dirigida para gente con conocimientos avanzados de arquitectura AWS que quieran profundizar en el campo analytics – cloud.

¡Buena suerte a todos!