El 13 de Abril comenzó de forma oficial el recorrido de la nueva certificación AWS Data Analytics Specialty – previa fase beta en Diciembre 2019 / Enero 2020. Coincidió en el tiempo con AWS Database Specialty Beta, lo que me obligó a elegir entre las dos. Finalmente, me decidí por Databases, ya que me había examinado recientemente de AWS Big Data Specialty,

La experiencia “examen Beta” es muy diferente a la “standard“: 85 preguntas y 4 horas de duración – es decir, 20 preguntas y una hora mas – lo que da lugar a una experiencia muy intensa. Recomiendo hacer algún descanso de 5 minutos – en los centros están permitidos – ya que a partir de la tercera hora el examen se hace muy pesado, y es difícil mantener la concentración.

La certificación es la nueva versión de AWS Big Data Specialty, examen que será retirado en Junio de 2020. No voy a entrar en mucha profundidad en las diferencias, basta decir que se ha eliminado el dominio de Machine Learning, expandiendo y actualizando el resto de dominios en profundidad. Pero atención, Machine Learning e IoT siguen apareciendo integrados en el resto de dominios, por lo tanto, es necesario conocerlos a nivel arquitectural, como mínimo.

Pre-requisitos y recomendaciones

No voy a repetir la información que ya está disponible en la web de AWS; en cambio, voy a dar mis recomendaciones y observaciones personales, ya que considero que el Learning Path que sugiere AWS es algo ligero para el nivel actual del examen.

  • Experiencia AWS a nivel arquitectural. El examen está enfocado en gran parte a la solución de arquitectura avanzada – 5 pilares – y en menor medida al desarrollo, que tiene presencia sobre en todo en servicios como Kinesis y Glue. Recomiendo estar en posesión de la certificación AWS Architect Solutions Pro, y en su defecto la AWS Architect Associate + AWS Security Specialty.
  • Experiencia AWS a nivel de seguridad. Es un dominio completo del examen, pero se encuentra presente de forma transversal en muchas preguntas. Si se está en posesión de la AWS Architect Solutions Pro los conocimientos generales de seguridad pueden ser suficientes – no los específicos de la certificación para cada servicio. En caso contrario, la AWS Security Specialty es una buena opción, o conocimientos equivalentes en ciertos servicios que indicaré en siguientes puntos.
  • Conocimientos de Analytics. En caso contrario, recomiendo estudiar libros como “Data Analytics with Hadoop” , O’Reilly 2016, o tomar los cursos que se indican en el Learning Path de AWS. Así mismo, realizar laboratorios o proyectos pet para obtener cierta experiencia práctica.
  • Conocimientos del ecosistema Hadoop – Spark, conectado con el punto anterior. Son necesarios conocimientos de alto nivel y arquitectural del ecosistema: Hive, Presto, Pig, …
  • Conocimientos de Machine Learning e IoT en el ecosistema AWS. Sagemaker y servicios core IoT a nivel arquitectural.

Imagen aws.amazon.com

Examen

Las preguntas siguen el estilo de otras certificaciones cómo AWS Pro Architect, Security o Databases Specialty. Son todas “scenario based”, largas y complejas – la mayoría de ellas. No vais a encontrar preguntas “directas” o muy sencillas. Ciertamente, aparecieron entre un 5% y 10% de preguntas “asequibles”, pero todas en formato “escenario”.

Veamos un ejemplo tomado de las preguntas de ejemplo de AWS:

Imagen amazon.aws.com

Esta pregunta la clasifico como dificultad “intermedia”. Si os habéis examinado del Architect PRO, o de alguna especialidad como Security o Big Data, sabréis de lo que hablo. Ciertamente, el nivel de las preguntas es mucho más alto y profundo que en la versión anterior del examen.

Recomiendo realizar directamente la nueva especialidad, ya que la antigua contiene preguntas sobre servicios ya deprecados – o información desactualizada.

Servicios a conocer de forma profunda – inside out

AWS Kinesis – en sus tres modalidades, Data Streams, Firehose y Analytics. Arquitectura, dimensionamiento, configuración, integración con otros servicios, seguridad, troubleshooting, métricas, optimización y desarrollo – parte integral del examen. Preguntas de diverso nivel, algunas complejas y de gran profundidad.

AWS Glue – de forma profunda para ETL y discovery, parte integral del examen. Preguntas de diverso nivel – no me parecieron las más difíciles.

AWS Redshift – arquitectura, diseño, dimensionamiento, integración, seguridad, ETL, backups… gran número de preguntas, tantas que sorprende – y algunas muy complejas.

AWS EMR / Spark – arquitectura, dimensionamiento, configuración, performance, integración con otros servicios, seguridad, integración con el ecosistema Hadoop – muy importante, pero no tanto como los tres servicios anteriores. Preguntas muy complejas que requieren conocimientos avanzados y transversales a todos los dominios y al ecosistema Hadoop: Hive, HBase, Presto, Scoop, Pig …

Seguridad: encriptación KMS, AWS Cloud HMS, Federación, Active Directory, IAM, Policies, Roles etc … en general y para cada servicio en particular. Preguntas transversales a otros dominios y de dificultad elevada.

Servicios muy importantes a tener en cuenta

  • AWS S3 – servicio core base (almacenamiento, seguridad, reglas) y nuevas funcionalidades como AWS S3 Select. Aparece de forma consistente en todas las certificaciones, por lo que doy por supuesto que se conoce en profundidad, excepto las nuevas características.
  • AWS Athena – arquitectura, configuración, integración, performance, casos de uso. Aparece de forma consistente y como alternativa a otros servicios.
  • AWS Managed Kafka – alternativa a Kinesis, arquitectura, configuración, dimensionamiento, performance, integración, casos de uso.
  • AWS Quicksight – formatos de subscripción, características del servicio, diferentes formas de visualización, casos de uso. Alternativa a otros servicios.
  • AWS Elastic Search y Kibana (ELK) – arquitectura, configuración, dimensionamiento, performance, integración, casos de uso. Alternativa a otros servicios.
  • AWS Lambda – arquitectura, integración, casos de uso.
  • AWS StepFunctions – arquitectura, integración, casos de uso.
  • AWS DMS – conocimientos arquitectura, integración, casos de uso.
  • AWS DataPipeline – conocimientos arquitectura, integración, casos de uso.

Otros servicios

  • AWS Networking – arquitecturas y conocimientos básicos de red: VPC, security groups, Direct Connect, VPN, Regiones, Zonas … configuración de red de cada servicio en particular.
  • AWS DynamoDB, Elastic Cache – conocimientos arquitectura, integración, casos de uso. Estos servicios que aparecían de forma muy prominente en la anterior versión del examen, tienen mucho menos peso en la actual.
  • AWS CloudWatch, Events, Log – conocimientos arquitectura, configuración, integración, casos de uso.
  • AWS RDS y Aurora – conocimientos arquitectura, integración, casos de uso.
  • EC2, Autoscaling – conocimientos arquitectura, integración, casos de uso.
  • SQS, SNS – conocimientos arquitectura, integración, casos de uso.
  • AWS Cloudformation – conocimientos alto nivel del servicio, casos de uso, DevOps.
  • Sagemaker y AWS IoT core – conocimientos arquitectura, integración, casos de uso.

Recursos esenciales

  • AWS Certification Website.
  • Preguntas de ejemplo
  • Curso de preparación – imprescindible, contiene gran cantidad de información y recursos – incluye test de 20 preguntas
  • AWS Whitepapers – “Big Data Analytics Options” en AWS.
  • AWS FAQS para cada servicio – especialmente para Kinesis, Glue, Redshift, EMR.
  • AWS Big Data Blog
  • Examen de práctica – imprescindible y de nivel representativo del examen

¿Merece la pena?

Veamos 🙂

AWS Data Analytics Specialty es una certificación compleja y difícil; cara (300 euros), que requiere una inversión de tiempo muy importante – aun teniendo experiencia en analytics y AWS. Por lo tanto, no es una decisión que se pueda tomar a la ligera.

En mi caso personal, me pareció muy conveniente realizarla al haber estado trabajando en varios proyectos de tipo analytics – fast data, IoT – bajo AWS en los últimos tiempos – aparte de ser la única certificación que me faltaba para completar el full set de trece – si se incluye Big Data – certificaciones.

Las certificaciones son un buen modo, no solo de validar los conocimientos de forma externa, sino de recopilar información actualizada, validar buenas prácticas y consolidar conocimientos con casos prácticos reales (o casi).

Para los interesados en el campo analytics o que tienen experiencia profesional en el mismo, y que quieran dar el salto al cloud, mi recomendación es obtener primero una certificación AWS de tipo Arquitecto – preferiblemente la PRO – y optativamente la especialidad de Seguridad o conocimientos equivalentes, al menos en los servicios que he mencionado en puntos anteriores.

Para aquellos que tengan ya certificaciones AWS, pero no experiencia profesional en el campo específico, puede ser una buena forma para empezar, pero no va a ser un camino fácil o corto. Recomiendo la realización de laboratorios o proyectos pet, para así obtener cierta experiencia necesaria para superar el examen.

¿Merece la pena? desde luego, pero no como una primera certificación. Especialmente dirigida para gente con conocimientos avanzados de arquitectura AWS que quieran profundizar en el campo analytics – cloud.

¡Buena suerte a todos!

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s