4 lần chinh phục chứng chỉ Professional Cloud Architect Certification

HuyDangGDG
Google Cloud Vietnam
10 min readJun 1, 2023

Ngã ở đâu gấp đôi ở đó ✊

Professional Cloud Architect Certification 2023
Professional Cloud Architect Certification 2019

Hòa mình vào mùa thi cử của các em sinh viên và các bạn học sinh mình cũng xin chia sẻ trải nghiệm 4 lần đi thi 1 chứng chỉ Professional Cloud Architect Certification của mình

Lần 1: 03/01/2019 — Kết quả trượt

👉 Bối cảnh lịch sử: là sinh viên năm cuối chân ướt chân ráo đang đi thực tập tại 1 công ty partner của Google Cloud. Bằng tất cả kiến thức về 3 Giải tích và 2 vật lý mình tự tin xung phong đi thi và kết quả nằm trong tầm tay đó là trượt.

Kinh nghiệm rút ra: Không nên tin dump trên các trang mạng và đặc biệt không được tin vào đáp án trong đó, cần ôn luyện nhiều hơn, thực hành trên labs nhiều để hiểu bản chất. Đã cố nhớ các nội dung trong đề thi để về tra cứu lại

Thi trượt lần 1 sau 2 tuần được thi lại. Ok! đã tra cứu các câu đã nhớ và sẵn sàng thi lại lần 2

Chi phí lần 1: 250$ — Công ty chi trả (thời này chưa có voucher hay giảm giá gì cả)

Lần 2: 28/02/2019 — Kết quả trượt

👉 Bối cảnh lịch sử: Tự tin đã học lại và ôn các câu đã gặp trong lần thi trước. Nhưng đập vào mắt là 1 bộ đề hoàn toàn mới và chả có tý gì giống với bộ đề trước ngoại trừ các nội dung tương tự như lần 1. Kết quả tạch lần 2.

Kinh nghiệm rút ra: Mỗi lần thi sẽ là bộ đề hoàn toàn độc lập. Thi xong chỉ đề Pass/Fail nên rất khó đối chiếu với những người cùng thi. Khó khăn xuất hiện nếu thi trượt lần 2 thì sau 2 tháng sẽ được thi lại và nếu trượt lần 3 thì 1 năm sau mới được thi nữa.

Chi phí lần 2: 250$ — Công ty chi trả (Cầm thẻ sếp điền mà giờ áy náy quá). Lương thực tập còn chả bằng tiền đi thi :(

Retake Policy
— If you don’t pass an exam, you can take it again 14 days after the date of your exam. If you don’t pass a second time, you must wait 60 days before you can take it a third time. If you don’t pass the third time, you must wait a year before taking it again.

Lần 3: 24/12/2019 — Kết quả đỗ

👉 Bối cảnh lịch sử: Sau 2 lần báo nhà cụ thể là 500$ thì nhiều lúc mình đã suy nghĩ nên từ bỏ nhưng với bản tính cay cú thường xuyên đập bàn phím tại các quán net cỏ tại phố Lê Thanh Nghị thì tôi đã quay trở lại đường đua.

Rút kinh nghiệm mình đã học bài bản các khóa học từ Causera, Linux Academy, Udemy. Thực hành tất cả các bài labs liên quan trên Qwicklabs (Bây giờ đã đổi tên thành Cloud Skills Boost).

Trao đổi với các anh em trong team từ phân tích các câu hỏi từ dump, cùng nhau học và phân tích các bài học và labs, làm dự án để có thêm kiến thức.

Trong lúc không biết kiếm đâu ra tiền để đi thi thì mình đã biết đến GDG Cloud Hanoi nơi tổ chức sự kiện StudyJam (Tiền thân của quán quân GCP). Tại đây mình đã dành được voucher 100% cho kì thi và vét được cơ số quà mang về.

Email thông báo có voucher 2019
Hình thù voucher để các bạn dễ hình dung
Voucher thi + Google home mini + 1 android mô hình + 2 áo

Chi phí lần 3: 0$ — Mình nói thật cái cảm giác ai cũng nghĩ là bạn thi trượt và khi quay về bạn lại đỗ chắc trong cuộc đời chỉ gặp có 1 lần duy nhất mà thôi (thực ra mình có 2 lần =)) ).

Và từ đó mình gia nhập GDG Cloud Hanoi và ngồi đây viết bài chia sẻ này cho mọi người

Lần 4: 26/04/2023 — Kết quả đỗ

👉 Bối cảnh lịch sử: Do hết hạn chứng chỉ và mình cần phải gia hạn để làm cơ số việc tại Google Cloud Partner nên mình cần chuẩn bị và thi lại

Chứng chỉ đầy duyên nợ nên việc chuẩn bị kĩ lưỡng là cần thiết. Mọi người nên học trước tình huống của 4 casestudy để khi vào phòng thi không mất quá nhiều thời gian để tra cứu. Các bạn có thể xem tất cả các nội dung ôn tập cần phải chuẩn bị ở đương link: https://cloud.google.com/learn/certification/cloud-architect

Làm labs: https://www.cloudskillsboost.google/journeys/12

Tham gia cái hội nhóm để tìm các bài chia sẻ kinh nghiệm thi: GDG Cloud Hanoi, Google Cloud User Group Vietnam (Google Workspace + GCP)

Đọc các bài chia sẻ trên Linkedin, Medium,….

Github link tài liệu tổng hợp: https://github.com/sathishvj/awesome-gcp-certifications

Chi tiết các mốc thời gian thi

Kết bài:

Đỗ hay trượt là chuyện thường tình

Thua ở đâu gấp đôi ở đó

Khi chán nản hãy nghĩ tại sao mình lại bắt đầu

👉Road to Google Developers Certification — Google Cloud sự kiện đang diễn ra để lấy voucher thi miễn phí

👉Google I/O Extended Cloud Hanoi 2023 sự kiện vào cuối tháng 7 offline để gặp gỡ và trao đổi tại Hanoi

===============================================================

KEY NOTE Professional Cloud Architect Certification 2023.

Casestudy

👉 JencoMart (Đã bỏ) -> nên đọc để tham khảo

👉 Dress4Win (Đã bỏ) -> nên đọc để tham khảo

👉 Helicopter Racing League (HRL)

Encrypt the card data with a deterministic algorithm stored in Firestore using Datastore mode.

Security-policy

Configure the deployment job to notify a Pub/Sub queue that triggers a Cloud Function.

Explainable AI.

BigQuery for its scalability and ability

The gcloud recommender command

👉EHR Healthcare

Binary Authorization on GKE

Container Registry to use vulnerability scanning

Dedicated Interconnect connection.

Pub/Sub message batching.

Organizational Policy

Private cluster with a private endpoint

👉Mountkirk Games

Google Kubernetes Registry, Google Container Engine, Google HTTP(S) Load Balancer

Verify that the project quota

Project for development, a second for staging and a third for production

Cloud Dataflow, Cloud Storage, Cloud Pub/Sub, and BigQuery

Global load balancer with managed instance groups

Cloud Bigtable for time series data, use Cloud Spanner for transactional data, and use BigQuery for

historical data queries.

Cloud Bigtable

L7 load balancer/L4 load balancer.

Gsutil to batch copy the files in parallel.

service account (SA) + Firebase Admin role

Organizational policy

Anthos

Configure Workload Identity and service accounts

Firebase Test Lab

👉TerramEarth

App Engine with Google Cloud Endpoints.

OAuth-compatible access control

Google Cloud Pub/Sub

Capacity planning, TCO calculations, opex/capex allocation

Multi-Regional Storage bucket

snapshots

GCS Coldline bucket

BigQuery time-partitioned table

Cloud Storage lifecycle rule with Age

BigQuery. Use table partitioning.

Cloud Dataprep

BigQuery as the data warehouse + Cloud Pub/Sub and Cloud Dataflow + Google Data Studio for analysis

Cloud IoT Core with public/private key pairs

Deploy Cloud Run services to multiple regions + HTTP(S) Load Balancing

Cloud Monitoring uptime check

Trigger in Cloud Build

Transfer Appliances from Google Cloud

==================================

Tham khảo: https://cloud.google.com/learn/certification/guides/professional-cloud-architect

👉Section 1: Designing and planning a cloud solution architecture

Define their requirements and assess viable logging tools

Lifecycle management rule in JSON

Stackdriver Monitoring for all Projects, and export to Google Cloud Storage

Secret management system

Google Kubernetes Engine, Jenkins, and Helm

A single Organization with Folders for each department

Provide training to the team about service cost management.

Use Jenkins to monitor tags in the repository. Deploy staging tags to a staging environment for testing. After testing, tag the repository for production and deploy that to the production environment.

GKE and GCP provide the tools you need to build a PCI DSS-compliant environment.

Upload your files into Cloud Storage. Use Cloud Dataprep to explore and clean your data

Define a design for the security of data in your web application that meets GDPR requirements.

Allocate budget for team training. Create a roadmap for your team to achieve Google Cloud certification based on job role.

HIPAA-compliant

Cloud Storage and use lifecycle management

Cron service provided by App Engine

Cloud Pub/Sub to Cloud Dataflow

Use Cloud Scheduler to trigger a Cloud Function

Create a Dataproc cluster using preemptible worker instances.

Create a Debian-based Compute Engine instance, install and configure the application, and use OS patch management to install available updates.

Cloud Run and Cloud Bigtable

Export logs to a Pub/Sub topic, and trigger Cloud Function with the relevant log events.

Create a Google Group per department and add all department members to their respective groups. Create a folder per department and grant the respective group the required IAM permissions at the folder level. Add the projects under the respective folders.

Configure binary authorization policies for the development, staging, and production clusters. Create

attestations as part of the continuous integration pipeline.

Meet with the cloud operations team and the engineer to discuss load balancer options

Create a separate Google Cloud project to use for the load-testing environment

Instrument the load-testing tool and the target services with detailed logging and metrics collection

Use source code security analyzers as part of the CI/CD pipeline + Run a vulnerability security scanner as part of your continuous-integration /continuous-delivery (CI/CD) pipeline

Create a Dataflow pipeline to retrieve the data from the external sources. As part of the pipeline, use the

Cloud Data Loss Prevention (Cloud DLP) API to remove any PII data. Store the result in BigQuery.

1. Install a Cloud Logging agent on all instances. 2. Create a sink to export logs into a regional Cloud

Storage bucket. 3. Create an Object Lifecycle rule to move files into a Coldline Cloud Storage bucket after one month. 4. Configure a retention policy at the bucket level using bucket lock.

👉Section 2: Managing and provisioning a solution infrastructure

Compute engine

Kubernetes — HorizontalPodAutoscaler

Cloud Run — traffic percentage

Google BigQuery — tables time-partitioned — StatefulSets

Cloud SQL — Binary logging + Automated backups

Stackdriver Debugger

NoSQL

Cloud Pub/Sub

Firewall rule

Load balancer health checks

Google Cloud Dataflow

Google Cloud Dataproc

Stackdriver Trace

Stackdriver logs

Cloud Audit Logging

Google Cloud Bigtable

Google Cloud Dedicated Interconnect

Google Cloud Storage

Cloud VPN — overlap with the range — Cloud Router — Cloud NAT

Cloud VPN Gateway

Datastore create-indexes

Memcache + Cloud Datastore

Compute Engine instance groups — HTTP load balancing

App Engine flexible environment / App Engine standard environment + Cloud VPN to limit access

Transfer Appliance

Kubectl cmd

BigQuery jobUser / BigQuery dataViewer

Cloud Functions

Key object for each Entity and run a batch

.boto configuration file + gsutil cmd

Dashboard in Stackdriver Monitoring Console

Google Cloud Directory Sync + Cloud identities

Deployment Manager to automate service provisioning.

Multi-Regional Cloud Storage buckets.

Cloud Scheduler

OS patch management

Cloud Filestore

Service Mesh visualization

Create a Cloud Build trigger

Shared VPC

Cloud Key Management Service (KMS)

Configure serverless VPC access.

Install Anthos Service Mesh on your cluster.

Configure VPC Service Controls and configure Private Google Access.

Google Compute Engine managed instance groups with auto-scaling

Object Versioning

👉Section 3: Designing for security and compliance

Service account

Authentication via SAML 2.0

Identity Provider

Tokenizer service and store

Use public key infrastructure (PKI)

Egress rule with priority

Organization Policy with a constraint on constraints/compute.vmExternalIpAccess.

VPC Service Controls

Configure Identity-Aware Proxy (IAP)

Org viewer, project viewer

👉Section 4: Analyzing and optimizing technical and business processes

Use the — -no-auto-delete flag

Google BigQuery billing export and labels

Backoff strategy.

GKE cluster to use Cloud Operations + GKE Monitoring dashboard

Gsutil -m to enable multi-threaded copy.

👉Section 5: Managing implementation

Separate backend pools for each API path behind the load balancer

Test and staging environments

Add tags to each tier and set up firewall rules

De-identify the data with the Cloud Data Loss Prevention API

Custom image + instance template + autoscaled managed instance group

Firewall rules based on network tags attached

HTTPS load balancer with URL Maps.

Create a retention policy on the bucket

Use a versioning strategy for the APIs

Mount a Local SSD volume

Set up a network peering between vpc-a and vpc-b.

👉Section 6: Ensuring solution and operations reliability

Green-blue deployment model

Fragment the monolithic platform into microservices

Resize2fs command

Dynamically resize the SSD persistent disk

Health check for the instance group.

Cloud SQL instance with high availability enabled.

Failover replica instance

Configure liveness and readiness probes in the Pod specification.

An HA Cloud VPN gateway connected with two tunnels to an on-premises VPN gateway

=========================================================================

Hy vọng bài viết đem lại động lực cho bạn!

Mọi thắc mắc về nội dung bài viết này các bạn có thể liên hệ qua:

👌Facebook: facebook.com/dangduchuy1995

👌Linkedin: linkedin.com/in/huydanggdg/

👌Medium: https://medium.com/@dangduchuygdg

👌Youtube: https://www.youtube.com/c/danghuygdg

👌Tiktok: @huydanggdg

💪Gmail: dangduchuygdg@gmail

❤️Cảm ơn các bạn đã đọc bài viết của mình❤️

--

--

HuyDangGDG
Google Cloud Vietnam

Cloud Engineer | 12 x GCP | 11 x Azure | 1 x AWS | 9 x Oracle Cloud | 1 x Mulesoft