리뷰 GKE 자동 확장 전략의 이해와 조합개
리뷰 17332개
HARI MEGHANA K. · 1년 초과 전에 리뷰됨
clear as sky
Michael Pintanta Dwides P. · 1년 초과 전에 리뷰됨
Sree Ramachandra G. · 1년 초과 전에 리뷰됨
Ashwinder S. · 1년 초과 전에 리뷰됨
Aleix H. · 1년 초과 전에 리뷰됨
Yashpalsinh J. · 1년 초과 전에 리뷰됨
Michał B. · 1년 초과 전에 리뷰됨
Aniket K. · 1년 초과 전에 리뷰됨
Manuel Eiras C. · 1년 초과 전에 리뷰됨
Internet and resource issues.
Dave H. · 1년 초과 전에 리뷰됨
Justin K. · 1년 초과 전에 리뷰됨
Eduardo A. · 1년 초과 전에 리뷰됨
A lot of these commands take much longer to finish than the lab recommends. For example, it's taking 5-8 full minutes for things that this lab says should take "a minute or two". It makes the lab feel very choppy.
Michelle C. · 1년 초과 전에 리뷰됨
EL MEHDI A. · 1년 초과 전에 리뷰됨
Maciej C. · 1년 초과 전에 리뷰됨
mreza f. · 1년 초과 전에 리뷰됨
Fatokunbo S. · 1년 초과 전에 리뷰됨
Alexander L. · 1년 초과 전에 리뷰됨
Muhammad Umer R. · 1년 초과 전에 리뷰됨
Dinesh J. · 1년 초과 전에 리뷰됨
Ravi S. · 1년 초과 전에 리뷰됨
Andrew Borg Ning C. · 1년 초과 전에 리뷰됨
Pod is blocking scale down because it doesn’t have enough Pod Disruption Budget (PDB) Details Scale down of underutilized node is blocked because it has a Pod running on it which doesn’t have enough PDB to allow eviction of the pod. Refer to logs for more details. Recommended actions Review PDB rules of Pod in the log event and update the rules if necessary. { "insertId": "c92d7e13-7e0d-4cad-841d-acc2a404551d@a1", "jsonPayload": { "noDecisionStatus": { "noScaleDown": { "nodes": [ { "reason": { "parameters": [ "event-exporter-gke-7d996c57bf-vs6fl" ], "messageId": "no.scale.down.node.pod.not.enough.pdb" }, "node": { "name": "gke-scaling-demo-default-pool-32fbf8c9-vkks", "cpuRatio": 40, "memRatio": 7, "mig": { "name": "gke-scaling-demo-default-pool-32fbf8c9-grp", "nodepool": "default-pool", "zone": "us-east1-d" } } } ], "nodesTotalCount": 1 }, "measureTime": "1715246108" } }, "resource": { "type": "k8s_cluster", "labels": { "cluster_name": "scaling-demo", "location": "us-east1-d", "project_id": "qwiklabs-gcp-01-fb3dcc713c69" } }, "timestamp": "2024-05-09T09:15:08.242073284Z", "logName": "projects/qwiklabs-gcp-01-fb3dcc713c69/logs/container.googleapis.com%2Fcluster-autoscaler-visibility", "receiveTimestamp": "2024-05-09T09:15:09.270697750Z" } i needed to change maxUnavailable: to 3 and then node went down by 1 number
Naveen V. · 1년 초과 전에 리뷰됨
Arvind Kumar M. · 1년 초과 전에 리뷰됨
Guda M. · 1년 초과 전에 리뷰됨
Google은 게시된 리뷰가 제품을 구매 또는 사용한 소비자에 의해 작성되었음을 보증하지 않습니다. 리뷰는 Google의 인증을 거치지 않습니다.