




云原生限流熔断必须下沉至基础设施层,首选Istio(VirtualService+DestinationRule),次选Sentinel(需避坑),轻量场景可用etcd自研;核心在于策略与业务SLO对齐。
云原生环境下的服务限流与熔断,不能靠单个服务自己写代码硬扛,必须下沉到基础设施层——要么用 Service Mesh(如 Istio + Envoy),要么用统一的治理 SDK(如 Sentinel 或 Go 的 go-zero middleware),否则多语言、多团队、动态扩缩容场景下策略必然失准。
在 Kubernetes 集群里,直接在业务代码里写限流逻辑(比如用 sentinel-go)看似简单,但会带来三个硬伤:策略无法跨语言生效、Pod 重启后规则丢失、灰度发布时难做流量比例控制。Istio 把这些能力从应用层剥离,由 Envoy 边车统一执行,所有策略通过 CRD 声明,天然支持 GitOps 管控。
VirtualService 控制入口流量分发(比如按 header / path 限流),适合 API 网关级粗粒度控制DestinationRule 定义目标服务的调用策略(如连接池大小、超时、熔断异常检测阈值),作用于服务间通信链路envoyproxy/envoy 默认不开启熔断统计,需在 DestinationRule 中显式配置 outlierDetection,且健康检查端点必须返回 200,否则会被误判为异常实例当无法部署 Service Mesh(比如遗留系统改造过渡期)

localhost:8848 —— 控制台部署在 K8s 里时,客户端要用 Headless Service DNS 名(如 sentinel-dashboard.default.svc.cluster.local)file-read 模式在 Pod 重建后清空;推荐对接 Nacos 或 Apollo,用 datasource 动态拉取,避免重启生效延迟@SentinelResource 注解默认 fallback 不走 Spring 的 @ExceptionHandler,降级逻辑得单独写函数,且该函数签名必须和原方法一致,否则运行时报 BlockException 无法捕获不是所有团队都需要 Istio 或 Sentinel。如果你只有几个 Go 服务、没上 Service Mesh、又不想引入 Java 生态,用 etcd 存熔断状态 + 自研控制器是可行路径,但只适用于低频变更、强可控环境。
/circuit-breaker/payment-svc/192.168.1.10:8080
真正难的不是选哪个工具,而是定义清楚「谁来决定限流阈值」「失败多少次才算熔断」「降级数据从哪来」——这些必须和业务 SLO 对齐,而不是拍脑袋设个 100 QPS 或 50% 错误率。K8s 的 HorizontalPodAutoscaler 可以根据 CPU 扩容,但不会因为慢查询自动熔断;监控告警能告诉你 P99 延迟飙升,但不会帮你切到缓存。治理能力最终要落在人对指标的理解和响应机制上。