1
ysicing 284 天前
30000-32767 只是默认值,这个范围可以改的。理论上你得多大规模的集群可以用完这些端口
|
2
nspih OP @ysicing 主要是他说 NodePort 没有在集群中提供均衡负载,按理来说我在外面通过比如 Nginx 负载不是就可以将请求分配均匀到不同的 service 吗?
|
3
zed1018 284 天前
这里说的负载是 k8s service 对多个 replica pod 的负载
|
4
seers 284 天前 via Android
很好理解啊,字面意思,没有 slb ,不同的 node 承载的流量就基本一致,但是不同规格 node 承载力不一样,把 pod 打挂了就会起新的然后继续占掉 port
|
8
seers 284 天前 via Android
而且如果你还开了 scale ,流量一上来起新 pod 也会占掉很多 port
|
9
nspih OP @seers 感谢回复,但是这个跟是否 NodePort 的 service 好像没有关系,而且 Pod 端口一般也很充足。所以比较疑惑的他说的 service 过载是啥情况,感觉他说的类似与外部负载均衡访问不同的 NodePort 服务,但是进入 k8s 内部是随机分发到 NodePort 端口这种情况,但是也没搜到这方面的知识。
|
10
wbuntu 284 天前
没有这个说法,service 本身就可以当作一个 LB ,红框里应该是照着图片直接翻译了,图片里说的 service overload 应该指的是应用层服务过载而不是 k8s 层面的
|
11
buffzty 283 天前
你不用理解了,不会遇到这种问题,现实中除了 ingress 其他地方基本不会开 nodeport
|
13
julyclyde 282 天前
在所有 node 上找到相同号码的空闲端口
这么高的协调成本,失败率当然会很高 |
14
lazyfighter 281 天前
没人这么用吧 , 维护成本太大了
|
15
momocraft 281 天前
NodePort 本身不是为了负载均衡而设的, 大概是期待用户自己在外面做负载均衡, 比如图里的 DNS round robin
kube-proxy 的负载均衡能力相对新, 而且也不是多智能的做法, 比 DNS round robin 强得有限 这中文的 3 条和图里的配字有点对得上又好像自己写的, 是靠谱资料吗? |