V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  yyttrr  ›  全部回复第 2 页 / 共 4 页
回复总数  76
1  2  3  4  
公有云上 弹性部署 启动速度很关键 能节约很多成本
196 天前
回复了 SWALLOWW 创建的主题 电动汽车 指标下来了,电车求推荐
差不多的预算,不过我这边能装充电桩,目前看了 4 个品牌,最满意的是宋 L
一般分三种,gateway 日志,业务日志,运行时日志
219 天前
回复了 adfs 创建的主题 Kubernetes 你们生产环境 k8s 的版本是多少
生产集群从 1.20 升级到 1.26 了,不敢升级,本地新建再迁移搞到
我这里部署系统的设计是一个代码仓库打出来一个镜像,这个镜像有不同的运行方式,可以是无状态 rpc/http 使用 deployment ,也可以是有状态 binlog 使用 statefulset ,还可以是 Cronjob ,每次部署最小单元是一种部署方式
282 天前
回复了 keepRun 创建的主题 程序员 非运维学习 kubernetes 的重点是什么?
从运维的角度来说,希望研发懂一些,比如 pod 的生命周期,有状态无状态 update 时候的不同之类的

但是研发也没必要懂很多,尤其是现在公有云上的 k8s 和其他云产品的配合使用,不同云之间差别还是不小的,研发的经历没必要投入到这方面
部署两套
293 天前
回复了 RealMan 创建的主题 问与答 有推荐的付费 GPU 集群平台吗?
现在 idc 报价的 8 卡 A800 大概 4 万出头每月每台,在买几个 cpu 节点自己搭建
296 天前
回复了 naminokoe 创建的主题 问与答 为什么 2024 年了农村人还死磕虚岁?
直接说哪年出生的,别人随便算
阿里云 24 年拳头产品是 ACS ,可以了解一下,看文档比 ASK 灵活不少
各种云的使用与折扣,各种产品适合什么场景
提高 k8s 资源使用率,降本 25%
用 operator 的注意选能长期维护的,要不然等集群版本要升级了很麻烦
9 月 1 日前后出生的人可能入学差一年,这个可以处理一下,默认按照 9 月 1 号分
2023-10-20 19:01:43 +08:00
回复了 uriel2333 创建的主题 Kubernetes 请教大佬 k8s 资源分配问题
推理场景是吧?阿里云的 ECI 效果明显好于 ECS ,腾讯云的话就是 EKS ,你试试吧
我当时在 32 核机器上跑推理,超过 16 个 pod 也遇到过会变慢的情况,后来全改成用 servless pod 了
每个 pod 独立一台小机器,性能好得很
2023-10-17 16:54:16 +08:00
回复了 webeasymail 创建的主题 云计算 [求教]阿里云 VPC 网络和公共网络是如何打通的?
月消费多少?我上家阿里云月消费 300 多,这个事情和他们提一句,第二天阿里云客户经理就带着个技术专家来我们公司了,规划了两天
2023-07-31 23:09:17 +08:00
回复了 yyttrr 创建的主题 Kubernetes 如何精确调整业务服务的资源 request 和 limit?
@pc10201 我举了几个例子,一个微服务业务上什么时候变得重要了,资源消耗多了少了我是无法知道的,也无法预测,滞后的调整为了稳定性得留下大量冗余,要么资源使用率上不去,要么稳定性受到影响
2023-07-31 23:07:24 +08:00
回复了 yyttrr 创建的主题 Kubernetes 如何精确调整业务服务的资源 request 和 limit?
@isno 有个保底的自动扩容程序在,一个 pod oom 了自动扩 pod 到 hpa max 的 2 倍,说是网络波动搪塞过去了
我们一个组 20 几个后端研发,对 k8s 有概念的不超过 3 个,让他们自己接手资源调整和 hpa 调整得培训几次,不知道领导会不会觉得我在甩锅~
隔 3 年换一辆 15 万的二手车,之前的车卖掉
1  2  3  4  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3088 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 32ms · UTC 13:50 · PVG 21:50 · LAX 05:50 · JFK 08:50
Developed with CodeLauncher
♥ Do have faith in what you're doing.