

K8S 运行相同的镜像,配置 32 核/64G/1GPU(2080ti) OOM, 16 核/60G/1GPU(1080ti) 却...
source link: https://www.v2ex.com/t/806694
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

K8S 运行相同的镜像,配置 32 核/64G/1GPU(2080ti) OOM, 16 核/60G/1GPU(1080ti) 却正常运行?
fighterhit · 1 天前 · 794 次点击K8S 自建集群里运行相同的镜像,当配置 32 核 /64G/1GPU(2080ti) 一创建 Pod 容器就 OOM 了,16 核 /60G/1GPU(1080ti) 却正常运行?为啥会这样呢?
已知系统和内核版本都一样:
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME ai-1080ti-24 Ready 1080ti,training 164d v1.13.5 10.200.0.81 <none> Debian GNU/Linux 9 (stretch) 4.19.0-0.bpo.9-amd64 docker://18.6.2 NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME ai-2080ti-04 Ready 2080ti,training 2y190d v1.13.5 10.90.1.149 <none> Debian GNU/Linux 9 (stretch) 4.19.0-0.bpo.9-amd64 docker://18.6.2
Recommend
-
58
我们都知道显卡的温度有时候会很高,尤其是在玩游戏的时候。大家也常常调侃,显卡热得能够煎鸡蛋。但是,显卡真的能煎鸡蛋吗?外媒PCGamer决定用GTX1080Ti来实验一下。PCGamer用来做实验的机箱中装有两个1080Ti,散热时周围的温度高达184华氏度(约84摄氏度),所...
-
64
全球工单系统 - @codeeer - 拆开是简易包装,没有胶封。直接上图RTX2080Ti,英伟达新一代图灵架构GPU,因为独特而鲜明的外观,一直以来被大家戏称为“燃气灶”。现在这个昵称总算名副其实了。昨天,2080Ti用户shansoft正在上网,只是简单地浏览网页,没有做其他任何事情。...
-
29
NVIDIA昨晚发布了一个新的测试视频,展示了RTX3080和RTX2080Ti在4K分辨率下的性能差距。测试游戏为《毁灭战士:永恒》,画质为最高。结果显而易见,RTX3080轻松以较大的优势胜出。
-
10
go程序在alpine镜像里无法正常运行 seecsea · 大约4小时之前 · 14 次点击 · 预计阅读时间不到 1 分钟 · 不到1分钟之前 开始浏览 ...
-
7
这名“业余”程序员,曾用50张1080Ti对抗癌症差评·2022-05-07 12:55“不是所有英雄,都披着披风”。“这才是程序员该有的样子...
-
3
This "amateur" programmer fought cancer with 50 Nvidia Geforce 1080Ti Not All Heroes Wear Capes" This is what a programmer should look like! "" The OP is really cool, technology to save the world "" Compa...
-
4
1080ti竟然这么强?比3060还猛啊|显卡|显示器_网易订阅 有网友说1080ti大概是没有光追的3060ti,显存多3g,比3060强多了,毕竟是卡皇,很强是很强,就怕炸。...
-
2
V2EX › Apple 请教一下 m2pro 和 m2max 相同配置下的选择
-
4
年轻人的第一个多模态大模型,1080Ti轻松运行,已开源在线可玩
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK