验证K8S集群pod之间传输速度过慢,导致pod之间业务无法正常交互

这篇具有很好参考价值的文章主要介绍了验证K8S集群pod之间传输速度过慢,导致pod之间业务无法正常交互。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

原因:
K8S部署完成后,但是pod之间无法进行交互访问,导致pod异常
定位思路:
通过启动两个busybox容器,之间进行scp传输文件,验证pod之间tcp连接是否正常
解决方法:
运行第一个busybox

 kubectl run  -i --tty busybox1 --image=busybox:latest --restart=Never --overrides='{ "spec": { "nodeSelector": { "kubernetes.io/hostname": "master01" } } }'
   运行第二个busybox
kubectl run  -i --tty busybox2 --image=busybox:latest --restart=Never --overrides='{ "spec": { "nodeSelector": { "kubernetes.io/hostname": "master02" } } }'

拷贝文件至busybox1
进入第一个busybox1

nc -v  10.233.100.618   1234 < yige500mdebao.tar.gz

进入第二个busybox1

nc -v -l -p 1234 > yige500mdebao.tar.gz

结论:
发现1K的文件可以相互拷贝,大于1K的都不能拷贝,最终原因是K8S集群所在的虚拟化平台的虚拟机的网络模式使用的是vxlan,据我分析,应该是平台有相关策略导致的,并不是vxlan不支持K8S集群文章来源地址https://www.toymoban.com/news/detail-841572.html

到了这里,关于验证K8S集群pod之间传输速度过慢,导致pod之间业务无法正常交互的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • k8s 不同node之间pod ip不通

    底层k8s使用calico网络,ipip网络模式,kubevirt启动了2台虚拟机;在这两台虚拟机上再搭建k8s,calico网络,ipip网络模式。 在虚拟机上的k8s上启动了2个pod,分布在不同的node上,这两个pod不能ping通对方的pod ip。 1、calico无问题; 2、主机路由无问题。 修改虚拟机之上的k8s集群的c

    2024年02月13日
    浏览(14)
  • 【Kubernetes】k8s中容器之间、pod之间如何进行网络通信?

    【Kubernetes】k8s中容器之间、pod之间如何进行网络通信?

    首先来回顾一下Pod: Pod 是用于构建应用程序的最小可部署对象。单个 Pod 代表集群中正在运行的工作负载,并 封装一个或多个 Docker 容器、任何所需的存储以及唯一的 IP 地址 。 集群中每一个 Pod 都会获得自己的、 独一无二的 IP 地址。一个Pod里的一组容器共享相同的IP地址。

    2024年04月28日
    浏览(52)
  • k8s集群pod和node状态监控

    k8s集群pod和node状态监控

    curl -L -O https://raw.githubusercontent.com/gjeanmart/kauri-content/master/spring-boot-simple/k8s/kube-state-metrics.yml 修改namespace为dev(default也行,但是后面的metricbeat安装也需要修改namespace为default)。 kubectl create -f kube-state-metrics.yml curl -L -O https://raw.githubusercontent.com/elastic/beats/7.6/deploy/kubernetes/metr

    2024年04月09日
    浏览(15)
  • k8s集群pod中文件导出到本地

    k8s集群pod中文件导出到本地

    首先在k8s集群中先找到pod主机;  确定pod容器主机ip为192.168.1.113;等到113主机查看docker ps;发现113上没有docker命令; rpm -qa |grep contain; top; ps  aux |grep docker ; 查询主机上实现docker的方式;    crictl ps;查询pod容器;  容器中没有tar命令的话可以尝试:在主机上 crictl  cp  容器

    2024年02月11日
    浏览(15)
  • K8s:一文认知 CRI,OCI,容器运行时,Pod 之间的关系

    K8s:一文认知 CRI,OCI,容器运行时,Pod 之间的关系

    博文内容整体结构为结合 华为云云原生课程 整理而来,部分内容做了补充 课程是免费的,有华为云账户就可以看,适合理论认知,感觉很不错。 有需要的小伙伴可以看看,链接在文末 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守

    2024年02月09日
    浏览(14)
  • 清理k8s集群Evicted,Failed的Pod!

    简介:不知知道各位是如何清理的,我尝试过用阿里的任何一个面板清理,但是还要换页就很烦,所以自己就写了一个小脚本,更GOOD!的是你还可以把他放到你的定时任务里面去,为啥要这么做,不得不说,咱的集群有点小垃圾,不过那也没办法,集群也不敢动,谁知道啥时

    2024年02月20日
    浏览(12)
  • K8S集群中Pod资源处于ImagePullBackOff状态排查思路

    ImagePullBackOff状态表示容器的镜像拉取失败,可能存在以下几点原因: 拉取镜像时间较长导致超时,从而导致镜像拉取失败,部署完Docker后,一定要添加上阿里云的镜像加速器,否则拉取镜像是非常慢的,很容易就会导致镜像拉取失败。 镜像配置有误,指定的镜像在公有仓库

    2024年02月14日
    浏览(12)
  • K8S集群中Pod资源处于CrashLoopBackOff状态排查思路

    CrashLoopBackOff状态一般都是Pod资源中的容器出现了问题,可以有以下几点原因: 容器中部署的程序存在Bug,无法正常启动,就会出现此状态,可以查询容器的启动日志,从日志中获取重要线索,逐个进行排查。 定义Pod资源时,对于Pod中的容器进行了资源限额,可能限额的资源

    2024年01月21日
    浏览(10)
  • k8s集群中service的域名解析、pod的域名解析

    在k8s集群中,service和pod都可以通过域名的形式进行相互通信,换句话说,在k8s集群内,通过service和pod的域名,可以直接访问内部应用,不必在通过service ip地址进行通信,一般的,我们创建service的时候不建议指定service的clusterIP,而是让k8s自动为service分配一个clusterIP,这样,

    2024年02月01日
    浏览(11)
  • 【精品】kubernetes(K8S)集群top命令监控 Pod 度量指标

    【精品】kubernetes(K8S)集群top命令监控 Pod 度量指标

    提示:做到举一反三就要学会使用help信息 找出标签是name=cpu-user的Pod,并过滤出使用CPU最高的Pod,然后把它的名字写在已经存在的/opt/cordon.txt文件里 了解pod指标,主要需要关注,CPU与内存占用率;生产环境,可能有几十个pod,我们为了使其便于快速检索到需要的pod,可以学会

    2024年02月16日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包