-
Notifications
You must be signed in to change notification settings - Fork 154
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于terway网络性能 #12
Comments
补充下测试方式,测试均基于iperf3工具测试,延时使用ping命令, |
请问下您用的机型是什么机型,建议不要使用共享型的机型测试,因为共享型的机型本身底层网络波动就比较大,理论来说默认模式下的vpc路由方式性能是不如宿主机之间的,我们之前的测试数据也是这样的。 |
嗯嗯,后面是有计划要对ENI的容器进行一波测试对比的 |
@zrbcool 这个机型应该是独享型的,每种模式的5次测试是穿插着测试的吗?还是分批测试的。 |
@BSWANG 你好,五次测试并不是穿插测试的,是连续测试的,测试过程中也确实发现一些不稳定的情况,某个时间整体的性能都提高了这种情况,但是pod to pod这个前后不在同一天的测试中,也是性能优于其他几个场景的,后面有时间的时候我这边可以穿插的方式再测一次 |
@BSWANG :),另外我想了解下terway默认这种VPC路由方式的实现原理,这里没有用到VxLan或者HostGateway的方式对吗?我理解是Kubernetes创建Pods分配网络的时候,Terway的ds向VPC的路由写一条路由信息,进而把网络打平,这样理解对吗? 以上,十分感谢 |
|
您好,最近我司计划将生产环境重建并大规模落地到基于terway的阿里云容器服务平台上,所以对网络性能做了评估,对于评估结果有几点疑问
所有的测试均为跨主机跨可用区访问
1)terway默认(未绑定弹性网卡)模式到terway默认的延时(ping 的RTT延时)测试结果最优,理论上说经过网桥转发或者hostgateway方式也会多一层转发,应该比直接主机网络栈性能有损失才对,这块不明白是为什么
2)terway默认模式到宿主机(跨可用区worker节点)的性能明显比其他场景低
麻烦大神给解答下上述两个问题的原因,谢谢
The text was updated successfully, but these errors were encountered: