Git的浅克隆功能
随着Git仓库不断的被修改,整个仓库会变得越来越大,其中最主要的原因是历史提交特别的多,这个对于想立即阅读最新代码或者CI/CD场景下不是特别友好。
面对这种场景,可以利用git提供的浅克隆功能,只clone少部分历史到本地,这样可以极大的减少clone的仓库大小,以PHP源代码代码为例:
随着Git仓库不断的被修改,整个仓库会变得越来越大,其中最主要的原因是历史提交特别的多,这个对于想立即阅读最新代码或者CI/CD场景下不是特别友好。
面对这种场景,可以利用git提供的浅克隆功能,只clone少部分历史到本地,这样可以极大的减少clone的仓库大小,以PHP源代码代码为例:
在Linux下,可以对进程使用的资源做一些限制,比如,可以使用的内存、可以使用的线程、最大能打开的文件数等等,这些也就是我们常说的rlimit
,在bash里,可以非常方便的用ulimit
这个内置的命令查看和修改这些限制,那么到底这些限制有那些,是怎么来的呢?
首先,在C编程环境下,系统提供了三个接口:int getrlimit(int resource, struct rlimit *rlim);
、int setrlimit(int resource, const struct rlimit *rlim);
、int prlimit(pid_t pid, int resource, const struct rlimit *new_limit, struct rlimit *old_limit);
分别用来获取当前进程的限制、设置当前进程的限制以及根据Pid设置对应进程的限制。
那么具体有哪些限制,也就是接口中的resource
参数有哪些,可以参考man里的信息,这里大致翻译一下:
工作中如果使用Git作为版本管理工具的话,应该经常会遇到因为各种原因一下提交了很多个commit的情况,比如添加一个功能,测试出问题继续commit修改,最后git log
看提交历史就会变成这样:
# git log
commit 9995aafb7a597d9a7fcf9a341a731324813c5aad (HEAD -> master)
...
Commit 4
commit 54062e7317fa19a228d8f4f63236467317c17672
...
Commit 3
commit 1571ee6b861315ec46875fbececd46c9daaa5d04
...
Commit 2
commit ae95aac116af934742e1dd2eca435a0d6e70b77f
...
Commit 1
commit 3f0373c3afb9e9ffd6174b8244ec3e936d3583e0
...
init
这样看起来不那么美观,也会一定程度上污染主分支,如果遇到问题,需要看diff的时候,也会不那么方便,所以介绍一个利用git rebase
命令合并一系列commit的方法。
一般情况下,如果一个程序需要使用代理服务器,那么需要在运行的时候设置一下参数,或者,在Linux下,大部分的程序支持http_proxy
这个环境变量,设置这个环境变量,意味着程序将使用设置值作为代理。
这样的问题在于,设置代理这个操作是不透明的,也就是说,客户端必须要知道代理的存在,需要手动设置将流量导入到代理,如果程序本身不支持代理,或者我们不希望执行所有程序的时候都手动设置代理,那么就需要一个相对“透明”的代理办法了。
同样的,作为ServiceMesh界的当红实现Istio,也会遇到类似的问题,如何在程序完全没有感知的情况下悄无声息的将程序的流量劫持到自己的代理呢?
借助Istio的两种实现方式,也说一下目前Liunx下两种透明代理的实现。
首先是使用iptables的REDIRECT
模式,通过iptables,可以将所有的流量都重定向到一个特定的端口上,如果配置过ss-redir
的话,应该会对这种实现非常的熟悉,具体的,在iptables里对应一条规则:
iptables -t nat -A PREROUTING -p tcp -j REDIRECT --to-port 5000
即将所有流量都重定向到5000
端口,仔细看一下,是不是和iptables实现DNAT有点相似?没错!本质上REDIRECT
就是一个特殊的DNAT规则,一般情况下,我们利用iptables做DNAT的时候,需要指定目标的IP和端口,这样iptables才能知道需要将数据包的目的修改成什么,而REDIRECT
模式下,只需要指定端口就可以,iptables会自动帮我们判断需要设置的IP地址。
继续思考,会发现另一个问题,那就是,既然是做了DNAT,也就意味着数据包里已经没有原始的目的地址了,那数据包到了代理程序,代理程序是如何知道这个数据包应该往什么地方发送呢?这个是个非常核心的问题,因为如果不知道原始的目的IP端口信息,代理完全不能起作用啊!
当然问题是有办法的,conntrack
在这时候起作用了,conntrack
会记录原始的地址,而在用户侧,内核提供了一个接口,可以让应用程序获取到原始的IP端口,可以参考一下ss-redir
的实现:
static int
getdestaddr(int fd, struct sockaddr_storage *destaddr)
{
socklen_t socklen = sizeof(*destaddr);
int error = 0;
error = getsockopt(fd, SOL_IPV6, IP6T_SO_ORIGINAL_DST, destaddr, &socklen);
if (error) { // Didn't find a proper way to detect IP version.
error = getsockopt(fd, SOL_IP, SO_ORIGINAL_DST, destaddr, &socklen);
if (error) {
return -1;
}
}
return 0;
}
利用getsockopt
的SO_ORIGINAL_DST
参数,可以获取到原始的连接IP和端口,好了,目前代理所需要的所有的信息都完整了,整个代理理论上就可以工作了,剩下的就是代理如何实现的问题了,这里就不探讨了。
除了利用REDIRECT
模式,Istio还提供TPROXY
模式,当然也是借助Linux内核提供的功能实现的,对于TPROXY
模式,实现的原理要相对复杂不少,需要借助iptables和路由:
iptables -t mangle -A PREROUTING -p tcp -j TPROXY --tproxy-mark 0x1/0x1 --on-port 8888
ip rule add fwmark 0x1/0x1 pref 100 table 100
ip route add local default dev lo table 100
通过iptables将数据包打上mark,然后使用一个特殊的路由,将数据包指向本地,由于使用了mangle表,所以数据包的原始和目的地址都是不会被修改的。
那么问题来了,应用程序怎么编写?假如需要连接1.2.3.4:80
这个端口,就算数据包到了本地,但是本地并没有1.2.3.4
这个IP地址啊,程序是怎么能拿到数据的?不是应该直接丢弃这个数据包么?
针对这个问题,可以看一个例子tproxy-example,这个例子实现了一个简单的基于TPROXY的代理。
针对上面的情况,Linux提供了一个选项IP_TRANSPARENT
,这个选项很神奇,可以让程序bind一个不属于本机的地址,作为客户端,它可以使用一个不属于本机地址的IP地址作为源IP发起连接,作为服务端,它可以侦听在一个不属于本机的IP地址上,而这正是透明代理所必须的。我们看下例子程序里的代码:
if((listen_fd = socket(res->ai_family, res->ai_socktype,
res->ai_protocol)) == -1){
perror("socket: ");
exit(EXIT_FAILURE);
}
if(setsockopt(listen_fd, SOL_SOCKET, SO_REUSEADDR, &yes, sizeof(yes))
== -1){
perror("setsockopt (SO_REUSEADDR): ");
close(listen_fd);
exit(EXIT_FAILURE);
}
//Mark that this socket can be used for transparent proxying
//This allows the socket to accept connections for non-local IPs
if(setsockopt(listen_fd, SOL_IP, IP_TRANSPARENT, &yes, sizeof(yes))
== -1){
perror("setsockopt (IP_TRANSPARENT): ");
close(listen_fd);
exit(EXIT_FAILURE);
}
if(bind(listen_fd, res->ai_addr, res->ai_addrlen) == -1){
perror("bind: ");
close(listen_fd);
exit(EXIT_FAILURE);
}
if(listen(listen_fd, BACKLOG) == -1){
perror("listen: ");
close(listen_fd);
exit(EXIT_FAILURE);
}
也确实是设置了IP_TRANSPARENT
,有了这个选项,也就意味着代理绑定了所有的IP,当然1.2.3.4
这个IP也在范围内,所以可以正常的接受连接。
而由于TPROXY
模式并没有改变数据包,所以直接通过getsockname
获取到原始的IP端口信息:
//Store the original destination address in remote_addr
//Return 0 on success, <0 on failure
static int get_org_dstaddr(int sockfd, struct sockaddr_storage *orig_dst){
char orig_dst_str[INET6_ADDRSTRLEN];
socklen_t addrlen = sizeof(*orig_dst);
memset(orig_dst, 0, addrlen);
//For UDP transparent proxying:
//Set IP_RECVORIGDSTADDR socket option for getting the original
//destination of a datagram
//Socket is bound to original destination
if(getsockname(sockfd, (struct sockaddr*) orig_dst, &addrlen)
< 0){
perror("getsockname: ");
return -1;
} else {
if(orig_dst->ss_family == AF_INET){
inet_ntop(AF_INET,
&(((struct sockaddr_in*) orig_dst)->sin_addr),
orig_dst_str, INET_ADDRSTRLEN);
fprintf(stderr, "Original destination %s\n", orig_dst_str);
} else if(orig_dst->ss_family == AF_INET6){
inet_ntop(AF_INET6,
&(((struct sockaddr_in6*) orig_dst)->sin6_addr),
orig_dst_str, INET6_ADDRSTRLEN);
fprintf(stderr, "Original destination %s\n", orig_dst_str);
}
return 0;
}
}
上面就是两种Linux下实现透明代理的方式,透过现象看本质,无论实现方式是什么,其实都定位到一个核心问题,即在没有代理的情况下,连接的五元组是什么?数据包最核心的源地址源端口,目的地址目的端口,无论是通过NAT方式修改数据包重定向,或者借助内核的一些特殊特性,都必须要知道这4个关键信息,一旦搞清楚这些,那理论上代理就能工作了,剩下的就是如何将代理本身做好,那就是一个业务逻辑的问题了。
参考:
如果K8s使用Calico作为网络方案的话,应该都会知道Calico是个纯3层的方案,也是就说,所有的数据包,都是通过路由的形式找到对应机器和容器的,然后通过BGP协议来将所有的路由同步到所有的机器或者数据中心,来完成整个网络的互联。
简单的来说,Calico针对一个容器,在主机上创建了一堆veth pair,其中一端在主机,一端在容器的网络空间里,然后在主机和容器中分别设置几条路由,来完成网络的互联,我们可以看一个例子:
主机上:
$ ip addr
...
771: cali45b9132fec1@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1440 qdisc noqueue state UP group default
link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netnsid 14
inet6 fe80::ecee:eeff:feee:eeee/64 scope link
valid_lft forever preferred_lft forever
...
$ ip route
...
10.218.240.252 dev cali45b9132fec1 scope link
...
容器里:
$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
3: eth0@if771: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1440 qdisc noqueue state UP
link/ether 66:fb:34:db:c9:b4 brd ff:ff:ff:ff:ff:ff
inet 10.218.240.252/32 scope global eth0
valid_lft forever preferred_lft forever
$ ip route
default via 169.254.1.1 dev eth0
169.254.1.1 dev eth0
按照上面的逻辑,可以理一下:
10.218.240.252
的数据包,也就是目的是容器的数据包,到达主机,主机根据10.218.240.252 dev cali45b9132fec1 scope link
这条路由,将数据包丢给cali45b9132fec1
这个vetheth0
就可以收到数据包了。default via 169.254.1.1 dev eth0
,将数据包丢给eth0
,这时主机对应的cali45b9132fec1
可以收到包,然后继续进行路由选择,转发到对应端口。这么一看好像没什么问题,但是总觉得不对,为什么容器里的默认网关是169.254.1.1
呢?二层是怎么处理的?
我们重新思考一下数据包的传输:
当一个数据包的目的地址不是本机,所以需要查询路由表,当查到路由表中的网关之后,需要获取网关的MAC地址,并将数据包的MAC地址修改成网关地址,然后发送到对应的网卡。
问题来了。在容器里的网关是169.254.1.1
,那网关的MAC地址是什么?
正常情况下,内核会对外发送ARP请求,去询问整个二层网络中谁拥有169.254.1.1
这个IP地址,拥有这个IP地址的设备会将自己的MAC返回。
但是现在的情况是,对于容器和主机,都没有169.254.1.1
这个IP,甚至,在主机上的端口cali45b9132fec1
,MAC地址也是一个无用的ee:ee:ee:ee:ee:ee
。所以,如果仅仅是目前的状况,容器和主机网络根本就无法通信!
所以Calico是怎么做到的呢?在Calico的FAQ里,官方给了答案:
Why can’t I see the 169.254.1.1 address mentioned above on my host?
Calico tries hard to avoid interfering with any other configuration on the host. Rather than adding the gateway address to the host side of each workload interface, Calico sets the proxy_arp flag on the interface. This makes the host behave like a gateway, responding to ARPs for 169.254.1.1 without having to actually allocate the IP address to the interface.
Calico利用了网卡的proxy_arp
功能,具体的,是将/proc/sys/net/ipv4/conf/DEV/proxy_arp
置为1,当设置这个标志之后,主机就会看起来像一个网关,会响应所有的ARP请求,并将自己的MAC地址告诉客户端。
也就是说,当容器发送ARP请求时,主机会告诉容器,我拥有169.254.1.1
这个IP,我的MAC地址是XXX,这样,容器就可以顺利的将数据包发出来了,于是网络就通了。
其实Calico不仅仅设置了这个标志,但是这个标志是最重要的,毕竟关系到网络是否能通的问题。看了看Cailco的代码,发现Calico还设置了其他几个标志位:
/proc/sys/net/ipv4/conf/DEV/rp_filter
=> 1:开启反向路径过滤,确认数据包来源,对于普通容器,IP基本无法伪装,但是如果是VM(Calico也支持VM),很容易伪装IP地址,所以为了安全打开这个选项。/proc/sys/net/ipv4/conf/DEV/route_localnet
=> 1:允许路由到本地。/proc/sys/net/ipv4/neigh/DEV/proxy_delay
=> 0:默认情况下,主机为了减少ARP风暴的可能,会延迟一段时间回复ARP包,这个选项关闭这个延迟。/proc/sys/net/ipv4/conf/DEV/forwarding
=> 1:允许转发数据包(如果不允许转发的话,那数据包就出不去主机了)。上面是IPv4的情况,如果是IPv6的网络,则会设置:
/proc/sys/net/ipv6/conf/DEV/proxy_ndp
=> 1:这个和proxy_arp
是一样的。/proc/sys/net/ipv4/conf/DEV/forwarding
=> 1:同IPv4。偶然看到一篇cloudflare的博客How to drop 10 million packets per second,如何实现单核情况下一秒钟丢弃1000万个数据包,原文循序渐进,从最简单的用户态丢弃到使用非常新的技术XDP,逐步将单核丢包性能提升到10mpps,很有意思,网上也没有看到原文的中文版本,所以这里顺便翻译一下,看看cloudflare是如何处理类似的情况的。
想要删除K8s里的一个Namespace,结果删除了所有该Namespace资源之后使用kubectl delete namespace test
发现删除不掉,一直卡在Terminating
状态,使用--force
参数依然无法删除,报错:Error from server (Conflict): Operation cannot be fulfilled on namespaces "test": The system is ensuring all content is removed from this namespace. Upon completion, this namespace will automatically be purged by the system.
找了一圈,发现这个Issue,里面有条评论
kubectl get namespace annoying-namespace-to-delete -o json > tmp.json
then edit tmp.json and remove”kubernetes”curl -k -H “Content-Type: application/json” -X PUT –data-binary @tmp.json https://kubernetes-cluster-ip/api/v1/namespaces/annoying-namespace-to-delete/finalize
and it should delete your namespace,
跟着试了一下,很管用,直接就删除了:
先运行kubectl get namespace test -o json > tmp.json
,拿到当前namespace描述,然后打开tmp.json
,删除其中的spec
字段。因为这边的K8s集群是带认证的,所以又新开了窗口运行kubectl proxy
跑一个API代理在本地的8081端口。最后运行curl -k -H "Content-Type: application/json" -X PUT --data-binary @tmp.json http://127.0.0.1:8001/api/v1/namespaces/test/finalize
搞定!
如果K8s中某个Node节点重启,在Event信息中会有一条消息,大致内容如Node xxxxx has been rebooted, boot id: xxx
,而如果是重启kubelet
,则不会有这条消息,所以kubelet
是怎么判断是自己重启了还是机器重启了呢?
搜索了一下代码,在https://github.com/kubernetes/kubernetes/blob/v1.10.12/pkg/kubelet/kubelet_node_status.go#L621这里,会判断上次记录的Node的BootID和当前从cAdvisor获取的BootID是否相同,如果不同则说明机器重启了。
那么cAdvisor
是怎么获得这个BootID的呢?看了一下cAdvisor
的文档,发现默认是从/proc/sys/kernel/random/boot_id
这个文件读取的。针对这个文件,找到一段解析:
/proc/sys/kernel/random/boot_id: A random ID that is regenerated on each boot. As such it can be used to identify the local machine’s current boot. It’s universally available on any recent Linux kernel. It’s a good and safe choice if you need to identify a specific boot on a specific booted kernel.
是内核暴露的一个接口,每次启动都会随机生成一个ID,是一个比较通用和安全的判断启动的办法。
参考:
由于业务的需要,需要在我们的一台虚拟化机器上,实现如下的配置:
首先,需要将两块网卡设置Bonding并配置交换机对应端口trunk模式;在此基础上,添加宿主机的IP地址,并添加相应的VLAN,最后,还需要添加一个Bridge,用于桥接创建的虚拟机。
由于本身这台机器就是Openstack的宿主机,所以当前的状况是除了所需要的一个Bridge,其他都已经配置完成了,并且由于Openstack的原因,已经有个Bridge virbr0被绑定到bond0上了。
但是呢,这个Bridge是给ovs用的,也就是说,桥接在virbr0上的网络需要自己带上VLAN的tag才能正常工作,而我们希望的是再有一个Bridge br0,桥接在br0上不需要管理VLAN,保持和宿主机相同就可以。
在Kubernetes中,可以针对每个Pod设置DNS的策略,通过PodSpec下的dnsPolicy
字段可以指定相应的策略,目前支持的策略如下:
Default
“: Pod继承所在宿主机的设置,也就是直接将宿主机的/etc/resolv.conf
内容挂载到容器中。ClusterFirst
“: 默认的配置,所有请求会优先在集群所在域查询,如果没有才会转发到上游DNS。ClusterFirstWithHostNet
“: 和ClusterFirst
一样,不过是Pod运行在hostNetwork:true
的情况下强制指定的。None
“: 1.9版本引入的一个新值,这个配置忽略所有配置,以Pod的dnsConfig
字段为准。