You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 6 Next »

kubernetes通过kube-apiserver作为整个集群管理的入口。apiserver是整个集群的主管理节点,用户通过apiserver配置和组织集群,同时集群中各个节点同etcd存储的交互也是通过apiserver进行交互。apiserver实现了一套RESTfull的接口,用户可以直接使用APIapiserver交互。另外官方还提供了一个客户端kubectl随工具集打包,用于可直接通过kubectl以命令行的方式同集群交互。

本文只介绍平时工作中常用到的kubectl命令,更详细的命令介绍可以参考官方文档:http://docs.kubernetes.org.cn/683.html

help

kubectl的命令行参数比较多,若有什么不清楚地,都可以通过帮助提示来了解。如下图所示,kubectl使用方式为:

kubectl[flags]
kubectl[commond]

另外所有的命令选项都可以通过执行 --help 获得特定命令的帮助信息。 

get

get命令用于获取集群的一个或一些resource信息。使用--help查看详细信息。kubectl的帮助信息、示例相当详细,而且简单易懂。建议大家习惯使用帮助信息。kubectl可以列出集群所有resource的详细。resource包括集群节点、运行的pod、deployment、service等。

kubectl get [(-o|--output=)json|yaml|wide|go-template=...|go-template-file=...|jsonpath=...|jsonpath-file=...] (TYPE [NAME | -l label] | TYPE/NAME ...) [flags] [flags]

获取pod信息

可以直接使用 kubectl get po 获取当前运行的所有pods的信息,或使用 kubectl get po -o wide 获取pod运行在哪个节点上的信息。注意:集群中可以创建多个namespace,未显示的指定namespace的情况下,所有操作都是针对default namespace。如下图所示列出了 default 和 kube-system pods

获取namespace信息

kubectl get namespace

获取其他资源

类似可以使用 kubectl get rc、kubectl get svc、kubectl get nodes等获取其他resource信息。

获取一些更具体的信息

可以通过使用选项 -o。如:
1)kubectl get po -o yaml 以yaml格式输出pod的详细信息。

2)kubectl get po -o jsonjson格式输出pod的详细信息。

3)另外还可以使用 -o=custom-columns= 定义直接获取指定内容的值。如前面使用jsonyaml格式的输出中,metadata.labels.app的值可以使用如下命令获取。 

kubectl get po rc-nginx-2-btv4j -o=custom-columns=LABELS:.metadata.labels.app

其中LABELS为显示的列标题,.metadata.labels.app 为查询的域名:

4)其他资源也可以使用类似的方式。

describe

describe类似于get,同样用于获取resource的相关信息。不同的是,get获得的是更详细的resource个性的详细信息,describe获得的是resource集群相关的信息。describe命令同get类似,但是describe不支持-o选项,对于同一类型resourcedescribe输出的信息格式,内容域相同。 注意:如果发现是查询某个resource的信息,使用get命令能够获取更加详尽的信息。但是如果想要查询某个resource的状态,如某个pod并不是在running状态,这时需要获取更详尽的状态信息时,就应该使用describe命令。 

kubectl describe po rc-nginx-2-btv4j

create

kubectl命令用于根据文件或输入创建集群resource。如果已经定义了相应resourceyamljson文件,直接 kubectl create -f filename 即可创建文件内定义的resource。也可以直接只用子命令 [namespace/secret/configmap/serviceaccount] 等直接创建相应的resource。从追踪和维护的角度出发,建议使用jsonyaml的方式定义资源。 
如,前面get中获取的两个nginx podreplication controller文件内容如下。文件名为:rc-nginx.yaml

apiVersion: v1
kind: ReplicationController
metadata:
  name: rc-nginx-2
spec:
  replicas: 2
  template:
    metadata:
      labels:
        app: nginx-2
    spec:
      containers:
      - name: nginx-2
        image: xingwangc.docker.rg/nginx
        ports:
        - containerPort: 80

直接使用create则可以基于rc-nginx.yaml文件创建出ReplicationController(rc)rc会创建两个副本:

kubectl create -f rc-nginx.yaml

创建后,使用 kubectl get rc 可以看到一个名为rc-nginx-2ReplicationController将被创建,同时 kubectl get po 的结果中会多出两个前缀为 rc-nginx-2-pod

replace

replace命令用于对已有资源进行更新、替换。如前面create中创建的nginx,当我们需要更新resource的一些属性的时候,如果修改副本数量,增加、修改label,更改image版本,修改端口等。都可以直接修改原yaml文件,然后执行replace命令。 

注意:名字不能被更更新。另外,如果是更新label,原有标签的pod将会与更新label后的rc断开联系,有新label的rc将会创建指定副本数的新的pod,但是默认并不会删除原来的pod。所以此时如果使用get po将会发现pod数翻倍,进一步check会发现原来的pod已经不会被新rc控制,此处只介绍命令不详谈此问题,好奇者可自行实验。 

kubectl replace -f rc-nginx.yaml 

patch

如果一个容器已经在运行,这时需要对一些容器属性进行修改,又不想删除容器,或不方便通过replace的方式进行更新。kubernetes还提供了一种在容器运行时,直接对容器进行修改的方式,就是patch命令。 如前面创建pod的label是app=nginx-2,如果在运行过程中,需要把其label改为app=nginx-3,这patch命令如下: 

kubectl patch pod rc-nginx-2-kpiqt -p '{"metadata":{"labels":{"app":"nginx-3"}}}' 

此外,patch命令还可以用于对deployment进行平滑重启,比如通过patch修改deployment中一些无关紧要的属性,那么deployment对应的pods会执行平滑重启:

kubectl patch deployment your-deployment -p "{\"spec\":{\"template\":{\"metadata\":{\"labels\":{\"date\":\"$(date +%s)\"}}}}}"

edit

edit提供了另一种更新resource源的操作,通过edit能够灵活的在一个commonresource基础上,发展出更过的significant resource。例如,使用edit直接更新前面创建的pod的命令为: 

kubectl edit po rc-nginx-btv4j 

上面命令的效果等效于:  

kubectl get po rc-nginx-btv4j -o yaml >> /tmp/nginx-tmp.yaml 
vim /tmp/nginx-tmp.yaml 
/*do some changes here */ 
kubectl replace -f /tmp/nginx-tmp.yaml 

delete

根据resource名或label删除resource。 

kubectl delete -f rc-nginx.yaml 
kubectl delete po rc-nginx-btv4j 
kubectl delete po -lapp=nginx-2

apply

apply命令提供了比patchedit等更严格的更新resource的方式。通过apply,用户可以将resourceconfiguration使用source control的方式维护在版本库中。每次有更新时,将配置文件pushserver,然后使用kubectl apply将更新应用到resourcekubernetes会在引用更新前将当前配置文件中的配置同已经应用的配置做比较,并只更新更改的部分,而不会主动更改任何用户未指定的部分。 

apply命令的使用方式同replace相同,不同的是,apply不会删除原有resource,然后创建新的。apply直接在原有resource的基础上进行更新。同时kubectl apply还会resource中添加一条注释,标记当前的apply。类似于git操作。 

logs

logs命令用于显示pod运行中,容器内程序输出到标准输出的内容。跟dockerlogs命令类似。如果要获得 tail -f 的方式,也可以使用 -f 选项。 

kubectl logs rc-nginx-2-kpiqt 

exec

exec命令同样类似于dockerexec命令,为在一个已经运行的容器中执行一条shell命令,如果一个pod容器中,有多个容器,需要使用-c选项指定容器。 

rolling-update

rolling-update是一个非常重要的命令,对于已经部署并且正在运行的业务,rolling-update提供了不中断业务的更新方式。rolling-update每次起一个新的pod,等新pod完全起来后删除一个旧的pod,然后再起一个新的pod替换旧的pod,直到替换掉所有的podrolling-update需要确保新的版本有不同的name,Version和label,否则会报错 。

kubectl rolling-update rc-nginx-2 -f rc-nginx.yaml 

如果在升级过程中,发现有问题还可以中途停止update,并回滚到前面版本 

kubectl rolling-update rc-nginx-2 --rollback 

rolling-update还有很多其他选项提供丰富的功能,如--update-period指定间隔周期,使用时可以使用-h查看help信息 

scale 

scale用于程序在负载加重或缩小时副本进行扩容或缩小,如前面创建的nginx有两个副本,可以轻松的使用scale命令对副本数进行扩展或缩小。

例如,扩展副本数到4:

kubectl scale rc rc-nginx-3 --replicas=4 

重新缩减副本数到2:

kubectl scale rc rc-nginx-3 --replicas=2 

autoscale

scale虽然能够很方便的对副本数进行扩展或缩小,但是仍然需要人工介入,不能实时自动的根据系统负载对副本数进行扩/缩。autoscale命令提供了自动根据pod负载对其副本进行扩缩的功能。 autoscale命令会给一个rc指定一个副本数的范围,在实际运行中根据pod中运行的程序的负载自动在指定的范围内对pod进行扩容或缩容。如前面创建的nginx,可以用如下命令指定副本范围在1~4:

kubectl autoscale rc rc-nginx-3 --min=1 --max=4 

attach

attach命令类似于dockerattach命令,可以直接查看容器中以daemon形式运行的进程的输出,效果类似于logs -f,退出查看使用ctrl-c。如果一个pod中有多个容器,要查看具体的某个容器的的输出,需要在pod名后使用-c containers name指定运行的容器。如下示例的命令为查看kube-system namespace中的kube-dns-v9-rcfuk pod中的skydns容器的输出。 

kubectl attach kube-dns-v9-rcfuk -c skydns —namespace=kube-system 

config

查看集群信息

kubectl config view

切换当前操作集群

kubectl config user-context 集群名称

port-forward

port-forward通过端口转发映射本地端口到指定的应用端口。在需要调试部署的podsvc等资源是否提供正常访问时使用。

命令格式:

kubectl port-forward <pod_name> <forward_port> --namespace <namespace> --address <IP默认:127.0.0.1>

示例:

1、我在k8s集群中部署了prometheusnode-exporter服务,用于收集系统的信息node-exportersvc采用的是ClusterIP模式,端口不能直接对外访问,但是我现在想通过nodeipport的方式在浏览器测试node-exporter资源是否正常,用port-forward实现,其实这种方法访问方式就类似使用NodePort的访问模式。

[root@localhost ~]# kubectl get svc -n monitoring
NAME                    TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)                      AGE
grafana                 NodePort    192.168.87.255   <none>        3000:30712/TCP               2d3h
kube-state-metrics      ClusterIP   None             <none>        8443/TCP,9443/TCP            2d3h
node-exporter           ClusterIP   None             <none>        9100/TCP                     2d3h

2、将本地端口9800映射到svc9100端口,如果不指定address则默认为127.0.0.1的地址。

[root@localhost manifests]# kubectl -n monitoring port-forward svc/node-exporter 9800:9100 --address 10.0.8.101
Forwarding from 10.0.8.101:9800 -> 9100
Handling connection for 9800

3、在浏览器输入nodeip:本地9800端口进行访问。

4、访问pod

[root@localhost ]# kubectl get pod 
NAME                          READY   STATUS    RESTARTS   AGE
temp-chart-6d4cf56db6-rnbwb   1/1     Running   0          29m
temp-chart-6d4cf56db6-rsxhr   1/1     Running   0          29m
[root@localhost ]# 
[root@localhost ]# kubectl port-forward temp-chart-6d4cf56db6-rsxhr 8090:80 --address 10.0.8.101
Forwarding from 10.0.8.101:8090 -> 80
Handling connection for 8090


复制代码



 
 





Content Menu

  • No labels