《It运维面试试题.docx》由会员分享,可在线阅读,更多相关《It运维面试试题.docx(30页珍藏版)》请在三一办公上搜索。
1、It运维面试试题简述ETCD及其特点?etcd是CoreOS团队发起的开源项目,是一个管理配置信息和服务发现(SerViCediscovery)的项目,它的目标是构建一个高可用的分布式键值(key-value)数据库,基于Go语言实现。特点: 简单:支持REST风格的HP+JSONAPI 安全:支持HTTPS方式的访问 快速:支持并发lk/s的写操作 可靠:支持分布式结构,基于Raft的一致性算法,Raft是一套通过选举主节点来实现分布式系统一致性的算法。简述ETCD适应的场景?etcd基于其优秀的特点,可广泛的应用于以下场景:服务发现(ServiceDisc。Very):服务发现主要解决在同
2、一个分布式集群中的进程或服务,要如何才能找到对方并建立连接。本质上来说,服务发现就是想要了解集群中是否有进程在监听udp或tcp端口,并且通过名字就可以查找和连接。消息发布与订阅:在分布式系统中,最适用的种组件间通信方式就是消息发布与订阅。即构建一个配置共享中心,数据提供者在这个配置中心发布消息,而消息使用者则订阅他们关心的主题,一旦主题有消息发布,就会实时通知订阅者。通过这种方式可以做到分布式系统配置的集中式管理与动态更新。应用中用到的一些配置信息放到etcd上进行集中管理。负载均衡:在分布式系统中,为了保证服务的高可用以及数据的致性,通常都会把数据和服务部署多份,以此达到对等服务,即使其中
3、的某一个服务失效了,也不影响使用。etcd本身分布式架构存储的信息访问支持负载均衡。etcd集群化以后,每个etcd的核心节点都可以处理用户的请求。所以,把数据量小但是访问频繁的消息数据直接存储到etcd中也可以实现负载均衡的效果。分布式通知与协调:与消息发布和订阅类似,都用到了etcd中的Watcher机制,通过注册与异步通知机制,实现分布式环境下不同系统之间的通知与协调,从而对数据变更做到实时处理。分布式锁:因为etcd使用Raft算法保持了数据的强一致性,某次操作存储到集群中的值必然是全局一致的,所以很容易实现分布式锁。锁服务有两种使用方式,一是保持独占,二是控制时序。集群监控与Lead
4、er竞选:通过etcd来进行监控实现起来非常简单并且实时性强。简述HAProxy及其特性?HAProxy是可提供高可用性、负载均衡以及基于TCP和HKP应用的代理,是免费、快速并且可靠的一种解决方案。HAProxy非常适用于并发大(并发达IW以上)web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。HAProxy的主要特性有: 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美; 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能
5、力可达lOGit/s; 支持多达8种负载均衡算法,同时也支持会话保持; 支持虚机主机功能,从而实现web负载均衡更加灵活; 支持连接拒绝、全透明代理等独特的功能; 拥有强大的ACL支持,用于访问控制; 其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了OQ),即数据的查寻速度不会随着数据条目的增加而速度有所下降; 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成; 支持TCP加速,零复制功能,类似于mm叩机制; 支持响应池(responsebuffering); 支持RDP协议; 基于源的粘性,类似nginx的ip_
6、hash功能,把来自同一客户端的请求在-一定时间内始终调度到上游的同一服务器; 更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息; 详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能; 基于流量的健康评估机制; 基于http认证; 基于命令行的管理接口; 日志分析器,可对日志进行分析。简述HAProxy常见的负载均衡策略?HAProxy负载均衡策略非常多,常见的有如下8种: roundrobin:表示简单的轮询。 static-rr:表示根据权重。 leastconn:表示最少连接者先处理。 source:表示
7、根据请求的源IP,类似Nginx的IP_hash机制。 ri:表示根据请求的URIorLparam:表示根据HTTP请求头来锁定每一次HTTP请求。rdp-cookie(name):表示根据据COOkie(name)来锁定并哈希每一次TCP请求。简述负载均衡四层和七层的区别?四层负载均衡器也称为4层交换机,主要通过分析IP层及TCP/UDP层的流量实现基于IP加端口的负载均衡,如常见的LVS.F5等;七层负载均衡器也称为7层交换机,位于OSI的最高层,即应用层,此负载均衡器支持多种协议,如HTTP、FTP、SMTP等。7层负载均衡器可根据报文内容,配合一定的负载均衡算法来选择后端服务器,即内容
8、交换器。如常见的HAProxysNginxo 简述LVS、NgilIx、HAproxy的什么异同? 相同:三者都是软件负载均衡产品。 区别: 1.VS基于Linux操作系统实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡; 1.VS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案; 1.VS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状监测方面功能更丰富、强大,可支持端口、URL脚本等多种状态检测方式; HAPr
9、oxy功能强大,但整体性能低于4层模式的LVS负载均衡。 Nginx主要用于Web服务器或缓存服务器。简述Heartbeat?Heartbeat是LinUX-HA项目中的一个组件,它提供了心跳检测和资源接管、集群中服务的监测、失效切换等功能。heartbeat最核心的功能包括两个部分,心跳监测和资源接管。心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未收到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运行在对方主机上的资源或者服务。简述Keepalived及其工作原理?Keepalived是一个基于VRR
10、P协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。简述Keepalived体系主要模块及其作用?keepalived体系架构中主要有三个模块,分别是corecheck和vrrpo core模块为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。 vrrp模块
11、是来实现VRRP协议的。 CheCk负责健康检查,常见的方式有端口检查及URL检查。简述KeepaIived如何通过健康检查来保证高可用?Keepalived工作在TCP/IP模型的第三、四和五层,即网络层、传输层和应用层。 网络层,Keepalived采用ICMP协议向服务器集群中的每个节点发送一个ICMP的数据包,如果某个节点没有返回响应数据包,则认为此节点发生了故障,Keepalived将报告次节点失效,并从服务器集群中剔除故障节点。 传输层,Keepalived利用TCP的端口连接和扫描技术来判断集群节点是否正常。如常见的web服务默认端口80,ssh默认端口22等。Keepalive
12、d一旦在传输层探测到相应端口没用响应数据返回,则认为此端口发生异常,从而将此端口对应的节点从服务器集群中剔除。 应用层,可以运行FTP、telnet.Smtp、dns等各种不同类型的高层协议,Keepalived的运行方式也更加全面化和复杂化,用户可以通过自定义Keepalived的工作方式,来设定监测各种程序或服务是否正常,若监测结果与设定的正常结果不一致,将此服务对应的节点从服务器集群中剔除。Keepalived通过完整的健康检查机制,保证集群中的所有节点均有效从而实现高可用。简述LVS的概念及其作用?1.VS是Iinuxvirtualserver的简写Iinux虚拟服务器,是一个虚拟的服
13、务器集群系统,可以在unix/linux平台下实现负载均衡集群功能。1.VS的主要作用是:通过LVS提供的负载均衡技术实现一个高性能、高可用的服务器群集。因此LVS主要可以实现: 把单台计算机无法承受的大规模的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间,提升用户体验。 单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 7*24小时的服务保证,任意一个或多个设备节点设备宕机,不能影响到业务。在负载均衡集群中,所有计算机节点都应该提供相同的服务,集群负载均衡获取所有对该服务的如站请求。简述LVS
14、的工作模式及其工作过程?1.VS有三种负载均衡的模式,分别是VS/NAT(nat模式)、VS/DR(路由模式)、VS/TUN(隧道模式)。 NAT模式(VS-NAT) 原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)o然后负载均衡器就把客户端发送的请求数据包的目标IP地址及端M改成后端真实服务器的IP地址(RlP)。真实服务器响应完请求后,查看默认路由,把响应后的数据包发送给负载均衡器,负载均衡器在接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。 优点:集群中的服务器可以使用任何支持TCP/IP的操作系统,只要负载均衡
15、器有一个合法的IP地址。 缺点:扩展性有限,当服务器节点增长过多时,由于所有的请求和应答都需要经过负载均衡器,因此负载均衡器将成为整个系统的瓶颈。 IP隧道模式(VS-TUN) 原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求报文封装一层IP隧道(T-IP)转发到真实服务器(RS)o真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。 优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不
16、再是系统的瓶颈,也能处理很巨大的请求量。 缺点:隧道模式的RS节点需要合法IP,这种方式需要所有的服务器支持IPTunnelingwo 直接路由模式(VS-DR) 原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)o然后负载均衡器就把客户端发送的请求数据包的目标MAC地址改成后端真实服务器的MAC地址(R-MAC)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。 优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是
17、系统的瓶颈,也能处理很巨大的请求量。 缺点:需要负载均衡器与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。简述LVS调度器常见算法(均衡策略)?1.VS调度器用的调度方法基本分为两类:固定调度算法:rr,wrr,dh,sh rr:轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。 wrr:加权轮训调度,依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。 dh:目的地址哈希调度(destinationhashing)以目的地址为关键字查
18、找一个静态hash表来获得所需RSo sh:源地址哈希调度(SoUrCehaShing)以源地址为关键字查找一个静态hash表来获得需要的RSo 动态调度算法:wlc,lc,Iblc,Iblcr wlc:加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去Ti/Wi为最小的RS作为下一个分配的RSo 1c:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RSo Iblc:基于地址的最小连接数调度(IoCality-basedleast-connection):将来自同一个目的地址的请求分
19、配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。简述LVS、Nginx、HAProxy各自优缺点? Nginx的优点: 工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构。Nginx正则规则比HAProxy更为强大和灵活。 Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,LVS对网络稳定性依赖比较大,稳定要求相对更高。 Nginx安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS的配置、测试就要花比较长的时间了。 可以承担高负载压力且稳定,一般能支撑几
20、万次的并发量,负载度比LVS相对小些。 Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等。 Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。 Nginx作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,很多场景下都将其作为反向代理加速器。 Nginx作为静态网页和图片服务器,这方面的性能非常优秀,同时第三方模块也很多。 Nginx的缺点: Nginx仅能支持http、https和Email协议,这样就在适用范围上面小些。 对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测
21、。 不支持Session的直接保持,需要通过ip-hash来解决。 1.VS的优点: 抗负载能力强、是工作在网络4层之上仅作分发之用,没有流量的产生。因此负载均衡软件里的性能最强的,对内存和CPU资源消耗比较低。 1.VS工作稳定,因为其本身抗负载能力很强,自身有完整的双机热备方案。 无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器IO的性能不会收到大流量的影响。 应用范围较广,因为LVS工作在4层,所以它几乎可对所有应用做负载均衡,包括http、数据库等。 1.VS的缺点是: 软件本身不支持正则表达式处理,不能做动静分离.相对来说,NginxHAProxy+Keepaliv
22、ed则具有明显的优势。 如果是网站应用比较庞大的话,LVSDR+Keepalived实施起来就比较复杂了。相对来说NginxHAProxy+Keepalived就简单多了。 HAProxy的优点: HAProxy也是支持虚拟主机的。 HAProxy的优点能够补充Nginx的一些缺点,比如支持Session的保持,Cookie的引导,同时支持通过获取指定的url来检测后端服务器的状态。 HAProxy跟LVS类似,本身就只是一款负载均衡软件,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。 HAProxy支持TCP协议的负载均衡转发。简述代理
23、服务器的概念及其作用?代理服务器是一个位于客户端和原始(资源)服务器之间的服务器,为了从原始服务器取得内容,客户端向代理服务器发送一个请求并指定目标原始服务器,然后代理服务器向原始服务器转交请求并将获得的内容返回给客户端。其主要作用有: 资源获取:代替客户端实现从原始服务器的资源获取; 加速访问:代理服务器可能离原始服务器更近,从而起到一定的加速作用; 缓存作用:代理服务器保存从原始服务器所获取的资源,从而实现客户端快速的获取; 隐藏真实地址:代理服务器代替客户端去获取原始服务器资源,从而隐藏客户端真实信息。简述高可用集群可通过哪两个维度衡量高可用性,各自含义是什么? RTO(Recovery
24、TimeObjective):RTO指服务恢复的时间,最佳的情况是0,即服务立即恢复;最坏是无穷大,即服务永远无法恢复; RPO(RecoveryPointObjective):RPO指指当灾难发生时允许丢失的数据量,0意味着使用同步的数据,大于0意味着有数据丢失,如RPO=Id指恢复时使用一天前的数据,那么一天之内的数据就丢失了。因此,恢复的最佳情况是RTO=RPO=0,几乎无法实现。简述什么是CAP理论?CAP理论指出了在分布式系统中需要满足的三个条件,主要包括: Consistency(一致性):所有节点在同一时间具有相同的数据; Availability(可用性):保证每个请求不管成功
25、或者失败都有响应; Partitiontolerance(分区容错性):系统中任意信息的丢失或失败不影响系统的继续运行。CAP理论的核心是:一个分布式系统不可能同时很好的满足一致性,可用性和分区容错性这三个需求,最多只能同时较好的满足两个。简述什么是ACID理论? 原子性(AtorniCity):整体不可分割性,要么全做要不全不做; 一致性(ConSiStency):事务执行前、后数据库状态均一致; 隔离性(Isolation):在事务未提交前,它操作的数据,对其它用户不可见; 持久性(Durable):一旦事务成功,将进行永久的变更,记录与redo日志。简述什么是Kubernetes?Kub
26、ernetes是一个全新的基于容器技术的分布式系统支撑平台。是Google开源的容器集群管理系统(谷歌内部:Borg)。在Docker技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性。并且具有完备的集群管理能力,多层次的安全防护和准入机制、多租户应用支撑能力、透明的服务注册和发现机制、内建智能负载均衡器、强大的故障发现和自我修复能力、服务滚动升级和在线扩容能力、可扩展的资源自动调度机制以及多粒度的资源配额管理能力。简述Kubernetes和DOCker的关系? Docker提供容器的生命周期管理和,Docker镜像构建运行
27、时容器。它的主要优点是将将软件/应用程序运行所需的设置和依赖项打包到一个容器中,从而实现了可移植性等优点。Kubernetes用于关联和编排在多个主机上运行的容器。简述Kubernetes中什么是MinikubeKubectkKubelet? Minikube是一种可以在本地轻松运行一个单节点Kubernetes群集的工具。 Kubectl是一个命令行工具,可以使用该工具控制Kubernetes集群管理器,如检查群集资源,创建、删除和更新组件,查看应用程序。 Kubelet是一个代理服务,它在每个节点上运行,并使从服务器与主服务器通信。简述Kubernetes常见的部署方式?常见的Kubern
28、etes部署方式有: kubeadm:也是推荐的一种部署方式; 二进制: min汰ube:在本地轻松运行一个单节点Kubernetes群集的工具。简述Kubernetes如何实现集群管理?在集群管理方面,Kubernetes将集群中的机器划分为一个Master节点利一群工作节点Node0其中,在Master节点运行着集群管理相关的一组进程kube-apiserverkube-controller-manager和kube-scheduler,这些进程实现了整个集群的资源管理、Pod调度、弹性伸缩、安全控制、系统监控和纠错等管理能力,并且都是全自动完成的。简述Kubernetes的优势、适应场景
29、及其特点?Kubernetes作为一个完备的分布式系统支撑平台,其主要优势: 容器编排 轻量级 开源 弹性伸缩负载均衡Kubernetes常见场景: 快速部署应用 快速扩展应用 无缝对接新的应用功能 节省资源,优化硬件资源的使用Kubernetes相关特点: 可移植:支持公有云、私有云、混合云、多重云(multi-cloud)。 可扩展:模块化,、插件化、可挂载、可组合。 自动化:自动部署、自动重启、自动复制、自动伸缩/扩展。简述Kubernetes的缺点或当前的不足之处?Kubernetes当前存在的缺点(不足)如下: 安装过程和配置相对困难匏杂。 管理服务相对繁琐。 运行和编译需要很多时间
30、。 它比其他替代品更昂贵。 对于简单的应用程序来说,可能不需要涉及Kubernetes即可满足。简述Kubernetes相关基础概念? master:k8s集群的管理节点,负责管理集群,提供集群的资源数据访问入口。拥有Etcd存储服务(可选),运行ApiServer进程,ControllerManager服务进程及Scheduler服务进程。 node(worker):Node(worker)是Kubernetes集群架构中运行Pod的服务节点,是Kubernetes集群操作的单元,用来承载被分配Pod的运行,是Pod运行的宿主机。运行dockereninge服务,守护进程kunelet及负载
31、均衡器kube-proyo pod:运行于Node节点上,若干相关容器的组合。Pod内包含的容器运行在同一宿主机上,使用相同的网络命名空间、IP地址和端口,能够通过localhost进行通信。Pod是Kurbernetes进行创建、调度和管理的最小单位,它提供了比容器更高层次的抽象,使得部署和管理更加灵活。一个Pod可以包含一个容器或者多个相关容器。 label:Kubernetes中的Label实质是一系列的Key/Value键值对,其中key与value可自定义。Label可以附加到各种资源对象上,如Node、Pod、Service.RC等。一个资源对象可以定义任意数量的Label,同一个
32、-Label也可以被添加到任意数量的资源对象上去。Kubernetes通过LabelSeIeCtor(标签选择器)查询和筛选资源对象。 ReplicationController:ReplicationController用来管理Pod的副本,保证集群中存在指定数量的Pod副本。集群中副木的数量大于指定数量,则会停止指定数量之外的多余容器数量。反之,则会启动少于指定数量个数的容器,保证数量不变。ReplicationController是实现弹性伸缩、动态扩容和滚动升级的核心。 Deployment:Deployment在内部使用了RS来实现目的,Deployment相当于RC的一次升级,其最
33、大的特色为可以随时获知当前Pod的部署进度。 HPA(HorizontalPodAutoscaler):Pod的横向自动扩容,也是Kubernetes的一种资源,通过追踪分析RC控制的所有Pod目标的负载变化情况,来确定是否需要针对性的调整Pod副本数量。 Service:Service定义了Pod的逻辑集合和访问该集合的策略,是真实服务的抽象。Service提供了一个统一的服务访问入口以及服务代理和发现机制,关联多个相同Label的Pod,用户不需要了解后台Pod是如何运行。 Volume:Volume是Pod中能够被多个容器访问的共享目录,Kubernetes中的Volume是定义在Pod
34、上,可以被一个或多个Pod中的容器挂载到某个目录下。 Namespace:Namespace用于实现多租户的资源隔离,可将集群内部的资源对象分配到不同的Namespace中,形成逻辑上的不同项目、小组或用户组,便于不同的Namespace在共享使用整个集群的资源的同时还能被分别管理。简述Kubernetes集群相关组件?KubernetesMaster控制组件,调度管理整个系统(集群),包含如下组件: KubernetesAPISerVer:作为Kubernetes系统的入口,其封装了核心对象的增删改查操作,以RESTfUlAPl接口方式提供给外部客户和内部组件调用,集群内各个功能模块之间数据
35、交互和通信的中心枢纽。 KubernetesScheduler:为新建立的Pod进行节点(node)选择(即分配机器),负责集群的资源调度。 KubernetesController:负责执行各种控制器,目前已经提供了很多控制器来保证Kubernetes的正常运行。 ReplicationController:管理维护ReplicationController,关联ReplicationController和-POd,保证ReplicationController定义的副本数量与实际运行Pod数量一致。 NodeController:管理维护Node,定期检查Node的健康状态,标识出(失效I
36、未失效)的Node节点。 NamespaceController:管理维护Namespace,定期清理无效的Namespace,包括Namesapce下的API对象,比如PodService等。 ServiceController:管理维护Service,提供负载以及服务代理。 EndPointsController:管理维护Endpoints,关联Service和Pod,创建Endpoints为Service的后端,当Pod发生变化时,实时更新Endpoints0 ServiceAccountController:管理维护ServiceAccount,为每个Namespace创建默认的Ser
37、viceAccounts同时为ServiceAccount仓IJ建ServiceAccountSecret3 PersistentVolumeController:管理维护PersistentVolume和PersistentVolumeClaim,为新的PersistentVolumeClaim分配PersistentVolume进行绑定,为释放的PersistentVolume执行清理回收。 DaemonSetController:管理维护DaemonSet,负责创建DaemonPod,保证指定的Node上正常的运行DaemOnPodo DeploymentController:管理维护D
38、eployment,关联Deployment和ReplicationController,保证运行指定数量的Pod。当Deployment更新时,控制实现ReplicationController和Pod的更新。 JobController:管理维护Job,为Jod创建一次性任务Pod,保证完成Job指定完成的任务数目 PodAutoscalerController:实现Pod的自动伸缩,定时获取监控数据,进行策略匹配,当满足条件时执行Pod的伸缩动作。简述KubernetesRC的机制?ReplicationController用来管理Pod的副本,保证集群中存在指定数量的Pod副本。当定义
39、了RC并提交至Kubernetes集群中之后,Master节点上的ControllerManager组件获悉,并同时巡检系统中当前存活的目标Pod,并确保目标Pod实例的数量刚好等于此RC的期望值,若存在过多的Pod副本在运行,系统会停止一些Pod,反之则自动创建一些Podo简述KubernetesReplicaSet和ReplicationController之间有什么区别?ReplicaSet和ReplicationController类似,都是确保在任何给定时间运行指定数量的Pod副本。不同之处在于RS使用基于集合的选择器,而ReplicationController使用基于权限的选择器
40、。简述kube-proxy作用?kube-proxy运行在所有节点上,它监听apiserver中service和endpoint的变化情况,创建路由规则以提供服务IP和负载均衡功能。简单理解此进程是Service的透明代理兼负载均衡器,其核心功能是将到某个Service的访问请求转发到后端的多个Pod实例上。简述kube-proxyiptables原理?Kubernetes从1.2版本开始,将iptables作为kube-proxy的默认模式。iptables模式下的kube-proxy不再起到Proxy的作用,其核心功能:通过APIServer的Watch接实时跟踪Service与Endpo
41、int的变更信息,并更新对应的iptables规则,Client的请求流量则通过iptables的NAT机制直接路由到目标Pod。简述kube-proxyipvs原理?IPVS在Kubernetesl.il中升级为GA稳定版。IPVS则专门用于高性能负载均衡,并使用更高效的数据结构(HaSh表),允许几乎无限的规模扩张,因此被kube-proxy采纳为最新模式。在IPVS模式下,使用iptables的扩展ipset,而不是直接调用iptables来生成规则链。iptables规则链是一个线性的数据结构,ipset则引入了带索引的数据结构,因此当规则很多时,也可以很高效地查找和匹配。可以将ips
42、et简单理解为一个IP(段)的集合,这个集合的内容可以是IP地址、IP网段、端口等,iptables可以直接添加规则对这个可变的集合”进行操作,这样做的好处在于可以大大减少iptables规则的数量,从而减少性能损耗。简述kube-proxyipvs和iptables的异同?iptables与IPVS都是基于Netfilter实现的,但因为定位不同,二者有着本质的差别:iptables是为防火墙而设计的;IPVS则专门用于高性能负载均衡,并使用更高效的数据结构(HaSh表),允许几乎无限的规模扩张。与iptables相比,IPVS拥有以下明显优势:1 .为大型集群提供了更好的可扩展性和性能;2
43、 .支持比iptables更复杂的复制均衡算法(最小负载、最少连接、加权等);3 .支持服务器健康检查和连接重试等功能;4 .可以动态修改ipset的集合,即使iptables的规则正在使用这个集合。简述Kubernetes中什么是静态Pod?静态pod是由kubelet进行管理的仅存在于特定Node的Pod上,他们不能通过APIServer进行管理,无法与ReplicationControIIerDeployment或者DaemonSet进行关联,并且kubelet无法对他们进行健康检查。静态Pod总是由kubelet进行创建,并且总是在kubelet所在的Node上运行。简述Kuberne
44、tes中Pod可能位于的状态? Pending:APIServer已经创建该Pod,且Pod内还有一个或多个容器的镜像没有创建,包括正在下载镜像的过程。 Running:Pod内所有容器均已创建,且至少有一个容器处于运行状态、正在启动状态或正在重启状态。 Succeeded:Pod内所有容器均成功执行退出,且不会重启。 Failed:Pod内所有容器均已退出,但至少有一个容器退出为失败状态。 Unknown:由于某种原因无法获取该Pod状态,可能由于网络通信不畅导致。简述Kubernetes创建一个Pod的主要流程?Kubernetes中创建一个Pod涉及多个组件之间联动,主要流程如下:1.
45、客户端提交Pod的配置信息(可以是yaml文件定义的信息)到kube-apiservero2. APiSerVer收到指令后,通知给controller-manager创建一个资源对象。3. Controller-manager通过api-server将pod的配置信息存储到ETCD数据中心中。4. KUbe-SChedUIer检测到pod信息会开始调度预选,会先过滤掉不符合Pod资源配置要求的节点,然后开始调度调优,主要是挑选出更适合运行pod的节点,然后将pod的资源配置单发送到node节点上的kubelet组件上。5. Kubelet根据scheduler发来的资源配置单运行pod,运行
46、成功后,将pod的运行信息返回给scheduler,scheduler将返回的pod运行状况的信息存储到etcd数据中心。简述Kubernetes中Pod的重启策略?POd.重启策略(ReStartPOliCy)应用于Pod内的所有容器,并且仅在Pod所处的Node上由kubelet进行判断和重后操作。当某个容器异常退出或者健康检查失败时,kubelet将根据RestartPoIicy的设置来进行相应操作。Pod的重启策略包括AlwaysOnFaiIure和Never,默认值为Always, Always:当容器失效时,由kubelet自动重启该容器; OnFailure:当容器终止运行且退出
47、码不为。时,由kubelet自动重启该容器; Never:不论容器运行状态如何,kubelet都不会重启该容器。同时Pod的重启策略与控制方式关联,当前可用于管理Pod的控制器包括ReplicationControIIerJob、DaemonSet及直接管理kubelet管理(静态Pod)。不同控制器的重启策略限制如下: RC和DaemonSet:必须设置为Always,需要保证该容器持续运行; Job:OnFaiIure或Never,确保容器执行完成后不再重启; kubelet:在Pod失效时重启,不论将RestartPoIicy设置为何值,也不会对Pod进行健康检查。简述Kubernetes中Pod的健康检查方式?对Pod的健康检查可以通过两类探针来检查:LivenessProbe和ReadinessProbeo1.ivenessProbe探针:用于判断容器是否存活(running状态),如果1.ivenessProbe探针探测到容器不健康,则kubelet将杀掉该容器,并根据容器的重启策略做相应处理。若一个容器不包含LiVeneSSPrO