img
Google Brog.pdf

Kubernetes的起源,Google Brog,K8S,CKA学习者必看的原理。详细介绍了Google Brog产生的背景,实现原理,架构,以及改进。

img
minikube.7z

minikube windows合集,含国内镜像版,可指定镜像地址,可快速启动容器。 minikube.exe start --image-mirror-country cn --iso-url=https://kubernetes.oss-cn-hangzhou.aliyuncs.com/minikube/iso/minikube-v1.5.0.iso

img
k8s二进制文件以及docker二进制文件

一、安装准备: 1.环境 主机名 IP k8s-master 192.168.250.111 k8s-node01 192.168.250.112 k8s-node02 192.168.250.116 2.设置主机名 hostnamectl --static set-hostname k8s-master hostnamectl --static set-hostname k8s-node01 hostnamectl --static set-hostname k8s-node02 3.关闭防火墙和selinux systemctl disable firewalld systemctl stop firewalld sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config 执行完成后重启虚拟机。 4.在master机器上安装ansible 执行命令:sudo yum install ansible (离线处理补充) 5.配置 ansible ssh密钥登录,此操作需要在所有机器上执行 ssh-keygen -t rsa -b 2048 回车 回车 回车 ssh-copy-id $IP #$IP为所有虚拟机,按照提示输入yes 和root密码 (密钥补充) 二、安装kubernetes集群 进入ansible安装路径 : cd /etc/ansible 将路径下的roles文件夹和hosts文件删除。 解压压缩文件kubeasz.zip文件,将解压后的内容放入当前目录下(/etc/ansible) 根据搭建集群环境要求,进入/etc/ansible/example 目录下选取 hosts.allinone.example 单节点AllInOne hosts.m-masters.example 单主多节点 hosts.s-master.example 多主多节点 红色标记的是需要自行修改的地方 修改完成后将文件名改为hosts 放入/etc/ansible/目录下。 安装prepare ansible-playbook 01.prepare.yml 安装etcd ansible-playbook 02.etcd.yml 安装kubectl命令 ansible-playbook 03.kubectl.yml 安装docker ansible-playbook 04.docker.yml 如果执行时出现报错: 可忽略。 解决方法: 在master节点上执行:curl -s -S "https://registry.hub.docker.com/v2/repositories/$@/tags/" | jq '."results"[]["name"]' |sort 所有机器上执行: wget http://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm rpm -ivh epel-release-latest-7.noarch.rpm yum install jq -y 在重新执行: ansible-playbook 04.docker.yml 安装calico ansible-playbook 05.calico.yml 部署master节点 ansible-playbook 06.kube-master.yml 加入node节点 ansible-playbook 07.kube-node.yml 如果执行成功,k8s集群就安装好了。 三、验证安装 如果提示kubectl: command not found,退出重新ssh登陆一下,环境变量生效即可 kubectl version #查看kubernetes版本 kubectl get componentstatus # 可以看到scheduler/controller-manager/etcd等组件 Healthy kubectl cluster-info # 可以看到kubernetes master(apiserver)组件 running kubectl get node # 可以看到单 node Ready状态 kubectl get pod --all-namespaces # 可以查看所有集群pod状态 kubectl get svc --all-namespaces # 可以查看所有集群服务状态 calicoctl node status # 可以在master或者node节点上查看calico网络状态 四、安装主要组件 安装kubedns kubectl create -f manifests/kubedns 安装heapster kubectl create -f manifests/heapster 安装dashboard kubectl create -f manifests/dashboard 访问dashboard 先执行命令查看dashboard的NodePort 端口 kubectl get svc -n kube-system 访问web页面 https://masterIP: 7443 选择令牌按钮 ,用命令查询登录令牌 之前安装过 heapster 执行命令:kubectl get secret -n kube-system 查询 heapster-token-twpw4 的详细内容 执行命令:kubectl describe secret heapster-token-twpw4 -n kube-system Token就是登录令牌,复制登录就好了 安装ingress kubectl create -f manifests/ingress/ 安装EFK(elasticsearch+ fluentd + kibana) 首先进入 manifests/EFK 文件夹下 (cd /etc/ansible/manifests/EFK) 查看并修改 ceph-sercet.yaml 文件。 此key值是 ceph存储用户的token值 ,将此key值转换为base64 将文件中红色选选中部分修改为转换后的值。 修改完成后 部署 pv 和 pvc 执行命令:kubectl create -f es-pv-data.yaml kubectl create -f es-pvc-data.yaml 部署fluentd 执行命令:kubectl create -f fluentd-rbac.yml -f fluentd-configmap.yml -f fluentd-daemonset.yml 部署elasticsearch 先设置node节点中role ,指定master client data 部署位置 执行命令:kubectl get nodes kubectl label node 10.2.0.244 role=master (10.2.0.244 是我本机kubernetes 的master节点 ,所以我也将此master也部署在这里) 其余的两个节点分别是data 和 client 执行命令:kubectl create -f es-discovery-svc.yaml -f es-svc.yaml -f es-master.yaml -f es-client.yaml -f es-data.yaml 其中部署elasticsearch集群需要注意一些事项 : Master节点一般只有一个 并且提供9300 端口 客户端通讯使用 Client 节点一般提供9200端口 用于连接kibana 和 fluentd http访问使用 Data 节点是提供数据存储,持久化对data节点进行就可以。 其中 master , client , data 部署文件中 配置的 CLUSTER_NAME 指的是 elasticsearch集群名称 Java运行自行设置,最大值和最小值需要一致。 最小为-Xms256m 部署kibana 执行命令:kubectl create -f kibana-svc.yaml -f kibana.yaml 这里需要注意 kibana.yaml 文件中 参数的设置 这里的CLUSTER_NAME 也是elasticsearch部署文件中设置的集群名称。 #安装 flannel 执行命令: cd /etc/ansible/roles/flannel 先修改kube-flannel.yml文件 --iface 对应的是本机的网卡名称 command: [ "/opt/bin/flanneld", "--ip-masq", "--kube-subnet-mgr", "--iface=eth1" ] 修改完成后 执行: kubectl create -f kube-flannel-rbac.yml kubectl apply -f kube-flannel.yml

img
kubernetes-1.9.6.tar.gz

kubernetes源码 kubernetes-1.9.6.tar.gz 鉴于github下载较慢上传到csdn方便以后查看

img
k8s-minikube.rar

Window10使用Minikube快速搭建Kubernetes环境 minikube.exe 64

img
未来智库:云计算科技生态变革深度研究

云计算正进入算力时代 供给端:数据存量增长与计算成本下降推动算力需求增长 信息技术快速发展与传统产业数据化转型带来大量数据存量。随着云计 算、大数据、物联网、人工智能等信息技术的快速发展和传统产业数字 化的转型,数据量呈现几何级增长,据IDC预测,全球数据总量预计2020 年达到 47 个 ZB,2025 年达到 163 个 ZB,其中预计 2020 年我国数据 量将达到 8060 个 EB,占全球数据总量的 18%。据智研咨询统计,2015 年全球物联网连接数约 60 亿个,预计 2025 年全球物联网连接数将增长 至 270 亿个,物联网设备数量将达到 1000 亿台。连接数的急速增长, 一方面意味着海量数据的产生,另一方面,连接设备往往还需要进行智 能计算,即产生相应的算力需求。

img
kubernetes完整安装文档

这个文档亲自整理搭建,根据虚机一对一整理的,但是需要有一点linux的基础!一个master和2个node节点组成,有兴趣的朋友可以下载试一下,之所以要积分完全是因为本人下载其它的文件也需要积分!所以········

img
metrics-server-2.10.0.tgz

helm的 repo内网是无法使用的,因此把metrics-server的chart要下载到内网,由中转机再上传到服务器。这个是helm安装的chart文件包

img
metrics-server-amd64.tar

gcr.io/google_containers/metrics-server-amd64:v0.3.6 k8s中安装metrics使用,使用的时候docker load -i metrics-server-amd64.tar 安装源如果不一样,需要设置image为gcr.io/google_containers/metrics-server-amd64:v0.3.6 相关安装可以看我的博客。

img
helm-v3.1.1-linux-amd64.tar.gz

helm-v3.1.1-linux-amd64.tar.gz helm是k8s中yaml的管理工具,其功能和docker-compose类似,为了方便服务的编排而生。通过helm仓库中的helm脚本,可以方便的生成应用,而不是编写deployment、svc、等等,手写yaml方式步骤繁琐,消耗时间长,且容易出错,helm的出现极简化了开源软件、第三方插件的部署。

img
etcd-v3.2.12.rar

去官网上下载多次都失败了,为了不耽误事,现提供出来,供大家下载

img
IBM Cloud Paks

IBM Cloud Paks for Application, Data, Workflow, Integration, Security, and Cloud

img
mandatory-02-ha.yaml

本配置文件主要用于安装K8S集群Ingress高可用时使用,Ingress主要用于对外暴露的服务供外部客户端访问,由于K8S集群内容器非常多,Ingress的可用性至关重要,所以,需要多个Ingress组件作为支持。

img
最新Docker+K8s视频教程完整版下载

最新Docker+K8s视频教程完整版下载 分两部分一部分是docker 的视频 一部分是k8s的视频 教程讲的很详细

img
k8s 1.9 成功部署记录.txt

A.所有节点 1.安装Docker [root@node2 k8s_images]# rpm -ivh docker-ce-selinux-17.03.2.ce-1.el7.centos.noarch.rpm warning: docker-ce-selinux-17.03.2.ce-1.el7.centos.noarch.rpm: Header V4 RSA/SHA512 Signature, key ID 621e9f35: NOKEY Preparing... ################################# [100%] Updating / installing... 1:docker-ce-selinux-17.03.2.ce-1.el################################# [100%] Re-declaration of type docker_t Failed to create node Bad type declaration at /etc/selinux/targeted/tmp/modules/400/docker/cil:1 /usr/sbin/semodule: Failed! restorecon: lstat(/var/lib/docker) failed: No such file or directory warning: %post(docker-ce-selinux-17.03.2.ce-1.el7.centos.noarch) scriptlet failed, exit status 255

img
21天转型容器实战营视频资料.rar

华为云DevCloud & 云容器服务联合重磅出品——21天转型容器实战营!依托华为云云容器服务,带领开发者学习和体验Docker, kubernetes, Istio等大热技术!汇聚华为云容器技术尖端专家,结合CKA认证精编21天课程,理论和实践双管齐下,助力从业者打通容器任督二脉,21天见证进步。 ---本人已亲自线上学习过此课程,很有价值,分享给大家。附件为永久有效的百度网盘链接。

img
kiali-v1.9.tar

使用istio时,需要kiali镜像,该镜像其实在docker.io中也有,但是istio中的配置的image源为quay.io,即便翻墙也无法下载,试过了n多办法,终于完成下载,使用docker save quay.io/kiali/kiali:v1.9 > kiali-v1.9.tar 导出了tar包,导入时,docker load <kiali-v1.9.tar即可导入。

img
Ansible自动化部署K8S集群(包含Ansible,Playbook的使用)

Ansible自动化部署Kubernetes,超级简单,几分钟就可以部署完成,有部署过程及源代码,Ansible的简单使用以及playbook的使用例子,有完整代码

img
kubernetes.tar.gz

版本v1.14的kubernetes二进制文件精简版,已把用到的提取出来了并打包,分享并存档,包括Master组件和Node 组件所需的工具

img
kubernetes.tar.gz

这是kubernetes部署Master组件需要的二进制包,包括kube-apiserver,kube-scheduler,kube-controller-manager