Raspberry Pi 4でおうちk8s構築(ソフトウェア編)

おうちk8s

前回物理的な組み立てをしました。今回はソフトウェアの構築をします。 多くのページを参考にしましたが、Raspberry Pi 4BにKubernetesをインストール(2021年版)を主に参考にしました。 シリーズリンク

OSインストール

今回は、ラズパイ用ubuntuを使うことにしました。使用例が多そうなので。 ダウンロードページから、最新のUbuntu Server LTSを選びます。20.04.2 LTSでした。 64bitを使います。

raspberry pi imagerでダウンロードしたイメージを焼きます。 イメージが焼けたら、SDカードの中身を確認します。

cgroup設定をします。これをしないとk8sが使えない?みたいですがよくわかりません。以前のバージョンのubuntuではnobtcmd.txtに追記するようでしたが、今回20.04.2ではそのファイルがなく、代わりにcmdline.txtに追加するようになったようです。以下の内容を改行せずに末尾に追記します。

 cgroup_enable=cpuset cgroup_enable=memory cgroup_memory=1

ファイルの内容は以下のようになりました。

cmdline.txt

net.ifnames=0 dwc_otg.lpm_enable=0 console=serial0,115200 console=tty1 root=LABEL=writable rootfstype=ext4 elevator=deadline rootwait fixrtc cgroup_enable=cpuset cgroup_enable=memory cgroup_memory=1

これをラズパイの台数分繰り返し、出来たらSDカードをラズパイにセットします。

トラベルルータの設定

トラベルルータを設定しないとラズパイがネットワークにつながりませんので、これをやります。説明書きの通りにやります。

このトラベルルータでは様々なモードが使えますが、今回の用途ではクライアントモードを使用します。 設定ができたら、とりあえず一番上のラズパイから順に起動してみましょう。

一号機起動

仮に、三段のラズパイを上から一号機、二号機のように呼ぶことにします。最初ipを固定するまでは分かりにくくなるので一台づつ起動して設定してみます。

ubuntu serverでは、デフォルトでsshできるようになっています。ルーターの接続中クライアント一覧からそれっぽいのを見つけてsshしましょう。

初回ログイン時にパスワード変更を求められるので変更しておきましょう。変更するとログアウトされますのでログインしなおします。

なにやらシステム再起動が必要らしいので再起動しておきましょう。ubuntuユーザーはpasswordなしでsudoできるんですね。

さて。パスワードでsshするのはよくないので鍵を設定します。また、新しくユーザーを作成し、公開鍵を設定するのもそのユーザーにします。いつも参考にしている過去のメモを参考にしながらやります。このメモはCentOS用なので、適宜読み替えます。例えば、ubuntuではuseraddではなくadduserを使わないとはまりやすいです。公開鍵ログインできることを確認してからパスワードログインをオフにしましょう。確認するときはsudo systemctl reload sshdをして設定を反映してからしましょう。sudoグループにも追加出来たらユーザー追加は終了です。 memo

任意でホスト名を分かりやすいものに変更しておくのもいいですね。

hostnamectl set-hostname k8sraspino1

ip固定

ip固定をします。

netplanを変更します。/etc/netplan/50-cloud-init.yamlというのが存在しましたが、ファイル内の指示に従って無効化します。

https://linuxfan.info/ubuntu-2004-server-static-ip-addressを参考にymlを書きます。意図通りに適用出来たらいったんここまでにして、ほかの二台もここまで同じように構築します。

cri-oインストール

今回は、コンテナランタイムとしてcri-oを使います。 kubernetesのドキュメントkubeadmに関するドキュメントcri-oの公式ドキュメントを参考にしながら実行します

たぶんところどころ間違っているので、一行ずつ確かめながら実行します。

sudo modprobe overlay
sudo modprobe br_netfilter

cat <<EOF | sudo tee /etc/modules-load.d/crio.conf
overlay
br_netfilter
EOF

cat <<EOF | sudo tee /etc/sysctl.d/99-kubernetes-cri.conf
net.bridge.bridge-nf-call-iptables  = 1
net.ipv4.ip_forward                 = 1
net.bridge.bridge-nf-call-ip6tables = 1
EOF
sudo sysctl --system

# レガシーバイナリがインストールされていることを確認してください
sudo apt-get install -y iptables arptables ebtables

# レガシーバージョンに切り替えてください。
sudo update-alternatives --set iptables /usr/sbin/iptables-legacy
sudo update-alternatives --set ip6tables /usr/sbin/ip6tables-legacy
sudo update-alternatives --set arptables /usr/sbin/arptables-legacy
sudo update-alternatives --set ebtables /usr/sbin/ebtables-legacy

sudo iptables -S

cat <<EOF | sudo tee /etc/apt/sources.list.d/devel:kubic:libcontainers:stable.list
deb https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/xUbuntu_20.04/ /
EOF
cat <<EOF | sudo tee /etc/apt/sources.list.d/devel:kubic:libcontainers:stable:cri-o:1.21.list
deb http://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable:/cri-o:/1.21/xUbuntu_20.04/ /
EOF

curl -L https://download.opensuse.org/repositories/devel:kubic:libcontainers:stable:cri-o:1.21/xUbuntu_20.04/Release.key | sudo apt-key add -
curl -L https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/xUbuntu_20.04/Release.key | sudo apt-key add -
sudo apt update
sudo apt install cri-o cri-o-runc -y

kubeletなどインストール

sudo apt-get update && sudo apt-get install -y apt-transport-https curl
curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
cat <<EOF | sudo tee /etc/apt/sources.list.d/kubernetes.list
deb https://apt.kubernetes.io/ kubernetes-xenial main
EOF
sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl
sudo apt-mark hold kubelet kubeadm kubectl

sudo systemctl daemon-reload
sudo systemctl enable crio
sudo systemctl restart crio

sudo swapoff -a
sudo systemctl restart kubelet
kubelet --version
# Kubernetes v1.21.1
kubeadm version
# kubeadm version: &version.Info{Major:"1", Minor:"21", GitVersion:"v1.21.1", GitCommit:"5e58841cce77d4bc13713ad2b91fa0d961e69192", GitTreeState:"clean", BuildDate:"2021-05-12T14:17:27Z", GoVersion:"go1.16.4", Compiler:"gc", Platform:"linux/arm64"}
kubectl version
# Client Version: version.Info{Major:"1", Minor:"21", GitVersion:"v1.21.1", GitCommit:"5e58841cce77d4bc13713ad2b91fa0d961e69192", GitTreeState:"clean", BuildDate:"2021-05-12T14:18:45Z", GoVersion:"go1.16.4", Compiler:"gc", Platform:"linux/arm64"}
# The connection to the server localhost:8080 was refused - did you specify the right host or port?

kubectlでサーバー接続エラーが出ているのはkubeadm initしてないからだろう。よさそう。

echo 'source <(kubectl completion bash)' >>~/.bashrc
source ~/.bashrc

cat <<EOF | sudo tee /etc/default/kubelet
KUBELET_EXTRA_ARGS=--cgroup-driver=systemd --container-runtime=remote --container-runtime-endpoint="unix:///var/run/crio/crio.sock" --resolv-conf=/run/systemd/resolve/resolv.conf
EOF

はまりどころ。今回利用するubuntuでは、systemd-resolvedという仕組みが動いていて、/etc/resolv.confに生のnameserverのipがない。かわりに/run/systemd/resolve/resolv/confに生ipが書いてあるので、k8sにはこっちのファイルを渡す必要がある。

マスタノード設定

ここからマスタノードとなる一号機で実行します。

# 動作を確認します
sudo kubeadm config images pull
# 正常に実行できそうなので次に進みます

sudo systemctl daemon-reload
sudo systemctl restart kubelet
sudo kubeadm init --pod-network-cidr=10.244.0.0/16

initがうまくいかない場合、sudo kubeadm resetでリセットしてやり直す。

kubectl設定

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
kubectl get pods -A
# NAMESPACE     NAME                                  READY   STATUS    RESTARTS   AGE
# kube-system   coredns-558bd4d5db-99w2j              1/1     Running   0          61s
# kube-system   coredns-558bd4d5db-m7zs8              1/1     Running   0          61s
# kube-system   etcd-k8sraspino1                      1/1     Running   0          59s
# kube-system   kube-apiserver-k8sraspino1            1/1     Running   0          59s
# kube-system   kube-controller-manager-k8sraspino1   1/1     Running   0          59s
# kube-system   kube-proxy-t62cz                      1/1     Running   0          62s
# kube-system   kube-scheduler-k8sraspino1            1/1     Running   0          59s

よさそう。

変なイベントが出ていないか一通り確認する。

kubectl describe all -A

よさそう。

マスタノードにflannelをいれる

# sudo不要
kubectl apply -f https://raw.githubusercontent.com/flannel-io/flannel/v0.13.0/Documentation/kube-flannel.yml
kubectl describe all -A
wget https://raw.githubusercontent.com/flannel-io/flannel/v0.13.0/Documentation/kube-flannel.yml
sed -i -e 's/vxlan/host-gw/g' kube-flannel.yml
kubectl apply -f kube-flannel.yml

特にエラーは出ていない。

はまりどころなぜかよくわからないが、vxlanモードはうまく動かなかった。オンプレだし、L2で各ノードが直接つながっているので、home-gwモードで動かすことで解決した。

クラスタにワーカを参加させる

いい感じにできたっぽいのでworkerの二号機と三号機で以下を実行

sudo kubeadm join ip:6443 --token hoge \
        --discovery-token-ca-cert-hash sha256:foo

k8snodes

良さそうです。

workerにラベルを付けておきます。

kubectl label node k8sraspino2 node-role.kubernetes.io/worker=worker
kubectl label node k8sraspino3 node-role.kubernetes.io/worker=worker

DNSの動作をかくにん

kubectl apply -f https://k8s.io/examples/admin/dns/dnsutils.yaml
kubectl get pods dnsutils
# dnsutils   1/1     Running   0          15s

kubectl exec -i -t dnsutils -- nslookup kubernetes.default
# ;; connection timed out; no servers could be reached
# 
# command terminated with exit code 1

なんかだめ

kubectl describe services -n kube-system kube-dns
# IP:                10.96.0.10
# IPs:               10.96.0.10
# Port:              dns  53/UDP
# TargetPort:        53/UDP
# Endpoints:         10.85.0.2:53,10.85.0.3:53
# Port:              dns-tcp  53/TCP
# TargetPort:        53/TCP
# Endpoints:         10.85.0.2:53,10.85.0.3:53
kubectl exec -ti dnsutils -- cat /etc/resolv.conf
# search default.svc.cluster.local svc.cluster.local cluster.local
# nameserver 10.96.0.10
# options ndots:5

よさそうだけどね。

nslookup kubernetes.default 10.85.0.2
# Server:         10.85.0.2
# Address:        10.85.0.2#53

# ** server can't find kubernetes.default: NXDOMAIN
nslookup kubernetes.default 10.96.0.10
# Server:         10.96.0.10
# Address:        10.96.0.10#53

# ** server can't find kubernetes.default: NXDOMAIN

なんかだめ

ワーカーノードにルートがなかったので手作業で追加

sudo ip route add 10.85.0.0/16 via $CONTROL_PLANE_IP dev eth0
sudo ip route add 10.96.0.0/16 via $CONTROL_PLANE_IP dev eth0

はまりどころワーカーノードからどうもマスターノードのpodが見えない。ip routeを見ると、ルートがなかったので、コマンドで追加した。

10.85.0.0/16は、cni0インターフェースのip。podにここからipがわりあてられた。 10.96.0.0/16は、kubeAdmのconfigmapに設定がある、serviceSubnet。clusterIPはここからわりあてられる。

dnstest

よさそう。

動作確認

試しにnginxをデプロイしてみます。

kubectl create -f https://k8s.io/examples/application/deployment.yaml

良さそうです。

nginx

想定通りnginxが二つデプロイされています。

nginx1 nginx2

とりあえず基本的な構成はできたようです。ネットワーク内の他のPCからデプロイしたnginxが見れるようにしなければなりませんが、いったんこの記事はここまでにしたいと思います。