choerodon 支持阿里云的k8s

你好 阿里云的k8s和其他k8s按照同样的方式激活环境即可

是否意味着以下前置条件都不需要了?还有能否出一个使用阿里云k8s服务的Choerodon 安装视频呢?

  • 成功安装kubernetes集群
  • 成功安装helm
  • 每个节点安装nfs-utils
  • 安装nfs-provisioner或自有nfs服务

你好,直接使用阿里云的k8s服务,就相当于:

  • 成功安装kubernetes集群
  • 成功安装helm
  • 每个节点安装nfs-utils

但是以下是没有进行安装的

  • nfs-provisioner

你也可以自行检查你的阿里云k8s集群安装了那些服务

谢谢你的回复
已经确认过,每个节点都安装了nfs-utils
现在就差这个问题了

  • 停留在等待slaver启动过程中

请执行下面命令查看pod事件

kubectl get pod -n c7n-system

kubectl describe po -n c7n-system <slaver pod name>

谢谢你的回答

运行的结果跟这个帖子一样 一键部署一直 waiting slaver running

你好,请describe po 那个帖子没有describe pod 对象

image



谢谢你回复,已经截图贴上了

请尝试在安全组中添加pod网段 入方向 使其能够访问集群节点。

获取pod网段可以使用以下命令

kubectl get po --all-namespaces -o wide

然后取任意一个非192.168开的头IP的pod的IP加上/16即可

事例:

比如我获取出来的pod列表为:

那么我取10.233.68.138这个ip

然后去安全组设置授权对象ip段为10.233.68.138/16即可



请问我需要如何设置呢?!

谢谢你的回复
现在的环境如上图,还是 waiting slaver running
请问我需要如何设置呢?!谢谢

请问你不是说将 Choerodon 安装在自己的物理机器上吗? 为什么还要在阿里云k8s集群上再安装一个呢
?

能给你的QQ或微信我吗?这样发帖问答太异慢了,谢谢

hi,您好,我安装k8s遇到报如下错误,
failed: [xt-uat-bs02] (item=[‘jq’, ‘nfs-utils’, ‘bash-completion’]) => {“changed”: false, “item”: [“jq”, “nfs-utils”, “bash-completion”], “msg”: “No package matching ‘jq’ found available, installed or updated”, “rc”: 126, “results”: [“No package matching ‘jq’ found available, installed or updated”]}
这个需要怎么处理

请咨询服务器提供方软件源是否配置正确

嗯,这个问题我自己查,问下,那个一键部署gitlab-mysql密码配置错了,我想重新安装,要怎么做。

请参考

https://choerodon.io/zh/docs/installation-configuration/uninstall/

我删除了也不行,下次再次执行./c7nctl install -c config.yml --no-timeout --version=0.13,之前执行安装的还在,还是使用了之前安装好的
2019/02/20 14:40:54 [INFO] using exist release gitlab-mysql
2019/02/20 14:40:54 [INFO] start install mysql
2019/02/20 14:40:54 [DEBUG] ignore create pv because specify storage class and no other persistence config
2019/02/20 14:40:54 [INFO] using exist release mysql
2019/02/20 14:40:54 [INFO] start install redis
2019/02/20 14:40:54 [INFO] no user config resource for redis
2019/02/20 14:40:54 [INFO] using exist release redis

请执行以下操作后重试

helm list | grep  | awk '{print $1}' | xargs helm delete --purge
kubectl delete ns c7n-system