Docker
使用 Docker 运行 Tensorflow
· ☕ 1 分钟
前面写过一篇文档,如何在 CentOS 安装 GPU 驱动 ,这篇就来看看怎么利用 Docker 运行 Tensorflow 。 1. 检查当前 CPU 支持的 Tensorflow 版本 在不支持 AVX 指令的 CPU 上,运行 Tensorflow > 1.15 版本时,会报错,Illegal instruction (core dumped)。 执行检测命令: 1 2 3 cat /proc/cpuinfo | grep avx flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat

如何在 CentOS 安装 GPU 驱动
· ☕ 3 分钟
以 CentOS 7.7,Tesla P100 GPU 为例。 1. 基础环境准备 安装 lspci 命令 1 yum install -y pciutils 检查 GPU 是否支持 CUDA 1 2 3 lspci | grep -i nvidia 00:09.0 3D controller: NVIDIA Corporation GP100GL [Tesla P100 PCIe 12GB] (rev a1) 支持 CUDA 的 GPU 列表:https://developer.nvidia.com/cuda-gpus 检查系统是否支持 CUDA 1 2 3 4

开发 Tips(19)
· ☕ 2 分钟
主要记录最近遇到的一些开发问题,解决方法。 1. macOS 快速切换不同 Kubernetes 环境 涉及 Kubernetes 相关开发时,经常需要在多个集群之间切换。配置多集群 context 是一个选择,但是如果集群在不断重置,可以试下如下方法: 在 ~/.profile 文件中定义一系列相关 function,切换时只需要执行 on_cluster_name 即可

Docker 如何拉取镜像
· ☕ 1 分钟
1. docker pull 拉取镜像 使用 docker pull {IMAGE_NAME} 拉取镜像时,有两种情况: IMAGE_NAME 前缀指向 registry Docker 会将 IMAGE_NAME 识别为指定仓库提供的镜像。例如,myregistry.io/space1/image1:latest ,Docker 会去 myregistry.io 指向的服务器请求镜像数据。一个 Docker 镜像分为很多层,如果

使用 S2I 构建云原生应用
· ☕ 3 分钟
1. S2I 能解决什么问题 可以预见的是,未来大量的应用会以容器的方式进行部署。 容器平台关注的是镜像和容器,应用开发关注的是业务代码,而最终代码需要以镜像的方式进行部署。从代码到镜像,就是 Source To Image ,即 S2I 。 在前面的文章 PaaS 部署之 buildpack 中,描述到一个应用运行起来