1 下载并安装
访问Docker Desktop for Windows下载页面,按照安装向导的指示完成安装。在安装过程中,将提示安装 WSL 2,建议勾选此选项以获得更好的性能。
2 汉化包
下载适用于 Docker Desktop 的中文语言包,具体流程参考博客。

3 配置镜像源
设置--docker engine,添加如下图所示的镜像源地址。
{"insecure-registries": [],
"debug": true,
"experimental": false,"registry-mirrors": ["https://hub-mirror.c.163.com",
"https://docker.mirrors.ustc.edu.cn","https://registry.cn-hangzhou.aliyuncs.com"] }

4 测试
4.1 经典hello world
在cmd中输入docker run hello-world,但是有如下图报错,这个错误表明Docker客户端尝试访问Docker Hub或其他Docker注册中心时出现了问题。具体来说,是在尝试获取注册中心API的响应时遇到了错误。可能的原因包括网络问题、认证问题、注册中心URL不正确或者注册中心服务本身不可用。

最快的方法是挂个梯子,正确输出为如下:


该命令会让docker从官方仓库中拉去hello-world的镜像到本地,并且自动将其实例化成容器。
4.2 运行容器示例
搜索并拉取nginx,在Images“镜像”中运行容器,设置容器运行选项(名称、端口、路径存储),进程查看(CPU运行情况、I/O磁盘读取情况、网络读写情况等)验证了解。



其中报错如下,可按博客修改端口号,并将之前未建立成功的容器删除,重新运行。




测试成功,可正确运行!

5 实战
运用 Docker 基于 Anaconda 的 PyTorch 项目从 Windows 开发环境迁移到 Linux 生产环境。
Windows环境:Windows11 + Anaconda3 + python3.10.18 + torch1.12.0 + cu113
5.1 代码架构及内容
项目目录结构示例: gpu-test/ ├── src/ │ ├── gpu_test.py ├── Dockerfile └── requirements.txt
# gpu_test.py import torchdef main():if torch.cuda.is_available():device = torch.device("cuda")x = torch.rand(5, 3).to(device)print(f"GPU 可用! 张量:\n{x}")print(f"CUDA 版本: {torch.version.cuda}")print(f"设备数量: {torch.cuda.device_count()}")else:print("GPU 不可用")if __name__ == "__main__":main()
# Dockerfile -Linux/Windows系统均可构建 # 使用官方可用镜像 FROM pytorch/pytorch:1.12.0-cuda11.3-cudnn8-devel# 设置工作目录 WORKDIR /app# 复制所有必要文件 COPY requirements.txt COPY src/ ./src/# 安装Python依赖(根据需求调整) RUN pip install --no-cache-dir -r requirements.txt -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple # 设置启动命令 CMD ["python", "./src/gpu_test.py"]
# requirements.txt xarray # xx为需求版本号 numpy == xx pandas
5.3 构建docker镜像
在gpu-test目录下调出cmd命令窗口,首先输入docker build --platform linux/amd64 -t gpu-test:1.0 .命令构建,再输入docker run --gpus all gpu-test:1.0命令运行,随后输入docker save -o gpu-test.tar gpu-test:1.0命令保存,如下图所示。
Linux 系统

windows 系统

至此创建成功,可以通过打包好的gpu-test.tar包上传到Linux系统上调用。
