tensorflow serving tfx docker 部署教程(一)

时间:3年前   阅读:6118

 #安装docker
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
 #设置docker源
yum-config-manager     --add-repo     https://mirrors.tuna.tsinghua.edu.cn/docker-ce/linux/centos/docker-ce.repo
 #设置docker开机启动
systemctl enable docker.service
 #关闭docker开机启动
systemctl disable docker.service
 #启动docker
systemctl start docker.service
 #查看docker是否安装成功
docker run hello-world
 #拉取tensorflow/serving镜像
docker pull tensorflow/serving
mkdir /root/software
cd /root/software
#clone tensorflow/serving例子
git clone https://github.com/tensorflow/serving
 #运行tensorflow/serving镜像
 #--mount:   表示要进行挂载
 #source:    指定要运行部署的模型地址, 也就是挂载的源,这个是在宿主机上的模型目录
 #target:     这个是要挂载的目标位置,也就是挂载到docker容器中的哪个位置,这是docker容器中的目录
 #-t:         指定的是挂载到哪个容器
 #-p:         指定主机到docker容器的端口映射
 #docker run: 启动这个容器并启动模型服务(这里是如何同时启动容器中的模型服务的还不太清楚)
 #综合解释:将source目录中的例子模型,挂载到-t指定的docker容器中的target目录,并启动
docker run -p 8501:8501 --mount type=bind,source=/root/software/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu,target=/models/half_plus_two -e MODEL_NAME=half_plus_two -t tensorflow/serving &
 #查看是否启动成功
curl -d '{"instances": [1.0, 2.0, 5.0]}'   -X POST http://localhost:8501/v1/models/half_plus_two:predict
 #查看docker镜像运行信息
docker ps -a
 #查看安装的docker镜像
docker images
 #停止运行中的docker镜像
docker stop 9c7b87b025ff
 #--restart=always 设置镜像随容器启动
 #--model_config_file=file model配置文件 
docker run -p 8501:8501 --restart=always --mount type=bind,source=/root/tensormodel/,target=/models/ -t tensorflow/serving  --model_config_file=/models/models.config &
 #在/etc/rc.local文件里加入设置开机重启容器(这样镜像就可以和容器一起启动了)
 #这个可以不要,只是防止没有启动
(sleep 15
systemctl restart docker.service) &
 #models.config配置文件如下
model_config_list:{
    config:{
        name:"maimai"
        base_path:"/models/maimai/"
        model_platform:"tensorflow"
        model_version_policy {
            specific {
            versions: 1
            versions: 2
			versions: 3
			versions: 4
			versions: 5
            }
        }
    },
    config:{
        name:"stylegan"
        base_path:"/models/stylegan/"
        model_platform:"tensorflow"
        model_version_policy {
            specific {
            versions: 1
            }
        }
    },
 }


版权声明:本文为期权记的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://www.qiquanji.com/post/13966.html

微信扫码关注

更新实时通知

上一篇:女上位视频教程

下一篇:tensorflow serving tfx docker 部署教程(二)

网友评论

请先 登录 再评论,若不是会员请先 注册