您最多选择25个标签 标签必须以中文、字母或数字开头,可以包含连字符 (-),并且长度不得超过35个字符
 
 
 
 
huolongshe 1c4ce3690d Merge pull request '支持在k8s容器间共享GPU.' (#18) from hls015 into master 1 个月前
app 支持在k8s容器间共享GPU. 1 个月前
.gitignore init commit 1年前
Dockerfile init commit 1年前
LICENSE init commit 1年前
README.md 整合ServiceBoot和iBoot为新的ServiceBoot。将CubePy微服务框架中用到的部分通用组件放置到ServiceBoot中来提供。 1 个月前
application.yml 整合ServiceBoot和iBoot为新的ServiceBoot。将CubePy微服务框架中用到的部分通用组件放置到ServiceBoot中来提供。 1 个月前
build-docker.sh init commit 1年前
pip-install-reqs.sh 整合ServiceBoot和iBoot为新的ServiceBoot。将CubePy微服务框架中用到的部分通用组件放置到ServiceBoot中来提供。 1 个月前
requirements.txt 整合ServiceBoot和iBoot为新的ServiceBoot。将CubePy微服务框架中用到的部分通用组件放置到ServiceBoot中来提供。 1 个月前
start.py init commit 1年前

README.md

CubeAI智立方——AI模型部署(umd)

CubeAI智立方简介

CubeAI智立方 是集AI模型自动化服务封装、发布、共享、部署和能力开放等功能于一体的开源AI算能服务平台,其核心作用在于打通AI模型开发至实际生产应用之间的壁垒,加速AI创新和应用进程,促进AI应用从设计、开发直到部署、运营整个生命周期的自动化快速迭代和演进。

AI模型部署(umd)是CubeAI智立方中负责AI模型部署以及部署后模型在k8s云平台中生命周期管理的微服务。

umd基于 CubePy微服务框架ServiceBoot微服务引擎 开发。

基本配置

  • 监听端口

    • 开发环境: 8206(可任意)
    • 生产环境: 80
  • 服务注册与发现,中心配置: Consul(8500)

  • 用户认证授权: uaa

  • 数据库: 无

运行/调试/二次开发

  1. 开发环境中运行本微服务之前,需要先拉起项目依赖的后台docker。

     # cd ~/cubenet/cubeai/dev
     # docker-compose up
    

    参见cubenet/cubeai/dev目录下的README文档。

  2. 使用PyCharm打开本project所在目录。

  3. 建议在PyCharm中专门为本project新建一个专用Python虚拟环境,Python版本选择3.5以上。

  4. 在PyCharm的terminal窗口中执行如下命令安装依赖包:

     # sh pip-install-reqs.sh
    

    依赖包安装完成后,可在terminal窗口中执行如下命令来查看serviceboot所有命令行格式:

     # serviceboot
    
  5. 在PyCharm窗口中右键单击“start.py”文件,选择“run 'start'”或者“debug 'start'”来运行或调试程序。

  6. 开发完成后,可在terminal窗口中执行如下命令来生成微服务docker镜像:

     # serviceboot build_docker
     或者
     # sh build-docker.sh
    

简介

CubeAI智立方——AI模型部署微服务

Python Dockerfile Shell Text