我用的是这2个项目部署起来的,当然还有其他优秀的azure兼容项目,mjj们可以去挖掘一下
ChatGPT-Next-Web
azure-openai-proxy
一、创建 Azure OpenAI
区域:我选美东,关于区域,我看了下文档,西欧不支持gpt4,会影响后续使用,美东和中南部都可以名称:这个比较建议填一个好记的名称,后续调用api是带这个名字的域名的其他步骤直接默认下一步就行最后提交部署需要等待几分钟,我等了10分钟左右才部署成功
二、模型部署
进入刚才创建的服务,选择模型部署这里的名称填写也注意一下,后面调用api接口参数也会用到,我填的是[ol]gpt-35-turbo[/ol]复制代码
当然,模型选择肯定也是gpt-35-turbo到此已经完成了Azure上的部署
三、服务器部署
使用的是docker-compose部署,下面我写一个通用的docker-compose.yml文件模板给大家
注意模板要改的地方:
OPENAI_API_KEY(Azure上在“密钥和终结点”里可以找到,密钥1、2都可以用)CODE(用来访问页面服务的自定义密码,建议密码8位以上防止被爆破,多个密码以逗号隔开)AZURE_OPENAI_ENDPOINT(也是在Azure上在“密钥和终结点”里可以找到)AZURE_OPENAI_MODEL_MAPPER(名称映射,就是上一步里模型部署提到的模型名称,如果跟我写的一样可以不用改)
[ol]services:
chatgpt-next-web:
image: yidadaa/chatgpt-next-web
container_name: chatgpt
ports:
- 3000:3000
environment:
- BASE_URL=http://azure-openai:8080
- OPENAI_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
- CODE=xxxxxxx,xxxxxxx
depends_on:
- azure-openai
links:
- azure-openai
networks:
- chatgpt-ns
restart: always
azure-openai:
image: ishadows/azure-openai-proxy:latest
container_name: azure-openai-proxy
restart: always
ports:
- 7070:8080
environment:
- AZURE_OPENAI_ENDPOINT=https://xxxxx.openai.azure.com
- AZURE_OPENAI_MODEL_MAPPER={gpt-3.5-turbo=gpt-35-turbo,gpt-3.5-turbo-0301=gpt-35-turbo-0301}
networks:
- chatgpt-ns
networks:
chatgpt-ns:
driver: bridge[/ol]复制代码
至此已经完成服务部署,剩下的那些反向代理(3000端口)、域名绑定,相信作为一位mjj都懂