在科技的浪潮中,Mistral大型语言模型犹如一颗璀璨的明星,正在引领自然语言处理(NLP)领域的新风潮。今天,就让我们一起揭开它神秘的面纱,探索它背后的魅力。


Mistral-7B,这款拥有70亿参数的模型,凭借卓越的性能和效率,在众多评估基准上脱颖而出。它不仅是技术的结晶,更是智慧的体现。而Mistral-7B-Instruct更是经过精心微调,擅长遵循指令,为用户带来更加智能、便捷的体验。


此外,Mistral AI还推出了Mixtral 8x7B模型,这款混合专家大型语言模型拥有46.7B参数,支持多语言处理,性能卓越。它的出现,让我们看到了NLP领域的无限可能。

Mistral大型语言模型以其卓越的性能和独特的设计,正在开启智能时代的新篇章。


那么如何部署此模型呢?


1. Notebook

单击打开笔记本,使用Colab中的Mistral notebook在模型上部署和运行推理,适用于测试等轻量级环境。


2. 部署至服务器

点击部署,部署至GPU服务器(Compute Engine/GKE)上,适用于生产环境。


部署步骤


1. 模型位置

首先导航至Vertex AI的Model Garden中,搜索Mistral模型,并单击进入。




2. 一键部署

注意:此部署方式无法扩缩,生产环境建议参考下文自定义部署步骤。


进入模型后,单击部署,打开配置界面,按需求修改配置,并选择相应的区域,确认无误后即可点击部署。部署过程约需30分钟。




部署过程中,可导航至在线预测查看部署进度。




部署成功。




注意:

一键部署模式,计算节点默认下限为1,上限为1,如需调整,参考下文自定义部署。





自定义部署


点击高级部署。




首先将要部署的模型版本保存至Model Registry。




点击保存后,定义端点。




在模型设置中,根据具体需求,对流量拆分、节点上下限、伸缩阈值、机器类型、服务账号进行修改后,点击部署。


机器类型建议:




注意:

● 扩缩设置一旦设定便无法更改,除非重新部署模型。

● 关于流量拆分:一个端点上,可以部署多个模型;应确定将多少发送到端点的传入请求流量定向到此模型。如果端点上只有唯一一个模型,必须将流量分配比例设为 100%。如果向端点添加了更多的模型,可以稍后更新流量分配比例。





使用


此模型支持两种请求方式:Restful API与Python SDK,可通过示例请求进行查看。




1. Restful API使用方式 

● 首先确保环境已安装Google Cloud SDK

● 创建服务账号,并授予Vertex AI User角色






● 创建json格式密钥文件






● 将密钥上传环境,并设置环境变量


将环境变量 GOOGLE_APPLICATION_CREDENTIALS 设置为包含服务帐号密钥的 JSON 文件的路径。


示例:将 [PATH] 替换为包含您服务帐号密钥的 JSON 文件的路径。


export GOOGLE_APPLICATION_CREDENTIALS="/PATH/xxxx.json"




● 创建Mistral Json对象


{ "instances": [   { "instance_key_1": "value", ... }, ... ], "parameters": { "parameter_key_1": "value", ... }, ...}


示例:


{    "instances": [        {           "prompt": "What is a car?",           "max_tokens": 2000,           "temperature": 1.0,           "top_p": 1.0,           "top_k": 10,        }    ]}




● 请求调用


ENDPOINT_ID="3183347846178930688"PROJECT_ID="931354591844"INPUT_DATA_FILE="INPUT-JSON"
curl \-X POST \-H "Authorization: Bearer $(gcloud auth print-access-token)" \-H "Content-Type: application/json" \https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/endpoints/${ENDPOINT_ID}:predict \-d "@${INPUT_DATA_FILE}"


示例:修改[INPUT-JSON]为当前文件


ENDPOINT_ID="3183347846178930688"PROJECT_ID="931354591844"INPUT_DATA_FILE="test01.json"
curl \-X POST \-H "Authorization: Bearer $(gcloud auth print-access-token)" \-H "Content-Type: application/json" \https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/endpoints/${ENDPOINT_ID}:predict \-d "@${INPUT_DATA_FILE}"


输出:




2. Python SDK方式


参考Example deployment。




至此,您即可使用在Google Cloud平台上使用Mistral模型。


返回全部