《文心黑板报》首期:ERNIE-4.5-VL-28B-A3B-Thinking 多模态思考模型实战指南
《文心黑板报》是了解文心大模型的核心资讯窗口,聚焦模型功能解读、技术进展同步与实用入门教学。
ERNIE-4.5-VL-28B-A3B-Thinking 正式开源
11月11日,百度正式开源文心4.5多模态思考模型 ERNIE-4.5-VL-28B-A3B-Thinking。该模型仅需3B激活参数,却在文档与图表理解、文理综合推理、通用视觉推理等任务中达到顶级大模型水平。
目前,该模型已在星河社区 AI Studio、PH8大模型 MaaS 平台及 Novita 平台完成部署,支持开发者通过 API 快速调用。本期黑板报重点介绍其在餐饮结算单识别、数学题解答等典型场景中的实战应用。
在星河社区 AI Studio 调用模型
学习实训,高效开发
飞桨星河社区是面向AI学习者的一站式实训平台,整合文心大模型、飞桨框架、开放数据、云端GPU算力及开发工具,提供大模型时代的高效开发环境。
快速开始
进入模型体验场:AI Studio Playground 支持自由选择文心大模型版本,并可自定义参数与系统提示词。
使用 WEB-UI 体验:选定模型后点击“立即体验”,即可零门槛上手。
使用高性能 API 调用:获取 API-key 后按文档配置,兼容 OpenAI 接口,适用于学习实训与项目开发。
模型体验场:https://aistudio.baidu.com/playground
餐饮结算单识别效果实测:选取典型报销单据样本测试,ERNIE-4.5-VL-28B-Thinking 展现出高精度文档解析能力。
from openai import OpenAI
client = OpenAI(
api_key="###########################", # Access Token属个人隐私,请严格保密
base_url="https://aistudio.baidu.com/llm/lmapi/v3", # AI Studio大模型API服务地址
)
chat_completion = client.chat.completions.create(
model="ernie-4.5-vl-28b-a3b-thinking",
messages=[{"role": "user", "content": "在这里输入你的问题"}],
stream=True,
extra_body={"penalty_score": 1},
max_completion_tokens=128000,
temperature=0.6,
top_p=0.95,
frequency_penalty=0,
presence_penalty=0
)
for chunk in chat_completion:
if not chunk.choices or len(chunk.choices) == 0:
continue
if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content:
print(chunk.choices[0].delta.reasoning_content, end="", flush=True)
else:
print(chunk.choices[0].delta.content, end="", flush=True)
在 PH8 大模型 MaaS 平台调用模型
企业级服务保障,7×24 小时稳定运行
PH8大模型MaaS平台作为文心大模型官方合作伙伴,已全面上线 ERNIE-4.5-VL-28B-A3B-Thinking API 服务,并同步支持文心 A47B、A3B 等文本及多模态模型。
以下为该模型在数学解题任务中的实际效果示例:
快速开始
进入模型广场:搜索并定位 ERNIE-4.5-VL-28B-A3B-Thinking 模型。
使用高性能 API 调用:获取统一 API-key,按平台文档完成配置,支持高并发调用,兼容 OpenAI 接口标准。
PH8大模型 MaaS 平台:https://ph8.co/home
from openai import OpenAI
import os
base_url = os.environ.get("OPENAI_BASE_URL", "https://ph8.co/openai/v1")
api_key = "sk-xxx"
########################### ###########################
client = OpenAI(base_url=base_url, api_key=api_key)
########################### 基础模式 ###########################
response = client.chat.completions.create(
model="ernie-4.5-vl-28b-a3b-thinking",
messages=[{"role": "user", "content": "What are some fun things to do in New York?"}],
max_tokens=10240,
temperature=0.0,
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta.content or "", end="", flush=True)
print()

