Gemini 3.1 Pro是谷歌推出的旗舰级多模态大语言模型,核心优势涵盖深度推理、超长上下文处理、高性能代码生成及多模态融合四大能力,适用于复杂任务处理、长文档深度解析和代码开发调试等场景。
一、快速使用入口
1. 普通用户入口
Gemini网页版/APP:访问gemini.google.com,登录Google账号后切换至Gemini 3.1 Pro模式;免费用户受限于每日额度,订阅Gemini Advanced服务可解锁无限制使用。
NotebookLM:访问notebooklm.google.com,平台内置Gemini 3.1 Pro核心能力,支持长文档总结与知识梳理,开箱即用。
Google Search AI模式:启用搜索中的AI功能,直接调用Gemini 3.1 Pro进行逻辑推理与信息整合,提升搜索精准度。
2. 开发者入口
Google AI Studio:访问aistudio.google.com,生成API Key用于模型调试和提示词测试,提供免费体验额度。
Gemini CLI:轻量命令行工具,支持终端直接调用模型,适用于脚本编写与自动化任务。
Vertex AI:谷歌云企业级平台,支持私有化部署、批量处理及高安全集成。
第三方客户端:通过CherryStudio、Chatbox等工具配置API Key,快速实现模型调用。
二、核心能力与适用场景
1. 核心参数
| 能力项 | 规格 |
| 上下文窗口 | 输入100万token,输出6.4万token |
| 知识截止日期 | 2025年1月 |
| 定价标准 | <20万token:输入2美元/百万,输出12美元/百万;>20万token:输入4美元/百万,输出18美元/百万 |
| 多模态支持 | 文本、图片、音频、视频、3D及代码协同处理 |
| 推理能力 | ARG-AGI-2测试得分77.1,推理性能显著提升 |
2. 核心功能
深度推理:支持复杂数学运算、逻辑推演及长文本解析,通过动态思考机制保障结果准确性。
超长上下文处理:可一次性解析整本书籍或大型代码库,提升海量信息处理效率。
高性能代码能力:实现代码生成、重构与调试,适配多语言开发场景。
多模态融合:提供图片理解、视频分析、3D模型生成等多模态交互支持。
工具集成调用:集成Google搜索与代码执行功能,支持实时数据交互与事实核查。
三、API调用
1. 准备工作
登录Google AI Studio获取API Key。安装官方SDK:
| Bash Python pip install google-genai JavaScript npm install @google/genai |
2. 基础调用示例
Python
| Python from google import genai from google.genai import types client = genai.Client(api_key="YOUR_API_KEY") response = client.models.generate_content( model="gemini-3.1-pro-preview", contents="分析代码性能瓶颈并优化", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high"))) print(response.text) |
JavaScript
| JavaScript import { GoogleGenAI } from "@google/genai"; const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" }); const response = await ai.models.generateContent({ model: "gemini-3.1-pro-preview", contents: "生成可交互3D房屋模型", config: { thinkingConfig: { thinkingLevel: "high" }}}); console.log(response.text); |
REST API
| Bash curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3.1-pro-preview:generateContent" \ -H "x-goog-api-key: YOUR_API_KEY" \ -H "Content-Type: application/json" \ -X POST \ -d '{ "contents": [{"parts": [{"text": "总结10万字报告核心观点"}]}], "generationConfig": {"thinkingConfig": {"thinkingLevel": "high"}}}' |
3. OpenAI兼容调用
| Python import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://grsai.dakka.com.cn/v1") response = client.chat.completions.create( model="gemini-3.1-pro", messages=[{"role": "user", "content": "分析市场趋势生成报告"}]) print(response.choices[0].message.content) |
四、关键参数配置
1. 思考等级
控制推理深度与速度平衡,默认high级别:
| 等级 | 适用场景 | 效果说明 |
| low | 简单问答、高吞吐量需求 | 响应快,成本低,推理深度浅 |
| medium | 常规任务 | 效率与质量均衡 |
| high | 复杂推理、代码、长文本分析 | 结果最准,耗时较长 |
| minimal | 不支持Pro模型 | - |
2. 媒体分辨率
平衡媒体细节呈现与使用成本:
| 等级 | 适用场景 | 最大token分配 |
| low | 常规视频/图片分析 | 图片280token,视频帧70token |
| medium | 文档/ PDF解析 | 图片560token,视频帧70token |
| high | 高精度识别(OCR等) | 图片1120token,视频帧280token |
| ultra_high | 超高细节需求 | token分配更高,成本显著增加 |
3. 其他关键参数
temperature(温度):默认1.0,建议保持以确保推理稳定性。
max_output_tokens(最大输出):限制输出长度,防止超限。
tools(工具):启用google_search或code_execution实现事实核查。
thoughtSignature(思考签名):多轮对话场景必须保留以维持上下文连续性。
五、成本与优化建议
1. 控制上下文长度:仅传入必要信息,减少token消耗。
2. 合理设置思考等级:简单任务用low,复杂任务用high。
3. 采用批量处理:使用Vertex AI Batch API降低单位成本。
4. 启用缓存复用:对重复查询减少重复计算。
六、常见问题
1. 免费额度说明:Google AI Studio提供免费体验额度;API调用按量计费。
2. 模型状态:Gemini 3.1 Pro处于预览版,功能与定价可能调整,以官方公告为准。
3. 思考签名要求:多轮对话中必须保留thoughtSignature参数。
4. 国内访问方式:需科学上网或使用第三方中转服务。

