API 文档
ApiLink 是一个即插即用的兼容 OpenAI 接口的 AI 网关。通过单一接口访问 OpenAI、Anthropic、Google、DeepSeek、Qwen 等供应商的模型。
快速开始
在控制台获取 API Key,然后在任何兼容 OpenAI 的客户端中替换 OPENAI_BASE_URL 和 OPENAI_API_KEY。
身份验证
所有请求需在 Authorization 请求头中携带 Bearer Token。ApiLink 的 Key 始终以 al- 开头。
接口列表
| 方法 | 路径 | 说明 |
|---|---|---|
| POST | /v1/chat/completions | 对话补全 — 支持流式和非流式输出 |
| POST | /v1/embeddings | 文本向量化 — 返回 float 向量数组 |
| POST | /v1/responses | OpenAI Responses API — Codex CLI 使用此接口 |
| GET | /v1/models | 获取全部可用模型及定价 |
Authorization: Bearer al-... 请求头,从同一个余额账户扣费。查询模型
通过 API 获取完整的可用模型列表:
也可在模型页面浏览完整定价列表。
向量 Embedding
将文本转换为浮点向量,用于语义搜索、RAG 知识库、内容聚类等场景。支持任何 OpenAI 兼容的 Embedding 模型。
| 参数 | 类型 | 说明 |
|---|---|---|
| model | string | 模型 ID,从 /v1/models 获取 |
| input | string | string[] | 待向量化的文本。传入数组可批量处理多段文本 |
| encoding_format | string | 可选。"float"(默认)或 "base64" |
| dimensions | number | 可选。降低输出维度(取决于模型支持) |
Responses API
ApiLink 支持 OpenAI Responses API——Codex CLI、Agents SDK 等 OpenAI 新工具使用的接口格式。无需修改 API Key,只需设置 base URL 即可直接使用。
| 参数 | 类型 | 说明 |
|---|---|---|
| model | string | 模型 ID,从 /v1/models 获取 |
| input | string | 数组 | 用户消息(字符串或消息对象数组) |
| instructions | string | 可选。系统提示(System Prompt) |
| max_output_tokens | number | 可选。最大生成 Token 数 |
| stream | boolean | 可选。设为 true 开启 SSE 流式输出 |
| temperature | number | 可选。采样温度(0–2) |
output[0].content[0].text,而不是 choices[0].message.content。错误码
| HTTP | error.type | 原因 |
|---|---|---|
| 401 | invalid_request_error | API Key 缺失或无效 |
| 402 | insufficient_quota | 余额为 $0.00,请在控制台充值 |
| 404 | invalid_request_error | 模型不存在或未上线 |
| 429 | rate_limit_exceeded | 超出限流(默认每 Key 每分钟 60 次) |
| 500 | api_error | 内部服务器错误 |
| 503 | api_error | 所有上游供应商不可用,请稍后重试 |
每个错误响应都包含 request_id 字段,联系客服时请提供:
限流说明
| 限制项 | 数值 | 作用范围 |
|---|---|---|
| 每分钟请求数 | 60 RPM | 每个 API Key |
| 单次请求超时 | 120 秒 | 每次请求 |
| 最大上下文 | 取决于模型(最高 1M Token) | 每次请求 |
每个响应都包含限流响应头,方便客户端自动追踪用量:
计费与余额
ApiLink 采用预付费余额模式。每次请求根据实际 Token 用量扣除余额。
| 项目 | 说明 |
|---|---|
| 计费单位 | 每千 Token(输入和输出分别计费) |
| 最低充值 | $5 美元 |
| 余额有效期 | 永久有效,不过期 |
| 收据 | 每笔充值完成后可下载(控制台 → 充值记录) |
| 发票 | 发邮件至 support@apilink.io 并附公司信息 |
客户端接入指南
设置两个环境变量即可——Codex 使用 Responses API,ApiLink 完整支持:
Settings → Models → OpenAI API Key → 粘贴您的 al-... Key。在「Base URL」中填入:
在 config.json 中添加 openai 类型的 provider,配置 baseUrl 和 apiKey:
在命令行传入 --openai-api-base 和 --openai-api-key,或设置环境变量:
在模型名称前加 openai/ 前缀: