// private ai infrastructure

all systems operational

مدل‌های موجود

تمام مدل‌ها از طریق یک endpoint یکسان و با فرمت OpenAI قابل دسترسی هستند.

qwen3-14b
thinking tools
qwen3-8b
thinking fast
qwen3-vl
vision thinking
qwen2.5vl
vision tools
minimax
cloud

API Endpoints

POST /api/chat/completions چت و تکمیل متن
GET /api/models لیست مدل‌ها
POST /api/embeddings تولید embedding

Python

python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://ai.vilix.org/api"
)

response = client.chat.completions.create(
    model="qwen3-14b",
    messages=[{"role": "user", "content": "سلام!"}]
)

print(response.choices[0].message.content)

cURL

bash
curl https://ai.vilix.org/api/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-14b",
    "stream": true,
    "messages": [{"role": "user", "content": "سلام"}]
  }'

JavaScript

javascript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "YOUR_API_KEY",
  baseURL: "https://ai.vilix.org/api"
});

const res = await client.chat.completions.create({
  model: "qwen3-14b",
  messages: [{ role: "user", content: "سلام" }]
});

console.log(res.choices[0].message.content);

حالت استریم

با فعال کردن "stream": true پاسخ توکن به توکن دریافت می‌شود — مثل ChatGPT.

01
فرمت پاسخ — SSE
سرور با فرمت Server-Sent Events پاسخ می‌دهد. هر خط با data: شروع می‌شود و آخرین پیام [DONE] است.
02
reasoning_content
مدل‌های Thinking قبل از جواب نهایی «فکر» می‌کنند. این فکرها در فیلد reasoning_content می‌آیند و جواب اصلی در content.
03
Nginx buffering
برای کارکرد صحیح استریم از پشت Nginx، باید proxy_buffering off فعال باشد.
python — stream
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://ai.vilix.org/api"
)

for chunk in client.chat.completions.create(
    model="qwen3-14b",
    messages=[{"role": "user", "content": "درباره هوش مصنوعی توضیح بده"}],
    stream=True
):
    delta = chunk.choices[0].delta
    # فکر کردن مدل (thinking)
    if hasattr(delta, 'reasoning_content') and delta.reasoning_content:
        print(delta.reasoning_content, end="", flush=True)
    # جواب نهایی
    elif delta.content:
        print(delta.content, end="", flush=True)

تست زنده — استریم

مستقیم از مرورگر API را با حالت استریم تست کنید.

// جواب اینجا نمایش داده می‌شود
Ctrl+Enter برای ارسال