Skip to content

Commit a8c74c0

Browse files
authored
docs: add Atomic Chat provider section (#23069)
1 parent f6b4f54 commit a8c74c0

18 files changed

Lines changed: 684 additions & 0 deletions

packages/web/src/content/docs/ar/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -319,6 +319,44 @@ OpenCode Go هي خطة اشتراك منخفضة التكلفة توفّر وص
319319

320320
---
321321

322+
### Atomic Chat
323+
324+
يمكنك تكوين opencode لاستخدام النماذج المحلية عبر [Atomic Chat](https://atomic.chat)، وهو تطبيق سطح مكتب يقوم بتشغيل LLMs المحلية خلف خادم API متوافق مع OpenAI (نقطة النهاية الافتراضية `http://127.0.0.1:1337/v1`).
325+
326+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
327+
{
328+
"$schema": "https://opencode.ai/config.json",
329+
"provider": {
330+
"atomic-chat": {
331+
"npm": "@ai-sdk/openai-compatible",
332+
"name": "Atomic Chat (local)",
333+
"options": {
334+
"baseURL": "http://127.0.0.1:1337/v1"
335+
},
336+
"models": {
337+
"<your-model-id>": {
338+
"name": "<your-model-name>"
339+
}
340+
}
341+
}
342+
}
343+
}
344+
```
345+
346+
في هذا المثال:
347+
348+
- `atomic-chat` هو معرف الموفر المخصص. يمكن أن يكون أي سلسلة نصية.
349+
- `npm` يحدد الحزمة المستخدمة لهذا الموفر. هنا يُستخدم `@ai-sdk/openai-compatible` لأي واجهة برمجة تطبيقات متوافقة مع OpenAI.
350+
- `name` هو الاسم المعروض للموفر في الواجهة.
351+
- `options.baseURL` هو نقطة نهاية الخادم المحلي. غيّر المضيف والمنفذ لتتطابق مع إعدادات Atomic Chat الخاصة بك.
352+
- `models` هو خريطة لمعرفات النماذج إلى أسمائها المعروضة. يجب أن يتطابق كل معرف مع `id` الذي يرجعه `GET /v1/models` — قم بتشغيل `curl http://127.0.0.1:1337/v1/models` لإدراج المعرفات المحملة حاليًا في Atomic Chat.
353+
354+
:::tip
355+
إذا لم تعمل استدعاءات الأدوات بشكل جيد، فاختر نموذجًا محملًا بدعم قوي لاستدعاء الأدوات (على سبيل المثال، متغير Qwen-Coder أو DeepSeek-Coder).
356+
:::
357+
358+
---
359+
322360
### Azure OpenAI
323361

324362
:::note

packages/web/src/content/docs/bs/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -324,6 +324,44 @@ Ili ako već imate API ključ, možete odabrati **Ručno unesite API ključ** i
324324

325325
---
326326

327+
### Atomic Chat
328+
329+
Možete konfigurirati opencode za korištenje lokalnih modela preko [Atomic Chata](https://atomic.chat) — desktop aplikacije koja pokreće lokalne LLM-ove iza OpenAI-kompatibilnog API servera (zadana krajnja tačka `http://127.0.0.1:1337/v1`).
330+
331+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
332+
{
333+
"$schema": "https://opencode.ai/config.json",
334+
"provider": {
335+
"atomic-chat": {
336+
"npm": "@ai-sdk/openai-compatible",
337+
"name": "Atomic Chat (local)",
338+
"options": {
339+
"baseURL": "http://127.0.0.1:1337/v1"
340+
},
341+
"models": {
342+
"<your-model-id>": {
343+
"name": "<your-model-name>"
344+
}
345+
}
346+
}
347+
}
348+
}
349+
```
350+
351+
U ovom primjeru:
352+
353+
- `atomic-chat` je prilagođeni ID provajdera. Može biti bilo koji niz.
354+
- `npm` specificira paket koji se koristi za ovog provajdera. Ovdje se koristi `@ai-sdk/openai-compatible` za svaki OpenAI-kompatibilni API.
355+
- `name` je prikazano ime provajdera u interfejsu.
356+
- `options.baseURL` je krajnja tačka lokalnog servera. Promijenite host i port da odgovaraju vašoj Atomic Chat konfiguraciji.
357+
- `models` je mapa ID-ova modela u njihova prikazana imena. Svaki ID mora odgovarati `id` vrijednosti koju vraća `GET /v1/models` — pokrenite `curl http://127.0.0.1:1337/v1/models` da vidite ID-ove trenutno učitane u Atomic Chat.
358+
359+
:::tip
360+
Ako pozivi alata ne rade dobro, odaberite učitani model sa jakom podrškom za tool calling (na primjer, Qwen-Coder ili DeepSeek-Coder varijantu).
361+
:::
362+
363+
---
364+
327365
### Azure OpenAI
328366

329367
:::note

packages/web/src/content/docs/da/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -315,6 +315,44 @@ Eller hvis du allerede har en API-nøgle, kan du vælge **Manually enter API Key
315315

316316
---
317317

318+
### Atomic Chat
319+
320+
Du kan konfigurere opencode til at bruge lokale modeller via [Atomic Chat](https://atomic.chat) — en desktopapplikation, der kører lokale LLM'er bag en OpenAI-kompatibel API-server (standard-endpoint `http://127.0.0.1:1337/v1`).
321+
322+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
323+
{
324+
"$schema": "https://opencode.ai/config.json",
325+
"provider": {
326+
"atomic-chat": {
327+
"npm": "@ai-sdk/openai-compatible",
328+
"name": "Atomic Chat (local)",
329+
"options": {
330+
"baseURL": "http://127.0.0.1:1337/v1"
331+
},
332+
"models": {
333+
"<your-model-id>": {
334+
"name": "<your-model-name>"
335+
}
336+
}
337+
}
338+
}
339+
}
340+
```
341+
342+
I dette eksempel:
343+
344+
- `atomic-chat` er det brugerdefinerede udbyder-ID. Det kan være en vilkårlig streng.
345+
- `npm` specificerer pakken, der skal bruges for denne udbyder. Her bruges `@ai-sdk/openai-compatible` til enhver OpenAI-kompatibel API.
346+
- `name` er det viste navn på udbyderen i grænsefladen.
347+
- `options.baseURL` er endpoint'et for den lokale server. Ændr vært og port for at matche din Atomic Chat-opsætning.
348+
- `models` er en afbildning af model-ID'er til deres viste navne. Hvert ID skal matche det `id`, der returneres af `GET /v1/models` — kør `curl http://127.0.0.1:1337/v1/models` for at liste ID'erne, der i øjeblikket er indlæst i Atomic Chat.
349+
350+
:::tip
351+
Hvis værktøjskald ikke fungerer godt, så vælg en indlæst model med god tool calling-understøttelse (for eksempel en Qwen-Coder- eller DeepSeek-Coder-variant).
352+
:::
353+
354+
---
355+
318356
### Azure OpenAI
319357

320358
:::note

packages/web/src/content/docs/de/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -321,6 +321,44 @@ Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüs
321321

322322
---
323323

324+
### Atomic Chat
325+
326+
Sie können opencode so konfigurieren, dass es lokale Modelle über [Atomic Chat](https://atomic.chat) verwendet — eine Desktop-Anwendung, die lokale LLMs hinter einem OpenAI-kompatiblen API-Server bereitstellt (Standard-Endpunkt `http://127.0.0.1:1337/v1`).
327+
328+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
329+
{
330+
"$schema": "https://opencode.ai/config.json",
331+
"provider": {
332+
"atomic-chat": {
333+
"npm": "@ai-sdk/openai-compatible",
334+
"name": "Atomic Chat (local)",
335+
"options": {
336+
"baseURL": "http://127.0.0.1:1337/v1"
337+
},
338+
"models": {
339+
"<your-model-id>": {
340+
"name": "<your-model-name>"
341+
}
342+
}
343+
}
344+
}
345+
}
346+
```
347+
348+
In diesem Beispiel:
349+
350+
- `atomic-chat` ist die benutzerdefinierte Provider-ID. Dies kann eine beliebige Zeichenkette sein.
351+
- `npm` gibt das für diesen Provider zu verwendende Paket an. Hier wird `@ai-sdk/openai-compatible` für jede OpenAI-kompatible API verwendet.
352+
- `name` ist der in der UI angezeigte Name des Providers.
353+
- `options.baseURL` ist der Endpunkt des lokalen Servers. Passen Sie Host und Port an Ihre Atomic-Chat-Konfiguration an.
354+
- `models` ist eine Zuordnung von Modell-IDs zu ihren Anzeigenamen. Jede ID muss dem `id`-Wert entsprechen, den `GET /v1/models` zurückgibt — führen Sie `curl http://127.0.0.1:1337/v1/models` aus, um die aktuell in Atomic Chat geladenen IDs aufzulisten.
355+
356+
:::tip
357+
Wenn Tool-Aufrufe nicht zuverlässig funktionieren, wählen Sie ein geladenes Modell mit starker Tool-Calling-Unterstützung (zum Beispiel eine Qwen-Coder- oder DeepSeek-Coder-Variante).
358+
:::
359+
360+
---
361+
324362
### Azure OpenAI
325363

326364
:::note

packages/web/src/content/docs/es/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -322,6 +322,44 @@ O si ya tienes una clave API, puedes seleccionar **Ingresar manualmente la clave
322322

323323
---
324324

325+
### Atomic Chat
326+
327+
Puedes configurar opencode para usar modelos locales mediante [Atomic Chat](https://atomic.chat), una aplicación de escritorio que ejecuta LLMs locales detrás de un servidor API compatible con OpenAI (endpoint por defecto `http://127.0.0.1:1337/v1`).
328+
329+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
330+
{
331+
"$schema": "https://opencode.ai/config.json",
332+
"provider": {
333+
"atomic-chat": {
334+
"npm": "@ai-sdk/openai-compatible",
335+
"name": "Atomic Chat (local)",
336+
"options": {
337+
"baseURL": "http://127.0.0.1:1337/v1"
338+
},
339+
"models": {
340+
"<your-model-id>": {
341+
"name": "<your-model-name>"
342+
}
343+
}
344+
}
345+
}
346+
}
347+
```
348+
349+
En este ejemplo:
350+
351+
- `atomic-chat` es el identificador personalizado del proveedor. Puede ser cualquier cadena que quieras.
352+
- `npm` especifica el paquete que se usará para este proveedor. Aquí se usa `@ai-sdk/openai-compatible` para cualquier API compatible con OpenAI.
353+
- `name` es el nombre que se muestra para el proveedor en la interfaz.
354+
- `options.baseURL` es el endpoint del servidor local. Cambia el host y el puerto según tu configuración de Atomic Chat.
355+
- `models` es un mapa de IDs de modelos a sus nombres de pantalla. Cada ID debe coincidir con el `id` devuelto por `GET /v1/models` — ejecuta `curl http://127.0.0.1:1337/v1/models` para listar los IDs cargados actualmente en Atomic Chat.
356+
357+
:::tip
358+
Si las llamadas a herramientas no funcionan bien, elige un modelo cargado con buen soporte para tool calling (por ejemplo, una variante Qwen-Coder o DeepSeek-Coder).
359+
:::
360+
361+
---
362+
325363
### Azure OpenAI
326364

327365
:::note

packages/web/src/content/docs/fr/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -325,6 +325,44 @@ Ou si vous disposez déjà d'une clé API, vous pouvez sélectionner **Entrer ma
325325

326326
---
327327

328+
### Atomic Chat
329+
330+
Vous pouvez configurer opencode pour utiliser des modèles locaux via [Atomic Chat](https://atomic.chat), une application de bureau qui exécute des LLM locaux derrière un serveur API compatible OpenAI (point de terminaison par défaut `http://127.0.0.1:1337/v1`).
331+
332+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
333+
{
334+
"$schema": "https://opencode.ai/config.json",
335+
"provider": {
336+
"atomic-chat": {
337+
"npm": "@ai-sdk/openai-compatible",
338+
"name": "Atomic Chat (local)",
339+
"options": {
340+
"baseURL": "http://127.0.0.1:1337/v1"
341+
},
342+
"models": {
343+
"<your-model-id>": {
344+
"name": "<your-model-name>"
345+
}
346+
}
347+
}
348+
}
349+
}
350+
```
351+
352+
Dans cet exemple :
353+
354+
- `atomic-chat` est l'identifiant personnalisé du fournisseur. Il peut s'agir de n'importe quelle chaîne.
355+
- `npm` spécifie le paquet à utiliser pour ce fournisseur. Ici, `@ai-sdk/openai-compatible` est utilisé pour toute API compatible OpenAI.
356+
- `name` est le nom du fournisseur affiché dans l'interface.
357+
- `options.baseURL` est le point de terminaison du serveur local. Modifiez l'hôte et le port selon votre configuration Atomic Chat.
358+
- `models` est une carte d'ID de modèles vers leurs noms d'affichage. Chaque ID doit correspondre à l'`id` renvoyé par `GET /v1/models` — exécutez `curl http://127.0.0.1:1337/v1/models` pour lister les ID actuellement chargés dans Atomic Chat.
359+
360+
:::tip
361+
Si les appels d'outils ne fonctionnent pas bien, choisissez un modèle chargé avec un bon support du tool calling (par exemple, une variante Qwen-Coder ou DeepSeek-Coder).
362+
:::
363+
364+
---
365+
328366
### Azure OpenAI
329367

330368
:::note

packages/web/src/content/docs/it/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -299,6 +299,44 @@ Oppure se hai già una chiave API, puoi selezionare **Manually enter API Key** e
299299

300300
---
301301

302+
### Atomic Chat
303+
304+
Puoi configurare opencode per utilizzare modelli locali tramite [Atomic Chat](https://atomic.chat), un'applicazione desktop che esegue LLM locali dietro un server API compatibile OpenAI (endpoint predefinito `http://127.0.0.1:1337/v1`).
305+
306+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
307+
{
308+
"$schema": "https://opencode.ai/config.json",
309+
"provider": {
310+
"atomic-chat": {
311+
"npm": "@ai-sdk/openai-compatible",
312+
"name": "Atomic Chat (local)",
313+
"options": {
314+
"baseURL": "http://127.0.0.1:1337/v1"
315+
},
316+
"models": {
317+
"<your-model-id>": {
318+
"name": "<your-model-name>"
319+
}
320+
}
321+
}
322+
}
323+
}
324+
```
325+
326+
In questo esempio:
327+
328+
- `atomic-chat` è l'ID personalizzato del provider. Può essere qualsiasi stringa.
329+
- `npm` specifica il pacchetto da utilizzare per questo provider. Qui viene usato `@ai-sdk/openai-compatible` per qualsiasi API compatibile OpenAI.
330+
- `name` è il nome visualizzato del provider nell'interfaccia.
331+
- `options.baseURL` è l'endpoint del server locale. Modifica host e porta in base alla tua configurazione Atomic Chat.
332+
- `models` è una mappa di ID modello ai rispettivi nomi visualizzati. Ogni ID deve corrispondere all'`id` restituito da `GET /v1/models` — esegui `curl http://127.0.0.1:1337/v1/models` per elencare gli ID attualmente caricati in Atomic Chat.
333+
334+
:::tip
335+
Se le chiamate agli strumenti non funzionano bene, scegli un modello caricato con buon supporto per il tool calling (ad esempio, una variante Qwen-Coder o DeepSeek-Coder).
336+
:::
337+
338+
---
339+
302340
### Azure OpenAI
303341

304342
:::note

packages/web/src/content/docs/ja/providers.mdx

Lines changed: 38 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -329,6 +329,44 @@ Pro/Max サブスクリプションをお持ちでない場合は、[**API キ
329329

330330
---
331331

332+
### Atomic Chat
333+
334+
opencode は、OpenAI 互換の API サーバーの背後でローカル LLM を実行するデスクトップアプリケーション [Atomic Chat](https://atomic.chat) 経由でローカルモデルを使うように設定できます(デフォルトのエンドポイントは `http://127.0.0.1:1337/v1`)。
335+
336+
```json title="opencode.json" "atomic-chat" {5, 6, 8, 10-14}
337+
{
338+
"$schema": "https://opencode.ai/config.json",
339+
"provider": {
340+
"atomic-chat": {
341+
"npm": "@ai-sdk/openai-compatible",
342+
"name": "Atomic Chat (local)",
343+
"options": {
344+
"baseURL": "http://127.0.0.1:1337/v1"
345+
},
346+
"models": {
347+
"<your-model-id>": {
348+
"name": "<your-model-name>"
349+
}
350+
}
351+
}
352+
}
353+
}
354+
```
355+
356+
この例では:
357+
358+
- `atomic-chat` はカスタムプロバイダー ID です。任意の文字列を指定できます。
359+
- `npm` はこのプロバイダーに使用するパッケージを指定します。ここでは、任意の OpenAI 互換 API に対して `@ai-sdk/openai-compatible` を使用しています。
360+
- `name` は UI に表示されるプロバイダー名です。
361+
- `options.baseURL` はローカルサーバーのエンドポイントです。Atomic Chat のセットアップに合わせてホストとポートを変更してください。
362+
- `models` はモデル ID と表示名のマップです。各 ID は `GET /v1/models` が返す `id` と一致する必要があります。Atomic Chat に現在ロードされている ID の一覧は `curl http://127.0.0.1:1337/v1/models` を実行して確認できます。
363+
364+
:::tip
365+
ツール呼び出しがうまく動作しない場合は、ツール呼び出しに強いロード済みモデル(例えば Qwen-Coder や DeepSeek-Coder のバリアント)を選択してください。
366+
:::
367+
368+
---
369+
332370
### Azure OpenAI
333371

334372
:::note

0 commit comments

Comments
 (0)