Skip to content

Commit 196b48f

Browse files
authored
Update OpenAI and Google models (#318)
* Update READMEs: update OpenAI and Google models Update api.py: set default to Google Gemini-2.5 Update generator.json: update OpenAI and Google models * Format GPT-5 Nano and Mini blocks in generator.json for readability Align indentation of gpt-5-nano and gpt-5-mini entries to improve consistency without changing values. * Update o4-mini config: remove top_p and set temperature to 1.0 #276 * Configure openai/o4-mini: set temperature to 1.0 and remove top_p Simplify sampling by removing top_p and standardizing on temperature=1.0 in the OpenAI o4-mini config. #276
1 parent f79554f commit 196b48f

File tree

12 files changed

+42
-34
lines changed

12 files changed

+42
-34
lines changed

README.es.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -177,8 +177,8 @@ DeepWiki ahora implementa un sistema flexible de selección de modelos basado en
177177

178178
### Proveedores y Modelos Soportados
179179

180-
- **Google**: Predeterminado `gemini-2.0-flash`, también soporta `gemini-1.5-flash`, `gemini-1.0-pro`, etc.
181-
- **OpenAI**: Predeterminado `gpt-4o`, también soporta `o4-mini`, etc.
180+
- **Google**: Predeterminado `gemini-2.5-flash`, también soporta `gemini-2.5-flash-lite`, `gemini-2.5-pro`, etc.
181+
- **OpenAI**: Predeterminado `gpt-5-nano`, también soporta `gpt-5`, `4o`, etc.
182182
- **OpenRouter**: Acceso a múltiples modelos a través de una API unificada, incluyendo Claude, Llama, Mistral, etc.
183183
- **Ollama**: Soporte para modelos de código abierto ejecutados localmente como `llama3`
184184

README.fr.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -187,8 +187,8 @@ DeepWiki implémente désormais un système de sélection de modèles flexible,
187187

188188
### Fournisseurs et modèles pris en charge
189189

190-
- **Google** : Par défaut `gemini-2.0-flash`, prend également en charge `gemini-1.5-flash`, `gemini-1.0-pro`, etc.
191-
- **OpenAI** : Par défaut `gpt-4o`, prend également en charge `o4-mini`, etc.
190+
- **Google** : Par défaut `gemini-2.5-flash`, prend également en charge `gemini-2.5-flash-lite`, `gemini-2.5-pro`, etc.
191+
- **OpenAI** : Par défaut `gpt-5-nano`, prend également en charge `gpt-5`, `4o`, etc.
192192
- **OpenRouter** : Accès à plusieurs modèles via une API unifiée, notamment Claude, Llama, Mistral, etc.
193193
- **Azure OpenAI** : Par défaut `gpt-4o`, prend également en charge `o4-mini`, etc.
194194
- **Ollama** : Prise en charge des modèles open source exécutés localement, tels que `llama3`.

README.ja.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -299,8 +299,8 @@ DeepWikiでは、複数のLLMプロバイダーをサポートする柔軟なプ
299299

300300
### サポートされているプロバイダーとモデル
301301

302-
- **Google**: デフォルトは `gemini-2.0-flash`、また `gemini-1.5-flash``gemini-1.0-pro` などもサポート
303-
- **OpenAI**: デフォルトは `gpt-4o`、また `o4-mini` などもサポート
302+
- **Google**: デフォルトは `gemini-2.5-flash`、また `gemini-2.5-flash-lite``gemini-2.5-pro` などもサポート
303+
- **OpenAI**: デフォルトは `gpt-5-nano`、また `gpt-5``4o` などもサポート
304304
- **OpenRouter**: Claude、Llama、Mistralなど、統一APIを通じて複数のモデルにアクセス
305305
- **Ollama**: `llama3` などのローカルで実行するオープンソースモデルをサポート
306306

README.kr.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -288,8 +288,8 @@ DeepWiki는 이제 여러 LLM 제공자를 지원하는 유연한 제공자 기
288288

289289
### 지원되는 제공자 및 모델
290290

291-
- **Google**: 기본값 `gemini-2.0-flash`, 또한 `gemini-1.5-flash`, `gemini-1.0-pro` 등도 지원
292-
- **OpenAI**: 기본값 `gpt-4o`, 또한 `o4-mini` 등도 지원
291+
- **Google**: 기본값 `gemini-2.5-flash`, 또한 `gemini-2.5-flash-lite`, `gemini-2.5-pro` 등도 지원
292+
- **OpenAI**: 기본값 `gpt-5-nano`, 또한 `gpt-5`, `4o` 등도 지원
293293
- **OpenRouter**: Claude, Llama, Mistral 등 통합 API를 통해 다양한 모델 접근 가능
294294
- **Ollama**: `llama3`와 같은 로컬에서 실행되는 오픈소스 모델 지원
295295

README.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -186,8 +186,8 @@ DeepWiki now implements a flexible provider-based model selection system support
186186

187187
### Supported Providers and Models
188188

189-
- **Google**: Default `gemini-2.0-flash`, also supports `gemini-1.5-flash`, `gemini-1.0-pro`, etc.
190-
- **OpenAI**: Default `gpt-4o`, also supports `o4-mini`, etc.
189+
- **Google**: Default `gemini-2.5-flash`, also supports `gemini-2.5-flash-lite`, `gemini-2.5-pro`, etc.
190+
- **OpenAI**: Default `gpt-5-nano`, also supports `gpt-5`, `4o`, etc.
191191
- **OpenRouter**: Access to multiple models via a unified API, including Claude, Llama, Mistral, etc.
192192
- **Azure OpenAI**: Default `gpt-4o`, also supports `o4-mini`, etc.
193193
- **Ollama**: Support for locally running open-source models like `llama3`

README.pt-br.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -176,8 +176,8 @@ O DeepWiki agora implementa um sistema flexível de seleção de modelos baseado
176176

177177
### Provedores e Modelos Suportados
178178

179-
- **Google**: Padrão `gemini-2.0-flash`, também suporta `gemini-1.5-flash`, `gemini-1.0-pro`, etc.
180-
- **OpenAI**: Padrão `gpt-4o`, também suporta `o4-mini`, etc.
179+
- **Google**: Padrão `gemini-2.5-flash`, também suporta `gemini-2.5-flash-lite`, `gemini-2.5-pro`, etc.
180+
- **OpenAI**: Padrão `gpt-5-nano`, também suporta `gpt-5`, `4o`, etc.
181181
- **OpenRouter**: Acesso a múltiplos modelos via uma API unificada, incluindo Claude, Llama, Mistral, etc.
182182
- **Ollama**: Suporte para modelos de código aberto executados localmente como `llama3`
183183

README.ru.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -186,8 +186,8 @@ DeepWiki поддерживает гибкую систему выбора мо
186186

187187
### Поддерживаемые провайдеры и модели
188188

189-
- **Google**: По умолчанию `gemini-2.0-flash`, также доступны `gemini-1.5-flash`, `gemini-1.0-pro` и др.
190-
- **OpenAI**: По умолчанию `gpt-4o`, также поддерживает `o4-mini` и другие
189+
- **Google**: По умолчанию `gemini-2.5-flash`, также доступны `gemini-2.5-flash-lite`, `gemini-2.5-pro`, и др.
190+
- **OpenAI**: По умолчанию `gpt-5-nano`, также поддерживает `gpt-5`, `4o` и другие
191191
- **OpenRouter**: Доступ к множеству моделей через единый API (Claude, Llama, Mistral и др.)
192192
- **Azure OpenAI**: По умолчанию `gpt-4o`, поддерживаются и другие
193193
- **Ollama**: Локальные open-source модели, например `llama3`

README.vi.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -251,8 +251,8 @@ DeepWiki hiện đã triển khai một hệ thống lựa chọn mô hình linh
251251

252252
### Các nhà cung cấp và mô hình được hỗ trợ
253253

254-
- **Google**: Mặc định là `gemini-2.0-flash`, cũng hỗ trợ `gemini-1.5-flash`, `gemini-1.0-pro`, v.v.
255-
- **OpenAI**: Mặc định là `gpt-4o`, cũng hỗ trợ `o4-mini`, v.v.
254+
- **Google**: Mặc định là `gemini-2.5-flash`, cũng hỗ trợ `gemini-2.5-flash-lite`, `gemini-2.5-pro`, v.v.
255+
- **OpenAI**: Mặc định là `gpt-5-nano`, cũng hỗ trợ `gpt-5`, `4o`, v.v.
256256
- **OpenRouter**: Truy cập nhiều mô hình qua một API thống nhất, bao gồm Claude, Llama, Mistral, v.v.
257257
- **Ollama**: Hỗ trợ các mô hình mã nguồn mở chạy cục bộ như `llama3`
258258

README.zh-tw.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -183,8 +183,8 @@ DeepWiki 現在實作了靈活的基於提供商的模型選擇系統,支援
183183

184184
### 支援的提供商和模型
185185

186-
- **Google**:預設 `gemini-2.0-flash`,也支援 `gemini-1.5-flash``gemini-1.0-pro`
187-
- **OpenAI**:預設 `gpt-4o`,也支援 `o4-mini`
186+
- **Google**:預設 `gemini-2.5-flash`,也支援 `gemini-2.5-flash-lite``gemini-2.5-pro`
187+
- **OpenAI**:預設 `gpt-5-nano`,也支援 `gpt-5`, `4o`
188188
- **OpenRouter**:透過統一 API 存取多種模型,包括 Claude、Llama、Mistral 等
189189
- **Ollama**:支援本機執行的開源模型,如 `llama3`
190190

README.zh.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -256,8 +256,8 @@ DeepWiki 现在实现了灵活的基于提供者的模型选择系统,支持
256256

257257
### 支持的提供商和模型
258258

259-
- **Google**: 默认使用 `gemini-2.0-flash`,还支持 `gemini-1.5-flash``gemini-1.0-pro`
260-
- **OpenAI**: 默认使用 `gpt-4o`,还支持 `o4-mini`
259+
- **Google**: 默认使用 `gemini-2.5-flash`,还支持 `gemini-2.5-flash-lite``gemini-2.5-pro`
260+
- **OpenAI**: 默认使用 `gpt-5-nano`,还支持 `gpt-5`, `4o`
261261
- **OpenRouter**: 通过统一 API 访问多种模型,包括 Claude、Llama、Mistral 等
262262
- **Ollama**: 支持本地运行的开源模型,如 `llama3`
263263

0 commit comments

Comments
 (0)