Si tratta di un'app di chat in stile Material3 che supporta le risposte da più LLM contemporaneamente.
Piattaforme supportate
- OpenAI GPT (GPT-4o, turbo, ecc.)
- Anthropic Claude (3.5 Sonnet, 3 Opus, ecc.)
- Google Gemini (1.5 Pro, Flash, ecc.)
- Ollama (il tuo server)
Cronologia chat locale
La cronologia chat viene salvata solo localmente. Durante la chat, l'app invia dati solo ai server API ufficiali. NON CONDIVISO altrove.
Sono supportati indirizzo API personalizzato e nome modello personalizzato. Inoltre, puoi regolare il prompt di sistema, la pressione massima, la temperatura e molto altro!
Tieni presente che alcune piattaforme potrebbero non essere supportate in alcuni Paesi.
- Now supports Ollama API.
- Now GPT 3.5 Turbo is deprecated and GPT 4o mini is recommended.
- Supports custom API address, custom models
- Minor UX improvements
- Translation improvements