Dies ist eine Chat-App im Material3-Stil, die Antworten von mehreren LLMs gleichzeitig unterstützt.
Unterstützte Plattformen
- OpenAI GPT (GPT-4o, Turbo usw.)
- Anthropic Claude (3.5 Sonnet, 3 Opus usw.)
- Google Gemini (1.5 Pro, Flash usw.)
- Ollama (Ihr eigener Server)
Lokaler Chatverlauf
Der Chatverlauf wird nur lokal gespeichert. Die App sendet beim Chatten nur an offizielle API-Server. Wird nirgendwo anders geteilt.
Benutzerdefinierte API-Adresse und benutzerdefinierter Modellname werden unterstützt. Passen Sie außerdem die Systemaufforderung, den Höchstwert, die Temperatur und mehr an!
Beachten Sie, dass einige Plattformen in manchen Ländern möglicherweise nicht unterstützt werden.
- Now supports Ollama API.
- Now GPT 3.5 Turbo is deprecated and GPT 4o mini is recommended.
- Supports custom API address, custom models
- Minor UX improvements
- Translation improvements