Über das Projekt
Ein grafischer Desktop-Client zur Interaktion mit lokalen Sprachmodellen über die Ollama API. Die Anwendung bietet eine benutzerfreundliche Oberfläche zum Verfassen von Prompts, Verwalten von Chat-Historie und Auswählen verschiedener Modelle.
Technologie-Stack
Python 3
Tkinter
Ollama API
Requests
JSON
GUI-Framework: Tkinter (Python Standardbibliothek)
API-Client: REST API über Requests
LLM-Backend: Ollama (lokale Modelle)
Projektstruktur
- test_llclient/
- ├── main.py # Einstiegspunkt
- ├── requirements.txt # Abhängigkeiten (requests)
- ├── config.json # Konfiguration
- ├── gui/ # GUI-Komponenten
- │ ├── app.py # Hauptanwendung
- │ ├── prompt_panel.py # Prompt-Eingabe
- │ ├── response_panel.py # Antwort-Anzeige
- │ ├── history_panel.py # Chat-Historie
- │ └── status_bar.py # Statusleiste
- ├── ollama/ # API-Integration
- │ └── api.py # OllamaAPI Klasse
- └── utils/ # Hilfsfunktionen
Features
- Interaktive Chat-Oberfläche mit Tkinter
- Modellauswahl aus verfügbaren Ollama-Modellen
- Chat-Historie mit Speicherung
- Konfigurierbare Server-URL
- Statusanzeige für Server-Verbindung
- Streaming-Antworten vom LLM
Architektur
Die Anwendung folgt einem modularen Aufbau:
- OllamaAPI: Wrapper für die Ollama REST API
- GUI-Panels: Getrennte Komponenten für Prompt, Response, History
- Konfiguration: Persistente Speicherung in JSON
- Event-Driven: Tkinter Event-Loop für UI-Updates
← Alle Projekte