Benutzerhandbuch
Ausführliche Anleitung
FAQ
Häufige Fragen
Tastaturkürzel
Schneller arbeiten
Problemlösung
Fehler beheben
❓ Häufig gestellte Fragen
Was ist Local AI Hub?
Local AI Hub ist eine App für iOS, iPadOS und macOS, die dir ermöglicht, mit lokalen KI-Modellen zu chatten. Du verbindest dich mit Ollama, OpenWebUI oder deinem eigenen Server - deine Daten bleiben privat und lokal.
Welche KI-Modelle werden unterstützt?
Alle Ollama-kompatiblen Modelle: Llama 3.2, Llama 3.1, Mistral, CodeLlama, Phi-3, Gemma, und viele mehr. Du kannst auch GPT-4 über API-Schlüssel nutzen.
Brauche ich einen eigenen Server?
Ja, du brauchst einen Computer mit Ollama oder OpenWebUI. Das kann dein eigener PC, ein NAS, oder ein Server sein. Die App verbindet sich dann über dein Netzwerk.
Was kostet die App?
Die App kostet einmalig 3,99 € – kein Abo! Damit hast du alle Grundfunktionen. Für Power-User gibt es das Premium-Upgrade für 9,99 € (ebenfalls einmalig) mit Features wie Bildgenerierung, Cloud-Sync, unbegrenzten Profilen und mehr.
Werden meine Daten gespeichert?
Nein! Deine Chats bleiben lokal auf deinem Gerät. Wir haben keinen Zugriff auf deine Gespräche. Privacy First ist unser Grundsatz.
Wie richte ich Ollama ein?
1. Installiere Ollama von ollama.ai
2. Starte ein Modell:
3. In der App: Einstellungen → Server URL eingeben (z.B. http://192.168.1.100:11434)
2. Starte ein Modell:
ollama run llama33. In der App: Einstellungen → Server URL eingeben (z.B. http://192.168.1.100:11434)
Funktioniert die App auch unterwegs?
Ja, wenn dein Server über das Internet erreichbar ist (z.B. via VPN oder Reverse Proxy). Ansonsten brauchst du eine Verbindung zu deinem Heimnetzwerk.
Wie funktioniert die Bildgenerierung?
Du kannst ComfyUI, OpenWebUI mit Stable Diffusion oder DALL-E anbinden. Die Konfiguration findest du unter Einstellungen → Bildgenerierung.
⌨️ Tastaturkürzel (Mac/iPad)
Neuer Chat
⌘N
Nachricht senden
⌘↵
Suchen
⌘F
Einstellungen
⌘,
Chat wechseln
⌘↑/↓
Profil wechseln
⌘1-9
Spracheingabe
⌘M
Bild generieren
⌘G
Chat exportieren
⌘E
Sidebar ein/aus
⌘\\
Vollbild
⌃⌘F
App beenden
⌘Q
🔧 Problemlösung
⚠️ Verbindung zum Server fehlgeschlagen
Lösungen:
• Prüfe ob Ollama läuft:
• Prüfe die Server-URL in den Einstellungen
• Stelle sicher, dass beide Geräte im selben Netzwerk sind
• Firewall-Einstellungen prüfen (Port 11434 freigeben)
• Prüfe ob Ollama läuft:
ollama serve• Prüfe die Server-URL in den Einstellungen
• Stelle sicher, dass beide Geräte im selben Netzwerk sind
• Firewall-Einstellungen prüfen (Port 11434 freigeben)
⚠️ Modell antwortet nicht
Lösungen:
• Prüfe ob das Modell geladen ist:
• Warte bis das Modell vollständig geladen ist (kann bei großen Modellen dauern)
• Versuche ein kleineres Modell wie
• Prüfe den verfügbaren RAM/VRAM auf dem Server
• Prüfe ob das Modell geladen ist:
ollama list• Warte bis das Modell vollständig geladen ist (kann bei großen Modellen dauern)
• Versuche ein kleineres Modell wie
llama3:8b• Prüfe den verfügbaren RAM/VRAM auf dem Server
⚠️ Langsame Antworten
Lösungen:
• Verwende ein kleineres Modell (7B statt 70B)
• Aktiviere GPU-Beschleunigung in Ollama
• Reduziere den Kontext (Chat-Verlauf löschen)
• Prüfe die Netzwerkverbindung
• Verwende ein kleineres Modell (7B statt 70B)
• Aktiviere GPU-Beschleunigung in Ollama
• Reduziere den Kontext (Chat-Verlauf löschen)
• Prüfe die Netzwerkverbindung
⚠️ Bildgenerierung funktioniert nicht
Lösungen:
• Prüfe die ComfyUI/OpenWebUI Konfiguration
• Stelle sicher, dass ein Bildmodell geladen ist
• Prüfe die API-URL in den Einstellungen
• VRAM-Anforderungen beachten (min. 8GB empfohlen)
• Prüfe die ComfyUI/OpenWebUI Konfiguration
• Stelle sicher, dass ein Bildmodell geladen ist
• Prüfe die API-URL in den Einstellungen
• VRAM-Anforderungen beachten (min. 8GB empfohlen)
⚠️ Spracheingabe funktioniert nicht
Lösungen:
• Mikrofonzugriff erlauben (Einstellungen → Datenschutz → Mikrofon)
• Whisper-Modell auf dem Server installieren
• Prüfe die Audio-Einstellungen auf deinem Gerät
• Mikrofonzugriff erlauben (Einstellungen → Datenschutz → Mikrofon)
• Whisper-Modell auf dem Server installieren
• Prüfe die Audio-Einstellungen auf deinem Gerät
⚠️ App stürzt ab
Lösungen:
• App komplett schließen und neu starten
• Gerät neu starten
• App löschen und neu installieren
• Prüfe ob iOS/macOS aktuell ist
• App komplett schließen und neu starten
• Gerät neu starten
• App löschen und neu installieren
• Prüfe ob iOS/macOS aktuell ist
❓ Frequently Asked Questions
What is Local AI Hub?
Local AI Hub is an app for iOS, iPadOS and macOS that allows you to chat with local AI models. Connect to Ollama, OpenWebUI or your own server - your data stays private and local.
Which AI models are supported?
All Ollama-compatible models: Llama 3.2, Llama 3.1, Mistral, CodeLlama, Phi-3, Gemma, and many more. You can also use GPT-4 via API key.
Do I need my own server?
Yes, you need a computer running Ollama or OpenWebUI. This can be your own PC, a NAS, or a server. The app connects via your network.
How much does the app cost?
The app costs a one-time fee of €3.99 / $3.99 – no subscription! This includes all basic features. For power users, there's the Premium upgrade for €9.99 / $9.99 (also one-time) with features like image generation, cloud sync, unlimited profiles and more.
Is my data stored?
No! Your chats stay locally on your device. We have no access to your conversations. Privacy First is our principle.
How do I set up Ollama?
1. Install Ollama from ollama.ai
2. Run a model:
3. In the app: Settings → Enter server URL (e.g. http://192.168.1.100:11434)
2. Run a model:
ollama run llama33. In the app: Settings → Enter server URL (e.g. http://192.168.1.100:11434)
Does the app work on the go?
Yes, if your server is accessible via the internet (e.g. via VPN or reverse proxy). Otherwise you need a connection to your home network.
How does image generation work?
You can connect ComfyUI, OpenWebUI with Stable Diffusion or DALL-E. Find the configuration under Settings → Image Generation.
⌨️ Keyboard Shortcuts (Mac/iPad)
New Chat
⌘N
Send Message
⌘↵
Search
⌘F
Settings
⌘,
Switch Chat
⌘↑/↓
Switch Profile
⌘1-9
Voice Input
⌘M
Generate Image
⌘G
Export Chat
⌘E
Toggle Sidebar
⌘\\
Fullscreen
⌃⌘F
Quit App
⌘Q
🔧 Troubleshooting
⚠️ Connection to server failed
Solutions:
• Check if Ollama is running:
• Verify the server URL in settings
• Make sure both devices are on the same network
• Check firewall settings (allow port 11434)
• Check if Ollama is running:
ollama serve• Verify the server URL in settings
• Make sure both devices are on the same network
• Check firewall settings (allow port 11434)
⚠️ Model not responding
Solutions:
• Check if model is loaded:
• Wait for model to fully load (large models take time)
• Try a smaller model like
• Check available RAM/VRAM on server
• Check if model is loaded:
ollama list• Wait for model to fully load (large models take time)
• Try a smaller model like
llama3:8b• Check available RAM/VRAM on server
⚠️ Slow responses
Solutions:
• Use a smaller model (7B instead of 70B)
• Enable GPU acceleration in Ollama
• Reduce context (clear chat history)
• Check network connection
• Use a smaller model (7B instead of 70B)
• Enable GPU acceleration in Ollama
• Reduce context (clear chat history)
• Check network connection
⚠️ Image generation not working
Solutions:
• Check ComfyUI/OpenWebUI configuration
• Make sure an image model is loaded
• Verify API URL in settings
• Note VRAM requirements (min. 8GB recommended)
• Check ComfyUI/OpenWebUI configuration
• Make sure an image model is loaded
• Verify API URL in settings
• Note VRAM requirements (min. 8GB recommended)