Häufig gestellte Fragen

Was ist Local AI Hub?
Local AI Hub ist eine App für iOS, iPadOS und macOS, die dir ermöglicht, mit lokalen KI-Modellen zu chatten. Du verbindest dich mit Ollama, OpenWebUI oder deinem eigenen Server - deine Daten bleiben privat und lokal.
Welche KI-Modelle werden unterstützt?
Alle Ollama-kompatiblen Modelle: Llama 3.2, Llama 3.1, Mistral, CodeLlama, Phi-3, Gemma, und viele mehr. Du kannst auch GPT-4 über API-Schlüssel nutzen.
Brauche ich einen eigenen Server?
Ja, du brauchst einen Computer mit Ollama oder OpenWebUI. Das kann dein eigener PC, ein NAS, oder ein Server sein. Die App verbindet sich dann über dein Netzwerk.
Was kostet die App?
Die App kostet einmalig 3,99 € – kein Abo! Damit hast du alle Grundfunktionen. Für Power-User gibt es das Premium-Upgrade für 9,99 € (ebenfalls einmalig) mit Features wie Bildgenerierung, Cloud-Sync, unbegrenzten Profilen und mehr.
Werden meine Daten gespeichert?
Nein! Deine Chats bleiben lokal auf deinem Gerät. Wir haben keinen Zugriff auf deine Gespräche. Privacy First ist unser Grundsatz.
Wie richte ich Ollama ein?
1. Installiere Ollama von ollama.ai
2. Starte ein Modell: ollama run llama3
3. In der App: Einstellungen → Server URL eingeben (z.B. http://192.168.1.100:11434)
Funktioniert die App auch unterwegs?
Ja, wenn dein Server über das Internet erreichbar ist (z.B. via VPN oder Reverse Proxy). Ansonsten brauchst du eine Verbindung zu deinem Heimnetzwerk.
Wie funktioniert die Bildgenerierung?
Du kannst ComfyUI, OpenWebUI mit Stable Diffusion oder DALL-E anbinden. Die Konfiguration findest du unter Einstellungen → Bildgenerierung.

⌨️ Tastaturkürzel (Mac/iPad)

Neuer Chat
N
Nachricht senden
Suchen
F
Einstellungen
,
Chat wechseln
↑/↓
Profil wechseln
1-9
Spracheingabe
M
Bild generieren
G
Chat exportieren
E
Sidebar ein/aus
\\
Vollbild
F
App beenden
Q

🔧 Problemlösung

⚠️ Verbindung zum Server fehlgeschlagen
Lösungen:
• Prüfe ob Ollama läuft: ollama serve
• Prüfe die Server-URL in den Einstellungen
• Stelle sicher, dass beide Geräte im selben Netzwerk sind
• Firewall-Einstellungen prüfen (Port 11434 freigeben)
⚠️ Modell antwortet nicht
Lösungen:
• Prüfe ob das Modell geladen ist: ollama list
• Warte bis das Modell vollständig geladen ist (kann bei großen Modellen dauern)
• Versuche ein kleineres Modell wie llama3:8b
• Prüfe den verfügbaren RAM/VRAM auf dem Server
⚠️ Langsame Antworten
Lösungen:
• Verwende ein kleineres Modell (7B statt 70B)
• Aktiviere GPU-Beschleunigung in Ollama
• Reduziere den Kontext (Chat-Verlauf löschen)
• Prüfe die Netzwerkverbindung
⚠️ Bildgenerierung funktioniert nicht
Lösungen:
• Prüfe die ComfyUI/OpenWebUI Konfiguration
• Stelle sicher, dass ein Bildmodell geladen ist
• Prüfe die API-URL in den Einstellungen
• VRAM-Anforderungen beachten (min. 8GB empfohlen)
⚠️ Spracheingabe funktioniert nicht
Lösungen:
• Mikrofonzugriff erlauben (Einstellungen → Datenschutz → Mikrofon)
• Whisper-Modell auf dem Server installieren
• Prüfe die Audio-Einstellungen auf deinem Gerät
⚠️ App stürzt ab
Lösungen:
• App komplett schließen und neu starten
• Gerät neu starten
• App löschen und neu installieren
• Prüfe ob iOS/macOS aktuell ist

Noch Fragen?

Unser Support-Team hilft dir gerne weiter!

📧 Kontakt aufnehmen

Frequently Asked Questions

What is Local AI Hub?
Local AI Hub is an app for iOS, iPadOS and macOS that allows you to chat with local AI models. Connect to Ollama, OpenWebUI or your own server - your data stays private and local.
Which AI models are supported?
All Ollama-compatible models: Llama 3.2, Llama 3.1, Mistral, CodeLlama, Phi-3, Gemma, and many more. You can also use GPT-4 via API key.
Do I need my own server?
Yes, you need a computer running Ollama or OpenWebUI. This can be your own PC, a NAS, or a server. The app connects via your network.
How much does the app cost?
The app costs a one-time fee of €3.99 / $3.99 – no subscription! This includes all basic features. For power users, there's the Premium upgrade for €9.99 / $9.99 (also one-time) with features like image generation, cloud sync, unlimited profiles and more.
Is my data stored?
No! Your chats stay locally on your device. We have no access to your conversations. Privacy First is our principle.
How do I set up Ollama?
1. Install Ollama from ollama.ai
2. Run a model: ollama run llama3
3. In the app: Settings → Enter server URL (e.g. http://192.168.1.100:11434)
Does the app work on the go?
Yes, if your server is accessible via the internet (e.g. via VPN or reverse proxy). Otherwise you need a connection to your home network.
How does image generation work?
You can connect ComfyUI, OpenWebUI with Stable Diffusion or DALL-E. Find the configuration under Settings → Image Generation.

⌨️ Keyboard Shortcuts (Mac/iPad)

New Chat
N
Send Message
Search
F
Settings
,
Switch Chat
↑/↓
Switch Profile
1-9
Voice Input
M
Generate Image
G
Export Chat
E
Toggle Sidebar
\\
Fullscreen
F
Quit App
Q

🔧 Troubleshooting

⚠️ Connection to server failed
Solutions:
• Check if Ollama is running: ollama serve
• Verify the server URL in settings
• Make sure both devices are on the same network
• Check firewall settings (allow port 11434)
⚠️ Model not responding
Solutions:
• Check if model is loaded: ollama list
• Wait for model to fully load (large models take time)
• Try a smaller model like llama3:8b
• Check available RAM/VRAM on server
⚠️ Slow responses
Solutions:
• Use a smaller model (7B instead of 70B)
• Enable GPU acceleration in Ollama
• Reduce context (clear chat history)
• Check network connection
⚠️ Image generation not working
Solutions:
• Check ComfyUI/OpenWebUI configuration
• Make sure an image model is loaded
• Verify API URL in settings
• Note VRAM requirements (min. 8GB recommended)

Still have questions?

Our support team is happy to help!

📧 Contact Us