Zurück zum Blog

Warum ich AIdaemon gebaut habe: ein selbst gehosteter KI-Agent, den Sie von Ihrem Handy aus steuern

2026-02-179 min read

Ich benutze schon seit einiger Zeit KI-Agenten zum Programmieren. Claude Code, Codex, Cursor, Windsurf, Open Code. Sie haben die Art und Weise, wie ich Software schreibe, verändert. Aber das war's dann auch. Die KI blieb im Editor.

Dann kam OpenClaw. Ein Open-Source-KI-Agent, der tatsächlich Ihre Anwendungen steuern, Nachrichten senden und Ihren Posteingang verwalten konnte. Nicht nur Programmieren, sondern alles auf Ihrem Computer. Das brachte mich ins Grübeln, was KI-Agenten noch alles leisten könnten.

Aber ich wollte etwas anderes. Ich brauchte keinen Agenten, der Spotify steuert oder meine Smart Lights verwaltet. Ich brauchte einen, der auf meinem Server läuft, Terminalbefehle ausführt, Code bereitstellt und sich daran erinnert, woran ich letzte Woche gearbeitet habe. Etwas, dem ich von meinem Handy aus eine Nachricht senden kann, wenn ich nicht am Schreibtisch bin, und das dann echte Entwicklungsarbeit auf meiner Maschine erledigt.

Deshalb habe ich AIdaemon entwickelt.

Was ist AIdaemon?

AIdaemon ist ein selbst gehosteter KI-Agent, der als Hintergrund-Daemon auf Ihrer Maschine läuft. Sie kommunizieren mit ihm über Telegram, Slack oder Discord, und er kann Terminalbefehle ausführen, im Web surfen, Dateien verwalten, geplante Aufgaben ausführen und sich Dinge über Sitzungen hinweg merken. Es ist eine einzelne Rust-Binärdatei. Kein Docker erforderlich, keine Node.js-Abhängigkeiten. Einfach auf eine beliebige Maschine kopieren und es läuft.

Stellen Sie es sich als einen fähigen Assistenten vor, der permanent auf Ihrem Server oder Laptop läuft und den Sie von überall aus anfunken können.

Warum nicht einfach OpenClaw verwenden?

Ich habe tatsächlich mit OpenClaw angefangen. Die Idee war brillant, aber als ich tiefer einstieg, stieß ich immer wieder auf Dinge, die noch fehlten. Ich wollte Befehle direkt von meinem Handy genehmigen, bevor sie ausgeführt werden. Ich wollte die Schritte sehen, die die KI in Echtzeit unternimmt, nicht nur das Endergebnis. Grundlegende Dinge für ein Tool, das Befehle auf Ihrer Maschine ausführt.

Dann stieß ich auf einen Bug, bei dem OpenClaw nicht mit Gemini funktionierte. Ich habe ihn behoben und eine Pull Request (PR) geöffnet, aber die PR-Warteschlange war riesig. Ich wusste, dass es Tage, vielleicht länger dauern würde, bis meine Korrektur im Hauptzweig ankommt. Da wurde mir klar: Wenn ich ständig den Code des Projekts eines anderen patchen muss, um das zu bekommen, was ich brauche, sollte ich vielleicht einfach mein eigenes Ding bauen und es als Lernerfahrung nutzen, um zu verstehen, wie persönliche KI-Agenten architektonisch aufgebaut sein müssen, welche Randfälle es gibt, welche Einschränkungen bestehen und alles dazwischen.

Außerdem war OpenClaw auf einem meiner Macs spürbar langsam. Bei etwas, das als Hintergrund-Daemon laufen soll, ist die Leistung wichtig. Das brachte mich dazu, etwas Leichteres zu wollen.

Aber die größte Lücke war das Gedächtnis. OpenClaw hatte das noch nicht. Jede Konversation begann von Neuem. Kein Kontext vom Vortag, keine Erinnerung daran, an welchen Projekten man arbeitet, kein Lernen aus vergangenen Fehlern. Damit konnte ich nicht arbeiten.

Die Frage verlagerte sich also von „Wie bringe ich OpenClaw dazu, für mich zu funktionieren?“ zu „Wie würde mein idealer KI-Daemon aussehen?“. Ich stieß immer wieder auf dieselbe Frustration. Ich war nicht am Computer und musste etwas überprüfen, einen Dienst neu starten oder einen schnellen Befehl ausführen. SSH vom Handy aus funktioniert notfalls, ist aber für alles, was über ls hinausgeht, mühsam.

Was wäre, wenn ich einfach eine Telegram-Nachricht senden könnte wie „Prüfe, ob der nginx-Dienst läuft“ und eine Antwort bekäme? Oder „Stelle die neuesten Änderungen auf Staging bereit“? Das war die Kernidee, inspiriert von OpenClaw.

Das Gedächtnis war das Erste, was ich entworfen habe

Von Tag eins an wusste ich, dass sich AIdaemon Dinge merken muss. Nicht nur den Chatverlauf, sondern tatsächliches Wissen. Welche Projekte ich bearbeite. Welche Tools ich bevorzuge. Welche Fehler ich zuvor gemacht habe und wie ich sie behoben habe.

Alle sechs Stunden überprüft ein Hintergrundprozess die letzten Konversationen und extrahiert dauerhafte Fakten. Dinge wie „David nutzt Cloudflare für die Bereitstellung“ oder „Der Staging-Server läuft auf Port 3002“. Alte Fakten werden ersetzt, wenn neue Informationen eingehen, sodass das Wissen aktuell bleibt.

Es lernt auch aus Fehlern. Wenn AIdaemon einen Fehler feststellt und ihn dann erfolgreich behebt, speichert es das Muster und die Lösung. Wenn das nächste Mal ein ähnlicher Fehler auftritt, weiß es bereits, was zu tun ist.

Auch Arbeitsabläufe werden gelernt. Wenn ich eine Rust-App mehrmals auf die gleiche Weise baue, teste und bereitstelle, bemerkt AIdaemon das Muster. Nach genügend erfolgreichen Durchläufen wird das Verfahren automatisch zu einer wiederverwendbaren Fähigkeit befördert. Keine manuelle Einrichtung erforderlich.

All dies wird durch Vektor-Embeddings für das semantische Abrufen unterstützt, gewichtet nach Aktualität und Nützlichkeit. Fakten, die 30 Tage lang nicht abgerufen wurden, verfallen allmählich. Das Gedächtnis bleibt relevant, ohne dass eine manuelle Bereinigung erforderlich ist.

Das Gedächtnis ist auch datenschutzbewusst. Fakten sind mit Sichtbarkeitsstufen gekennzeichnet, sodass Informationen, die in einer privaten Direktnachricht geteilt werden, niemals in einen Team-Kanal gelangen.

Wie es funktioniert

Die Architektur ist unkompliziert. AIdaemon startet als Systemdienst (launchd unter macOS, systemd unter Linux) und verbindet sich mit Ihren Messaging-Kanälen. Wenn eine Nachricht eingeht, durchläuft sie eine Agentenschleife.

  1. Absichtsklassifizierung – Ein schnelles Modell ermittelt, was Sie möchten. Eine schnelle Antwort, eine auszuführende Aufgabe, eine einzurichtende Automatisierung.
  2. Tool-Auswahl – Der Agent wählt basierend auf Ihrer Anfrage aus über 40 integrierten Tools aus
  3. Ausführung mit Sicherheit – Befehle durchlaufen vor der Ausführung Risikoanalysen und Genehmigungsabläufe
  4. Speicheraktualisierung – Wichtiger Kontext wird für zukünftige Gespräche gespeichert

Die Tools

AIdaemon wird mit über 40 Tools ausgeliefert.

  • Terminal – Ausführung von Shell-Befehlen mit Allowlist-basierter Sicherheit und Inline-Genehmigung (Einmal zulassen / Immer zulassen / Ablehnen)
  • Dateioperationen – Lesen, Schreiben, Bearbeiten und Suchen von Dateien
  • Git – Commit, Branching, Statusprüfung
  • Web-Browsing – Headless Chrome für Seiten, die JavaScript-Rendering erfordern
  • HTTP-Anfragen – Volle Header-Kontrolle, Auth-Profile, OAuth-Unterstützung
  • MCP-Integration – Verbindung zu externen MCP-Servern zur Erweiterung der Fähigkeiten
  • CLI-Agenten – Delegieren von Aufgaben an Claude Code, Gemini CLI, Codex oder Aider
  • Planung – Cron-ähnliche Aufgabenautomatisierung mit natürlicher Sprachzeitparsung
  • Speicherverwaltung – Abfragen, Aktualisieren und Teilen von Wissen über Kanäle hinweg

Sie können Kanäle auch zur Laufzeit hinzufügen. Müssen Sie einen Discord-Bot neben Ihrem bestehenden Telegram-Bot verbinden? Verwenden Sie einfach den Befehl /connect. Kein Neustart erforderlich.

Intelligentes Modell-Routing

Nicht jede Nachricht benötigt das teuerste Modell. AIdaemon klassifiziert Anfragen in drei Stufen.

  • Schnell – Einfache Fragen, schnelle Abfragen (günstigstes Modell)
  • Standard – Normale Aufgaben, die meisten Interaktionen (Standardmodell)
  • Intelligent – Komplexe Schlussfolgerungen, mehrstufige Aufgaben (leistungsfähigstes Modell)

Es unterstützt standardmäßig mehrere LLM-Anbieter. OpenAI-kompatible APIs (einschließlich OpenRouter), Google Gemini, Anthropic Claude, Ollama und jedes lokale Modell, das Sie ausführen möchten. Sie können Anbieter zur Laufzeit austauschen, ohne neu kompilieren zu müssen.

Sicherheit zuerst

Einem KI-Agenten Zugriff auf das Terminal zu gewähren, ist etwas, das man richtig machen muss. AIdaemon verfolgt einen vorsichtigen Ansatz.

  • Allowlist-basierte Ausführung – Nur vorab genehmigte Befehlspräfixe werden ohne Nachfrage ausgeführt
  • Inline-Genehmigungsablauf – Für alles, was nicht auf der Allowlist steht, erhalten Sie eine Eingabeaufforderung „Einmal zulassen / Immer zulassen / Ablehnen“ direkt in Ihrem Chat
  • Risikobewertung – Befehle werden nach zerstörerischem Potenzial, Pfadabhängigkeit und Komplexität bewertet
  • SSRF-Schutz – HTTP-Tools blockieren Anfragen an interne IPs
  • Verschlüsselter Zustand – Datenbankverschlüsselung mit SQLCipher, Geheimnisse werden im Schlüsselbund Ihres Betriebssystems gespeichert
  • Stall-Erkennung – Der Agent stoppt sich selbst, wenn er dreimal denselben Tool-Aufruf wiederholt oder in alternierenden Mustern stecken bleibt

Erste Schritte

Der schnellste Weg, es auszuprobieren.

# Installation über Homebrew
brew tap davo20019/tap
brew install aidaemon

# Oder Installation über crates.io
cargo install aidaemon

# Oder direkt die Binärdatei herunterladen
curl -sSfL https://get.aidaemon.ai | bash

Erstellen Sie dann eine config.toml mit Ihrem LLM-Anbieter und dem Telegram-Bot-Token und starten Sie den Daemon.

# Als Systemdienst installieren
aidaemon install-service

# Oder im Vordergrund ausführen
aidaemon

Das war's. Senden Sie eine Nachricht an Ihren Telegram-Bot und Sie sprechen mit Ihrer Maschine. Schauen Sie sich die vollständige Dokumentation für Konfigurationsoptionen und erweiterte Funktionen an.

Warum Rust?

Ich hatte vor diesem Projekt noch keine Zeile Rust geschrieben. Nachdem ich die Trägheit von OpenClaw auf meinem Mac erlebt hatte, wollte ich etwas Schnelles. Ich wollte auch sehen, ob ich ein produktionsreifes System in einer unbekannten Sprache bauen könnte, indem ich mich bei der Fleißarbeit auf KI-Codierungstools verlasse. Claude Code, Codex und Antigravity kümmerten sich um den Boilerplate-Code und die Kämpfe mit dem Borrow Checker. Ich konzentrierte mich auf Architektur und Design.

Das Ergebnis ist eine einzelne Binärdatei, die ich auf einen Raspberry Pi oder einen 5-Dollar-pro-Monat-VPS kopieren kann, und sie funktioniert einfach. Kein Docker, kein Node.js, keine Laufzeitabhängigkeiten. Für einen Daemon, der rund um die Uhr laufen soll, erwiesen sich Rusts Compile-Time-Sicherheit und der geringe Speicherbedarf als die richtige Wahl.

Was kommt als Nächstes

AIdaemon ist in Version 0.9.2 und ich füge immer noch Dinge hinzu. Jüngste Ergänzungen umfassen ein Zwei-Phasen-Beratersystem für eine intelligentere Absichtsklassifizierung, die Durchsetzung eines strukturierten JSON-Schemas für LLM-Ausgaben und die Zielverfolgung mit Token-Budgets.

Das Projekt ist Open Source auf GitHub und auf crates.io veröffentlicht. Wenn Sie daran interessiert sind, einen persönlichen KI-Agenten zu haben, den Sie vollständig kontrollieren, probieren Sie es aus und lassen Sie mich wissen, was Sie denken.

Auf dem Laufenden bleiben

Erhalten Sie die neuesten Beiträge und Einblicke direkt in Ihren Posteingang.

Unsubscribe anytime. No spam, ever.