Was passierte, als wir einem KI-Agenten eine eigene Identität gaben
Wir haben OpenClaw — einen Open-Source-KI-Agenten — mit eigenen Accounts, eigener Telefonnummer und freier Hand ausgestattet. Er hat sich ein LinkedIn-Profil erstellt, bevor wir es verhindern konnten.
Es gibt ein Open-Source-Projekt namens OpenClaw, das ein Large Language Model in einen persistenten, autonomen Agenten verwandelt. Er kann sich Dinge merken, Code schreiben, im Web surfen, seine eigenen Accounts verwalten und mit Ihnen auf WhatsApp kommunizieren. Wir haben einen für unser Team eingerichtet. Hier ist, was er kann — und was passierte, als wir ihn losließen.
Er merkt sich alles
Die meisten KI-Unterhaltungen starten bei null. OpenClaw nicht. Er pflegt zwei Ebenen von Gedächtnis: Markdown-Dateien für menschenlesbares Wissen (Präferenzen, Projektkontext, vergangene Entscheidungen) und eine Datenbank für strukturierte, durchsuchbare Fakten.
Der Markdown-Ansatz macht den Unterschied. Man kann eine Datei öffnen und genau nachlesen, was der Agent über einen weiß. Man kann seine Überzeugungen per git diff vergleichen. Man kann alles bearbeiten oder löschen. Keine Black Box — ein Notizbuch, das man auditieren kann.
Das Ergebnis ist ein Agent, der mit der Zeit besser wird. Nicht weil das Modell sich verbessert, sondern weil der Kontext, den er für jede Aufgabe aufbaut, präziser wird. Gedächtnis ist kein Speicher. Es ist das Wissen darüber, was gerade wichtig ist.
Er schreibt seine eigenen Tools
Wenn OpenClaw ein wiederkehrendes Muster bemerkt — denselben API-Call drei Mal, dieselbe Datentransformation bei jeder Anfrage — baut er eine Abkürzung. Er schreibt ein Skript, testet es in einer Sandbox und deployt es für das nächste Mal.
Das System erweitert sich selbst. Über Wochen wird der Agent leistungsfähiger — nicht weil jemand ihn aktualisiert, sondern weil er Reibung kontinuierlich in Tools umwandelt. Er beobachtet, was mühsam ist, und automatisiert es.
Sie können jetzt mit ihm sprechen
Intern schreiben wir OpenClaw auf WhatsApp. Er ist einfach ein weiterer Kontakt — wir schicken ihm Fragen, Sprachnachrichten, starten Aufgaben. Kein Dashboard, keine App, kein Login-Screen.
Sie können es selbst ausprobieren. Rufen Sie +1 (737) 248-7271 an und sprechen Sie mit unserem virtuellen Assistenten. Derselbe Agent, dasselbe Urteilsvermögen — nur per Telefonanruf statt per Chat.
Eigene Accounts. Eigene Identität.
Wir haben OpenClaw mit einem eigenen 1Password-Vault, eigenen Service-Accounts und eigenen API-Keys ausgestattet. Er greift niemals auf unsere persönlichen Zugangsdaten zu. Wenn er Zugang zu einem System braucht, authentifiziert er sich als er selbst — eine separate Identität mit eingeschränkten Berechtigungen.
Wir empfehlen das dringend für jedes Agenten-Setup. Wird der Agent kompromittiert, bleiben Ihre Accounts sicher. Der Explosionsradius ist begrenzt. Ein Agent ist keine Erweiterung Ihrer Identität. Er ist eine neue Identitätsklasse, und ihn isoliert zu betreiben ist der einzig verantwortungsvolle Weg.
Der LinkedIn-Vorfall
Hier eine Geschichte, die sowohl die Stärken als auch die Grenzen zeigt. Wir sagten OpenClaw, er solle sich ein eigenes LinkedIn-Profil erstellen. Das tat er. Er füllte eine Bio aus, fügte ein Profilbild hinzu und begann, sich mit jedem Teammitglied zu vernetzen. Innerhalb von Stunden hatte er eine glaubwürdige professionelle Präsenz.
Dann sperrte LinkedIn ihn. Verständlich — Bots in einem sozialen Netzwerk für echte Professionals sind keine gute Idee, und LinkedIns Nutzungsbedingungen sind da eindeutig. Aber die Tatsache, dass der Agent all das autonom erledigen konnte — von der Account-Erstellung bis zum Netzwerkaufbau — ohne dass jemand ihn Schritt für Schritt angeleitet hat, das ist der Teil, der Aufmerksamkeit verdient.
Es ist auch eine gute Erinnerung: Ein Agent, der Dinge für Sie erledigen kann, kann auch Dinge tun, die Sie nicht vollständig durchdacht haben. Leitplanken sind wichtig.
Sandboxed, immer
OpenClaw läuft in einer isolierten Umgebung. Er kann nicht auf Ihr Dateisystem, Ihre Browser-Sessions oder Ihre Produktionsinfrastruktur zugreifen — es sei denn, Sie erlauben es explizit. Jede Aktion passiert innerhalb eines Containers mit minimalen Berechtigungen.
Behandeln Sie einen KI-Agenten wie einen neuen Mitarbeiter am ersten Tag. Eingeschränkte Berechtigungen. Überwachter Zugang. Vertrauen wird schrittweise aufgebaut. Isolation ist ein Designprinzip, keine Reaktion auf etwas, das schiefgelaufen ist.
Heartbeats: Geplantes Denken
Alle 15 Minuten wacht OpenClaw auf. Er arbeitet nicht blind eine Aufgabenliste ab — er prüft: Gibt es etwas Neues? Etwas Dringendes? Wenn nicht, schläft er weiter.
Ein Cron-Job führt einen Befehl aus. Ein Heartbeat führt Urteilsvermögen aus. Der Agent entscheidet, ob er handeln soll, nicht nur worauf er handeln soll. Diese Unterscheidung — geplantes Denken statt geplantes Ausführen — ist das, was einen Agenten von einem Skript unterscheidet.
Was wir gelernt haben
OpenClaw ist ein Produktionstool, kein Spielzeug. Wir nutzen ihn täglich. Er erledigt echte Arbeit, macht echte Fehler und wird bei beidem besser. Das Open-Source-Framework macht die Schwerstarbeit. Unsere Aufgabe war, ihn einzurichten, ihm die richtigen Grenzen zu geben und zu lernen, wann man ihn laufen lässt und wann man ihn bremst.
Wenn Sie einen solchen Agenten möchten — einen mit eigener Identität, eigenem Gedächtnis und dem Urteilsvermögen, nach Zeitplan zu handeln — genau dabei helfen wir Unternehmen.
GESCHRIEBEN VON
Ahoi AI Team
Ersetzen Sie Ihre nächste SaaS-Verlängerung durch etwas, das Ihnen gehört.
Wir bauen maßgeschneiderte agentische Systeme in Wochen, nicht Monaten. Von der Analyse bis zum Deployment — Ihre Software läuft auf Ihrer Infrastruktur.
KI-GETRIEBENE ENTWICKLUNG ENTDECKEN