
Agent AI Wpiety w Graf Wiedzy z 3800+ Wezlow
OpenClaw / Node.js / Obsidian CLI / OpenViking / Gemini API / ElevenLabs / Telegram API / SQLite
Agent AI działający w moim środowisku, wpięty we wszystko, czego używam. Moje narzędzia, moje modele, moja architektura agenta, moje zasady. Działa 24/7 na domowym serwerze, nawigując po grafie wiedzy Obsidian (3 800+ węzłów) przez CLI. Trzy kanały komunikacji (Telegram z 9 sesjami tematycznymi, Slack, Discord) zasilają trójwarstwową architekturę pamięci: silnik kontekstu semantycznego, pliki pamięci roboczej i hybrydowy magazyn SQLite (BM25 + wektor). Agent odpowiada na pytania, porusza się po grafie przez wikilinki i backlinki, odnosi nową wiedzę do istniejących projektów i zapisuje ustrukturyzowane notatki zgodnie ze schematem vaulta.
Chatboty mają architekturę narzuconą przez dostawcę. Ich narzędzia, ich limity. Chciałem agenta, który czyta moje notatki, uruchamia zadania cron do porannego briefu i używa moich narzędzi. Swoboda wyboru modelu i dostawcy, z miejscem na lokalne modele w przyszłości.
AI, które zna cały mój kontekst i działa na moich zasadach.
Jeden Telegram z tematami zamiast pięciu subskrypcji do pięciu aplikacji. Rozmawiam ze swoim agentem, on pracuje na moich notatkach, wszystko zostaje w pamięci. Mogę wracać do spraw sprzed miesięcy, bo wszystko jest w vaultcie. Jedno zapytanie z telefonu zamiast wyszukiwania w internecie. Zastąpiłem Google przeszukiwaniem własnego grafu wiedzy.
# Agent Tool Priority T0: OpenViking — long-term semantic memory (autoRecall)T1: Obsidian CLI — knowledge graph navigation (backlinks, wikilinks, tags)T2: memory_search — hybrid BM25 + vector over workspace memoryT3: defuddle — web content extraction (clean markdown)T4: bird — X/Twitter reading (posts, threads, search)T5: gws-safe — Google Workspace (Gmail, Calendar, Drive, Sheets)T6: web_search — internet search (neural + keyword)T7: exec — shell command execution Rule: always start at T0, escalate only when needed.# Graph Navigation — Golden Path 1. ENTITY → read file="Atlas" (what is it? what do I know?)2. BACKLINKS → backlinks file="Atlas" (who references it?)3. FILTER → pick by date/tag (March 2026? → 2 results)4. READ → read path="...result..." (answer in content) Goal: answer in ≤4 commands.If you need >6 — you're grep-thinking, not graph-thinking.# Recall Hierarchy Exhaust local context before reaching outward: 0. autoRecall ← automatic semantic context, zero cost 1. MEMORY.md ← curated long-term facts, always in context 2. ov_find ← manual semantic search (OpenViking) 3. Obsidian CLI ← graph navigation: backlinks, wikilinks, tags 4. memory_search ← hybrid vector + BM25 over workspace files ... 6. web_search ← internet is LAST RESORT # Pre-Write Checklist Before ANY vault write:1. date +"%Y-%m-%d %H%M" — current timestamp2. read file="VAULT-SCHEMA" — source of truth3. Use template if folder has one — never create manually4. Check for subfolder note — if missing, propose one Every proper noun = [[wikilink]]. No exceptions.# Recall Priority Rule: always exhaust local context before reaching outward. 1. MEMORY.md → curated long-term facts (source of truth)2. Obsidian CLI → navigate graph: backlinks, wikilinks, tags3. memory_search → hybrid vector + BM25 over workspace files4. Web → last resort, verify against local context # Compaction — what survives context reset On threshold (4000 tokens):→ flush 3-5 bullets to memory/YYYY-MM-DD.md→ key decisions, new facts, action items ONLY→ NOT a transcript. NOT a conversation summary.→ If nothing worth saving — NO_REPLY. # Anti-sycophancy Banned: "Swietne pytanie!", "Absolutnie!", "Chetnie pomoge!"Rule: push back when wrong, challenge lazy thinking, hold accountable for goals. Opinions > compliance.
Graf wiedzy Brain-Vault. Klastry reprezentuja projekty, ludzi i obszary zainteresowan.

Architektura Agenta. Przeplyw wiadomosci od kanalow przez dispatch narzedzi do grafu wiedzy.