Tapestry Loom – Eine leistungsstarke Basis‑LLM‑Interface für Power‑User
Wenn Sie nach einer robusten, nutzerfreundlichen Oberfläche für Basis‑LLM‑Modelle suchen, bietet Tapestry Loom eine umfangreiche Sammlung an Features, die sowohl erfahrene Entwickler als auch Power‑User ansprechen. Von der einfachen Migration bis hin zum lokalen Inferencing mit llama.cpp – alles ist in einer einzigen Plattform integriert.
Repository‑Struktur
- Root:
README.md,LICENSE,Cargo.mdund Quellcode insrc - Unterverzeichnisse:
docs,fonts,migration-assistant,tapestry-tokenize,universal-weave,src,/.github/workflows
Design‑Inspiration
Die Architektur von Tapestry Loom basiert auf bewährten Projekten wie loom, loomsidian, exoloom, logitloom und wool.
Bekannte Probleme
- Ungültige Tokenkanten bei einigen Dokumenten (Bug in
egui) - Tab‑Balken werden von Screen‑Readern nicht gelesen (Bug in
egui_tiles)
Bereitstellungsoptionen
Binaries: Verfügbar auf der Releases‑Seite. Für macOS: xattr -d com.apple.quarantine tapestry*.
Quellcode kompilieren: Rust‑Toolchain + C‑Compiler erforderlich. Befehle:
git clone --recurse-submodules git submodule update --init --recursive cargo build --release
Aktualisierung
Folgen Sie diesen Schritten, um die neueste Version zu erhalten:
git pull git submodule update --init --recursive cargo build --release
Einrichtung lokaler Inferencing
Empfohlener Server: llama.cpp (llama‑server). Beispiel‑CLI‑Argumente:
llama-server --models-dir $MODEL_DIRECTORY --models-max 1 --jinja \ --chat-template "message.content" --ctx-size 4096 --temp 1 --top-k 0 \ --top-p 1 --min-p 0
Empfohlene Modelle
Trinity-Mini-Base-Pre-Anneal– ideal für Systeme mit ~32 GB VRAMTrinity-Nano-Base-Pre-Anneal– für Systeme unter 32 GB VRAM
Tokenisierung
Optionaler Token‑Server (tapestry-tokenize) erhöht die Output‑Qualität bei Modellen, die Token‑IDs liefern. Aktivieren Sie (Opportunistically) reuse output token IDs für optimale Ergebnisse.
Migration
Der migration-assistant ermöglicht das Überführen von Weaves aus anderen Loom‑Implementierungen.
Dokumentation & Support
Weitere Informationen finden Sie in Getting Started.md. Offene Issues und Bug‑Reports sind auf GitHub verfügbar.
Zukunftsaussichten
Der aktuelle Release konzentriert sich ausschließlich auf Basis‑ oder Embedding‑Modelle. Die Weiterentwicklung stoppt vorübergehend bis Q1 2026, danach beginnt ein neuer Entwicklungszyklus. Spenden werden zur weiteren Entwicklung angefordert.
