home

Tapestry Loom – Eine leistungsstarke Basis‑LLM‑Interface für Power‑User

Wenn Sie nach einer robusten, nutzerfreundlichen Oberfläche für Basis‑LLM‑Modelle suchen, bietet Tapestry Loom eine umfangreiche Sammlung an Features, die sowohl erfahrene Entwickler als auch Power‑User ansprechen. Von der einfachen Migration bis hin zum lokalen Inferencing mit llama.cpp – alles ist in einer einzigen Plattform integriert.

Repository‑Struktur

  • Root: README.md, LICENSE, Cargo.md und Quellcode in src
  • Unterverzeichnisse: docs, fonts, migration-assistant, tapestry-tokenize, universal-weave, src, /.github/workflows

Design‑Inspiration

Die Architektur von Tapestry Loom basiert auf bewährten Projekten wie loom, loomsidian, exoloom, logitloom und wool.

Bekannte Probleme

  • Ungültige Tokenkanten bei einigen Dokumenten (Bug in egui)
  • Tab‑Balken werden von Screen‑Readern nicht gelesen (Bug in egui_tiles)

Bereitstellungsoptionen

Binaries: Verfügbar auf der Releases‑Seite. Für macOS: xattr -d com.apple.quarantine tapestry*.

Quellcode kompilieren: Rust‑Toolchain + C‑Compiler erforderlich. Befehle:

git clone --recurse-submodules
git submodule update --init --recursive
cargo build --release

Aktualisierung

Folgen Sie diesen Schritten, um die neueste Version zu erhalten:

git pull
git submodule update --init --recursive
cargo build --release

Einrichtung lokaler Inferencing

Empfohlener Server: llama.cpp (llama‑server). Beispiel‑CLI‑Argumente:

llama-server --models-dir $MODEL_DIRECTORY --models-max 1 --jinja \
--chat-template "message.content" --ctx-size 4096 --temp 1 --top-k 0 \
--top-p 1 --min-p 0

Empfohlene Modelle

  • Trinity-Mini-Base-Pre-Anneal – ideal für Systeme mit ~32 GB VRAM
  • Trinity-Nano-Base-Pre-Anneal – für Systeme unter 32 GB VRAM

Tokenisierung

Optionaler Token‑Server (tapestry-tokenize) erhöht die Output‑Qualität bei Modellen, die Token‑IDs liefern. Aktivieren Sie (Opportunistically) reuse output token IDs für optimale Ergebnisse.

Migration

Der migration-assistant ermöglicht das Überführen von Weaves aus anderen Loom‑Implementierungen.

Dokumentation & Support

Weitere Informationen finden Sie in Getting Started.md. Offene Issues und Bug‑Reports sind auf GitHub verfügbar.

Zukunftsaussichten

Der aktuelle Release konzentriert sich ausschließlich auf Basis‑ oder Embedding‑Modelle. Die Weiterentwicklung stoppt vorübergehend bis Q1 2026, danach beginnt ein neuer Entwicklungszyklus. Spenden werden zur weiteren Entwicklung angefordert.

Quelle: https://github.com/transkatgirl/Tapestry-Loom