home

Elysia – Agentisches Plattform-Framework für Weaviate

Key Takeaway: Elysia ist ein agentisches Plattform-Framework, das dynamisch passende Tools in einem Entscheidungsbaum auswählt und sich nahtlos in Weaviate-Cluster integriert.

Projektstatus & Lizenz

  • Elysia befindet sich derzeit in der Beta‑Phase.
  • Das Projekt ist Open Source (BSD‑3‑Clause-Lizenz) und wird von der Weaviate-Community gepflegt.

Inhalt des Repositories

Das Repository enthält das Python‑Package elysia-ai, die FastAPI‑API und ein responsives Front‑end (separates Repo).

Features & Architektur

• Agentisches System: ein Entscheidungsagent wählt dynamisch Tools aus einem vordefinierten Web von Knoten aus.
• Kern‑Logik ist in reinem Python geschrieben; LLM‑Interaktionen werden über DSPy gehandhabt.
• Front‑end + FastAPI bilden eine moderne Web‑Applikation.
• Unterstützt sowohl lokale als auch Cloud‑Weaviate‑Cluster und lokale LLM‑Modelle (z. B. über Ollama).

Installation

• Empfohlen: pip install elysia-ai (Python 3.12+ nötig).
• Alternativ Git‑Clone‑Repository, virtuelle Umgebung, pip install -e ..
• Beispiele für Installation auf macOS, Windows, Ubuntu.

Nutzung

App‑Modus: elysia startlocalhost:8000. Konfiguration der API‑Keys, Weaviate‑Cluster‑Details, Modelle via UI.
Python‑Modus:
from elysia import tool, Tree

tree = Tree()
@tool(tree=tree) async def add(x: int, y: int) -> int:
return x + y

tree("What is the sum of 9009 and 6006?")

Konfiguration

.env‑Beispiel: WCD_URL, WCD_API_KEY, WEAVIATE_IS_LOCAL, OPENAI_API_KEY, OPENROUTER_API_KEY. Elysia erkennt automatisch lokale Weaviate‑Instanzen, setzt aber Standardwerte für alle Nutzer. Vektoriser‑ und LLM‑Modelle werden via API‑Keys authentifiziert.

Dokumentation & Community

Umfassende Anleitungen: Setup‑Seite, FAQs, Blog‑Beitrag zur Architektur. Demo‑Version (rate‑limited, feste Datensätze) unter https://elysia.weaviate.io/. Beteiligungsrichtlinien, Issues, Pull Requests und Diskussionen im Git‑Hub‑Repo.

FAQ‑Highlights

• Daten einbinden: eigene Weaviate‑Cluster verbinden; Collections müssen in der App analysieren werden.
• Vollständig lokales Setup möglich (Docker‑Weaviate‑Cluster und lokale LLM‑Modelle).
• Integrierte Features: dynamische Tool-Auswahl, Entscheidungsmethoden, LLM‑Kommunikation.

Meta

Quelle: GitHub‑Repo