home

CalculatorLLM: Ein GRU-basiertes Sprachmodell ohne Transformer-Architektur

Key Takeaway

Der Repo „CalculatorLLM“ enthält ein auf GRU (Gated Recurrent Unit) basierendes Sprachmodell, das laut README bewusst nicht auf Transformer‑Architektur setzt.

Summary

  • Repository‑Name: Phineas1500/CalculatorLLM (öffentlich, keine Sterne/Forks)
  • Haupt‑Readme‑Inhalt: „This is a GRU, not a transformer model.“
  • Verweis auf eine Video‑Erklärung: YouTube‑Video
  • Kein expliziter Beschreibungsabschnitt, Website oder Themengelistung vorhanden
  • Letzter Commit: 10 Commits auf Branch main
  • Ordnerstruktur:
    • scripts/ – Anwendungs‑spezifische Skripte
    • src/ – Quellcode (Python/C)
    • training/ – Daten, Trainings‑Skripte und Konfigurationen
    • .gitignore, makefile, README.md
  • Programmiersprachen: Python (54,7 %), C (41,9 %), Shell (3,1 %), Makefile (0,3 %)
  • Kein Release, keine Packages, keine aktiven Issues/Pull‑Requests
  • Keine Lizenzangabe im README‑Fragment

Related Queries

Welche Funktionen bietet das CalculatorLLM-Modell?

Wie lässt sich der GRU‑Ansatz in diesem Repo trainieren?

Wo finde ich die Dokumentation oder Beispielsweise des Modells?

Quelle: GitHub Repository