home

Der fünfjährige Entwicklungszyklus von tinygrad zeigt, dass ein schlanker, eigenständiger Software-Stack die etablierten ML-Frameworks nicht nur erreichen, sondern in vielen Fällen übertreffen kann und damit die GPU-Landschaft demokratisiert.

Die fünfjährige Entwicklung hat einen minimalistischen, aber leistungsstarken Ansatz gezeigt, der die Grenzen herkömmlicher Plattformen sprengt und neue Möglichkeiten für Entwickler eröffnet. Tinygrad hat sich seit seinem ersten Commit am 17. Oktober 2020 kontinuierlich weiterentwickelt und heute über 18.935 Zeilen Code (ohne Tests) beziffert, wobei das Ziel ist, auf etwa 20.000 Zeilen zu optimieren.

Mit einem schlanken Software-Stack, der keine externen Abhängigkeiten außer reinem Python hat, verfolgt tinygrad das Ziel, eine vollständige GPU-Plattform zu schaffen, die selbst mit AMD-Hardware wie der MI350X Llama‑405B Training unterstützen kann. Durch eigenständige GPU-Treiber für AMD und die Entfernung von LLVM soll die Performance gegenüber etablierten Frameworks wie PyTorch übertroffen werden.

Der Ansatz basiert auf einer einfachen Philosophie: 98 % der Zeilen im Code sind Workarounds, die entfernt werden, um die Klarheit zu erhöhen. Tinygrad folgt einem „Elon‑Process“, der Anforderungen vereinfacht und den Fokus auf das Ziel legt – einen kleineren, aber leistungsfähigeren Stack zu schaffen. Die Mission lautet: GPU‑Rechenleistung als Standardprodukt etablieren.

Das Unternehmen ist dezentralisiert, nutzt Discord und GitHub und erzielt Einnahmen durch den Verkauf von TinyBox-Hardware. Öffentliche Vertragsverhandlungen mit AMD laufen über Twitter. Die Community wächst durch Open‑Source-Hiring: Beiträge zum Repository werden von neuen Mitarbeitenden übernommen, und wöchentliche Besprechungen garantieren klare Zielvorgaben.

Quelle: https://geohot.github.io//blog/jekyll/update/2025/12/29/five-years-of-tinygrad.html