home

Vergleich von Open-Source AI-Code-Review-Tools: ai‑code‑review vs pr‑agent

Der Autor hält ai‑code‑review und pr‑agent für die vielversprechendsten Open‑Source‑Tools zur automatisierten Code‑Review. Er plant, diese sowohl im eigenen Projektoffizialen Forgejo‑Setup zu integrieren als auch, falls möglich, pr‑agent nach Forgejo‑Kompatibilität zu erweitern, um die beiden Ansatzarten systematisch zu vergleichen.

Key Takeaway

Der Autor hält ai‑code‑review und pr‑agent für die vielversprechendsten Open‑Source‑Tools zur automatisierten Code‑Review.

Summary

  • Motivation & Ausgangssituation
  • Fortschritt bei Forgejo
  • Vergleich bestehender Open‑Source‑Tools
  • Bewertung
  • Konkrete nächste Schritte
  • Praktische Hinweise

Mögliche Tool-Details

Tool Hauptmerkmal Architektur Deployment Modell‑Provider Status
ai‑code‑review Python (typed), modulare CLI/CD‑Job Modular Local, GitLab CI, GitHub Actions Gemini, Anthropic, Ollama Aktiv
ai‑codereview Mono‑Python, intern für RH Monolithisch Local, GitLab CI RH‑intern: Claude, Gemini, Granite Aktiv
kodus‑ai TypeScript, web‑app Modular Local (yarn), Docker OpenAI, Gemini, Anthropic, usw. Aktiv
pr‑agent Python (untyped), lange Historie Modular Local oder verschiedene CI‑Runner OpenAI‑Compatible (LiteLLM) Archived (Nov 2025)
ai‑pr‑reviewer TypeScript, GitHub‑action orientiert Modular GitHub Action (unmaintained) OpenAI Archived (Nov 2023)

Bewertung

  • ai‑code‑review: Feature‑reich, gute Architektur, nicht auf RH‑Interne Modelle festgelegt.
  • pr‑agent: Größere Historie, stabile Stand‑alone‑Deployment‑Dokumentation, aber inzwischen archiviert & teilweise SaaS‑Geschlossen‑Source‑Verfolgung.
  • kodus‑ai, ai‑pr‑reviewer: Interessante Sprach‑Stack‑Optionen, jedoch komplexe Deployments oder frühzeitige Archivierung.
  • ai‑codereview: Nur für RH‑Interne Modelle geeignet, geringere Extern‑Zugänglichkeit.

Konkrete nächste Schritte

  • Weiterentwicklung der Forgejo‑Integration ai‑code‑review.
  • Experimentelle Fork‑Version von pr‑agent mit zusätzlicher Forgejo‑Support‑Funktionalität.
  • Vergleich beider Tool‑Ansätze hinsichtlich Review‑Qualität, Deployment‑Komplexität & Skalierbarkeit.
  • Aufbau eines Fedora‑LLM‑Providers, um Open‑Source‑Modelle für zukünftige Deployments zu nutzen.

Praktische Hinweise

  • ai‑code‑review nutzt die gleiche Prompt‑Definition wie die PoC; leicht erweiterbar.
  • Für pr‑agent gibt es ein optionales Python‑Paket; einfach in CI‑Jobs zu containerisieren.
  • GitHub‑Action‑Beispiele sind aus der Haupt‑Repo‑Architektur ersichtlich, jedoch in der Archivierung möglicherweise veraltet.

Quelle: https://www.happyassassin.net/posts/2025/12/16/a-half-assed-assessment-of-open-source-ai-code-review-tools/