Künstliche Intelligenz beschleunigt die Softwareentwicklung erheblich, erfordert jedoch kontinuierliche menschliche Kontrolle, iterative Verbesserung und gründliches Debugging, um qualitativ hochwertige Produkte zu liefern.
Key Takeaway
Künstliche Intelligenz beschleunigt die Softwareentwicklung erheblich, erfordert jedoch kontinuierliche menschliche Kontrolle, iterative Verbesserung und gründliches Debugging, um qualitativ hochwertige Produkte zu liefern.
Summary
- Transformative Zeit – 2025 gilt als die wichtigste Ära in der Softwareentwicklung, in der LLMs von „nützlichen Toy‑Apps“ zu echten Produktionswerkzeugen übergegangen sind.
- Aktuelle Projekte – In den letzten 12 Monaten wurden verschiedene Projekte mit hohem AI‑Einsatz umgesetzt:
- fate (eine moderne React‑Datenbibliothek) – 80 % AI‑Verwendung.
- JS‑Infra für ein AI‑Startup – 10 % AI.
- Relang.dev (automatischer JS‑Übersetzer) – 50 % AI.
- React‑Native‑App mit Relay & GraphQL – 10 % AI.
- Open‑Source‑Beiträge (fbtee, templates, usw.) – 10 % AI.
- Athena Crisis – 10 % AI.
- Produktivität – Durch AI nutzte der Autor weniger Stunden im Jahr, aber die Arbeitsintensität stieg. Er kann mehrere Projekte parallel behandeln und arbeitet weniger, aber intensiver.
- LLM‑Nutzung – Hauptsächlich ChatGPT bzw. Codex im Web. Claude Code und offene Modelle wurden ausprobiert, aber nicht als geeignet betrachtet.
- Praxismethoden –
- Multiple Solutions – Codex kann mehrere Varianten angeben; der Autor bevorzugt vier Versionen, um Zuverlässigkeit zu erhöhen.
- Fire‑and‑Forget – Kein statisches Spec‑Based‑Coding; stattdessen werden schnelle Prototypen erzeugt und bei Bedarf neu prompted.
- Feinabstimmung durch Nachbearbeitung – Künstlicher Code wird überwiegend von Hand editiert, jedoch werden gelegentlich fertige, qualitativ hochwertige Snippets übernommen.
- Parallelisierung – Parallel laufen 3‑5 Codex‑Sessions, um die Produktivität hochzuhalten.
- Kontext‑Management – Für jedes neue Problem wird ein neues Chat gestartet; alte Chats werden archiviert.
- Debugging – Fehler wie Produktions‑Crashes werden direkt in ChatGPT eingespeist, was zeitintensive Fehlersuche abkürzt.
- One-Offs – Einweg‑Code wird fast ausschließlich durch LLMs generiert; der Autor plant, niemals mehr komplexe JavaScript‑Modifikationen manuell zu schreiben.
- fate – LLM‑gestützte Bibliothek –
- Entstehung – Ziel, tRPC in ein Relay‑ähnliches System zu überführen mit normalisiertem Cache und Fragmenten.
- Hürden – Anfangs schwer handhabbar; LLM‑Code erzeugt unverständliche Schnitte und unsichere Algorithmen.
- Lösung – Kern wieder von Grund auf neu geschrieben (über 205 Codex‑Sessions, 4 Antworten pro Aufgabe). Nach Refaktorierung konnte die Bibliothek stabil laufen.
- Ergebnis – Durch vier Varianten pro Problem schneller Produktivitätsgewinne; durchschnittlich 100 Codex‑Ses.
- Ausblick – Der Autor plant, weiterhin AI für repetitive Aufgaben (z. B. API‑Integration, Stripe‑Billing) zu nutzen, bleibt aber skeptisch gegenüber vollständiger AI‑Autonomie, bis die Produktqualitätsstandards garantiert sind.
- Stabilität & Qualität – Die Projekte sollen stets den eigenen Qualitätsstandards entsprechen; daher wird AI-Code kritisch geprüft und nach Bedarf überarbeitet.
- Weiterentwicklung – Betont die Notwendigkeit, Prompt‑Strategien zu verfeinern, die jeweiligen Stärken einzelner Modelle zu erkennen und den Workflow zu iterieren.
Related queries:
Wie kann ich LLMs effizient in meine bestehende JavaScript‑Projektstruktur integrieren?
Weitere Fragen
Was sind die wichtigsten Herausforderungen beim Einsatz von Codex für komplexe TypeScript‑Typen?
Zusätzliche Frage
Wie kann ich mithilfe von LLMs einen stabilen, Relay‑ähnlichen Cache für tRPC implementieren?
Quelle: https://cpojer.net/posts/you-are-absolutely-right
