LLMs und das Lernen neuer Programmiersprachen: Chancen und Risiken
LLMs können beim Erlernen neuer Programmiersprachen wertvolle Hilfestellungen geben, aber nur, wenn die vom Modell gelieferten Informationen aktiv geprüft und verifiziert werden.
Effizientere Suche
- LLMs ermöglichen direkte Antworten innerhalb des Editors, anstelle eines klassischen Durchsuchens via Suchmaschine oder Stack Overflow.
- Obwohl schnelle Ergebnisse erzielt werden, muss man häufig die Ergebnisse mit der offiziellen Dokumentation abgleichen.
- Beispiel: Für Go überprüft man die Signatur von
strings.SplitNim pkg.go.dev.
Risiken von LLMs
- Modelle generieren gelegentlich falsche oder nicht existierende Funktionen und Bibliotheken.
- Studien zeigen, dass 5–20 % der vorgeschlagenen Pakete nicht existieren („slop‑squatting“).
- Prüfen von Drittanbieter‑Paketen auf Existenz und Sicherheit (z. B. Socket.dev) ist unerlässlich.
Autocomplete vermeiden
Beim Lernen einer neuen Sprache sollte man AI‑Autocompletion deaktivieren, um Muskel‑ und Syntax‑Speicher aufzubauen. Ablenkungen durch nahezu korrekte Vorschläge können das Verständnis von Syntax verhindern.
Überprüfung von idiomatischem Code
Prompt: „Ist das der idiomatischste Weg, … in Go?“ LLMs erkennen Muster und weisen auf nicht‑konventionellen Code hin, solange der Entwickler die Vorschläge beurteilen kann.
Code‑ und Sicherheitsreviews
AI‑unterstützte Reviews können genutzt werden, wenn kein menschlicher Experte verfügbar ist. Mehrere Modelle liefern unterschiedliche Feedbacks; 50 % der Vorschläge sind oft nutzlos oder falsch. Für Sicherheit ist Filterung von False Positives nötig, obwohl echte Schwachstellen entdeckt werden können.
Unerwarteter Nutzen
Generierung von Unit‑Test‑Skeletons motiviert zur höheren Code‑Abdeckung.
Kombination mit traditionellen Lernmethoden
Qualitätsbücher (vorzugsweise gedruckt) bleiben zentral. Erstellen von Anki‑Karten zu häufigen Fehlerquellen unterstützt langfristiges Behalten. LLMs ergänzen, ersetzen jedoch keine bewährte Lernpraxis.
Persönliche Erfahrungen
LLM-gestützte Ghost‑Writing eines Blog‑Posts resultierte in über 75 % umgeschriebenem Text, was ineffizient war.
Quelle: https://feeding.cloud.geek.nz/posts/learning-new-programming-language-with-ai/
