Podcast Episode on LLMs for Software Engineering
In dieser Podcast-Folge von „Code for Thought“ reden Carina Haupt (DLR) und ich mit Host Peter Schmid über Large Language Models im Research Software Engineering: Was können Copilot & Co. heute zuverlässig, wo stoßen sie im Projektalltag an Grenzen, und wie bewerten wir das nüchtern statt hype-getrieben? Ich schildere mein aktuelles Thema - Paper-Code-Matching über Embeddings auf Projektebene - und warum kontextarme Modelle bei echten Repos oft danebengreifen. Carina bringt die Anwendungssicht ein: Wo helfen LLMs Forschenden ohne tiefen Informatik-Background tatsächlich (Routine-Tasks, Tests, kleine Skripte) und wo wird’s heikel (Builds, Requirements, Projektkontext)?
[Mehr]