Gate News Nachrichten, am 17. März gab David Cramer, Mitbegründer der Fehlerüberwachungsplattform Sentry, auf X bekannt, dass er „vollständig überzeugt“ ist, dass große Sprachmodelle derzeit kein Netto-Produktivitätssteigerungswerkzeug sind. Cramer ist der Ansicht, dass LLMs zwar die Einstiegshürde für die Entwicklung senken, aber kontinuierlich immer komplexeren und schwer wartbaren Code erzeugen. Aus eigener Erfahrung sieht er, dass dies die langfristige Entwicklung verlangsamt. Besonders hinterfragt er das „agentic engineering“-Modell, bei dem das Modell automatisch Code generiert und direkt live schaltet. Er meint, die Codequalität sei deutlich schlechter, und bei großer Ansammlung werde es zu einer Netto-Belastung. Die konkreten Probleme seien: schlechte Leistung bei inkrementeller Entwicklung in komplexen Codebasen, Unfähigkeit, Schnittstellen im Sprachstil üblich zu generieren, sowie „reine Slop-Testgenerierung“. Cramer nennt speziell das Tool OpenClaw und sagt: „Wenn ich wetten müsste, sind Tools wie OpenClaw, weil sie zu viel Code generieren, bereits irreversibel selbstschädigend.“ Er betont, „Software ist immer noch schwer zu bauen, es geht nie um die Minimierung oder Maximierung der Codezeilen.“ Cramer erklärt, dass seine Einschätzung hauptsächlich auf seinen Erfahrungen bei der Entwicklung in funktionierenden, komplexen Codebasen basiert. Sein jüngster Zuwachs an Beiträgen sei nicht, weil es einfacher geworden sei, sondern weil es „interessant“ sei. Es handele sich im Wesentlichen um eine psychologische Veränderung, die tatsächliche Zeitaufwand sei nicht wesentlich anders.