Ich habe von einem Auftragnehmer bei OpenAI gehört, dass ein internes Modell so gut darin war, Code zu generieren, dass es anfing, Fehler im Testframework selbst zu beheben. Die Entwickler mussten seine Ausgaben von ihren eigenen Werkzeugen trennen, weil es ständig Dinge patchte, um die sie nicht gebeten hatten.