Ho sentito da un appaltatore di OpenAI che un modello interno era così bravo a generare codice che ha iniziato a correggere i bug nel framework di test stesso. I programmatori hanno dovuto separare il suo output dai propri strumenti perché continuava a sistemare cose che non gli avevano chiesto.