Problemet med "förståelse" i djupinlärning är att det faktiskt sällan håller i praktiken, eftersom det kräver alldeles för mycket förenklande antaganden. Jag skulle hellre ha en SotA-modell med lite intuition om varför det fungerar än en leksaksmodell med perfekt förståelse 🤷