Od dawna wierzyłem (i słyszałem od innych), że śledzenie statystyk zatwierdzania, takich jak liczba zatwierdzeń każdego programisty dziennie, jest szkodliwe dla procesu programowania. Powód wydaje się oczywisty - programiści dokonują mniejszych przyrostów, maksymalizując ich liczbę zatwierdzeń na dzień, ale utrudniając podział na dwa segmenty (być może wszystkie ich łatki pośrednie nie spowodują dobrego uformowania repo) i trudniej pracować z historią zatwierdzeń (zmiana nastąpi nagle w wielu zatwierdzeniach, zamiast w jednym, przywrócenie łatki jest trudniejsze itp.).
Czy są jakieś badania, które pokazują, że statystyki zatwierdzania są szkodliwe? Każdy elegancki i dobrze uzasadniony artykuł na ten temat? W równym stopniu dotyczy to tego, dlaczego pomiar niewłaściwej rzeczy prowadzi do optymalizowania niewłaściwej rzeczy, o czym jest to szczególny przypadek.