Mój szef planuje wykorzystać dane z naszej ciągłej kompilacji (buduje i uruchamia testy przy każdym zatwierdzeniu) jako część naszych przeglądów wydajności (w naszej metodzie „jakości”). Wydaje mi się to NAPRAWDĘ złym pomysłem, ale chciałbym wiedzieć, czy ktoś to studiował, czy widział wcześniej.
Myślę, że nasi programiści nie będą poddawać się tylu testom, jak w innym przypadku, z obawy, że testy się nie powiodą. Wydaje mi się, że zamienia cenne narzędzie programistyczne w kij, którym można pokonać programistów.
Oczywistym kontrargumentem jest to, że zachęci to ludzi do większej ostrożności przed popełnieniem, a tym samym do wyższej jakości.
Czy jestem tu poza bazą? Proszę odłożyć na bok pytanie, czy powinniśmy w ogóle robić oceny wydajności, czy też nie - na co odpowiedziano gdzie indziej.