Mam pytanie dotyczące klasyfikacji w ogóle. Niech f będzie klasyfikatorem, który generuje zbiór prawdopodobieństw przy danych danych D. Normalnie można by powiedzieć: cóż, jeśli P (c | D)> 0,5, przypiszemy klasę 1, w przeciwnym razie 0 (niech to będzie binarna Klasyfikacja).
Moje pytanie brzmi: co, jeśli się dowiem, że jeśli sklasyfikuję jako 1 również prawdopodobieństwo większe niż: tj. 0,2, klasyfikator będzie działał lepiej. Czy uzasadnione jest zatem stosowanie tego nowego progu podczas klasyfikacji?
Zinterpretowałbym konieczność niższej klasyfikacji związanej z danymi emitującymi mniejszy sygnał; ale nadal znaczące dla problemu klasyfikacji.
Zdaję sobie sprawę, że jest to jeden ze sposobów, aby to zrobić, ale jeśli nie jest to prawidłowe myślenie, jakie byłyby niektóre transformacje danych, które podkreślają poszczególne cechy w podobny sposób, aby próg mógł pozostać na poziomie 0,5?