Pracuję nad problemem klasyfikacji binarnej, w której znacznie ważniejsze jest, aby nie mieć fałszywych trafień; całkiem sporo fałszywych negatywów jest w porządku. Użyłem na przykład wielu klasyfikatorów w sklearn, ale myślę, że żaden z nich nie ma możliwości wyraźnego dostosowania kompromisu przywoływania precyzji (dają całkiem dobre wyniki, ale nie można ich regulować).
Jakie klasyfikatory mają regulowaną dokładność / przywołanie? Czy jest jakiś sposób, aby wpłynąć na kompromis precyzji / wycofania w przypadku standardowych klasyfikatorów, np. Random Forest lub AdaBoost?