W twierdzeniu bayesowskim , a z książki, którą czytam, nazywa się prawdopodobieństwo , ale zakładam, że to tylko prawdopodobieństwo warunkowe od podane , prawda? p(x|y)xy
Do największej wiarygodności stara się maksymalizować , prawda? Jeśli tak, to jestem bardzo zdezorientowany, ponieważ są zmiennymi losowymi, prawda? Aby zmaksymalizować jest po prostu dowiedzieć się ? Jeszcze jeden problem, jeśli te 2 losowe zmienne są niezależne, to to tylko , prawda? Zatem maksymalizacja polega na maksymalizacji .x , y p ( x | y ) y p ( x | Y ) P ( x ) p ( x | Y ) P ( x )
A może jest funkcją niektórych parametrów , czyli , a MLE próbuje znaleźć która może zmaksymalizować ? Czy nawet, że jest w rzeczywistości parametrami modelu, a nie zmienną losową, maksymalizując prawdopodobieństwo znalezienia ?θ P ( x | y ; θ ) θ P ( x | y ) y y
AKTUALIZACJA
Jestem nowicjuszem w uczeniu maszynowym, a ten problem jest pomieszany z treściami, które przeczytałem z samouczka uczenia maszynowego. Oto on, biorąc pod uwagę obserwowany zestaw danych , wartości docelowe to , a ja staram się dopasować model do tego zestawu danych , więc zakładam, że biorąc pod uwagę , ma formę rozkładu o nazwie sparametryzowaną przez , czyli , i zakładam, że jest to prawdopodobieństwo późniejsze , prawda?{ Y 1 , Y 2 , . . . , y n } x y W θ p ( y | x ; θ )
Teraz, aby oszacować wartość , używam MLE. OK, nadchodzi mój problem, myślę, że prawdopodobieństwo to , prawda? Maksymalizacja prawdopodobieństwa oznacza, że powinienem wybrać właściwą i ?p ( x | y ; θ ) θ y
Jeśli moje rozumienie prawdopodobieństwa jest błędne, proszę wskazać mi właściwą drogę.