Jaka jest różnica między prawdopodobieństwem a logiką rozmytą?


10

Od lat pracuję z logiką rozmytą (FL) i wiem, że istnieją różnice między FL a prawdopodobieństwem, szczególnie dotyczące sposobu radzenia sobie z niepewnością. Chciałbym jednak zapytać, jakie różnice istnieją między FL a prawdopodobieństwem?

Innymi słowy, jeśli mam do czynienia z prawdopodobieństwami (łączenie informacji, agregowanie wiedzy), czy mogę zrobić to samo z FL?

Odpowiedzi:


11

Być może już o tym wiesz, ale rozdziały 3, 7 i 9 George'a J. Klira oraz Fuzzy Sets and Fuzzy Logic: Teoria i zastosowania (1995) Bo Yuan'azapewnia dogłębną dyskusję na temat różnic między rozmytymi i probabilistycznymi wersjami niepewności, a także kilkoma innymi typami związanymi z teorią dowodów, rozkładami możliwości itp. Jest pełen formuł do pomiaru rozmycia (niepewności w skalach pomiarowych) i niepewność probabilistyczna (warianty Entropii Shannona itp.), a także kilka do agregacji w ramach różnych rodzajów niepewności. Istnieje również kilka rozdziałów na temat agregowania liczb rozmytych, równań rozmytych i instrukcji logiki rozmytej, które mogą okazać się pomocne. Przetłumaczyłem wiele z tych formuł na kod, ale wciąż uczę się lin do matematyki, więc pozwolę Klirowi i Yuanowi mówić. :) Kilka miesięcy temu mogłem odebrać używaną kopię za 5 USD. Klir napisał także książkę uzupełniającą na temat niepewności około 2004 roku, które muszę jeszcze przeczytać. (Przepraszam, jeśli ten wątek jest za stary, aby na nie odpowiedzieć - wciąż uczę się etykiety na forum).

Zredagowano, aby dodać: Nie jestem pewien, które z różnic między niepewnością rozmytą a probabilistyczną OP był już świadomy i o których potrzebował więcej informacji lub jakie rodzaje agregacji miał na myśli, dlatego przedstawię listę niektórych różnice, które zebrałem od Klira i Yuana, z czubka mojej głowy. Istotą jest to, że tak, możesz łączyć rozmyte liczby, miary itp. Razem, nawet z prawdopodobieństwami - ale szybko staje się bardzo złożony, choć nadal bardzo użyteczny.

  1. Rozmyta niepewność wyznacza zupełnie inną wielkość niż prawdopodobieństwo i jej miary niepewności, takie jak Funkcja Hartleya (dla niespecyficzności) lub Entropia Shannona. Rozmycie i niepewność probabilistyczna w ogóle się nie wpływają. Dostępny jest cały zakres mierników rozmycia, które określają niepewność granic pomiarowych (jest to styczne do niepewności pomiarowych zwykle omawianych w CrossValidated, ale nie identycznych). „Fuzz” jest dodawany głównie w sytuacjach, w których pomocne byłoby traktowanie zmiennej porządkowej jako ciągłej, z których żadna nie ma wiele wspólnego z prawdopodobieństwami.

  2. Niemniej jednak zbiory rozmyte i prawdopodobieństwa można łączyć na niezliczone sposoby - takie jak dodawanie rozmytych granic wartości prawdopodobieństwa lub ocena prawdopodobieństwa wartości lub wyrażenia logicznego mieszczącego się w rozmytym zakresie. Prowadzi to do ogromnej, szeroko zakrojonej taksonomii kombinacji (co jest jednym z powodów, dla których nie uwzględniłem szczegółów przed pierwszą edycją).

  3. Jeśli chodzi o agregację, miary rozmycia i miary entropii niepewności probabilistycznej można czasem zsumować, aby dać całkowite miary niepewności.

  4. Aby dodać kolejny poziom złożoności. logika rozmyta, liczby i zbiory mogą być agregowane, co może wpływać na wielkość wynikającej z tego niepewności. Klir i Yuan twierdzą, że matematyka może być naprawdę trudna do wykonania tych zadań, a ponieważ tłumaczenia równań są jedną z moich słabych stron (do tej pory), nie będę komentować dalej. Wiem tylko, że te metody zostały przedstawione w ich książce.

  5. Rozmyta logika, liczby, zbiory itp. Są często łączone ze sobą w sposób, w jaki nie są prawdopodobieństwami, co może komplikować obliczanie całkowitej niepewności. Na przykład programista komputerowy pracujący w systemie rozwoju opartego na zachowaniu (BDD) może przetłumaczyć stwierdzenie użytkownika, że ​​„około połowa tych obiektów jest czarna” na rozmytą instrukcję (około) o rozmytej liczbie (połowa). Oznaczałoby to połączenie dwóch różnych rozmytych obiektów w celu uzyskania całościowego rozmycia.

  6. Liczby Sigma są ważniejsze w agregowaniu rozmytych obiektów niż zwykłe liczby używane w statystykach. Są one zawsze mniejsze niż zwykłe „ostre” liczenie, ponieważ funkcje członkostwa, które definiują zbiory rozmyte (które są zawsze w skali od 0 do 1) mierzą częściowe członkostwo, tak że rekord z wynikiem 0,25 liczy się tylko jako jedna czwarta nagranie.

  7. Wszystko to powoduje powstanie naprawdę złożonego zestawu rozmytych statystyk, statystyk dotyczących zbiorów rozmytych, rozmytych instrukcji dotyczących zbiorów rozmytych itp. Jeśli łączymy ze sobą prawdopodobieństwa i zbiory rozmyte, musimy teraz rozważyć, czy użyć jednego z kilku na przykład różne typy rozmytych wariancji.

  8. Cięcia alfa są istotną cechą matematyki zbiorów rozmytych, w tym formuł do obliczania niepewności. Dzielą zestawy danych na zestawy zagnieżdżone na podstawie wartości funkcji członkostwa. Nie spotkałem jeszcze podobnej koncepcji z prawdopodobieństwem, ale pamiętaj, że wciąż uczę się lin.

  9. Zestawy rozmyte można interpretować na różne sposoby, które dają rozkłady możliwości i wyniki przekonań stosowane w takich dziedzinach jak teoria dowodów, która obejmuje subtelną koncepcję przypisywania masy prawdopodobieństwa. Porównuję to do sposobu, w jaki prawdopodobieństwa warunkowe itp. Mogą być ponownie interpretowane jako priory i plakaty bayesowskie. Prowadzi to do oddzielnych definicji rozmytej, niespecyficznej i entropicznej niepewności, chociaż formuły są oczywiście podobne. Powodują także konflikty, niezgody i środki konfliktu, które są dodatkowymi formami niepewności, które można zsumować ze zwykłą niespecyficznością, rozmytością i entropią.

  10. Powszechne koncepcje probabilistyczne, takie jak zasada maksymalnej entropii, nadal działają, ale czasem wymagają ulepszenia. Nadal próbuję opanować ich zwykłe wersje, więc nie mogę powiedzieć nic więcej, niż wskazać, że wiem, że istnieją poprawki.

Długą i krótką z nich jest to, że te dwa różne typy niepewności można agregować, ale to szybko wysadza w całą taksonomię rozmytych obiektów i opartych na nich statystyk, z których wszystkie mogą wpływać na skądinąd proste obliczenia. Nie mam tu nawet miejsca, by zająć się całym smorgasbordem rozmytych wzorów na skrzyżowaniach i związkach. Należą do nich normy T i p-conorms, które są czasami używane w powyższych obliczeniach niepewności. Nie potrafię udzielić prostej odpowiedzi, ale to nie tylko z powodu braku doświadczenia - nawet 20 lat po napisaniu Klir i Yuan, wiele przypadków matematycznych i przypadków użycia rzeczy wciąż nie jest ustalonych. Na przykład nie mogę znaleźć jasnego, ogólnego przewodnika, w którym T-conorms i T-normy należy stosować w określonych sytuacjach. Niemniej jednak wpłynie to na agregację niepewności. Mogę wyszukać określone formuły niektórych z nich, jeśli chcesz; Niektóre z nich zakodowałem niedawno, więc są one wciąż świeże. Z drugiej strony jestem amatorem z zardzewiałymi umiejętnościami matematycznymi, więc prawdopodobnie lepiej byłoby skonsultować się bezpośrednio z tymi źródłami. Mam nadzieję, że ta edycja się przyda; jeśli potrzebujesz więcej wyjaśnień / informacji, daj mi znać. 


3
Dziękujemy za odpowiedź i podanie referencji. Jednak twoja odpowiedź tak naprawdę nie odpowiada na pytanie! Bylibyśmy wdzięczni za podsumowanie niektórych głównych wyników w twoich referencjach dotyczących różnic między modelami probabilistycznymi i rozmytymi.
whuber

1
Dzięki Whuber - jeśli mogę to naprawić dalej, daj mi znać. Nadal jestem debiutantem w używaniu rozmytych zestawów (a także forów), więc nie mogę podać więcej szczegółów bez przekraczania moich granic, ale zrobię, co mogę;)
SQLServerSteve
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.