Podejdę do tego z alternatywnego kierunku filozofii, w świetle naprawdę użytecznych zasad zarządzania niepewnością omówionych w książkach George'a F. Klira na temat zbiorów rozmytych. Nie mogę podać dokładności van der Laana, ale mogę przedstawić nieco wyczerpujący argument, dlaczego jego cel jest logicznie niemożliwy; to będzie wymagało długiej dyskusji odnoszącej się do innych dziedzin, więc proszę o wyrozumiałość.
Klir i jego współautorzy dzielą niepewność na kilka podtypów, takich jak niespecyficzność (tj. Gdy masz nieznany zestaw alternatyw, którymi zajmujesz się za pomocą środków takich jak funkcja Hartleya); niedokładność definicji (tj. „zamglenie” modelowane i kwantyfikowane w zestawach rozmytych); spory lub niezgody w dowodach (poruszone w teorii dowodów Dempstera-Shafera); plus teoria prawdopodobieństwa, teoria możliwości i niepewność pomiaru, gdzie celem jest posiadanie odpowiedniego zakresu, aby uchwycić odpowiednie dowody, przy jednoczesnym zminimalizowaniu błędów. Patrzę na cały zestaw technik statystycznych jako alternatywny sposób dzielenia niepewności na różne sposoby, podobnie jak foremka do ciastek; przedziały ufności i wartości p kwarantannie niepewność w jeden sposób, podczas gdy miary takie jak Entropia Shannona zmniejszają ją z innej strony. Co potrafią t zrobić to jednak całkowicie go wyeliminować. Aby osiągnąć „dokładny model”, który zdaje się opisywać van der Laan, musielibyśmy zredukować wszystkie rodzaje niepewności do zera, aby nie było już więcej do podziału. Prawdziwie „dokładny” model zawsze miałby wartości prawdopodobieństwa i prawdopodobieństwa 1, niespecyficzność 0 i brak niepewności w definicjach terminów, zakresów wartości lub skal pomiarowych. W alternatywnych źródłach dowodów nie byłoby niezgody. Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: w rodzaju, który zdaje się opisywać van der Laan, musielibyśmy zredukować wszystkie rodzaje niepewności do zera, aby nie było już więcej do podziału. Prawdziwie „dokładny” model zawsze miałby wartości prawdopodobieństwa i prawdopodobieństwa 1, niespecyficzność 0 i brak niepewności w definicjach terminów, zakresów wartości lub skal pomiarowych. W alternatywnych źródłach dowodów nie byłoby niezgody. Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: w rodzaju, który zdaje się opisywać van der Laan, musielibyśmy zredukować wszystkie rodzaje niepewności do zera, aby nie było już więcej do podziału. Prawdziwie „dokładny” model zawsze miałby wartości prawdopodobieństwa i prawdopodobieństwa 1, niespecyficzność 0 i brak niepewności w definicjach terminów, zakresów wartości lub skal pomiarowych. W alternatywnych źródłach dowodów nie byłoby niezgody. Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: Prawdziwie „dokładny” model zawsze miałby wartości prawdopodobieństwa i prawdopodobieństwa 1, niespecyficzność 0 i brak niepewności w definicjach terminów, zakresów wartości lub skal pomiarowych. W alternatywnych źródłach dowodów nie byłoby niezgody. Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: Prawdziwie „dokładny” model zawsze miałby wartości prawdopodobieństwa i prawdopodobieństwa 1, niespecyficzność 0 i brak niepewności w definicjach terminów, zakresów wartości lub skal pomiarowych. W alternatywnych źródłach dowodów nie byłoby niezgody. Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje: Prognozy wykonane przez taki model zawsze byłyby w 100 procentach dokładne; modele predykcyjne zasadniczo dzielą ich niepewność na przyszłość, ale nie pozostało by ich dłużej odkładać. Perspektywa niepewności ma pewne ważne implikacje:
• To wysokie zamówienie jest nie tylko fizycznie niewiarygodne, ale w rzeczywistości logicznie niemożliwe. Oczywiście nie możemy osiągnąć idealnie ciągłych skal pomiarowych o nieskończenie małych stopniach, gromadząc skończone obserwacje za pomocą omylnego, fizycznego sprzętu naukowego; zawsze będzie pewna niepewność co do skali pomiaru. Podobnie zawsze będą pewne niejasności wokół definicji, które wykorzystujemy w naszych eksperymentach. Przyszłość jest również z natury niepewna, więc rzekomo doskonałe prognozy naszych „dokładnych” modeli będą musiały być traktowane jako niedoskonałe, dopóki nie zostanie udowodnione inaczej - co zajmie wieczność.
• Co gorsza, żadna technika pomiaru nie jest w 100% wolna od błędów w pewnym momencie procesu, ani nie może być wystarczająco kompleksowa, aby uwzględnić wszystkie potencjalnie sprzeczne informacje we wszechświecie. Co więcej, eliminacji możliwych mylących zmiennych i całkowitej warunkowej niezależności nie można dokładnie udowodnić bez zbadania wszystkich innych procesów fizycznych, które wpływają na ten, który badamy, a także tych, które wpływają na te wtórne procesy i tak dalej.
• Dokładność jest możliwa tylko w czystej logice i jej podzbiorze, matematyce, właśnie dlatego, że abstrakcje są oddzielone od rzeczywistych problemów, takich jak te źródła niepewności. Na przykład za pomocą czystej logiki dedukcyjnej możemy udowodnić, że 2 + 2 = 4 i każda inna odpowiedź jest w 100% niepoprawna. Możemy również dokonywać idealnie dokładnych prognoz, które zawsze będą równe 4. Tego rodzaju precyzja jest możliwa tylko w statystykach, gdy mamy do czynienia z abstrakcjami. Statystyka jest niezwykle przydatna, gdy jest stosowana w prawdziwym świecie, ale to, co czyni ją użyteczną, wstrzykuje przynajmniej pewien stopień nieuniknionej niepewności, przez co czyni ją niedokładną. To nieunikniony dylemat.
• Ponadto Peter Chu podnosi dodatkowe ograniczenia w sekcji komentarzy w artykule rvl, do którego jest link. Mówi to lepiej niż ja:
„Ta powierzchnia rozwiązania problemów trudnych dla NP jest zwykle pełna wielu lokalnych optymów, a w większości przypadków rozwiązanie problemu jest niewykonalne obliczeniowo, tj. Znalezienie globalnego optymalnego rozwiązania w ogóle. Dlatego każdy modelarz stosuje pewne (heurystyczne) techniki modelowania, co najwyżej, aby znaleźć odpowiednie lokalne optymalne rozwiązania w rozległej przestrzeni rozwiązań tej złożonej funkcji celu ”.
• Wszystko to oznacza, że sama nauka nie może być całkowicie dokładna, chociaż van der Laan wydaje się mówić o tym w ten sposób w swoim artykule; metoda naukowa jako abstrakcyjny proces jest precyzyjnie zdefiniowana, ale niemożność uniwersalnego i idealnego dokładnego pomiaru oznacza, że nie jest w stanie stworzyć dokładnych modeli pozbawionych niepewności. Nauka jest doskonałym narzędziem, ale ma ograniczenia.
• Jest coraz gorzej stamtąd: Nawet gdyby było możliwe dokładnie mierzyć wszystkich sił działających na każdy kwark składowego i gluonu we wszechświecie, niektóre niepewność będzie nadal pozostają. Po pierwsze, wszelkie przewidywania dokonane przez taki kompletny model byłyby nadal niepewne ze względu na istnienie wielu rozwiązań dla równań kwintycznych i wyższych wielomianów. Po drugie, nie możemy być całkowicie pewni, że skrajny sceptycyzm ujęty w klasycznym pytaniu „może to wszystko sen lub halucynacja” nie jest odzwierciedleniem rzeczywistości - w którym to przypadku wszystkie nasze modele są rzeczywiście błędne w najgorszy możliwy sposób . Jest to w zasadzie równoważne bardziej ekstremalnej ontologicznej interpretacji oryginalnych epistemologicznych sformułowań filozofii, takich jak fenomenalizm, idealizm i solipsyzm.
• W swojej klasycznej ortodoksji z 1909 rGK Chesterton zauważył, że skrajne wersje tych filozofii można rzeczywiście osądzić, ale na podstawie tego, czy wprowadzają wierzących w instytucje mentalne; na przykład solipsyzm ontologiczny jest tak naprawdę markerem schizofrenii, podobnie jak niektórzy z jego kuzynów. Najlepsze, co możemy osiągnąć na tym świecie, to wyeliminować uzasadnione wątpliwości; nierozsądne wątpliwości tego niepokojącego rodzaju nie mogą zostać całkowicie usunięte, nawet w hipotetycznym świecie dokładnych modeli, wyczerpujących i bezbłędnych pomiarów. Jeśli van der Laan chce uwolnić nas od nieuzasadnionych wątpliwości, bawi się ogniem. Chwytając się doskonałości, skończone dobro, które możemy uczynić, prześlizguje się przez nasze palce; jesteśmy stworzeniami skończonymi istniejącymi w nieskończonym świecie, co oznacza, że rodzaj pełnej i absolutnie pewnej wiedzy, o której dowodzi van der Laan, jest na zawsze poza naszym zasięgiem. Jedynym sposobem na osiągnięcie tego rodzaju pewności jest wycofanie się z tego świata do węższych granic całkowicie abstrakcyjnego świata, który nazywamy „czystą matematyką”. Nie oznacza to jednak, że wycofanie się do czystej matematyki jest rozwiązaniem na wyeliminowanie niepewności. Takie było zasadniczo podejście następców Ludwiga Wittgensteina (1889–1951), który odsączył swoją filozofię pozytywnego logiki od wszelkiego zdrowego rozsądku, odrzucając całkowicie metafizykę i wycofując się całkowicie w czystą matematykę i scjentyzm, a także ekstremalny sceptycyzm, nadmierna specjalizacja i nadmierne podkreślanie dokładności nad użytecznością. W ten sposób zniszczyli dyscyplinę filozofii, rozpuszczając ją w bagno nękania definicji i pępka, czyniąc ją nieistotną dla reszty środowiska akademickiego. Zasadniczo zabiło to całą dyscyplinę, która wciąż była na czele debaty akademickiej aż do początku XX wieku, do tego stopnia, że wciąż przyciągała uwagę mediów, a niektórzy z jej liderów byli znani z nazwiska. Uchwycili się idealnego, dopracowanego wyjaśnienia świata, który przeleciał im przez palce - tak jak to zrobili pacjenci umysłowi, o których mówił GKC. Uślizgnie mu się również uścisk van der Laana, który już obalił swój punkt widzenia, jak omówiono poniżej. Pogoń za zbyt dokładnymi modelami jest nie tylko niemożliwe; może być niebezpieczny, jeśli doprowadzi go do samobójczej obsesji. Pogoń za tego rodzaju czystością rzadko kończy się dobrze; często jest tak samo samobójcze jak bakterie, które szaleńczo szorują ręce i kończą się infekcjami. To' przypomina Ikara próbującego ukraść ogień od Słońca: jako istoty skończone możemy mieć tylko skończone zrozumienie rzeczy. Jak mówi Chesterton w Ortodoksji: „To logik stara się wbić niebiosa do jego głowy. I to jego głowa pęka”.
W świetle powyższego pozwól, że zajmę się niektórymi szczegółowymi pytaniami wymienionymi przez rvl:
1) Model bez żadnych założeń jest albo a) nieświadomy własnych założeń, albo b) musi być całkowicie oddzielony od rozważań, które wprowadzają niepewność, takich jak błędy pomiaru, uwzględniające każdą możliwą zmienną mylącą, idealnie ciągłe skale pomiarowe i lubić.
2) Nadal jestem nowicjuszem, jeśli chodzi o szacowanie maksymalnego prawdopodobieństwa (MLE), więc nie mogę komentować mechaniki prawdopodobieństwa celu, z wyjątkiem wskazania oczywistego: prawdopodobieństwo jest właśnie tym, prawdopodobieństwem, a nie pewnością . Wyprowadzenie dokładnego modelu wymaga całkowitego wyeliminowania niepewności, co logika probabilistyczna może rzadko, jeśli w ogóle, zrobić.
3) Oczywiście, że nie. Ponieważ wszystkie modele zachowują pewną niepewność i dlatego są niedokładne (z wyjątkiem przypadków czystej matematyki, w oderwaniu od rzeczywistych pomiarów fizycznych), rasa ludzka nie byłaby w stanie dokonać żadnego postępu technicznego do tej pory - a nawet jakiegokolwiek innego postępu w wszystko. Gdyby niedokładne modele były zawsze bezużyteczne, prowadzilibyśmy tę rozmowę w jaskini zamiast na tym niesamowitym wyczynie technologii zwanym Internetem, a wszystko to było możliwe dzięki niedokładnemu modelowaniu.
Jak na ironię, własny model van der Laana jest podstawowym przykładem niedokładności. W swoim artykule naszkicował model tego, jak należy zarządzać dziedziną statystyki, mając na względzie dokładne modele; nie ma jeszcze żadnych liczb związanych z tym „modelem”, nie ma pomiaru tego, jak niedokładne lub bezużyteczne są obecnie większość modeli, nie ma oceny ilościowej, jak daleko jesteśmy od jego wizji, ale przypuszczam, że można opracować testy na te rzeczy . Jednak na obecnym etapie jego model jest niedokładny. Jeśli to nie jest przydatne, oznacza to, że jego racja jest błędna; jeśli jest to użyteczne, pokonuje jego główny punkt, że niedokładne modele nie są użyteczne. Tak czy inaczej, obala własny argument.
4) Prawdopodobnie nie, ponieważ nie możemy mieć pełnych informacji do przetestowania naszego modelu, z tych samych powodów, dla których nie możemy uzyskać dokładnego modelu w pierwszej kolejności. Dokładny model z definicji wymagałby doskonałej przewidywalności, ale nawet jeśli pierwsze 100 testów okaże się w 100 procentach dokładne, 101 może nie. Potem jest cały problem nieskończenie małych skal pomiarowych. Następnie przejdziemy do wszystkich innych źródeł niepewności, które będą zanieczyszczać każdą ocenę naszego modelu Ivory Tower.
5) Aby rozwiązać ten problem, musiałem umieścić go w szerszym kontekście o wiele większych kwestii filozoficznych, które często są kontrowersyjne, więc nie sądzę, że jest to możliwe, aby omówić to bez wchodzenia w opinie (zauważ, że to samo w sobie jest kolejnym źródło niepewności), ale masz rację, ten artykuł zasługuje na odpowiedź. Wiele z tego, co mówi na inne tematy, jest na dobrej drodze, takich jak potrzeba dostosowania statystyk do Big Data, ale jest tam trochę niepraktycznego ekstremizmu, który należy poprawić.