Moje pytanie jest trochę ogólne, więc wymyślam fajną historię, aby to uzasadnić. Zrób ze mną, jeśli to nie jest realistyczne ;-)
Fabuła
Pan X, szef działu bezpieczeństwa komputerowego w dużej firmie, jest nieco paranoiczny: wymaga od wszystkich pracowników zmiany hasła raz w miesiącu, aby zminimalizować ryzyko kradzieży tożsamości lub informacji. Co więcej, nie ufa pracownikom, że wymyślą bezpieczne hasła.
Dlatego co miesiąc generuje nowe hasła za pomocą napisanego przez siebie oprogramowania i przekazuje je pracownikom, aby mogli się ponownie zalogować. Ale oprócz tego, że jest paranoikiem, pan X jest również trochę leniwy: hasła, które generuje, są zgodne z pewnym wzorcem, a algorytm pozwalający na logowanie się tylko sprawdza, czy hasło „wygląda dobrze” zgodnie z tą zasadą i czy jest zgodne nie ma na „liście wygasłych”.
Niestety jego pretensjonalne zachowanie spowodowało, że wielu ludzi było zgorzkniałych, a jeden z nich, pan Y, postanowił udowodnić mu, że potrafi złamać swoje hasła. Pewnej nocy zbiera kilka z nich i zaczyna próbować zaprojektować algorytm uczenia się do generowania prawidłowych haseł, używając swojego komputera osobistego do ich weryfikacji.
Pytanie
Wyrocznia użyta przez pana Y jest nieco dziwna, ponieważ mówi mu „prawdę, ale nie całą prawdę” (stąd przymiotnik „milczący”). Dokładniej: Pan Y będzie wiedział, że hasło jest ważne, gdy jego komputer je zaakceptuje, ale gdy hasło zostanie odrzucone, Pan Y nie będzie wiedział, czy mogło być ważne: hasło może zostać odrzucone, ponieważ nie odpowiadają pewnemu wzorowi, ale można go również odrzucić, ponieważ był ważny, ale już nie jest, zgodnie z regułą pana X dotyczącą „zmiany raz w miesiącu”.
Czy pan Y kiedykolwiek będzie w stanie wymyślić coś w tym otoczeniu? Czy też możemy twierdzić / udowodnić, że hasła Pana X są z natury nieprzewidywalne (jak zdefiniowano w ustawieniach uczenia się PAC, ale może ta koncepcja istnieje w innych ramach)?