Wyszukiwarki coraz częściej polegają na zbieraczach informacji, jednak kryteria stosowane przez wyszukiwarki do oceniania wyników są niejasne dla użytkowników. W jaki sposób użytkownicy mogą być pewni, że ich wyniki nie są stronnicze lub w jakikolwiek sposób modyfikowane, aby zwiększyć zainteresowanie kosztem jakości wyników wyszukiwania?
Rządy rutynowo wymagają od dostawców usług wyszukiwania usunięcia lub obniżenia rankingu witryn uznanych za politycznie niepożądane. Firmy mogą płacić usługodawcom w celu zwiększenia niektórych wyników w porównaniu z innymi w celu zwiększenia swoich przychodów. Zapory mogą mieszać się z wynikami, zanim zostaną przesłane z powrotem do użytkowników.
Nawet pozornie nieszkodliwe zmiany w algorytmach rankingowych, które mogą nie wyglądać na pozorne, wydają się tendencyjne, mogą być rzeczywiście przebiegle zaprojektowane, aby szkodzić witrynom internetowym o wspólnych cechach (niezwiązanych z rzeczywistą jakością).
Czy można wykryć stronniczość wyszukiwarek, powiedzmy monitorując wyniki w pewnym okresie czasu i oceniając, czy jakaś „ukryta zmienna” (być może powiązanie polityczne) jest czynnikiem napędzającym zmianę w rankingu witryn?
Podstępny dostawca może z czasem stopniowo obniżać ranking ukierunkowanych stron internetowych (a być może także losowych stron internetowych, aby rozproszyć uwagę użytkowników). Jakie są ograniczenia ilości stronniczości, które dostawca może wprowadzić bez wykrycia? Czy też zawsze można ukryć taką ingerencję, podstępnie wybierając ważone kryteria rankingu, które przypadkowo dają zamierzony rezultat (poprzez „szpiegowanie danych”).
Czy któraś z tych zmian ulega zmianie, jeśli kryteria rankingu zostaną podane do wiadomości publicznej? Czy potrzebujemy open source kryteriów używanych przez wyszukiwarki?
Przypomina mi to wynik, że wykrycie, czy sprzedawca manipulował złożonym instrumentem finansowym, takim jak CDO, jest równoznaczne z rozwiązaniem problemu najgęstszej podgrupy:
http://www.cs.princeton.edu/~rongge/derivative.pdf
Dzięki!