Oglądałem prezentację specjalisty ds. ML od jednego z głównych sprzedawców detalicznych, gdzie opracowali model pozwalający przewidywać zdarzenia z magazynu.
Załóżmy przez chwilę, że z czasem ich model staje się bardzo dokładny, czy nie byłoby to w jakiś sposób „samobójcze”? Oznacza to, że jeśli model naprawdę działa dobrze, będą w stanie przewidywać zdarzenia braku zapasów i ich unikać, ostatecznie dochodząc do punktu, w którym będzie ich niewiele lub nie będzie ich wcale. Ale w takim przypadku nie będzie wystarczających danych historycznych, aby uruchomić ich model, lub ich model zostanie wykolejony, ponieważ te same czynniki przyczynowe, które wskazywały na brak akcji, już tego nie robią.
Jakie są strategie radzenia sobie z takim scenariuszem?
Dodatkowo można wyobrazić sobie odwrotną sytuację: na przykład system rekomendujący może stać się „samospełniającą się przepowiednią” ze wzrostem sprzedaży par pozycji wynikającym z wyników systemu rekomendującego, nawet jeśli te dwa przedmioty nie są tak naprawdę związane z.
Wydaje mi się, że oba są wynikiem swoistej pętli sprzężenia zwrotnego, która zachodzi między wyjściem predyktora a działaniami podejmowanymi na jego podstawie. Jak poradzić sobie z takimi sytuacjami?