Splątanie jest często utrzymywane jako kluczowy składnik, który sprawia, że algorytmy kwantowe są dobrze ... kwantowe, i można to prześledzić do stanów Bella, które niszczą ideę fizyki kwantowej jako modelu probabilistycznego w stanie ukrytym. W teorii informacji kwantowej (z mojego raczej słabego zrozumienia) splątanie może być również wykorzystane jako konkretny zasób, który ogranicza możliwość wykonywania pewnych rodzajów kodowania.
Ale z innych rozmów (ostatnio zasiadałem w komitecie doktora fizyka zajmującego się metodami kwantowymi) stwierdzam, że uwikłanie jest trudne do oszacowania, szczególnie w przypadku stanów kwantowych o mieszanym stanie. W szczególności trudno jest powiedzieć, że określony stan kwantowy zawiera X jednostek splątania (praca doktorska studenta dotyczyła ilościowej oceny ilości splątania „dodanego” przez dobrze znane operacje bramkowe). W rzeczywistości ostatnia praca doktorska sugeruje, że pojęcie zwane „niezgodą kwantową” może być również istotne (i potrzebne) do kwantyfikacji „kwantowości” algorytmu lub stanu.
Jeśli chcemy traktować splątanie jako zasób podobny do losowości, należy zapytać, jak zmierzyć, ile z tego jest „potrzebne” dla algorytmu. Nie mówię o całkowitej dekwantyzacji , a jedynie o sposobie pomiaru ilości.
Czy istnieje obecnie jakikolwiek zaakceptowany sposób pomiaru „kwantowości” stanu lub operatora, czy ogólnie algorytmu?