Uwaga: nie pytam, jak zrobić klon jednego z nich. Pytam o to, jak działają.
Jestem pewien, że wszyscy widzieli gry, w których korzystasz z własnych plików muzycznych (lub dostarczonych), a gry produkują na ich podstawie poziomy, takie jak Audiosurf i Beat Hazard .
Oto wideo Audiosurf w akcji, aby pokazać, co mam na myśli.
Jeśli dostarczysz heavy metalową piosenkę, otrzymasz zupełnie inny zestaw przeszkód, wrogów i wrażenia z gry od czegoś takiego jak Vivaldi.
Interesuje mnie to, jak działają te gry. Nie wiem dużo o dźwięku (cóż, po stronie danych), ale jak przetwarzają piosenkę, aby zrozumieć, kiedy się uspokaja lub przyspiesza? Sądzę, że mogliby po prostu podać wartości wysokości dźwięku (zakładając, że tego rodzaju rzeczy istnieją w plikach audio), aby utworzyć poziom, ale to by do końca tego nie wyjaśniło.
Szukam wyjaśnienia, linków do artykułów na ten temat (jestem pewien, że istnieje termin lub warunki), a nawet implementacji tego typu na zasadach open source ;-)
EDYCJA: Po kilku poszukiwaniach i niewielkiej pomocy dowiedziałem się o FFT (szybka transformata Fouriera). To może krok we właściwym kierunku, ale dla mnie nie ma to żadnego sensu ... lub pasuje do mojej wiedzy o falach.