Muszę wygenerować losowe macierze nie kwadratowe z wierszami i kolumnami C , elementy losowo rozmieszczone ze średnią = 0 i ograniczone tak, że długość (norma L2) każdego wiersza wynosi 1, a długość każdej kolumny wynosi √RRRCCC111 . Odpowiednio suma wartości kwadratowych wynosi 1 dla każdego wiersza iR.RC−−√RC\sqrt{\frac{R}{C}}RCRC\frac{R}{C} dla każdej kolumny. …
Piszę algorytm, w którym przy danym modelu obliczam prawdopodobieństwa dla listy zestawów danych, a następnie muszę znormalizować (według prawdopodobieństwa) każde z prawdopodobieństw. Więc coś w rodzaju [0,00043, 0,00004, 0,00321] można przekonwertować na coś takiego jak [0,2, 0,03, 0,77]. Mój problem polega na tym, że prawdopodobieństwa dziennika, z którymi pracuję, są …
Najwyraźniej w hierarchicznym grupowaniu, w którym miarą odległości jest odległość euklidesowa, dane muszą być najpierw znormalizowane lub znormalizowane, aby zapobiec współzmienności o największej wariancji napędzania grupowania. Dlaczego to? Czy ten fakt nie jest pożądany?
Niektóre funkcje moich danych mają duże wartości, podczas gdy inne funkcje mają znacznie mniejsze wartości. Czy konieczne jest wyśrodkowanie + skalowanie danych przed zastosowaniem t-SNE, aby zapobiec odchyleniu w kierunku większych wartości? Korzystam z implementacji sklearn.manifold.TSNE w Pythonie z domyślną miarą odległości euklidesowej.
Mam pytanie, w którym prosi się o sprawdzenie, czy rozkład jednolity ( Uniform(a,b)Unjafaorm(za,b){\rm Uniform}(a,b) ) jest znormalizowany. Po pierwsze, co to znaczy znormalizować dowolny rozkład? I po drugie, jak przejść do sprawdzenia, czy rozkład jest znormalizowany? Rozumiem, obliczając otrzymujemy znormalizowane dane , ale tutaj prosi się o sprawdzenie, czy rozkład …
Załóżmy, że mamy mierzalnych zmiennych, , wykonujemy liczbę pomiarów, a następnie chcemy przeprowadzić rozkład wyników w liczbie pojedynczej na wynikach, aby znaleźć osie największej wariancji dla punktów w przestrzeni wymiarowej. ( Uwaga: załóżmy, że środki zostały już odjęte, więc dla wszystkich .)N.N.N( a1, a2), … , AN.)(za1,za2),…,zaN.)(a_1, a_2, \ldots, a_N)M.> …
Czy dane normalizujące (mające zerową średnią i odchylenie standardowe jedności) przed powtórzeniem k-krotnej walidacji krzyżowej mają jakieś negatywne konsekwencje, takie jak nadmierne dopasowanie? Uwaga: dotyczy to sytuacji, gdy # skrzynki> łączna liczba funkcji Przekształcam niektóre moje dane za pomocą transformacji dziennika, a następnie normalizuję wszystkie dane jak wyżej. Następnie dokonuję …
W badaniach ekspresji genów za pomocą mikromacierzy dane dotyczące intensywności muszą zostać znormalizowane, aby można było porównać intensywności między poszczególnymi osobami, między genami. Pojęciowo i algorytmicznie, jak działa „normalizacja kwantowa” i jak wytłumaczyłbyś to statystyce?
Powiedzmy, że mam klasyfikator regresji logistycznej. Podczas normalnego uczenia wsadowego stosuję termin regulizujący, aby zapobiec nadmiernemu dopasowaniu i utrzymać moją wagę na niskim poziomie. Normalizowałbym również i skalował moje funkcje. W ustawieniach do nauki online otrzymuję ciągły strumień danych. Z każdym przykładem wykonuję aktualizację spadku gradientu, a następnie ją odrzucam. …
Biorę udział w kursie uczenia maszynowego Andrew Nga i po kilku próbach nie byłem w stanie uzyskać poprawnej odpowiedzi na to pytanie. Prosimy o pomoc w rozwiązaniu tego problemu, chociaż przeszedłem poziom. Załóżmy, że uczniów wzięło udział w zajęciach, a klasa miała egzamin śródokresowy i egzamin końcowy. Zebrałeś zbiór danych …
Używam skryptu. To jest dla podstawowych zapisów. Mam ramkę danych, która pokazuje różne kompozycje elementarne w kolumnach na danej głębokości (w pierwszej kolumnie). Chcę z nim wykonać PCA i jestem zdezorientowany co do metody standaryzacji, którą muszę wybrać. Czy ktoś z was wykorzystał te dane clr()do przygotowania danych prcomp()? Czy …
Rozumiem uzasadnienie normalizacji kolumn, ponieważ powoduje, że cechy są ważone równo, nawet jeśli nie są mierzone w tej samej skali - jednak często w literaturze najbliższego sąsiada zarówno kolumny, jak i wiersze są znormalizowane. Do czego służy normalizacja wierszy / dlaczego normalizować wiersze? W szczególności, w jaki sposób wynik normalizacji …
Staram się znaleźć najbardziej odpowiedni charakterystyczny rozkład danych z powtarzanych pomiarów określonego rodzaju. Zasadniczo w mojej gałęzi geologii często używamy datowania radiometrycznego minerałów z próbek (kawałków skały), aby dowiedzieć się, jak dawno temu wydarzenie miało miejsce (skała schłodziła się poniżej temperatury progowej). Zazwyczaj z każdej próbki zostanie wykonanych kilka (3-10) …
Mam bardzo duży zestaw danych i brakuje około 5% wartości losowych. Te zmienne są ze sobą skorelowane. Poniższy przykładowy zestaw danych R jest tylko zabawkowym przykładem z fałszywymi skorelowanymi danymi. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
Pracuję nad algorytmem, który przyjmuje wektor najnowszego punktu danych z wielu strumieni czujników i porównuje odległość euklidesową z poprzednimi wektorami. Problem polega na tym, że różne strumienie danych pochodzą z zupełnie różnych czujników, więc przyjęcie prostej odległości euklidesowej dramatycznie przeceni niektóre wartości. Oczywiście potrzebuję sposobu na znormalizowanie danych. Ponieważ jednak …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.