Pytania otagowane jako scikit-learn

scikit-learn to biblioteka uczenia maszynowego dla języka Python, która zapewnia proste i wydajne narzędzia do analizy i eksploracji danych, ze szczególnym uwzględnieniem uczenia maszynowego. Jest dostępny dla każdego i wielokrotnego użytku w różnych kontekstach. Jest zbudowany na NumPy i SciPy. Projekt jest open source i można go wykorzystywać komercyjnie (licencja BSD).

20
Kodowanie etykiet w wielu kolumnach w scikit-learn
Próbuję użyć scikit-learn LabelEncoderdo zakodowania pand DataFrameetykiet ciągów. Ponieważ ramka danych ma wiele (ponad 50) kolumn, chcę uniknąć tworzenia LabelEncoderobiektu dla każdej kolumny; Wolałbym mieć tylko jeden duży LabelEncoderobiekt, który działa we wszystkich moich kolumnach danych. Wrzucenie całości DataFramew LabelEncoderpowoduje następujący błąd. Proszę pamiętać, że używam tutaj fałszywych danych; w …


6
Zapisz klasyfikator na dysku w scikit-learn
Jak zapisać wyszkolonego klasyfikatora Naive Bayes na dysk i użyć go do przewidywania danych? Mam następujący przykładowy program ze strony scikit-learn: from sklearn import datasets iris = datasets.load_iris() from sklearn.naive_bayes import GaussianNB gnb = GaussianNB() y_pred = gnb.fit(iris.data, iris.target).predict(iris.data) print "Number of mislabeled points : %d" % (iris.target != y_pred).sum()

15
ImportError: Brak modułu o nazwie sklearn.cross_validation
Używam Pythona 2.7 w Ubuntu 14.04. Zainstalowałem scikit-learn, numpy i matplotlib za pomocą tych poleceń: sudo apt-get install build-essential python-dev python-numpy \ python-numpy-dev python-scipy libatlas-dev g++ python-matplotlib \ ipython Ale kiedy importuję te pakiety: from sklearn.cross_validation import train_test_split Zwraca mi ten błąd: ImportError: No module named sklearn.cross_validation Co muszę zrobić?





10
RuntimeWarning: zmieniono rozmiar numpy.dtype, może wskazywać na niezgodność plików binarnych
Mam ten błąd podczas próby załadowania zapisanego modelu SVM. Próbowałem odinstalować sklearn, NumPy i SciPy, ponownie instalując wszystkie najnowsze wersje (używając pip). Nadal otrzymuję ten błąd. Czemu? In [1]: import sklearn; print sklearn.__version__ 0.18.1 In [3]: import numpy; print numpy.__version__ 1.11.2 In [5]: import scipy; print scipy.__version__ 0.18.1 In [7]: …


7
pandy dataframe kolumny skalowanie za pomocą sklearn
Mam ramkę danych pandy z kolumnami typu mieszanego i chciałbym zastosować min_max_scaler sklearn do niektórych kolumn. Idealnie, chciałbym dokonać tych transformacji na miejscu, ale jeszcze nie wymyśliłem sposobu, aby to zrobić. Napisałem następujący kod, który działa: import pandas as pd import numpy as np from sklearn import preprocessing scaler = …

5
Jak podzielić dane na 3 zbiory (trenowanie, walidacja i testowanie)?
Mam ramkę danych pandy i chcę ją podzielić na 3 oddzielne zestawy. Wiem, że używając train_test_split z sklearn.cross_validation, można podzielić dane na dwa zestawy (pociąg i test). Nie mogłem jednak znaleźć żadnego rozwiązania dotyczącego podziału danych na trzy zestawy. Najlepiej, jeśli posiadam indeksy oryginalnych danych. Wiem, że obejściem byłoby train_test_splitdwukrotne …

13
sklearn error ValueError: Wejście zawiera NaN, nieskończoność lub wartość zbyt dużą dla dtype ('float64')
Używam sklearn i mam problem z propagacją powinowactwa. Zbudowałem macierz wejściową i ciągle otrzymuję następujący błąd. ValueError: Input contains NaN, infinity or a value too large for dtype('float64'). Pobiegłem np.isnan(mat.any()) #and gets False np.isfinite(mat.all()) #and gets True Próbowałem użyć mat[np.isfinite(mat) == True] = 0 aby usunąć nieskończone wartości, ale to …


6
W jaki sposób są określane cechy_importowe w RandomForestClassifier?
Mam zadanie klasyfikacyjne z szeregami czasowymi jako danymi wejściowymi, gdzie każdy atrybut (n = 23) reprezentuje określony punkt w czasie. Oprócz absolutnego wyniku klasyfikacji chciałbym się dowiedzieć, które atrybuty / daty wpływają na wynik w jakim stopniu. Dlatego używam tylko programu feature_importances_, który działa dobrze dla mnie. Chciałbym jednak wiedzieć, …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.