Obecnie próbuję obliczyć BIC dla mojego zestawu danych zabawek (ofc iris (:). Chcę odtworzyć wyniki, jak pokazano tutaj (ryc. 5). Ten papier jest również moim źródłem dla formuł BIC.
Mam z tym 2 problemy:
- Notacja:
- I = liczba elementów w klastrze
- i = współrzędne środkowe klastra
- i = punkty danych przypisane do klastra
- = liczba klastrów
1) Wariancja zdefiniowana w równaniu. (2):
Z tego, co widzę, jest problematyczne i nieujęte, że wariancja może być ujemna, gdy w klastrze jest więcej klastrów niż elementów. Czy to jest poprawne?
2) Po prostu nie mogę zmusić mojego kodu do działania w celu obliczenia poprawnego BIC. Mam nadzieję, że nie ma błędu, ale byłoby bardzo mile widziane, gdyby ktoś mógł to sprawdzić. Całe równanie można znaleźć w równaniu. (5) w pracy. Używam scikit learning do wszystkiego teraz (aby uzasadnić słowo kluczowe: P).
from sklearn import cluster
from scipy.spatial import distance
import sklearn.datasets
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt
import numpy as np
def compute_bic(kmeans,X):
"""
Computes the BIC metric for a given clusters
Parameters:
-----------------------------------------
kmeans: List of clustering object from scikit learn
X : multidimension np array of data points
Returns:
-----------------------------------------
BIC value
"""
# assign centers and labels
centers = [kmeans.cluster_centers_]
labels = kmeans.labels_
#number of clusters
m = kmeans.n_clusters
# size of the clusters
n = np.bincount(labels)
#size of data set
N, d = X.shape
#compute variance for all clusters beforehand
cl_var = [(1.0 / (n[i] - m)) * sum(distance.cdist(X[np.where(labels == i)], [centers[0][i]], 'euclidean')**2) for i in xrange(m)]
const_term = 0.5 * m * np.log10(N)
BIC = np.sum([n[i] * np.log10(n[i]) -
n[i] * np.log10(N) -
((n[i] * d) / 2) * np.log10(2*np.pi) -
(n[i] / 2) * np.log10(cl_var[i]) -
((n[i] - m) / 2) for i in xrange(m)]) - const_term
return(BIC)
# IRIS DATA
iris = sklearn.datasets.load_iris()
X = iris.data[:, :4] # extract only the features
#Xs = StandardScaler().fit_transform(X)
Y = iris.target
ks = range(1,10)
# run 9 times kmeans and save each result in the KMeans object
KMeans = [cluster.KMeans(n_clusters = i, init="k-means++").fit(X) for i in ks]
# now run for each cluster the BIC computation
BIC = [compute_bic(kmeansi,X) for kmeansi in KMeans]
plt.plot(ks,BIC,'r-o')
plt.title("iris data (cluster vs BIC)")
plt.xlabel("# clusters")
plt.ylabel("# BIC")
Moje wyniki dla BIC wyglądają tak:
Co nie jest nawet bliskie temu, czego się spodziewałem, a także nie ma sensu ... Patrzyłem teraz na równania od jakiegoś czasu i nie dostaję dalszej lokalizacji mojego błędu):