Muszę znaleźć częstotliwość elementów na nieuporządkowanej liście
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
wyjście->
b = [4,4,2,1,2]
Również chcę usunąć duplikaty z
a = [1,2,3,4,5]
Muszę znaleźć częstotliwość elementów na nieuporządkowanej liście
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
wyjście->
b = [4,4,2,1,2]
Również chcę usunąć duplikaty z
a = [1,2,3,4,5]
Odpowiedzi:
Uwaga: Przed użyciem należy posortować listę groupby
.
Możesz użyć groupby
z itertools
pakietu, jeśli lista jest listą uporządkowaną.
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
from itertools import groupby
[len(list(group)) for key, group in groupby(a)]
Wynik:
[4, 4, 2, 1, 2]
groupby
. Zastanawiam się jednak nad jego efektywnością w porównaniu z podejściem dyktatorskim
sum(1 for _ in group)
.
[(key, len(list(group))) for key, group in groupby(a)]
lub {key: len(list(group)) for key, group in groupby(a)}
@buhtz
W Pythonie 2.7 (lub nowszym) możesz użyć collections.Counter
:
import collections
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
counter=collections.Counter(a)
print(counter)
# Counter({1: 4, 2: 4, 3: 2, 5: 2, 4: 1})
print(counter.values())
# [4, 4, 2, 1, 2]
print(counter.keys())
# [1, 2, 3, 4, 5]
print(counter.most_common(3))
# [(1, 4), (2, 4), (3, 2)]
Jeśli używasz języka Python 2.6 lub starszego, możesz go pobrać tutaj .
collections.Counter
jest podklasą dict
. Możesz go używać w taki sam sposób, jak normalny dyktand. Jeśli jednak naprawdę chcesz dykta, możesz go przekonwertować na dykt za pomocą dict(counter)
.
Python 2.7+ wprowadza rozumienie słownika. Zbudowanie słownika z listy pozwoli ci liczyć, a także pozbyć się duplikatów.
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> d = {x:a.count(x) for x in a}
>>> d
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
>>> a, b = d.keys(), d.values()
>>> a
[1, 2, 3, 4, 5]
>>> b
[4, 4, 2, 1, 2]
{x:a.count(x) for x in set(a)}
a.count()
wykonuje pełny trawers dla każdego elementu a
, czyniąc z tego podejście kwadratowe O (N ^ 2). collections.Counter()
jest znacznie bardziej wydajny, ponieważ liczy się w czasie liniowym (O (N)). Liczbowo oznacza to, że to podejście wykona 1 milion kroków dla listy o długości 1000, w porównaniu do zaledwie 1000 kroków z Counter()
, 10 ^ 12 kroków, w których Counter potrzebuje tylko 10 ^ 6 dla miliona pozycji na liście itp.
a.count()
całkowicie przyćmiewa skuteczność korzystania z zestawu.
Aby policzyć liczbę wystąpień:
from collections import defaultdict
appearances = defaultdict(int)
for curr in a:
appearances[curr] += 1
Aby usunąć duplikaty:
a = set(a)
Counter
może używać wielu typów numerycznych, w tym float
lub Decimal
nie tylko int
.
W Pythonie 2.7+ możesz używać kolekcji. Licznik do liczenia elementów
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>>
>>> from collections import Counter
>>> c=Counter(a)
>>>
>>> c.values()
[4, 4, 2, 1, 2]
>>>
>>> c.keys()
[1, 2, 3, 4, 5]
Prawdopodobnie najlepiej policzyć częstotliwość elementów za pomocą słownika:
b = {}
for item in a:
b[item] = b.get(item, 0) + 1
Aby usunąć duplikaty, użyj zestawu:
a = list(set(a))
defaultdict
.
b = {k:0 for k in a}
?
Oto kolejna korzystna alternatywa, itertools.groupby
która działa również w przypadku nieuporządkowanych danych wejściowych:
from itertools import groupby
items = [5, 1, 1, 2, 2, 1, 1, 2, 2, 3, 4, 3, 5]
results = {value: len(list(freq)) for value, freq in groupby(sorted(items))}
wyniki
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
Możesz to zrobić:
import numpy as np
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
np.unique(a, return_counts=True)
Wynik:
(array([1, 2, 3, 4, 5]), array([4, 4, 2, 1, 2], dtype=int64))
Pierwsza tablica to wartości, a druga tablica to liczba elementów o tych wartościach.
Więc jeśli chcesz uzyskać tylko tablicę z liczbami, powinieneś użyć tego:
np.unique(a, return_counts=True)[1]
from collections import Counter
a=["E","D","C","G","B","A","B","F","D","D","C","A","G","A","C","B","F","C","B"]
counter=Counter(a)
kk=[list(counter.keys()),list(counter.values())]
pd.DataFrame(np.array(kk).T, columns=['Letter','Count'])
seta = set(a)
b = [a.count(el) for el in seta]
a = list(seta) #Only if you really want it.
count
jest absurdalnie drogie i nieuzasadnione w tym scenariuszu.
Chciałbym po prostu użyć scipy.stats.itemfreq w następujący sposób:
from scipy.stats import itemfreq
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
freq = itemfreq(a)
a = freq[:,0]
b = freq[:,1]
możesz sprawdzić dokumentację tutaj: http://docs.scipy.org/doc/scipy-0.16.0/reference/generated/scipy.stats.itemfreq.html
Ta odpowiedź jest bardziej jednoznaczna
a = [1,1,1,1,2,2,2,2,3,3,3,4,4]
d = {}
for item in a:
if item in d:
d[item] = d.get(item)+1
else:
d[item] = 1
for k,v in d.items():
print(str(k)+':'+str(v))
# output
#1:4
#2:4
#3:3
#4:2
#remove dups
d = set(a)
print(d)
#{1, 2, 3, 4}
def frequencyDistribution(data):
return {i: data.count(i) for i in data}
print frequencyDistribution([1,2,3,4])
...
{1: 1, 2: 1, 3: 1, 4: 1} # originalNumber: count
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
# 1. Get counts and store in another list
output = []
for i in set(a):
output.append(a.count(i))
print(output)
# 2. Remove duplicates using set constructor
a = list(set(a))
print(a)
Wynik
D:\MLrec\venv\Scripts\python.exe D:/MLrec/listgroup.py
[4, 4, 2, 1, 2]
[1, 2, 3, 4, 5]
Proste rozwiązanie za pomocą słownika.
def frequency(l):
d = {}
for i in l:
if i in d.keys():
d[i] += 1
else:
d[i] = 1
for k, v in d.iteritems():
if v ==max (d.values()):
return k,d.keys()
print(frequency([10,10,10,10,20,20,20,20,40,40,50,50,30]))
max(d.values())
nie zmieni się w ostatniej pętli. Nie obliczaj go w pętli, oblicz go przed pętlą.
#!usr/bin/python
def frq(words):
freq = {}
for w in words:
if w in freq:
freq[w] = freq.get(w)+1
else:
freq[w] =1
return freq
fp = open("poem","r")
list = fp.read()
fp.close()
input = list.split()
print input
d = frq(input)
print "frequency of input\n: "
print d
fp1 = open("output.txt","w+")
for k,v in d.items():
fp1.write(str(k)+':'+str(v)+"\n")
fp1.close()
num=[3,2,3,5,5,3,7,6,4,6,7,2]
print ('\nelements are:\t',num)
count_dict={}
for elements in num:
count_dict[elements]=num.count(elements)
print ('\nfrequency:\t',count_dict)
from collections import OrderedDict
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
def get_count(lists):
dictionary = OrderedDict()
for val in lists:
dictionary.setdefault(val,[]).append(1)
return [sum(val) for val in dictionary.values()]
print(get_count(a))
>>>[4, 4, 2, 1, 2]
Aby usunąć duplikaty i utrzymać porządek:
list(dict.fromkeys(get_count(a)))
>>>[4, 2, 1]
Używam licznika do generowania częstotliwości. dyktuj ze słów w pliku tekstowym w 1 linii kodu
def _fileIndex(fh):
''' create a dict using Counter of a
flat list of words (re.findall(re.compile(r"[a-zA-Z]+"), lines)) in (lines in file->for lines in fh)
'''
return Counter(
[wrd.lower() for wrdList in
[words for words in
[re.findall(re.compile(r'[a-zA-Z]+'), lines) for lines in fh]]
for wrd in wrdList])
Inne podejście do tego celu, aczkolwiek przy użyciu cięższej, ale potężnej biblioteki - NLTK.
import nltk
fdist = nltk.FreqDist(a)
fdist.values()
fdist.most_common()
Jeszcze inne rozwiązanie z innym algorytmem bez użycia kolekcji:
def countFreq(A):
n=len(A)
count=[0]*n # Create a new list initialized with '0'
for i in range(n):
count[A[i]]+= 1 # increase occurrence for value A[i]
return [x for x in count if x] # return non-zero count
Możesz użyć wbudowanej funkcji dostarczonej w Pythonie
l.count(l[i])
d=[]
for i in range(len(l)):
if l[i] not in d:
d.append(l[i])
print(l.count(l[i])
Powyższy kod automatycznie usuwa duplikaty z listy, a także drukuje częstotliwość każdego elementu na oryginalnej liście i liście bez duplikatów.
Dwa ptaki za jeden strzał! XD
To podejście można wypróbować, jeśli nie chcesz korzystać z żadnej biblioteki i jest ona prosta i krótka!
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
marked = []
b = [(a.count(i), marked.append(i))[0] for i in a if i not in marked]
print(b)
o / p
[4, 4, 2, 1, 2]
Dla przypomnienia, funkcjonalna odpowiedź:
>>> L = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> import functools
>>> >>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc,1)] if e<=len(acc) else acc+[0 for _ in range(e-len(acc)-1)]+[1], L, [])
[4, 4, 2, 1, 2]
Jest czystszy, jeśli zliczasz również zera:
>>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc)] if e<len(acc) else acc+[0 for _ in range(e-len(acc))]+[1], L, [])
[0, 4, 4, 2, 1, 2]
Wyjaśnienie:
acc
listy;e
z L
jest mniejsza niż rozmiar acc
, po prostu zaktualizować ten element: v+(i==e)
środki v+1
, jeśli indeks i
z acc
jest obecny pierwiastek e
, inaczej poprzednia wartość v
;e
od L
jest większa lub równa wielkości acc
, musimy poszerzyć acc
gospodarzem nowego 1
.Elementy nie muszą być sortowane ( itertools.groupby
). Otrzymasz dziwne wyniki, jeśli masz liczby ujemne.
Znalazłem inny sposób na to, używając zestawów.
#ar is the list of elements
#convert ar to set to get unique elements
sock_set = set(ar)
#create dictionary of frequency of socks
sock_dict = {}
for sock in sock_set:
sock_dict[sock] = ar.count(sock)
Aby znaleźć unikalne elementy na liście
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
a = list(set(a))
Aby znaleźć liczbę unikalnych elementów w posortowanej tablicy za pomocą słownika
def CountFrequency(my_list):
# Creating an empty dictionary
freq = {}
for item in my_list:
if (item in freq):
freq[item] += 1
else:
freq[item] = 1
for key, value in freq.items():
print ("% d : % d"%(key, value))
# Driver function
if __name__ == "__main__":
my_list =[1, 1, 1, 5, 5, 3, 1, 3, 3, 1, 4, 4, 4, 2, 2, 2, 2]
CountFrequency(my_list)
Odniesienie GeeksforGeeks
Jeszcze jednym sposobem jest użycie słownika i list.count, poniżej naiwnego sposobu na zrobienie tego.
dicio = dict()
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
b = list()
c = list()
for i in a:
if i in dicio: continue
else:
dicio[i] = a.count(i)
b.append(a.count(i))
c.append(i)
print (b)
print (c)