Python 基于发生频率的SVM分类

Python 基于发生频率的SVM分类,python,machine-learning,scikit-learn,classification,svm,Python,Machine Learning,Scikit Learn,Classification,Svm,这个问题与Python有关,尽管这个问题的重点是在Python中找到一个特定的解决方案,因此我在这里发布它 我试图根据事件发生的频率对事件进行分类。我拥有的数据集大致如下所示: 月/年、地理区域、事件类型、发生次数 '2016-01',1,'A',50 '2016-01',1,'B',20 '2016-01',2,'A',10 '2016-01',2,'B',18 '2016-02',1,'A',62 '2016-02',1,'B',29 '2016-02',2,'A',14 '2016-02'

这个问题与Python有关,尽管这个问题的重点是在Python中找到一个特定的解决方案,因此我在这里发布它

我试图根据事件发生的频率对事件进行分类。我拥有的数据集大致如下所示:

月/年、地理区域、事件类型、发生次数
'2016-01',1,'A',50
'2016-01',1,'B',20
'2016-01',2,'A',10
'2016-01',2,'B',18
'2016-02',1,'A',62
'2016-02',1,'B',29
'2016-02',2,'A',14
'2016-02',2,'B',22
'2016-03',1,'A',59
'2016-03',1,'B',27
‘2016-03’,2,‘A’,16
'2016-03',2,'B',23

每月收集
n
区域和
m
事件类型的数据(本简化案例中为2和2)。我知道这些事件在该时间和地点内发生的频率

考虑到
[月\年,地理区域]
,我想预测这些事件在未来发生的可能性。我不确定如何使用
count\u of\u occurrencess
列来训练分类器。问题是我不知道看不见的数据的事件计数,因此我无法使用类似于
clf.predict([月份、年份、地理区域、事件计数])的方法查询模型。
。也许概率分类器更合适

以下是我当前代码的简化版本,包括我正在努力的注释:

from sklearn import svm
from sklearn.model_selection import train_test_split

X = [
    # [month_year, geographic_zone, count_of_occurrences] after encoding
    [1, 1, 50],
    [1, 1, 20],
    [1, 2, 10],
    [1, 2, 18],
    [2, 1, 62],
    [2, 1, 29],
    [2, 2, 14],
    [2, 2, 22],
    [3, 1, 59],
    [3, 1, 27],
    [3, 2, 16],
    [3, 2, 23],
]

# event_types, 1=A, 2=B
y = [
  1, 2, 1, 2,
  1, 2, 1, 2,
  1, 2, 1, 2,
]

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.20)

clf = svm.SVC(probability=True)

# I am fitting the model using the count_of_occurrences feature, however
# I won't have knowledge about this value for unseen data all I will really
# know is the month_year and geographic_zone for which I want to make predictions
clf.fit(X_train, y_train)

print(clf.predict_proba(X_test))

如何利用分类器中的发生/频率计数?

您可以将相应数量的事件放入训练集,让模型自己计算它们的相对概率。因此,在数据预处理和模型开发过程中,不需要对发生的事件进行计数:-)

顺便说一句,这不是直接的问题,但是如果你的数据是季节性的,那么你不应该忘记将月份和年份分割成不同的特征

from sklearn import svm


data = [
    # year, month, geo, type, count
    [2016, 1, 1, 'A', 50],
    [2016, 1, 1, 'B', 20],
    [2016, 1, 2, 'A', 10],
    [2016, 1, 2, 'B', 18],
    [2016, 2, 1, 'A', 62],
    [2016, 2, 1, 'B', 29],
    [2016, 2, 2, 'A', 14],
    [2016, 2, 2, 'B', 22],
    [2016, 3, 1, 'A', 59],
    [2016, 3, 1, 'B', 27],
    [2016, 3, 2, 'A', 16],
    [2016, 3, 2, 'B', 23],
]

X = []
y = []

for year, month, geo, t, count in data:
    for i in range(count):
        X.append([year, month, geo])
        y.append(t)

clf = svm.SVC(probability=True)

clf.fit(X, y)

test = [
    [year, month, geo]
    for year in [2016, 2017]
    for month in range(1, 13)
    for geo in [1, 2]
]

prediction = clf.predict_proba(test)

for (year, month, geo), proba in zip(test, prediction):
    s = " ".join("%s=%.2f" % (cls, p)
                 for cls, p in zip(clf.classes_, proba))
    print("%d-%02d geo=%d: %s" % (year, month, geo, s))
结果:

2016-01 geo=1: A=0.69 B=0.31
2016-01 geo=2: A=0.39 B=0.61
2016-02 geo=1: A=0.69 B=0.31
2016-02 geo=2: A=0.39 B=0.61
2016-03 geo=1: A=0.69 B=0.31
2016-03 geo=2: A=0.39 B=0.61
2016-04 geo=1: A=0.65 B=0.35
2016-04 geo=2: A=0.43 B=0.57
2016-05 geo=1: A=0.59 B=0.41
2016-05 geo=2: A=0.50 B=0.50
2016-06 geo=1: A=0.55 B=0.45
2016-06 geo=2: A=0.54 B=0.46
2016-07 geo=1: A=0.55 B=0.45
2016-07 geo=2: A=0.54 B=0.46
2016-08 geo=1: A=0.55 B=0.45
2016-08 geo=2: A=0.54 B=0.46
2016-09 geo=1: A=0.55 B=0.45
2016-09 geo=2: A=0.55 B=0.45
2016-10 geo=1: A=0.55 B=0.45
2016-10 geo=2: A=0.55 B=0.45
2016-11 geo=1: A=0.55 B=0.45
2016-11 geo=2: A=0.55 B=0.45
2016-12 geo=1: A=0.55 B=0.45
2016-12 geo=2: A=0.55 B=0.45
2017-01 geo=1: A=0.65 B=0.35
2017-01 geo=2: A=0.43 B=0.57
2017-02 geo=1: A=0.65 B=0.35
2017-02 geo=2: A=0.43 B=0.57
2017-03 geo=1: A=0.65 B=0.35
2017-03 geo=2: A=0.43 B=0.57
2017-04 geo=1: A=0.62 B=0.38
2017-04 geo=2: A=0.46 B=0.54
2017-05 geo=1: A=0.58 B=0.42
2017-05 geo=2: A=0.51 B=0.49
2017-06 geo=1: A=0.55 B=0.45
2017-06 geo=2: A=0.54 B=0.46
2017-07 geo=1: A=0.55 B=0.45
2017-07 geo=2: A=0.54 B=0.46
2017-08 geo=1: A=0.55 B=0.45
2017-08 geo=2: A=0.54 B=0.46
2017-09 geo=1: A=0.55 B=0.45
2017-09 geo=2: A=0.55 B=0.45
2017-10 geo=1: A=0.55 B=0.45
2017-10 geo=2: A=0.55 B=0.45
2017-11 geo=1: A=0.55 B=0.45
2017-11 geo=2: A=0.55 B=0.45
2017-12 geo=1: A=0.55 B=0.45
2017-12 geo=2: A=0.55 B=0.45

您可以将相应数量的事件放入训练集,让模型自己计算它们的相对概率。因此,在数据预处理和模型开发过程中,不需要对发生的事件进行计数:-)

顺便说一句,这不是直接的问题,但是如果你的数据是季节性的,那么你不应该忘记将月份和年份分割成不同的特征

from sklearn import svm


data = [
    # year, month, geo, type, count
    [2016, 1, 1, 'A', 50],
    [2016, 1, 1, 'B', 20],
    [2016, 1, 2, 'A', 10],
    [2016, 1, 2, 'B', 18],
    [2016, 2, 1, 'A', 62],
    [2016, 2, 1, 'B', 29],
    [2016, 2, 2, 'A', 14],
    [2016, 2, 2, 'B', 22],
    [2016, 3, 1, 'A', 59],
    [2016, 3, 1, 'B', 27],
    [2016, 3, 2, 'A', 16],
    [2016, 3, 2, 'B', 23],
]

X = []
y = []

for year, month, geo, t, count in data:
    for i in range(count):
        X.append([year, month, geo])
        y.append(t)

clf = svm.SVC(probability=True)

clf.fit(X, y)

test = [
    [year, month, geo]
    for year in [2016, 2017]
    for month in range(1, 13)
    for geo in [1, 2]
]

prediction = clf.predict_proba(test)

for (year, month, geo), proba in zip(test, prediction):
    s = " ".join("%s=%.2f" % (cls, p)
                 for cls, p in zip(clf.classes_, proba))
    print("%d-%02d geo=%d: %s" % (year, month, geo, s))
结果:

2016-01 geo=1: A=0.69 B=0.31
2016-01 geo=2: A=0.39 B=0.61
2016-02 geo=1: A=0.69 B=0.31
2016-02 geo=2: A=0.39 B=0.61
2016-03 geo=1: A=0.69 B=0.31
2016-03 geo=2: A=0.39 B=0.61
2016-04 geo=1: A=0.65 B=0.35
2016-04 geo=2: A=0.43 B=0.57
2016-05 geo=1: A=0.59 B=0.41
2016-05 geo=2: A=0.50 B=0.50
2016-06 geo=1: A=0.55 B=0.45
2016-06 geo=2: A=0.54 B=0.46
2016-07 geo=1: A=0.55 B=0.45
2016-07 geo=2: A=0.54 B=0.46
2016-08 geo=1: A=0.55 B=0.45
2016-08 geo=2: A=0.54 B=0.46
2016-09 geo=1: A=0.55 B=0.45
2016-09 geo=2: A=0.55 B=0.45
2016-10 geo=1: A=0.55 B=0.45
2016-10 geo=2: A=0.55 B=0.45
2016-11 geo=1: A=0.55 B=0.45
2016-11 geo=2: A=0.55 B=0.45
2016-12 geo=1: A=0.55 B=0.45
2016-12 geo=2: A=0.55 B=0.45
2017-01 geo=1: A=0.65 B=0.35
2017-01 geo=2: A=0.43 B=0.57
2017-02 geo=1: A=0.65 B=0.35
2017-02 geo=2: A=0.43 B=0.57
2017-03 geo=1: A=0.65 B=0.35
2017-03 geo=2: A=0.43 B=0.57
2017-04 geo=1: A=0.62 B=0.38
2017-04 geo=2: A=0.46 B=0.54
2017-05 geo=1: A=0.58 B=0.42
2017-05 geo=2: A=0.51 B=0.49
2017-06 geo=1: A=0.55 B=0.45
2017-06 geo=2: A=0.54 B=0.46
2017-07 geo=1: A=0.55 B=0.45
2017-07 geo=2: A=0.54 B=0.46
2017-08 geo=1: A=0.55 B=0.45
2017-08 geo=2: A=0.54 B=0.46
2017-09 geo=1: A=0.55 B=0.45
2017-09 geo=2: A=0.55 B=0.45
2017-10 geo=1: A=0.55 B=0.45
2017-10 geo=2: A=0.55 B=0.45
2017-11 geo=1: A=0.55 B=0.45
2017-11 geo=2: A=0.55 B=0.45
2017-12 geo=1: A=0.55 B=0.45
2017-12 geo=2: A=0.55 B=0.45

你为什么不在最后的X矩阵中使用
计数\u发生次数
?@VivekKumar你能详细说明一下吗?哪个对象公开了该方法?@MaximilianPeters添加了更多数据,它应该足以向您展示一般方法pattern@Mark不,您不需要单独的型号。在此类问题中使用NN的意义在于,它可以揭示所有特征之间的隐藏关系。使用一个热编码将地理ID拆分为几个单独的特征是有意义的,但它肯定不应该是单独的模型。一个神经网络完全有可能预测内部有多个隐藏的独立回归的模型的结果,这是隐藏层和神经元数量的问题。你为什么不在最终的X矩阵中使用
计数\u发生次数
?哪个对象公开了该方法?@MaximilianPeters添加了更多数据,它应该足以向您展示一般方法pattern@Mark不,您不需要单独的型号。在此类问题中使用NN的意义在于,它可以揭示所有特征之间的隐藏关系。使用一个热编码将geo ID拆分为多个单独的特征是有意义的,但它肯定不应该是单独的模型。一个神经网络完全有可能预测内部具有多个隐藏独立回归的模型的结果,这是隐藏层和神经元数量的问题。