当前位置:宠物百科>综合>资讯>正文

catboost算法流程图,CatBoost机器学习模型的介绍与实例

人气:364 ℃/2024-07-31 06:23:19

CatBoost是Yandex开发的梯度提升机器学习算法。

梯度提升是一种迭代算法,通常基于决策树。首先,建立一个基础模型,该模型具有较高的误差。考虑到该模型的误差,再建立另一个模型,通过这种方式,经过数千次迭代后,误差被最小化。

梯度提升

我们知道,梯度提升技术通常比神经网络在异构数据集上提供更好的结果。异构数据是分类、数字和文本特征的混合。神经网络通常更擅长同质数据。梯度提升在数据具有异构属性的生产和比赛中大量使用。这就是为什么在Kaggle比赛中经常使用XGBoost的原因。

CatBoost算法试图从给定的数据中获得最大的信息。因此,它可以很好地处理小型机器学习数据集。

与其提升模型相比,我们可以说 CatBoost 的表现相当出色。默认超参数取决于机器学习数据集。

算法的 LogLoss 比较

与其提升算法不同,CatBoost使用对称全二叉树。这样一来,树是更简单的结构,我们也就避免了过度拟合的危险。此外,由于我们的基础模型结构简单,我们有更快的预测器。

对称树

有序目标编码

CatBoost 的标志之一是它处理分类特征的方法(CatBoost 是 Categorical Boosting)。如果分类特征在您的数据集中占主导地位,CatBoost 是我们应该首先尝试的算法之一。

通常情况下,one hot方法被应用于分类特征。通过这样的编码方法,我们可以从单个特征中得到多个特征

one hot编码

CatBoost的优点是它可以处理开箱即用的数据。目标编码过程中可能发生数据泄漏。也就是说,目标特征信息不应该泄漏到模型中。为了防止这种情况,CatBoost使用了一种智能方法,它进行某种基于目标但有序的编码。

例如,假设我们有一个分类特征和目标特征,如下例所示:

示例数据

首先,打乱和重新排列数据的顺序。让我们假设上面的顺序是重新排列的。

Prior 是传递给算法的参数,通常为 0.5。current count是训练数据集中具有当前类别组的所在行之前的目标总数。记住,它是基于目标的,所以我们应该寻找具有相同目标值的行。例如,我们对第五行进行编码:

如果第三行的目标值为0,则

正如你所注意到的,我们会对数据集中已经重新排序的每个Germany有不同的数值。

最小方差采样

编码后,CatBoost使用一种称为MVS的采样方法,即最小方差采样。这意味着加权采样应用于树的层次。它会将概率分配给它必须选择的观测值,以便最大限度地提高准确性。

Python演示

按照库的命令;

pip install catboost

使用库中的Amazon机器学习数据集:

import osimport pandas as pdimport numpy as npnp.set_printoptions(precision=4)import catboostprint(catboost.__version__)#datasetfrom catboost.datasets import amazon(train_df, test_df) = amazon()

进行数据预处理,Python代码如下;

y = train_df.ACTIONX = train_df.drop('ACTION', axis=1)#all the features are categoricalcat_features = list(range(0, X.shape[1]))print(cat_features)#unbalanced labelsprint('Labels: {}'.format(set(y)))print('Zero count = {}, One count = {}'.format(len(y) - sum(y), sum(y)))

与其他模型不同,我们将分类特征索引作为参数传递给训练对象。

#trainingfrom catboost import CatBoostClassifiermodel = CatBoostClassifier(iterations=100)model.fit(X, y, cat_features=cat_features, verbose=10)

我们来进行预测,注意第一列是0的概率,第二列是1的概率。

model.predict_proba(X)#输出: array([[0.0098, 0.9902], [0.0101, 0.9899], [0.0579, 0.9421], ..., [0.0118, 0.9882], [0.1891, 0.8109], [0.0235, 0.9765]])

我们已经用 CatBoost 训练了一个机器学习模型。下一步,让我们进一步完善我们的模型。在这里,我们的机器学习数据集是不平衡的。在创建具有不平衡数据集的模型时,使用权重通常是首选的方法。创建一个具有权重的列,给出了稀有类的大权重和频繁类的小权重。这里,我们使用pool类。

from catboost import Poolpool = Pool(data=X, label=y, cat_features=cat_features)from sklearn.model_selection import train_test_splitdata = train_test_split(X, y, test_size=0.2, random_state=0)X_train, X_validation, y_train, y_validation = datatrain_pool = Pool( data=X_train, label=y_train, cat_features=cat_features)validation_pool = Pool( data=X_validation, label=y_validation, cat_features=cat_features)

如果我们的标签中有概率,我们可以使用交叉熵,如果我们的标签中有 0 和 1,我们可以使用对数损失(logloss)作为我们的损失函数。如果不指定,模型会自动选择对数损失函数,遇到多类问题,模型会自动选择多类函数。

model = CatBoostClassifier( iterations=5, learning_rate=0.1, # loss_function='CrossEntropy')model.fit(train_pool, eval_set=validation_pool, verbose=False)print('Model is fitted: {}'.format(model.is_fitted()))print('Model params:\n{}'.format(model.get_params()))#输出内容Model is fitted: TrueModel params:{'iterations': 5, 'learning_rate': 0.1}#其他设置model = CatBoostClassifier( iterations=15,# verbose=5,)model.fit(train_pool, eval_set=validation_pool);model = CatBoostClassifier( iterations=50, learning_rate=0.5, custom_loss=['AUC', 'Accuracy'])model.fit( train_pool, eval_set=validation_pool, verbose=False, plot=True);model_with_early_stop = CatBoostClassifier( iterations=200, learning_rate=0.5, early_stopping_rounds=20)model_with_early_stop.fit( train_pool, eval_set=validation_pool, verbose=False, plot=True);

进行交叉验证:

from catboost import cvparams = { 'loss_function': 'Logloss', 'iterations': 80, 'custom_loss': 'AUC', 'learning_rate': 0.5,}cv_data = cv( params = params, pool = train_pool, fold_count=5, shuffle=True, partition_random_seed=0, plot=True, verbose=False)cv_data.head(10)

基于网格搜索的参数优化:

from sklearn.model_selection import GridSearchCVparam_grid = { "iterations": [10,100], "learning_rate": [0.01,0.1], "depth": [4,7], "early_stopping_rounds" : [5,10], "depth" : [4,8], "l2_leaf_reg": [2,4]}clf = CatBoostClassifier( cat_features=cat_features, verbose=20)grid_search = GridSearchCV(clf, param_grid=param_grid, cv=3)results = grid_search.fit(X_train, y_train)results.best_estimator_.get_params()#输出内容:{'iterations': 100, 'learning_rate': 0.1, 'depth': 8, 'l2_leaf_reg': 2, 'verbose': 20, 'early_stopping_rounds': 5, 'cat_features': [0, 1, 2, 3, 4, 5, 6, 7, 8]}

early_stopping_rounds:使用此参数,如果在指定的迭代次数(例如连续 50 次迭代)后没有看到改进,我们会提前终止训练。

搜索更多有关“catboost算法流程图,CatBoost机器学习模型的介绍与实例”的信息 [百度搜索] [SoGou搜索] [头条搜索] [360搜索]
CopyRight © 2021-2024 宠物百科 All Rights Reserved. 手机版