kaggle-otto-group

时间:2024-08-11 22:18:53
【文件属性】:

文件名称:kaggle-otto-group

文件大小:40.92MB

文件格式:ZIP

更新时间:2024-08-11 22:18:53

MATLAB

####对整体求平均的一些想法 当涉及到收集大量模型并将它们转化为一个希望高度准确的模型时,我觉得这个理论现在有点困难。 让我们尝试以下方法: 给每个模型相同的权重,计算每个产品、每个类别的累积机会。 并计算多数票(如果可用)或大多数票(如果没有)。 给每个模型一个等于预测准确度的权重,因此权重是每个模型,而不是每个类别。 根据成功预测该类别的准确性,为每个模型赋予每个类别的权重。 同 3.,但使用 F1 分数 (2*precision*recall/(precision+recall)) 每个类别。 为每个模型赋予相等的权重(Theta_i,其中 i = 1:#models)并计算整个模型的成本(1-准确度)。 训练这个模型模型以获得最佳 Theta。 改进模型的一些想法 看看模型在哪里犯了最多的错误(乍一看似乎特别是第 1、3 和 4 类很难预测,也可能是第 7 类)。 我们


【文件预览】:
kaggle-otto-group-master
----octave_scripts_2()
--------run_training_stage_1.m(6KB)
--------stack_models.m(2KB)
--------stack_models_2.m(1KB)
--------classify_by_distance.m(837B)
--------loadTrainingSet.m(341B)
--------loadTestSet.m(193B)
----ensembles()
--------L8_H123_F0_LL544.mat(84KB)
--------L9_H333_F0_LL533.mat(240KB)
--------c_2_bad.mat(670KB)
--------12_more.mat(2.71MB)
--------L9_H_40-67-121-250_F0-1-3-6_LL_5x.mat(11.81MB)
--------cAAA.mat(15.82MB)
----data_training()
--------data_train_2.csv(3.61MB)
--------data_train_1.csv(6.67MB)
----octave_scripts()
--------train_model_of_models.m(2KB)
--------visualize_digit.m(202B)
--------get_raw_data.m(255B)
--------group_stats.m(355B)
--------features_set_5.m(1KB)
--------merge_ensembles.m(380B)
--------view_400_digits.m(380B)
--------computeNumericalGradient.m(1KB)
--------sigmoid.m(137B)
--------multiclass_logloss.m(360B)
--------get_tvt.m(424B)
--------fmincg.m(9KB)
--------values_based_prediction.m(356B)
--------pr.csv(8KB)
--------features_set_8.m(259B)
--------combine_nn.m(3KB)
--------image_average.m(231B)
--------sigmoidGradient.m(708B)
--------nnCostFunction.m(5KB)
--------ensemble2.mat(53.88MB)
--------debugInitializeWeights.m(841B)
--------get_train_test.m(302B)
--------combinations_features.m(196B)
--------kaggle_run.m(1KB)
--------randInitializeWeights.m(919B)
--------f1score.m(408B)
--------pixel_correlate.m(335B)
--------ada_nn.m(2KB)
--------multiclass_logloss2.m(256B)
--------feature_values.m(327B)
--------fair_training.csv(2.9MB)
--------staged_learning.m(2KB)
--------digit_process_3.m(369B)
--------features_set_7.m(153B)
--------features_set_9.m(474B)
--------features_set_4.m(744B)
--------features_set_3.m(291B)
--------rotate_matrix.m(124B)
--------c.mat(246KB)
--------features_set_6.m(2KB)
--------strip_digit_matrix.m(212B)
--------simple_ensemble.m(2KB)
--------ada_nn_classify.m(663B)
--------average_class.m(789B)
--------remaining_testing.csv(8.6MB)
--------digit_process_2.m(409B)
--------digit_shape.m(1KB)
--------digit_process.m(289B)
--------features_set_1.m(723B)
--------Ensemble_test.mat(1.89MB)
--------thicken.m(320B)
--------split_training.m(459B)
--------ensemble_averaging.m(1KB)
--------run_series.m(4KB)
--------features_set_2.m(378B)
--------predict.m(590B)
--------rapid_fire.m(1KB)
--------overall_stats.m(297B)
--------frequency_matrix.m(153B)
----data_test()
--------data_test.csv(901KB)
----data_all()
--------vars.csv(4KB)
--------mean_values_spread.mat(11KB)
--------data_all.csv(11.16MB)
--------random_vector.csv(352KB)
--------means_overall.csv(451B)
--------test.csv(26.62MB)
--------stds_overall.csv(459B)
--------means.csv(4KB)
----README.md(1KB)
----data()
--------sampleSubmission.csv(3.34MB)
--------train.csv(11.5MB)
--------non_zero_variations.csv(15KB)
--------non_zero_means.csv(14KB)

网友评论