做网站后台用什么软件汉中市建设工程项目审批管理系统
2026/1/1 23:40:26 网站建设 项目流程
做网站后台用什么软件,汉中市建设工程项目审批管理系统,如何建设一个不备案的网站,nas wordpress 外网访问一、参数选择在逻辑回归建模中#xff0c;“过拟合”是绕不开的坑——当模型在训练数据上表现完美#xff0c;却在新数据上一塌糊涂时#xff0c;大概率是模型复杂度超出了数据所能支撑的范围。而惩罚因子#xff08;也叫正则化参数#xff09;#xff0c;正是我们解决过…一、参数选择在逻辑回归建模中“过拟合”是绕不开的坑——当模型在训练数据上表现完美却在新数据上一塌糊涂时大概率是模型复杂度超出了数据所能支撑的范围。而惩罚因子也叫正则化参数正是我们解决过拟合、平衡模型拟合度与泛化能力的核心工具。1.通过LogisticRegression(Ci,penaltyl2,solverlbfgs,max_iter1000)函数C参数的选择最优惩罚因子。通过K折交叉验证cross_val_score(lr,x_train_w,y_train_w,cv8,scoringrecall)函数来实现。scores[] #不同参数下的验证集评分 c_range[0.01,0.1,1,10,100] for i in c_range: lrLogisticRegression(Ci,penaltyl2,solverlbfgs,max_iter1000) scorecross_val_score(lr,x_train_w,y_train_w,cv8,scoringrecall) score_msum(score)/len(score) scores.append(score_m) print(score_m) best_cc_range[np.argmax(scores)] print(最优惩罚因子,best_c) lrLogisticRegression(Cbest_c,penaltyl2,solverlbfgs,max_iter1000) lr.fit(x_train_w,y_train_w) from sklearn import metrics train_predictlr.predict(x_train_w) print(metrics.classification_report(y_train_w,train_predict))#获得混淆矩阵的准确值召回值。 cm_plot(y_train_w,train_predict).show() test_predictlr.predict(x_test_w) print(metrics.classification_report(y_test_w,test_predict,digits6))#获得混淆矩阵的准确值召回值。 cm_plot(y_test_w,test_predict).show()二、下采样下采样的核心是“削减多数类样本”将不同类别的数量平衡一下减少多的类别的数量在案例中使用代码x_train_wtrain_data[train_data[Class]1]y_train_wtrain_data[train_data[Class]0]y_train_wy_train_w.sample(len(x_train_w))使用sample函数从y_train_w中抽取x_train_w的数量。datapd.read_csv(creditcard.csv) scalerStandardScaler() data[Amount]scaler.fit_transform(data[[Amount]]) datadata.drop([Time],axis1)#axis1表示删除列 xdata.drop(Class,axis1) ydata.Class x_train,x_test,y_train,y_testtrain_test_split(x,y,test_size0.2,random_state0) train_datax_train train_data[Class]y_train x_train_wtrain_data[train_data[Class]1] y_train_wtrain_data[train_data[Class]0] y_train_wy_train_w.sample(len(x_train_w)) data_cpd.concat([x_train_w,y_train_w]) x_train_w_1data_c.drop(Class,axis1) y_train_w_1data_c.Class scores[] c_range[0.01,0.1,1,10,100] for i in c_range: lrLogisticRegression(Ci,penaltyl2,solverlbfgs,max_iter1000) scorecross_val_score(lr,x_train_w_1,y_train_w_1,cv10,scoringrecall) score_msum(score)/len(score) scores.append(score_m) print(score_m) best_cc_range[np.argmax(scores)] print(最优因子,best_c) lrLogisticRegression(Cbest_c,penaltyl2,solverlbfgs,max_iter1000) lr.fit(x_train_w_1,y_train_w_1)三、过采样上采样的核心是“扩充少数类样本”我们可以使用SMOTE合成少数类过采样技术——在少数类样本的特征空间中找到每个样本的k个近邻通过插值生成新的少数类样本如样本A和样本B的近邻新样本Arand(0,1)*(B-A)from imblearn.over_sampling import SMOTE oversamplerSMOTE(random_state100)#保证数据拟合效果随机种子 os_x_train,os_y_trainoversampler.fit_resample(x_train,y_train)#人工拟合数据

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询