0

与之前关于此的问题不同,此案例与此不同,这就是我要问的原因。我有一个已经清理过的数据集,其中包含 25 个变量的 120 000 个观察值,我应该通过逻辑回归和随机森林对其进行分析。但是,我收到一个错误“无法分配大小为 98 GB 的向量,而我的朋友没有。

摘要说明了大部分内容。我什至尝试将观察数减少到 50 000,并将数据集中的变量数减少到 15(在回归中使用了其中的 5 个),但它失败了。但是,我尝试将缩短数据集的脚本发送给朋友,她可以运行它。这很奇怪,因为我有一个 64 位系统和 8 GB RAM,而她只有 4 GB。所以看来问题出在我身上。

pd_data <- read.csv2("pd_data_v2.csv")
split <- rsample::initial_split(pd_data, prop = 0.7)
train <- rsample::training(split)
test <- rsample::testing(split)

log_model <- glm(default ~ profit_margin + EBITDA_margin +   payment_reminders, data = pd_data, family = "binomial")
log_model

结果应该是一个逻辑模型,我可以在其中查看系数并测量其准确性并进行调整。

4

0 回答 0