Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
简单小白菜
PM2.5 prediction task
提交
c74f8ce1
P
PM2.5 prediction task
项目概览
简单小白菜
/
PM2.5 prediction task
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PM2.5 prediction task
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
c74f8ce1
编写于
2月 26, 2023
作者:
简单小白菜
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
5b49163a
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
27 addition
and
1 deletion
+27
-1
README.md
README.md
+27
-1
未找到文件。
README.md
浏览文件 @
c74f8ce1
该项目将数据预处理、模型构建等均放在了main.py。该模型的结构采用最简单的LSTM加Linear结构,但是在Epoch为150时结果能达到0.38左右,同时在预测结束时,该模型会保存一张图片——labels和预测结果的对比图。
该项目将数据预处理、模型构建等均放在了LSTM+Linear.py中。该模型的结构采用最简单的LSTM加Linear结构,但是在Epoch为150时结果(R2)能达到0.38左右,同时在预测结束时,该模型会保存一张图片——labels和预测结果的对比图。
在基础的模型上,还尝试了将特征拆分输入LSTM,分别输出结果,经过cat拼接后在输入LSTM,最后经过Linear线性层输出结果。模型结构如下:
` def forward(self, inputs):
out0, (h0, c0) = self.lstm1(inputs[:, :, 0].view(-1, self.args.window_size, self.args.input_size))
out1, (h1, c1) = self.lstm1(inputs[:, :, 1].view(-1, self.args.window_size, self.args.input_size))
out2, (h2, c2) = self.lstm1(inputs[:, :, 2].view(-1, self.args.window_size, self.args.input_size))
out3, (h3, c3) = self.lstm1(inputs[:, :, 3].view(-1, self.args.window_size, self.args.input_size))
out4, (h4, c4) = self.lstm1(inputs[:, :, 4].view(-1, self.args.window_size, self.args.input_size))
out5, (h5, c5) = self.lstm1(inputs[:, :, 5].view(-1, self.args.window_size, self.args.input_size))
out6, (h6, c6) = self.lstm1(inputs[:, :, 6].view(-1, self.args.window_size, self.args.input_size))
out7, (h7, c7) = self.lstm1(inputs[:, :, 7].view(-1, self.args.window_size, self.args.input_size))
# 加入Attention层
out0 = self.Attention(out0, h0, c0)
out1 = self.Attention(out1, h1, c1)
out2 = self.Attention(out2, h2, c2)
out3 = self.Attention(out3, h3, c3)
out4 = self.Attention(out4, h4, c4)
out5 = self.Attention(out5, h5, c5)
out6 = self.Attention(out6, h6, c6)
out7 = self.Attention(out7, h7, c7)
inputs = torch.cat([out0, out1, out2, out3, out4, out5, out6, out7], dim=1)
# inputs = inputs.view(-1, self.args.input_size, self.args.all_input_size * self.args.hidden_size)
out = self.dropout(self.fc1(inputs))
out = self.dropout(self.fc2(out))
out = self.fc3(out)
return out`
但是这个模型的结果尚不达标,R2结果为负,因此还在尝试阶段。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录