开始之前
后期跑实验经常需要同时跑几条命令,使用脚本可以简化操作。
查看知识追踪领域数据集的情况
知识追踪数据集中的数据通常以三行形式呈现,每三行代表一个学生的做题情况,第一行表示做题数,第二行表示学生所做题目的 ID,第三行则表示学生的作答情况。如下方所示:
192
742 504 1731 1955 559 2015 2944 2170 2051 1153 1046 607
0 0 0 0 0 0 0 0 0 1 0 0
Reading and Coding!
现实世界中的许多应用都需要对长序列时间序列进行预测,例如用电量规划。长序列时间序列预测(LSTF)对模型的预测能力提出了很高的要求,即能够有效地捕捉到输出和输入之间精确的长期依赖耦合。最近的研究表明,Transformer 具有提高预测能力的潜力。然而,Transformer 有几个严重的问题阻碍了它直接应用于 LSTF,例如二次时间复杂度、高内存使用率以及编码器-解码器体系结构的固有限制。针对这些问题,我们设计了一种高效的基于 Transformer 的 LSTF 模型 Informer,该模型具有三个显著的特点:(1)ProbSparse 自我注意机制,在时间复杂度和内存使用量上达到 O(LlogL),在序列依赖比对方面具有相当的性能。(2)自我注意提取通过将级联层输入减半来突出主导注意力,并有效地处理超长输入序列。(3)生成式解码器虽然概念简单,但对长时间序列的预测采用一次正向运算,而不是分步预测,大大提高了长序列预测的推理速度。在四个大规模数据集上的大量实验表明,Informer 的性能明显优于现有方法,为 LSTF 问题提供了一种新的解决方案。
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia-plus根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true