Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

添加中文版README, we need a Chinese version of README #361

Closed
WenjieDu opened this issue Apr 25, 2024 · 7 comments
Closed

添加中文版README, we need a Chinese version of README #361

WenjieDu opened this issue Apr 25, 2024 · 7 comments
Assignees
Labels
documentation Improvements or additions to documentation enhancement New feature or request

Comments

@WenjieDu
Copy link
Owner

Issue description

为了方便国内中文用户的使用以及中文的检索,我们需要一个中文版本的README

@WenjieDu WenjieDu added documentation Improvements or additions to documentation enhancement New feature or request labels Apr 25, 2024
@Justin0388
Copy link
Contributor

我先做一版翻译的初稿吧

@WenjieDu WenjieDu mentioned this issue Apr 25, 2024
1 task
@Justin0388
Copy link
Contributor

欢迎来到PyPOTS

一个致力于部分观测时间序列(POTS)机器学习任务的Python工具箱

Python version powered by Pytorch the latest release version BSD-3 license Community GitHub contributors GitHub Repo stars GitHub Repo forks Code Climate maintainability Coveralls coverage GitHub Testing Docs building Conda downloads PyPI downloads arXiv DOI

⦿ 开发背景: 在现实数据收集场景下,收集者常常会面临传感器故障、通信异常、受访者隐私保护等问题,导致最终收集的时间序列数据集中存在缺失值。
数据缺失将会严重影响数据使用者后续的深入分析与应用,那么如何对现实场景下部分观测时间序列(POTS)进行机器学习建模成为一个亟需解决的问题。
当前市面上也还没有适用于POTS的机器学习专用工具箱。因此,旨在填补该空白的“PyPOTS”工具箱应运而生。

⦿ 应用意义: PyPOTS(发音为"Pie Pots")旨在成为一个让POTS的机器学习任务变得简单的工具箱。工程师和研究人员可以通过PyPOTS轻松处理其数据集中的缺失部分,
进而让他们能够聚焦于解决核心问题。PyPOTS目前已涵盖大量经典的以及先进的多变量POTS机器学习算法,后续也将持续整合该领域最新的算法。除了各种算法外,
PyPOTS还将拥有统一的API以及详细文档和交互式案例教程。

🤗 如果您认为PyPOTS是一个有用的工具箱,请将该项目设为星标🌟,以帮助更多人关注到它。

🤗 如果PyPOTS对您的研究有帮助,请在您的成果中 引用 PyPOTS。这对我们的开源研究工作具有重大意义,感谢您的支持!

该说明文档的后续内容如下:
❖ 支持的算法,
❖ PyPOTS 生态系统,
❖ 安装说明,
❖ 应用案例,
❖ 引用 PyPOTS,
❖ 贡献声明,
❖ 项目社区

❖ 支持的算法

PyPOTS当前支持多变量POTS的填充,分类,聚类,预测以及异常检测任务。下表描述了当前PyPOTS中所集成的算法以及对应支持的任务类型。
符号 ✅ 表示该算法当前支持相应的任务(注请意,模型将在未来持续更新以,应对当前不暂支持的任务,敬请期待!),相关参考文献见本文档末尾。

🌟 在 v0.2版本更新后, PyPOTS中所有神经网络模型都具备超参数优化功能。此功能基于 Microsoft NNI 框架实现。
您可以参考我们的时间序列填充综述项目 Awesome_Imputation,了解如何配置和调整超参数。

🔥 请注意:Transformer, Crossformer, PatchTST, DLinear, ETSformer, FEDformer, Informer, Autoformer 模型在其原始论文中并未提出如何用作填充方法,并且这些模型也不接受POTS作为输入。
为了使上述模型能够适用于POTS数据,我们采用了与 SAITS paper 中相同的嵌入策略和训练方法(ORT+MIT)进行改进

类型 算法 填充 预测 分类 聚类 异常检测 年份
Neural Net SAITS1 2023
Neural Net Crossformer2 2023
Neural Net TimesNet3 2023
Neural Net PatchTST4 2023
Neural Net DLinear5 2023
Neural Net ETSformer6 2023
Neural Net FEDformer7 2022
Neural Net Raindrop8 2022
Neural Net Informer9 2021
Neural Net Autoformer10 2021
Neural Net CSDI11 2021
Neural Net US-GAN12 2021
Neural Net CRLI13 2021
Probabilistic BTTF14 2021
Neural Net GP-VAE2 2020
Neural Net VaDER15 2019
Neural Net M-RNN16 2019
Neural Net BRITS17 2018
Neural Net GRU-D18 2018
Neural Net Transformer19 2017
Naive LOCF/NOCB
Naive Mean
Naive Median

❖ PyPOTS 生态系统

在PyPOTS生态系统中,一切都与我们熟悉的咖啡息息相关,甚至可以将其视为一杯咖啡的诞生过程!
如您所见,PyPOTS的标志中有一个咖啡壶。除此之外还需要什么呢?请听我徐徐道来。

TSDB logo

👈 在PyPOTS中,时间序列数据集可以被看作咖啡豆,而POTS数据集则是带缺失部分的不完整咖啡豆。
为了让用户能够轻松使用各种开源的时间序列数据集,我们创建了时间序列数据库:Time Series Data Beans (TSDB)(可以将其视为咖啡豆仓库),使加载时间序列数据集变得超级简单!
访问 TSDB,了解更多关于该工具🛠的信息,它目前总共支持168个开源数据集!

PyGrinder logo

👉 为了在真实数据中模拟缺失进而获得不完整的咖啡豆,我们创建了生态系统中的另一个库:PyGrinder(可以将其视为磨豆机),
帮助您在输入数据集中模拟缺失。根据Robin的理论20,缺失模式分为三类:完全随机缺失(MCAR)、随机缺失(MAR)和非随机缺失(MNAR)。
PyGrinder支持以上所有模式并提供与缺失相关的其他功能。通过PyGrinder,您可以仅仅通过一行代码将模拟缺失引入您的数据集中。

BrewPOTS logo

👈 现在我们有了咖啡豆、磨豆机和咖啡壶,那么如何给自己冲一杯咖啡呢?冲泡教程是必不可少的!考虑到未来的工作量,
PyPOTS的相关教程将发布在一个独立的仓库:BrewPOTS中。点击查看案例,学习如何冲泡您的POTS数据集!


☕️ 欢迎来到 PyPOTS 生态系统 !

❖ 安装说明

您可以参考PyPOTS文档中的 安装说明 以获取更详细的指南。
PyPOTS可以在 PyPIAnaconda 上安装。
您可以按照以下方式安装PyPOTS,TSDB以及PyGrinder:

# 通过 pip
pip install pypots            # 首次安装
pip install pypots --upgrade  # 更新为最新版本
# 利用最新源代码安装,可能带有尚未正式发布的最新功能
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip

# 通过 conda
conda install -c conda-forge pypots  # 首次安装
conda update  -c conda-forge pypots  # 更新为最新版本

❖ 应用案例

除了 BrewPOTS 之外, 您还可以在 Google Colab

Colab tutorials
上找到一个简单快速的入门教程。如果您有其他问题,请参考 PyPOTS文档。您也可以在我们的 社区提出问题

下面是使用PyPOTS进行POTS填充的示例用法,您可以点击下方进行查看。

点击此处查看 SAITS 模型应用于 PhysioNet2012 数据集填充任务的简单案例:
# 数据预处理,可以用PyPOTS处理繁琐过程。
import numpy as np
from sklearn.preprocessing import StandardScaler
from pygrinder import mcar
from pypots.data import load_specific_dataset
data = load_specific_dataset('physionet_2012')  # PyPOTS 将自动下载和解压数据
X = data['X']
num_samples = len(X['RecordID'].unique())
X = X.drop(['RecordID', 'Time'], axis = 1)
X = StandardScaler().fit_transform(X.to_numpy())
X = X.reshape(num_samples, 48, -1)
X_ori = X  # keep X_ori for validation
X = mcar(X, 0.1)  # 随机将观测值的10%掩盖,作为基准数据
dataset = {"X": X}  # X 用于模型输入
print(X.shape)  # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features

# 模型训练,开始应用PyPOTS.
from pypots.imputation import SAITS
from pypots.utils.metrics import calc_mae
saits = SAITS(n_steps=48, n_features=37, n_layers=2, d_model=256, d_ffn=128, n_heads=4, d_k=64, d_v=64, dropout=0.1, epochs=10)
# 因为基准数据对模型不可知,将整个数据集作为训练集, 也可以把数据集分为训练/验证/测试集
saits.fit(dataset)  # 基于数据集训练模型
imputation = saits.impute(dataset)  # 填充数据集中原始缺失部分和人为掩盖缺失部分
indicating_mask = np.isnan(X) ^ np.isnan(X_ori)  # 用于计算填充误差的掩码矩阵
mae = calc_mae(imputation, np.nan_to_num(X_ori), indicating_mask)  #计算人为掩盖部分数据的平均绝对误差
saits.save("save_it_here/saits_physionet2012.pypots")  # 保存模型
saits.load("save_it_here/saits_physionet2012.pypots")  # 重新加载序列化的模型文件以进行后续的填充或训练

❖ 引用PyPOTS

[!注意]
[2024年2月更新] 😎 我们的综述论文 Deep Learning for Multivariate Time Series Imputation: A Survey 已在 arXiv 上发布,
代码在GitHub 项目(Awesome_Imputation )上开源。
我们全面综述了最新基于深度学习的时间序列填充方法文献并对现有的方法进行分类,除此之外,还讨论了该领域当前的挑战和未来发展方向。

[2023年6月更新] 🎉 PyPOTS论文的精简版已被 第9届SIGKDD时间序列挖掘和学习 国际研讨会(MiLeTS'23)接收。
此外,PyPOTS已被纳入PyTorch 生态系统

介绍PyPOTS的论文可以通过该 地址 在arXiv上获取,我们正在努力将其发表在更具影响力的学术期刊上,
例如持续跟进 机器学习开源软件 的JMLR期刊。
如果您在工作中使用了PyPOTS,请按照以下格式引用并为将项目设为星标🌟,以便让更多人关注它,对此我们深表感谢🤗。

据不完全统计,该 列表 为当前使用PyPOTS并在其论文中进行引用的科学研究项目

@article{du2023pypots,
title={{PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series}},
author={Wenjie Du},
year={2023},
eprint={2305.18811},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2305.18811},
doi={10.48550/arXiv.2305.18811},
}

或者

Wenjie Du. (2023).
PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series.
arXiv, abs/2305.18811.https://arxiv.org/abs/2305.18811

❖ 贡献声明

非常欢迎您为这个优质的项目做出贡献!

  通过提交您的代码,您将能收获:

  1. 将您开发的成熟模型直接供PyPOTS用户使用,让您的工作更加广为人知。
    请查看我们的 纳入标准
    您也可以利用项目文件中的 模板 (如:
    pypots/imputation/template) 进行快速开发;
  2. 成为 PyPOTS 贡献者 之一,
    并在 PyPOTS 网站 上被列为志愿开发者;
  3. 将您的贡献在我们发布的 说明 中提及;

您也可以通过为该项目设置星标🌟 ,帮助更多人关注它。
您的星标🌟 既是对PyPOTS的认可,也是对PyPOTS发展所做出的重要贡献!

👏 点击这里可以查看PyPOTS当前的星标者和分支者
我们为拥有越来越多的出色用户以及更多的星标✨而感到自豪:
PyPOTS stargazers
PyPOTS forkers

👀 在 PyPOTS 网站 上可以查看我们用户所属机构的完整列表!

❖ 项目社区

我们非常关心用户的反馈,因此我们正在建立PyPOTS社区:

  • Slack:您可以在这里进行日常讨论、问答以及与我们的开发团队交流;
  • 领英: 您可以在这里获取官方公告和新闻;
  • 微信公众号: 您可以关注官方公众号并加入微信群聊参与讨论以及获取最新动态;

如果您有任何建议,想法,或打算分享与时间序列相关的论文,请加入我们并告诉我们。
PyPOTS社区一个开放、透明、友好的社区,让我们共同努力建设和改进PyPOTS!

🏠 Visits PyPOTS visits

Footnotes

  1. Du, W., Cote, D., & Liu, Y. (2023). SAITS: Self-Attention-based Imputation for Time Series. Expert systems with applications.

  2. Zhang, Y., & Yan, J. (2023). Crossformer: Transformer utilizing cross-dimension dependency for multivariate time series forecasting. ICLR 2023. 2

  3. Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J., & Long, M. (2023). TimesNet: Temporal 2d-variation modeling for general time series analysis. ICLR 2023

  4. Nie, Y., Nguyen, N. H., Sinthong, P., & Kalagnanam, J. (2023). A time series is worth 64 words: Long-term forecasting with transformers. ICLR 2023

  5. Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2023). Are transformers effective for time series forecasting?. AAAI 2023

  6. Woo, G., Liu, C., Sahoo, D., Kumar, A., & Hoi, S. (2023). ETSformer: Exponential Smoothing Transformers for Time-series Forecasting. ICLR 2023

  7. Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L., & Jin, R. (2022). FEDformer: Frequency enhanced decomposed transformer for long-term series forecasting. ICML 2022.

  8. Zhang, X., Zeman, M., Tsiligkaridis, T., & Zitnik, M. (2022). Graph-Guided Network for Irregularly Sampled Multivariate Time Series. ICLR 2022.

  9. Zhou, H., Zhang, S., Peng, J., Zhang, S., Li, J., Xiong, H., & Zhang, W. (2021). Informer: Beyond efficient transformer for long sequence time-series forecasting. AAAI 2021.

  10. Wu, H., Xu, J., Wang, J., & Long, M. (2021). Autoformer: Decomposition transformers with auto-correlation for long-term series forecasting. NeurIPS 2021.

  11. Tashiro, Y., Song, J., Song, Y., & Ermon, S. (2021). CSDI: Conditional Score-based Diffusion Models for Probabilistic Time Series Imputation. NeurIPS 2021.

  12. Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X., & Yin, J. (2021). Generative Semi-supervised Learning for Multivariate Time Series Imputation. AAAI 2021.

  13. Ma, Q., Chen, C., Li, S., & Cottrell, G. W. (2021). Learning Representations for Incomplete Time Series Clustering. AAAI 2021.

  14. Chen, X., & Sun, L. (2021). Bayesian Temporal Factorization for Multidimensional Time Series Prediction. IEEE transactions on pattern analysis and machine intelligence.

  15. Jong, J.D., Emon, M.A., Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, H.A., Hofmann-Apitius, M., & Fröhlich, H. (2019). Deep learning for clustering of multivariate clinical patient trajectories with missing values. GigaScience.

  16. Yoon, J., Zame, W. R., & van der Schaar, M. (2019). Estimating Missing Data in Temporal Data Streams Using Multi-Directional Recurrent Neural Networks. IEEE Transactions on Biomedical Engineering.

  17. Cao, W., Wang, D., Li, J., Zhou, H., Li, L., & Li, Y. (2018). BRITS: Bidirectional Recurrent Imputation for Time Series. NeurIPS 2018.

  18. Che, Z., Purushotham, S., Cho, K., Sontag, D.A., & Liu, Y. (2018). Recurrent Neural Networks for Multivariate Time Series with Missing Values. Scientific Reports.

  19. Vaswani, A., Shazeer, N.M., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., & Polosukhin, I. (2017). Attention is All you Need. NeurIPS 2017.

  20. Rubin, D. B. (1976). Inference and missing data. Biometrika.

@phoebeysj
Copy link

hi ,我按照自己的理解修改了几个部分:

  1. 有几句话格式不太对或者可能有更精确的翻译(完全按照自己的理解而言),我将这些话加粗并加了下划线,并在佳欣原来的翻译后面用()附上了我的翻译。
  2. 有一些微小的词语改变和语序变化(这些没有标出)
  3. 表格里的单词不知道是否需要翻译呢
    PyPOTS使用说明.md

@CowboyH
Copy link

CowboyH commented Apr 27, 2024

建议专业术语和专有名词给出英语的全称和简称,我的主要修改如下:
⦿动机:由于传感器故障、通信受阻和不可预见的错误等原因,现实环境中收集的时间序列常存在缺失值。这使得部分观测时间序列(partially-observed time series,简称为POTS)成为开放世界建模中普遍存在的问题,但大多数方法无法面向POTS建模。尽管存在巨大的研究,工程和实践空白,但当前没有专门针对POTS开发的工具箱。PyPOTS就是为了填补这一空白而诞生并进行后续迭代。
⦿愿景:PyPOTS(发音为 "Pie Pots")是一个易上手的工具箱,以帮助工程师,研究者更加专注于面向PyPOTS建模的核心问题,而不是花费大量精力进行繁琐的数据预处理。PyPOTS会持续不断的更新关于部分观测多变量时间序列(partially-observed multivariate time series)的经典算法和当前最优算法。除此之外,PyPOTS还提供了统一的应用程序接口(Application programming interfaces,简称为APIs),详细的算法学习指南和应用示例。

❖支持的算法

PyPOTS 支持对多变量部分观测时间序列进行插补、分类、聚类、预测和异常检测。下表显示了 PyPOTS 中每个算法在不同任务中的可用性。符号 ✅ 表示该算法可用于相应的任务(请注意,模型将来会不断更新以处理当前不支持的任务。敬请关注❗️)

根据 Robin 的理论,缺失模式分为三类:完全随机缺失(missing completely at random,简称为MCAR)、随机缺失(missing at random,简称为MAR)和非随机缺失(missing not at random,简称为MNAR )。

❖应用案例

示例代码的第一个注释建议修改为:使用PyPOTS帮助完成繁琐的数据预处理

@Justin0388
Copy link
Contributor

汇总了一下近期各位伙伴们给出的修改建议,下面是 中文ReadmeV2.0,再一起看看还有没有润色改进的空间!

@Justin0388
Copy link
Contributor

欢迎来到PyPOTS

一个致力于部分观测时间序列(POTS)机器学习任务的Python工具箱

Python version powered by Pytorch the latest release version BSD-3 license Community GitHub contributors GitHub Repo stars GitHub Repo forks Code Climate maintainability Coveralls coverage GitHub Testing Docs building Conda downloads PyPI downloads arXiv DOI

⦿ `开发背景`: 由于传感器故障、通信异常以及不可预见的未知原因,在现实环境中收集的时间序列数据普遍存在缺失值,这使得部分观测时间序列(partially-observed time series,简称为POTS)成为开放世界建模中普遍存在的问题。 数据缺失将会严重影响数据使用者后续的深入分析与应用,那么如何面向POTS建模成为一个亟需解决的问题。尽管已存在大量的研究,但当前没有专门针对POTS建模开发的工具箱。基于此,旨在填补该领域空白的“PyPOTS”工具箱应运而生。

⦿ 应用意义: PyPOTS(发音为"Pie Pots")是一个易上手的工具箱,工程师和研究人员可以通过PyPOTS轻松处理其数据集中的缺失部分,进而将注意力更多地聚焦在要解决的核心问题上。PyPOTS会持续不断的更新关于部分观测多变量时间序列(partially-observed multivariate time series)的经典算法和先进算法。除此之外,PyPOTS还提供了统一的应用程序接口(Application programming interfaces,简称为APIs),详细的算法学习指南和应用示例。

🤗 如果您认为PyPOTS是一个有用的工具箱,请将该项目设为星标🌟,以帮助它被更多人所了解。

🤗 如果PyPOTS对您的研究有帮助,请在您的成果中 引用 PyPOTS。这是对我们开源研究工作的最大支持,感谢您的支持!

该说明文档的后续内容如下:
❖ 支持的算法,
❖ PyPOTS 生态系统,
❖ 安装教程,
❖ 使用案例,
❖ 引用 PyPOTS,
❖ 贡献声明,
❖ 项目社区

❖ 支持的算法

PyPOTS当前支持多变量POTS数据的插补,预测,分类,聚类以及异常检测五类任务。下表描述了当前PyPOTS中所集成的算法以及对应不同任务的可用性。
符号 ✅ 表示该算法当前可用于相应的任务**(请注意,我们将在未来持续发布更新以支持当前暂不支持的任务,敬请关注哦!)**,相关参考文献见本文档末尾。

🌟 在 v0.2版本更新后, PyPOTS中所有神经网络模型都支持超参数优化。此功能基于 Microsoft NNI 框架实现。
您可以通过参考我们的时间序列插补综述项目 Awesome_Imputation,了解如何配置和调整模型超参数。

🔥 请注意:Transformer, Crossformer, PatchTST, DLinear, ETSformer, FEDformer, Informer, Autoformer 模型在其原始论文中并未提及用作插补方法,并且这些模型也不接受POTS数据作为输入。
为了使上述模型能够适用于POTS数据,我们采用了与 SAITS paper 中相同的嵌入策略和训练方法(ORT+MIT)进行改进

类型 算法 插补 预测 分类 聚类 异常检测 年份
Neural Net SAITS1 2023
Neural Net Crossformer2 2023
Neural Net TimesNet3 2023
Neural Net PatchTST4 2023
Neural Net DLinear5 2023
Neural Net ETSformer6 2023
Neural Net FEDformer7 2022
Neural Net Raindrop8 2022
Neural Net Informer9 2021
Neural Net Autoformer10 2021
Neural Net CSDI11 2021
Neural Net US-GAN12 2021
Neural Net CRLI13 2021
Probabilistic BTTF14 2021
Neural Net GP-VAE2 2020
Neural Net VaDER15 2019
Neural Net M-RNN16 2019
Neural Net BRITS17 2018
Neural Net GRU-D18 2018
Neural Net Transformer19 2017
Naive LOCF/NOCB
Naive Mean
Naive Median

❖ PyPOTS 生态系统

在PyPOTS生态系统中,一切都与我们熟悉的咖啡息息相关,甚至可以将其视为一杯咖啡的诞生过程!
如您所见,PyPOTS的标志中有一个咖啡壶。除此之外还需要什么呢?请听我徐徐道来。

TSDB logo

👈 在PyPOTS中,时间序列数据可以被看作一连串的咖啡豆,而POTS数据则是带缺失部分的不完整咖啡豆。
为了让用户能够轻松使用各种开源的时间序列数据集,我们创建了时间序列数据库:Time Series Data Beans (TSDB)(可以将其视为咖啡豆仓库),使加载时间序列数据集变得超级简单!
访问 TSDB,了解更多关于该工具🛠的信息,它目前总共支持168个开源数据集!

PyGrinder logo

👉 为了在真实数据中模拟缺失进而获得不完整的咖啡豆,我们创建了生态系统中的另一个库:PyGrinder(可以将其视为磨豆机),
帮助您在输入数据集中模拟缺失。根据Robin的理论20,缺失模式分为三类:完全随机缺失(missing completely at random,简称为MCAR)、随机缺失(missing at random,简称为MAR)和非随机缺失(missing not at random,简称为MNAR )。
PyGrinder支持以上所有模式并提供与缺失相关的其他功能。通过PyGrinder,您可以仅仅通过一行代码将模拟缺失引入您的数据集中。

BrewPOTS logo

👈 现在我们有了咖啡豆、磨豆机和咖啡壶,那么如何给自己冲一杯咖啡呢?冲泡教程是必不可少的!考虑到未来的工作量,
PyPOTS的相关教程将发布在一个独立的仓库:BrewPOTS中。点击查看案例,学习如何冲泡您的POTS数据!


☕️ 欢迎来到 PyPOTS 生态系统 !

❖ 安装教程

您可以参考PyPOTS文档中的 安装说明 以获取更详细的指南。
PyPOTS可以在 PyPIAnaconda 上安装。
您可以按照以下方式安装PyPOTS,TSDB以及PyGrinder:

# 通过 pip
pip install pypots            # 首次安装
pip install pypots --upgrade  # 更新为最新版本
# 利用最新源代码安装最新版本,可能带有尚未正式发布的最新功能
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip

# 通过 conda
conda install -c conda-forge pypots  # 首次安装
conda update  -c conda-forge pypots  # 更新为最新版本

❖ 使用案例

除了 BrewPOTS 之外, 您还可以在 Google Colab

Colab tutorials
上找到一个简单且快速的入门教程。如果您有其他问题,请参考 PyPOTS文档。您也可以在我们的 社区提出问题

下面,我们为您演示使用PyPOTS进行POTS数据插补的示例,您可以点击以下链接查看:

点击此处查看 SAITS 模型应用于 PhysioNet2012 数据集插补任务的简单案例:
# 数据预处理,使用PyPOTS生态帮助完成繁琐的数据预处理。
import numpy as np
from sklearn.preprocessing import StandardScaler
from pygrinder import mcar
from pypots.data import load_specific_dataset
data = load_specific_dataset('physionet_2012')  # PyPOTS 将自动下载和解压数据
X = data['X']
num_samples = len(X['RecordID'].unique())
X = X.drop(['RecordID', 'Time'], axis = 1)
X = StandardScaler().fit_transform(X.to_numpy())
X = X.reshape(num_samples, 48, -1)
X_ori = X  # keep X_ori for validation
X = mcar(X, 0.1)  # 随机掩盖观测值的10%,作为基准数据
dataset = {"X": X}  # X 用于模型输入
print(X.shape)  # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features

# 模型训练,开始应用PyPOTS.
from pypots.imputation import SAITS
from pypots.utils.metrics import calc_mae
saits = SAITS(n_steps=48, n_features=37, n_layers=2, d_model=256, d_ffn=128, n_heads=4, d_k=64, d_v=64, dropout=0.1, epochs=10)
# 因为基准数据对模型不可知,将整个数据集作为训练集, 也可以把数据集分为训练/验证/测试集
saits.fit(dataset)  # 基于数据集训练模型
imputation = saits.impute(dataset)  # 插补数据集中原始缺失部分和人为掩盖缺失部分
indicating_mask = np.isnan(X) ^ np.isnan(X_ori)  # 用于计算插补误差的掩码矩阵
mae = calc_mae(imputation, np.nan_to_num(X_ori), indicating_mask)  #计算人为掩盖部分数据的平均绝对误差
saits.save("save_it_here/saits_physionet2012.pypots")  # 保存模型
saits.load("save_it_here/saits_physionet2012.pypots")  # 重新加载序列化的模型文件以进行后续的插补或训练

❖ 引用PyPOTS

💡 注意
[2024年2月更新] 😎 我们的综述论文 Deep Learning for Multivariate Time Series Imputation: A Survey 已在 arXiv 上发布,
代码已在GitHub 项目(Awesome_Imputation )上开源。
我们全面综述了最新基于深度学习的时间序列插补方法文献并对现有的方法进行分类,除此之外,还讨论了该领域当前的挑战和未来发展方向。

[2023年6月更新] 🎉 PyPOTS论文的精简版已被第9届SIGKDD 时间序列挖掘和学习 国际研讨会(MiLeTS'23)接收。
此外,PyPOTS已被纳入PyTorch 生态系统

介绍PyPOTS的论文可以通过该 地址 在arXiv上获取,我们正在努力将其发表在更具影响力的学术期刊上,
例如持续跟进 机器学习开源软件 的JMLR期刊。
如果您在工作中使用了PyPOTS,请按照以下格式引用并为将项目设为星标🌟,以便让更多人关注到它,对此我们深表感谢🤗。

据不完全统计,该 列表 为当前使用PyPOTS并在其论文中引用PyPOTS的科学研究项目

@article{du2023pypots,
title={{PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series}},
author={Wenjie Du},
year={2023},
eprint={2305.18811},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2305.18811},
doi={10.48550/arXiv.2305.18811},
}

或者

Wenjie Du. (2023).
PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series.
arXiv, abs/2305.18811.https://arxiv.org/abs/2305.18811

❖ 贡献声明

非常欢迎您为这个有趣的项目做出贡献!

  通过提交您的代码,您将能收获:

  1. 将您开发完善的模型直接供PyPOTS用户使用,让您的工作更加广为人知。
    请查看我们的 纳入标准
    您也可以利用项目文件中的 模板 (如:
    pypots/imputation/template) 进行快速开发;
  2. 成为 PyPOTS 贡献者 之一,
    并在 PyPOTS 网站 上被列为志愿开发者;
  3. 您的贡献将在我们发布的 说明 中被提及;

您也可以通过为该项目设置星标🌟 ,帮助更多人关注它。
您的星标🌟 既是对PyPOTS的认可,也是对PyPOTS发展所做出的重要贡献!

👏 点击这里可以查看PyPOTS当前的星标者和分支者
我们为拥有越来越多的出色用户以及更多的星标✨而感到自豪:
PyPOTS stargazers
PyPOTS forkers

👀 在 PyPOTS 网站 上可以查看我们用户所属机构的完整列表!

❖ 项目社区

我们非常关心用户的反馈,因此我们正在建立PyPOTS社区:

  • Slack:您可以在这里进行日常讨论、问答以及与我们的开发团队交流;
  • 领英: 您可以在这里获取官方公告和新闻;
  • 微信公众号: 您可以关注官方公众号并加入微信群聊参与讨论以及获取最新动态;

如果您有任何建议、想法、或打算分享与时间序列相关的论文,请加入我们并告诉我们。
PyPOTS社区一个开放、透明、友好的社区,让我们共同努力建设和改进PyPOTS!

🏠 Visits PyPOTS visits

Footnotes

  1. Du, W., Cote, D., & Liu, Y. (2023). SAITS: Self-Attention-based Imputation for Time Series. Expert systems with applications.

  2. Zhang, Y., & Yan, J. (2023). Crossformer: Transformer utilizing cross-dimension dependency for multivariate time series forecasting. ICLR 2023. 2

  3. Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J., & Long, M. (2023). TimesNet: Temporal 2d-variation modeling for general time series analysis. ICLR 2023

  4. Nie, Y., Nguyen, N. H., Sinthong, P., & Kalagnanam, J. (2023). A time series is worth 64 words: Long-term forecasting with transformers. ICLR 2023

  5. Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2023). Are transformers effective for time series forecasting?. AAAI 2023

  6. Woo, G., Liu, C., Sahoo, D., Kumar, A., & Hoi, S. (2023). ETSformer: Exponential Smoothing Transformers for Time-series Forecasting. ICLR 2023

  7. Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L., & Jin, R. (2022). FEDformer: Frequency enhanced decomposed transformer for long-term series forecasting. ICML 2022.

  8. Zhang, X., Zeman, M., Tsiligkaridis, T., & Zitnik, M. (2022). Graph-Guided Network for Irregularly Sampled Multivariate Time Series. ICLR 2022.

  9. Zhou, H., Zhang, S., Peng, J., Zhang, S., Li, J., Xiong, H., & Zhang, W. (2021). Informer: Beyond efficient transformer for long sequence time-series forecasting. AAAI 2021.

  10. Wu, H., Xu, J., Wang, J., & Long, M. (2021). Autoformer: Decomposition transformers with auto-correlation for long-term series forecasting. NeurIPS 2021.

  11. Tashiro, Y., Song, J., Song, Y., & Ermon, S. (2021). CSDI: Conditional Score-based Diffusion Models for Probabilistic Time Series Imputation. NeurIPS 2021.

  12. Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X., & Yin, J. (2021). Generative Semi-supervised Learning for Multivariate Time Series Imputation. AAAI 2021.

  13. Ma, Q., Chen, C., Li, S., & Cottrell, G. W. (2021). Learning Representations for Incomplete Time Series Clustering. AAAI 2021.

  14. Chen, X., & Sun, L. (2021). Bayesian Temporal Factorization for Multidimensional Time Series Prediction. IEEE transactions on pattern analysis and machine intelligence.

  15. Jong, J.D., Emon, M.A., Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, H.A., Hofmann-Apitius, M., & Fröhlich, H. (2019). Deep learning for clustering of multivariate clinical patient trajectories with missing values. GigaScience.

  16. Yoon, J., Zame, W. R., & van der Schaar, M. (2019). Estimating Missing Data in Temporal Data Streams Using Multi-Directional Recurrent Neural Networks. IEEE Transactions on Biomedical Engineering.

  17. Cao, W., Wang, D., Li, J., Zhou, H., Li, L., & Li, Y. (2018). BRITS: Bidirectional Recurrent Imputation for Time Series. NeurIPS 2018.

  18. Che, Z., Purushotham, S., Cho, K., Sontag, D.A., & Liu, Y. (2018). Recurrent Neural Networks for Multivariate Time Series with Missing Values. Scientific Reports.

  19. Vaswani, A., Shazeer, N.M., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., & Polosukhin, I. (2017). Attention is All you Need. NeurIPS 2017.

  20. Rubin, D. B. (1976). Inference and missing data. Biometrika.

@WenjieDu
Copy link
Owner Author

WenjieDu commented May 3, 2024

谢谢佳欣 @Justin0388,也谢谢思佳和海涛的建议!

佳欣请新建一个PR把最新版本提交,新建文件名为README_zh.md。有些小问题我会在merge之后帮忙修改。

再次感谢大家的贡献!🤗

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
documentation Improvements or additions to documentation enhancement New feature or request
Projects
None yet
Development

No branches or pull requests

4 participants