首页下载资源人工智能Transformer模型实现长期预测并可视化结果(附代码+数据集+原理介绍)

ZIPTransformer模型实现长期预测并可视化结果(附代码+数据集+原理介绍)

java131477726.51MB需要积分:1

资源文件列表:

Transoformer.zip 大约有49个文件
  1. .idea/
  2. .idea/.gitignore 50B
  3. .idea/.name 11B
  4. .idea/aws.xml 304B
  5. .idea/inspectionProfiles/
  6. .idea/inspectionProfiles/profiles_settings.xml 174B
  7. .idea/inspectionProfiles/Project_Default.xml 1.34KB
  8. .idea/misc.xml 288B
  9. .idea/modules.xml 281B
  10. .idea/Transformer.iml 327B
  11. .idea/workspace.xml 12.38KB
  12. __pycache__/
  13. data/
  14. data/ETTh1-Test.csv 48.39KB
  15. data/ETTh1.csv 2.47MB
  16. layers/
  17. layers/__pycache__/
  18. layers/__pycache__/Embedding.cpython-39.pyc 6.5KB
  19. layers/__pycache__/Invertible.cpython-39.pyc 3.69KB
  20. layers/__pycache__/Projection.cpython-39.pyc 1.2KB
  21. layers/__pycache__/Transformer.cpython-39.pyc 1.92KB
  22. layers/__pycache__/TransformerBlocks.cpython-39.pyc 5.26KB
  23. layers/Embedding.py 4.83KB
  24. layers/Invertible.py 3.22KB
  25. layers/Projection.py 745B
  26. layers/Transformer.py 2.43KB
  27. layers/TransformerBlocks.py 5.2KB
  28. main.py 12.02KB
  29. models/
  30. models/predict-Transformer-data-ETTh1/
  31. models/predict-Transformer-data-ETTh1/model.pth 28.19MB
  32. requirements.txt 1.24KB
  33. results.png 64.04KB
  34. results/
  35. results/OT-ForecastResults.csv 15.06KB
  36. util/
  37. util/__pycache__/
  38. util/__pycache__/data_factory.cpython-39.pyc 994B
  39. util/__pycache__/data_loader.cpython-39.pyc 6.49KB
  40. util/__pycache__/decomposition.cpython-39.pyc 2.18KB
  41. util/__pycache__/timefeatures.cpython-39.pyc 5.18KB
  42. util/__pycache__/tools.cpython-39.pyc 3.86KB
  43. util/data_factory.py 1.19KB
  44. util/data_loader.py 8.08KB
  45. util/decomposition.py 1.52KB
  46. util/masking.py 831B
  47. util/metrics.py 361B
  48. util/timefeatures.py 3.65KB
  49. util/tools.py 3.59KB

资源介绍:

这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。其灵活的模型结构允许调整以适应不同复杂度这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。定制化训练个人数据集进行训练利用python和pytorch实现
certifi==2023.7.22 charset-normalizer==3.3.2 contourpy==1.2.0 cycler==0.12.1 Cython==3.0.5 einops==0.7.0 fonttools==4.44.0 idna==3.4 importlib-resources==6.1.1 joblib==1.3.2 kiwisolver==1.4.5 matplotlib==3.8.1 numpy==1.26.1 packaging==23.2 pandas==2.1.2 patsy==0.5.3 Pillow==10.1.0 pmdarima==2.0.4 pyparsing==3.1.1 python-dateutil==2.8.2 pytz==2023.3.post1 requests==2.31.0 scikit-learn==1.3.2 scipy==1.11.3 six==1.16.0 statsmodels==0.14.0 threadpoolctl==3.2.0 torch==1.12.1+cu113 torchaudio==0.12.1+cu113 torchvision==0.13.1+cu113 typing_extensions==4.8.0 tzdata==2023.3 urllib3==2.0.7 zipp==3.17.0
100+评论
captcha