文件名称:crop_yield_prediction:深度学习的农作物产量预测
文件大小:1.25MB
文件格式:ZIP
更新时间:2024-05-27 23:43:58
Python
深度学习对作物产量的预测 我们论文的必要代码,《 ,AAAI 2017(计算机可持续性研究最佳学生论文奖)。 我们很高兴也赢得了赛的“最佳大数据解决方案”。 这是每个文件夹的实用程序的简要介绍。 “ / 1下载数据”我们如何将数据从Google Earth Engine下载到Google云端硬盘。 然后,用户需要将数据从Google云端硬盘导出到其本地文件夹(例如集群)。 诀窍在于,我们首先将所有可用年份(例如2003年至2015年)中的所有图像连接在一起,然后立即下载大图像,这可能会快数百倍。 “ / 2干净数据”如何对原始数据进行预处理,包括对巨大图像进行切片以获取单个图像,3-D直方图计算等。 “ / 3模型” CNN / LSTM模型结构,以张量流(v0.9)编写。 用Python编写的高斯过程模型。 “ / 4 model_batch”由于我们每年和每个月都在训练不同的
【文件预览】:
crop_yield_prediction-master
----3 model()
--------train_for_hist_alldata_lstm.py(12KB)
--------train_for_hist_alldata.py(12KB)
--------nnet_for_hist_dropout_stride.py(8KB)
--------GP_crop_v3.py(12KB)
--------nnet_lstm.py(5KB)
----6 result_analysis()
--------GP_err.svg(1.85MB)
--------Compare_result.npz(6KB)
--------permute_time.npy(3KB)
--------variogram_data.mat(305KB)
--------permute.py(4KB)
--------corr.py(2KB)
--------counties.svg(1.9MB)
--------Compare_result_ridge.npz(3KB)
--------Compare_result_final.npz(12KB)
--------NDVI.py(34KB)
--------CNN_err.svg(1.85MB)
--------variogram.py(526B)
--------colorbar.py(1KB)
--------paper_result.npy(416B)
--------corr.npy(728B)
--------permute_band.npy(7KB)
--------GP_crop_v3_loop.py(13KB)
--------yield_map_function.py(11KB)
--------GP_crop_v3.py(12KB)
--------monthly_read.py(951B)
--------yield_map.py(4KB)
----.idea()
--------.gitignore(176B)
----2 clean data()
--------locations_final.csv(40KB)
--------yield_final.csv(334KB)
--------yield_final_highquality.csv(305KB)
--------final_save_histogram.py(16KB)
--------final_clean_data.py(12KB)
----1 download data()
--------pull_MODIS_temperature_entire_county_clip.py(3KB)
--------pull_MODIS_entire_county.py(3KB)
--------pull_MODIS_temperature_entire_county.py(3KB)
--------pull_MODIS_entire_county_clip.py(3KB)
--------pull_MODIS_world.py(3KB)
--------pull_MODIS.py(2KB)
--------pull_MODIS_landcover.py(2KB)
--------pull_MODIS_world_hist.py(2KB)
--------pull_MODIS_landcover_entire_county.py(3KB)
--------pull_MODIS_landcover_entire_county_clip.py(3KB)
----README.md(2KB)
----4 model_batch()
--------train_for_hist_alldata_loop_result.py(9KB)
--------train_for_hist_alldata_loop_corn.py(12KB)
--------train_for_hist_alldata_loop.py(10KB)
--------train_for_hist_alldata_loop_lstm.py(9KB)
--------train_for_hist_alldata_loop_permute.py(8KB)
--------nnet_for_hist_dropout_stride.py(6KB)
--------nnet_lstm.py(5KB)
----5 model_semi_supervised()
--------train_for_semi_labeled_data.py(13KB)
--------nnet_semi_old.py(15KB)
--------nnet_semi.py(14KB)
--------train_for_semi.py(13KB)