ML-Streaming-pipeline-using-Dataflow:该存储库是有关如何使用Apache Beam部署机器学习流水线管道的示例

时间:2024-05-07 16:29:50
【文件属性】:

文件名称:ML-Streaming-pipeline-using-Dataflow:该存储库是有关如何使用Apache Beam部署机器学习流水线管道的示例

文件大小:1.07MB

文件格式:ZIP

更新时间:2024-05-07 16:29:50

JupyterNotebook

使用DataFlow的机器学习流水线(正在建设中) 这是使用Python存储库的Apache Beam简介之一。 在这里,我们将尝试学习Apache Beam的基础知识,以创建在Streaming管道中部署的监督学习模型。 我们将逐步学习如何使用创建流式传输管道。 完整的过程分为8个部分: 生成流数据 从Pub Sub读取数据 解析数据 执行类型转换 预测客户群 在Bigquery中插入数据 动机 在过去的两年中,我一直处于良好的学习曲线中,在此过程中,我提高了自己的技能,进入了机器学习和云计算领域。 这个项目是我所有学习的实践项目。 这是未来的第一件事。 使用的库/框架 内置 克隆库 # clone this repo: git clone https://github.com/adityasolanki205/ML-Streaming-pipeline-usin


【文件预览】:
ML-Streaming-pipeline-using-Dataflow-main
----.ipynb_checkpoints()
--------generating_data_testing-checkpoint.py(4KB)
--------setup-checkpoint.py(621B)
--------publish_to_pubsub-checkpoint.py(1004B)
--------ml-streaming-pipeline-checkpoint.py(7KB)
--------generating_data-checkpoint.ipynb(6KB)
--------README-checkpoint.md(18KB)
--------generating_data-checkpoint.py(4KB)
----German Credit.ipynb(844KB)
----Book1.xlsx(100KB)
----output()
--------.ipynb_checkpoints()
----ml-streaming-pipeline.py(7KB)
----publish_to_pubsub.py(1004B)
----publish_to_pubsub.ipynb(2KB)
----setup.py(621B)
----README.md(18KB)
----generating_data.ipynb(6KB)
----generating_data.py(4KB)
----data()
--------.ipynb_checkpoints()
--------german-original.data(78KB)
--------german.data(78KB)
----Selected_Model.pkl(2.11MB)
----generating_data_testing.py(4KB)

网友评论