JAX:支持GPU/TPU的NumPy包(Autograd/XLA),面向高性能机器学习-python

时间:2024-07-08 12:34:22
【文件属性】:

文件名称:JAX:支持GPU/TPU的NumPy包(Autograd/XLA),面向高性能机器学习-python

文件大小:9.67MB

文件格式:ZIP

更新时间:2024-07-08 12:34:22

机器学习

JAX:支持GPU/TPU的NumPy包(Autograd/XLA),面向高性能机器学习 JAX:Autograd 和 XLA 快速入门 | 转型 | 安装指南 | 更改日志 | 参考文档 | 代码搜索公告:JAX 已放弃对 Python 2 的支持,并需要 Python 3.6 或更新版本。 请参阅 docs/CHANGELOG.rst。 什么是 JAX? JAX 是 Autograd 和 XLA,结合起来用于高性能机器学习研究。 借助 Autograd 的更新版本,JAX 可以自动区分原生 Python 和 NumPy 函数。 它可以通过循环、分支、递归和闭包进行微分,并且可以取导数的导数的导数。 它支持通过 grad 进行反向模式微分(又名反向传播)以及前向模式微分,并且两者可以任意组合成任何顺序。 新的是 JAX 使用 XLA 在 GPU 和 TPU 上编译和运行您的 NumPy 程序。 默认情况下,编译发生在幕后,库调用会及时编译和执行。 但是 JAX 还允许您使用单函数 API jit 将自己的 Python 函数及时编译到 XLA 优化的内核中


网友评论