返回上一页  首页 | cnbeta报时: 00:56:41
英伟达为其专有的CUDA架构带来原生的Python支持 帮助开发者加速AI开发进程
发布日期:2025-04-07 14:36:02  稿源:蓝点网

CUDA 是英伟达专有的 GPU 并行计算机构,专有意味着并非开源因此在软件开发和支持方面都由英伟达自己做主,在没有开源社区参与所以 CUDA 也存在诸多限制,例如并没有原生支持 Python。

不过在最近举办的 GPU 技术大会上,英伟达宣布 CUDA 软件工具包原生支持 Python 支持,而此前 CUDA 主要依赖于 C 语言和 C++ 语言,而 Python 则是目前非常流行的编程开发语言。

根据 GitHub 2024 年开源数据调查,Python 在 2024 年已经超过 JavaScript 成为全球最受欢迎的编程语言,Python 在数据科学、机器学习和高性能计算领域占据着主导地位,但长期依赖 CUDA 对 Python 的支持仅停留在工具层面,开发者需要掌握 C++ 或 Fortran 等语言才能直接操作 CUDA 进行 GPU 编程,显然这种壁垒肯定会限制 CUDA 在 Python 开发者社区中的普及。

英伟达 CUDA 架构师在 GPU 技术大会上表示:

我们一直在努力将加速 Python 计算引入 CUDA 技术栈,让 Python 支持成为一流支持,新的 CUDA Python 支持并非简单地将 C 语言翻译为 Python,而是为 Python 开发者量身打造的 Pythonic 体验,确保能够自然融入到 Python 开发流程。

CUDA Python 核心特性包括:

CUDA Core:对 CUDA Runtime 的 Pythonic 重新构想,CUDA Core 完全采用 Python 的执行流程,深度集成了 JIT Compilation,开发者不需要调用外部命令行编译器即可完成 GPU 计算,这种设计显著减少了依赖项并提升了开发效率。

cuPyNumeric 库:这是一个与 NumPy 兼容的库,开发者只需要更改一行导入指令,即可将原本运行在 CPU 上的 NumPy 代码迁移到 GPU 上运行,该库为数据科学和机器学习开发者提供无缝的过渡体验。

统一的 API 接口:CUDA Python 提供了一套标准的低级别接口,覆盖 CUDA 主机 API 的全部功能,这种统一代码不仅可以提高代码的可移植性,还增强了不同加速库之间的互操作性。

对开发者来说这是个非常好的消息,尤其是对 AI 和机器学习开发者来说是重大利好,许多 ML 开发者使用 Python,现在这些开发者不需要再学习 C/C++ 即可充分利用 GPU 硬件,当然英伟达支持 Python 也会巩固英伟达在数据中心 GPU 市场的领先地位。

另外英伟达还计划在未来支持更多编程语言,早在 2024 年 GPU 技术大会上英伟达工程师就表示英伟达还在探索诸如 Rust 和 Julia 等编程开发语言,吸引更广泛的开发者群体。

相关资源:https://github.com/NVIDIA/cuda-python

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:56:41

文字版  标准版  电脑端

© 2003-2025