返回上一页  首页 | cnbeta报时: 05:30:23
NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX
发布日期:2024-02-13 23:10:36  稿源:cnBeta.COM

当人工智能聊天机器人的风潮开始兴起时,大多数人使用的是连接到云服务器的聊天机器人。不过,让聊天机器人在 PC 和智能手机上本地运行的趋势越来越明显。今天,NVIDIA 推出了一种新方法,让 Windows PC 用户可以创建自己的大型语言模型 AI 聊天机器人,并连接到本地存储的内容。

1707834492_chat-with-rtx.jpg

NVIDIA 称其为本地 LLM Chat with RTX,现在该公司网站上提供了演示版。顾名思义,您的电脑必须配备NVIDIA GeForce RXT GPU 才能运行这个本地聊天机器人。以下是具体的硬件要求:

  • 图形处理器 -NVIDIA GeForce RTX 30 或 40 系列图形处理器或NVIDIA RTX Ampere 或 Ada 代图形处理器,至少配备 8GB VRAM

  • 内存 - 16GB 或更大

  • 操作系统 - Windows 11

  • Geforce 驱动程序 - 535.11 或更高版本

下载并安装后,您就可以将"与 RTX 聊天"应用程序与您本地存储的内容(如文档、PDF 文件、视频等)连接起来。然后,您就可以使用本地数据集向聊天机器人提问,这样聊天机器人就能为您提供答案,而无需筛选所有资料。

此外,RTX 聊天工具还可以在一些 YouTube 视频中查找信息。您只需将视频 URL 复制到应用程序中,然后就视频内容提问。Chat with RTX 会为您提供答案。

当然,像"与 RTX 聊天"这样的本地 LLM 应用程序的最大特点是,您可以拥有一个人工智能聊天机器人,而不会将数据传输到公司的云服务器,以用于培训和其他目的。这样做的代价是,你需要一台相当强大的电脑来运行它。

NVIDIA 将"与 RTX 聊天"应用程序标注为免费技术演示。这可能表明,该公司计划在未来某个时候将其转变为具有更多功能的付费或订阅型应用程序。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 05:30:23

文字版  标准版  电脑端

© 2003-2024