首页 电子消费品 人工智能入门:当游戏电脑成为学习工具

人工智能入门:当游戏电脑成为学习工具

by 凯文·奥布莱恩

随着人工智能增强编程的兴起,我们有理由为您的孩子提供更强大的计算和图形平台。

随着人工智能增强型编程的兴起,有必要为您的孩子提供更强大的计算和图形平台。是的,这样做有好处,例如可以玩最新的游戏,但一个新兴的好处是能够在系统本地推出先进的人工智能工具和本地 LLM。这与许多人通常开始使用的入门平台形成了鲜明对比,入门平台仅限于网页浏览或生产力软件。在本文中,我们将探讨配备高端 GPU 和快速存储的游戏 PC 如何既可以作为精英游戏设置,又可以作为学习使用人工智能编码的高效平台。

游戏系统变成人工智能工作站的想法并不新鲜;我们在去年的一篇文章中探讨了这一主题的一部分,介绍了 Dell Alienware R16 和 Dell Precision 5860。虽然那篇文章重点介绍了消费级和工作站级 GPU 以及各种工作负载下的驱动程序之间的性能差异,但本文将重点介绍游戏系统为何可以为使用 AI 学习的人增加价值。利用 AI 的工具也没有放慢脚步,许多 公告主要围绕全新 NVIDIA 50 系列 GPU。

如果您的孩子就读于 K-12 学校,那么提供的系统通常是基本的 Chromebook。这些平台在成本、可维护性和技术访问方面具有优势,但它们并不适用于高级用例。进入家用游戏 PC,它可以提供无数小时的游戏乐趣,但配备了一些最具成本效益的硬件,可用于 AI 开发工作。

这件事始于我 11 岁的儿子问他是否可以使用 AI 制作视频游戏。在一些帮助下,我向他介绍了 Abacus.AI,并向他展示了如何制作文本提示来编写 Python 代码、在 Windows 上安装 Python 以及执行他正在设计的游戏。这一切都在 15 分钟内完成。他没有编程经验,我想这是我第一次在 Windows 上安装 Python 环境。亲眼目睹这一切真是太了不起了。

从 AI 的 Python 编程开始

他不断尝试不同的游戏创意。他最先尝试的是文字提示游戏,例如石头剪刀布,但后来逐渐演变为带有 GUI 的平台游戏。第一个版本是一个可以在游戏开始时弹跳的小红块,需要一些物理帮助。它很快演变成一只在平台上跳跃的树懒。

从 Python 编程开始用 AI:Sloth Runner

这款游戏的最终版本变成了一款树懒和水豚冒险游戏,其中的角色跳过了满是鳄鱼的水。这是一个超现实的体验,但它也让我们意识到,只要有合适的工具,孩子们就能做出令人惊叹的事情。

从人工智能 Python 编程开始:树懒跳跃的鳄鱼

在本文中,我们将探讨一些 AI 领域,这些领域可以在家庭环境中轻松探索,适合年轻和年长的受众。基于云的 AI 产品(例如 Abacus AI、OpenAI 等)易于启动,不需要任何专门的硬件。这些 AI 工具提供了广泛的文本、图像、视频和无数其他模型。

基于云的 AI 解决方案

基于云的 AI 解决方案彻底改变了我们与人工智能互动和学习的方式。这些平台提供了对尖端模型的访问,而无需用户投资昂贵的硬件——流行的选项如 ChatGPT 和 Anthropic 的 Claude。然而,一个因其多功能性和价值而脱颖而出的平台是 算盘.

Abacus AI编程

例如,CodeLLM 允许用户直接在在线 IDE 中编写代码,同时与聊天机器人交互以获得实时帮助。此功能非常适合学习编码的初学者或希望快速制作原型的经验丰富的开发人员。Code Playground 功能更进一步,允许用户直接在浏览器中执行代码,无需本地设置。这对于创建交互式动画特别有用。

Abacus 还具有 Deep Research 等功能,可将 AI 集成到研究工作流程中,以及 AI Engineer,可自动创建用于特定任务的机器人。无论您是在探索编码、生成图像还是构建交互式应用程序,这些功能都让您可以轻松开始使用 AI。即使是基本的笔记本电脑或 Chromebook,如果与 Abacus.AI 等基于云的解决方案搭配使用,也可以成为家长或教育工作者的强大学习工具。

本地人工智能

一个自然而然的问题出现了:如果基于云的解决方案如此便宜、易于获取且易于使用,为什么还要费心使用本地 AI?答案在于本地 AI 提供的独特优势,这可以使其成为特定用户的引人注目的选择,尤其是那些拥有高端游戏 PC 或希望更好地控制其 AI 工作流程的用户。

答案在于隐私、控制和可访问性。在本地运行 AI 模型可确保您的数据保留在您的机器上,提供无与伦比的隐私,非常适合敏感项目或个人使用。它还提供离线访问,使其在连接性较差的区域或服务器中断期间可靠。对于重度用户来说,从长远来看,本地 AI 可以更具成本效益,因为一旦硬件设置好,就无需支付使用费。本地 AI 还提供自由和灵活性。您可以自定义和微调模型,尝试开源选项,甚至训练您的模型。此外,实践方法将有助于培养宝贵的技术技能。

硬件要求

运行本地 AI 会面临一些硬件挑战,这就是为什么重新设计游戏系统以适应本地 AI 的话题很有意义。虽然一些本地 AI 套件可以利用 CPU(我们将在下面讨论),但几乎所有套件都更喜欢 GPU,尤其是 NVIDIA。目前,NVIDIA GPU 是最受欢迎的,而 VRAM 是一个门控因素。以 40 系列 NVIDIA GeForce 产品线为例,我们细分了每张卡有多少 VRAM:

  • NVIDIA GeForce RTX 4050(8GB VRAM)
  • NVIDIA GeForce RTX 4060(12GB VRAM)
  • NVIDIA GeForce RTX 4070(16GB VRAM)
  • NVIDIA GeForce RTX 4080(20GB VRAM)
  • NVIDIA GeForce RTX 4090(24GB VRAM)

一般来说,随着模型大小或模型精度的增加,VRAM 需求也会增加。以下是 DeepSeek R1 模型的细分,大小从 1.5B 到 70B,精度级别从 FP4 到 FP8。您很快就会意识到,大多数消费级 GPU 只能使用较小的模型大小。VRAM 占用空间也会根据您对模型的操作而波动,因此您需要一些余地。

DeepSeek R1 模型大小 推理 VRAM(FP8) 推理 VRAM(FP4)
1.5B 〜1.5 GB 〜0.75 GB
7B 〜7 GB 〜3.5 GB
8B 〜8 GB 〜4 GB
14B 〜14 GB 〜7 GB
32B 〜32 GB 〜16 GB
70B 〜70 GB 〜35 GB

使用 Ollama 在本地运行 DeepSeek R1 或 Llama 3.1

Ollama 是部署本地 LLM 的更直接的方法之一。Ollama 易于使用,即使是那些不太懂技术的人也可以使用它。它的界面简化了下载、管理和与大型语言模型 (LLM) 交互的过程。在 Windows 上,安装 Ollama 很简单。前往 奥拉马网站,单击下载(选择您的操作系统),然后运行该安装文件。

Ollama 网站截图

安装后,Ollama 的命令行界面 (CLI) 允许用户使用简单的命令轻松提取和运行模型,例如 ollama pull和奥拉马跑。单击 Windows 开始按钮,输入“cmd”,然后加载命令提示符即可访问。下面是一个示例,显示了系统上已下载的模型,启动了 DeepSeek R1 14B 并编写了一个关于树懒建房的故事。

Ollama 运行 DeepSeek R1 LLM

除了 CLI,Ollama 还提供基于 Web 的界面 Ollama Hub,可提供与云 AI 解决方案类似的用户体验,即使是喜欢图形界面的用户也可以访问它。

Ollama 广泛的社区支持和快速的开发周期使其特别有吸引力。它还有一个优势,就是安装只需几秒钟,让用户快速下载或运行模型也同样容易。对于大多数用户来说,最长时间的延迟将是他们的互联网速度,因为这些模型中的许多都达到数 GB 的大小。

运行本地 LLM 的计算机资源

值得注意的是,如果您打算运行本地 LLM,每个模型都会有不同的系统要求,而 GPU 则更适合高效运行。Ollama 在上面的系统资源中运行 DeepSeek R1 14B 模型,它使用了不到 11GB 的 VRAM。加载模型时,GPU 处于空闲状态,但只要您开始与其交互,使用率就会飙升。

在低端硬件上运行 LLM:量化模型

量化模型为使用较低 VRAM GPU 的用户提供了实用的解决方案。这些模型本质上是 LLM 的压缩版本,可降低内存要求,从而允许它们在性能较弱的 GPU 上运行。虽然量化会牺牲一些性能和准确性,但它使运行高级模型更容易被更广泛的硬件所接受。

也可以在 CPU 上运行 LLM,但这会带来进一步的性能权衡。基于 CPU 的执行速度明显慢于基于 GPU 的处理速度,但对于较小的模型或无法使用专用 GPU 的用户来说,它仍然是一个可行的选择。

骆驼

在 CPU 上运行 LLM 最受欢迎的功能之一是 美洲驼.cpp,一个 C++ 原生应用程序,旨在高效推理大型语言模型。尽管名字叫 llama.cpp,但它并不局限于 LLaMA 模型。它的轻量级设计和针对 CPU 使用率的优化使其成为想要在普通硬件上试验本地 AI 的用户的绝佳选择。通过支持量化模型,llama.cpp 进一步降低了资源需求,使消费级硬件也能高效运行高级 LLM。

使用 ComfyUI 生成稳定的扩散图像

对于本地图像生成,ComfyUI 是一种简单的入门方法。 我们跟着 稳定扩散艺术指南 使实例运行。 步骤包括下载便携式 7z 存档中的 ComfyUI 实例、提取文件夹以及下载现有模型检查点。

显示 ComfyUI 的文件夹

运行 ComfyUI 与 Ollama LLM 略有不同。打开包含 ComfyUI 实例和已保存检查点的文件夹,然后双击 run_cpu 文件(如果您的系统具有集成或低端显卡)或 run_nvidia_gpu(如果您拥有强大的专用 NVIDIA 显卡)。

适用于 NVIDIA GPU 的 ComfyUI 批处理文件

然后,它将在后台加载命令提示符。它看起来相对复杂,但可以快速为其 GUI 加载指向默认 Web 浏览器的链接。

ComfyUI CLI 信息

您将看到的 GUI 显示了图像生成模型的工作流程,但您可以通过替换 CLIP Text Encode 提示中的文本直接进入。在此示例中,我们生成了四张树懒玩视频游戏的图像。在 Empty Latent Image 字段中,将图像的宽度和高度从 512 更改为 1024,以使其更大。将“batch_size”更改为 4,以同时生成多个图像。

ComfyUI 图像生成示例

最后的想法:用人工智能赋能下一代

人工智能的快速发展和日益普及意味着,如今的游戏电脑可以发挥的用途远不止娱乐。通过基于云的产品或具有强大系统的本地实例,让孩子们可以尽早接触人工智能,我们为他们提供了探索机器学习的工具。他们可以尝试人工智能驱动的创造力,并培养越来越重要的编程技能。

从编写简单游戏到运行 LLM 和生成 AI 驱动的艺术作品,一台装备精良的家用电脑可以成为一个强大的学习环境。无论是使用基于云的 AI 服务,还是使用 Ollama、ComfyUI 等工具深入本地部署,年轻学习者接触 AI 的机会比以往任何时候都多。

归根结底,投资更强大的系统不仅仅是为了升级硬件,还为了培养好奇心、创造力和技术技能。随着人工智能继续塑造未来,让孩子们尝试这些技术可能是对他们的教育和发展最有影响力的投资之一。

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅