Home Consumidores Começando na IA: quando um PC para jogos se torna uma ferramenta de aprendizagem

Começando na IA: quando um PC para jogos se torna uma ferramenta de aprendizagem

by Kevin O'Brien

Com a crescente programação aprimorada por IA, há motivos para dar aos seus filhos uma plataforma gráfica e de computação mais poderosa.

Com a programação aprimorada por IA em ascensão, há um caso para dar aos seus filhos uma plataforma de computação e gráficos mais poderosa. Sim, há benefícios, como jogar os jogos mais recentes, mas um benefício emergente é a capacidade de implementar ferramentas avançadas de IA e LLMs locais localmente no sistema. Isso contrasta fortemente com as plataformas de entrada em que muitos geralmente começam, que são limitadas apenas à navegação na web ou software de produtividade. Neste artigo, exploramos como um PC para jogos — equipado com uma GPU de ponta e armazenamento rápido — pode servir como uma configuração de jogos de elite e uma plataforma eficiente para aprender a codificar com IA.

A ideia de um sistema de jogo transformado em estação de trabalho de IA não é nova; abordamos parte desse tópico em um artigo no ano passado cobrindo as diferenças entre os Dell Alienware R16 e Dell Precision 5860. Enquanto aquele artigo se concentrou nas diferenças de desempenho entre GPUs e drivers de nível de consumidor e de estação de trabalho em uma ampla gama de cargas de trabalho, este artigo se concentrará em por que um sistema de jogo pode agregar valor para alguém aprendendo com IA. As ferramentas que alavancam IA também não estão diminuindo o ritmo, com muitas anúncios centrados nas novas GPUs NVIDIA série 50.

Se você tem um filho em uma escola K-12, o sistema fornecido geralmente será um Chromebook básico. Essas plataformas têm vantagens do ponto de vista de custo, manutenção e acesso à tecnologia, mas não funcionam muito bem para casos de uso avançados. Entre no PC para jogos domésticos, que pode oferecer inúmeras horas de diversão com jogos, mas vem equipado com alguns dos hardwares mais econômicos para o trabalho de desenvolvimento de IA.

Tudo começou quando meu filho de 11 anos perguntou se ele poderia usar IA para fazer um videogame. Com alguma ajuda, apresentei-o ao Abacus.AI e mostrei a ele como criar um prompt de texto para escrever código Python, instalar Python no Windows e executar os jogos que ele estava projetando. Isso foi no intervalo de 15 minutos. Ele não tinha experiência em programação, e acho que essa foi a primeira vez que instalei um ambiente Python no Windows. Foi bem notável testemunhar em primeira mão.

Começando com programação Python com IA

Ele estava a todo vapor com diferentes ideias de jogos para tentar. Os jogos de prompt de texto foram os primeiros, como pedra, papel, tesoura, mas evoluíram para um jogo de plataforma com uma GUI. A primeira versão era um pequeno bloco vermelho que podia quicar quando o jogo começava e precisava de alguma ajuda física. Rapidamente evoluiu para uma preguiça pulando pelas plataformas.

Começando com programação em python com IA: Sloth Runner

A versão final daquele jogo se transformou em um jogo de aventura de Preguiça e Capivara, com personagens pulando sobre águas cheias de jacarés. Foi uma experiência surreal de se testemunhar, mas reforça o ponto de que as crianças podem fazer coisas espantosas com as ferramentas certas na frente delas.

Começando com programação em python com IA: Preguiça pulando em jacarés

Neste artigo, exploraremos algumas áreas de IA que podem ser facilmente exploradas em um ambiente doméstico para públicos mais jovens e mais velhos. Ofertas de IA baseadas em nuvem, como Abacus AI, OpenAI e outras, são fáceis de começar e não exigem nenhum hardware especializado. Essas ferramentas de IA oferecem uma ampla gama de texto, imagens, vídeo e inúmeros outros modelos.

Soluções de IA baseadas em nuvem

Soluções de IA baseadas em nuvem revolucionaram a forma como interagimos e aprendemos com a inteligência artificial. Essas plataformas fornecem acesso a modelos de ponta sem exigir que os usuários invistam em hardware caro — opções populares como ChatGPT e Claude da Anthropic. No entanto, uma plataforma que se destaca por sua versatilidade e valor é Ábaco.ai.

Programação de IA do Ábaco

Por exemplo, o CodeLLM permite que os usuários codifiquem diretamente em um IDE online enquanto interagem com um chatbot para assistência em tempo real. Esse recurso é perfeito para iniciantes aprendendo a codificar ou desenvolvedores experientes que buscam prototipar rapidamente. O recurso Code Playground vai além, permitindo que os usuários executem seu código diretamente no navegador, eliminando a necessidade de configuração local. Isso é particularmente útil para criar animações interativas.

O Abacus também inclui habilidades como Deep Research, que integra IA em fluxos de trabalho de pesquisa, e um AI Engineer, que pode criar automaticamente bots para tarefas específicas. Esses recursos facilitam o início da IA, seja explorando codificação, gerando imagens ou criando aplicativos interativos. Até mesmo um laptop básico ou Chromebook pode se tornar uma ferramenta de aprendizado poderosa para pais ou educadores quando pareado com uma solução baseada em nuvem como o Abacus.AI.

IA local

Uma pergunta natural surge: se as soluções baseadas em nuvem são tão baratas, acessíveis e fáceis de usar, por que se preocupar com IA local? A resposta está nas vantagens únicas que a IA local oferece, o que pode torná-la uma escolha atraente para usuários específicos, especialmente aqueles com PCs de jogos de ponta ou um desejo de mais controle sobre seus fluxos de trabalho de IA.

A resposta está na privacidade, controle e acessibilidade. Executar modelos de IA localmente garante que seus dados permaneçam em sua máquina, oferecendo privacidade incomparável e é ideal para projetos confidenciais ou uso pessoal. Ele também fornece acesso offline, tornando-o confiável em áreas com conectividade ruim ou durante interrupções do servidor. Para usuários pesados, a IA local pode ser mais econômica a longo prazo, pois não há taxas recorrentes de uso depois que o hardware é configurado. A IA local também oferece liberdade e flexibilidade. Você pode personalizar e ajustar modelos, experimentar opções de código aberto e até mesmo treinar seus modelos. Além disso, uma abordagem prática ajudará a desenvolver habilidades técnicas valiosas.

Requisitos de hardware

Executar IA local terá alguns desafios de hardware, e é por isso que o tópico de redirecionar um sistema de jogo para isso faz sentido. Embora alguns conjuntos de IA local possam aproveitar uma CPU, o que discutiremos abaixo, quase todos preferem uma GPU, especificamente a NVIDIA. Atualmente, as GPUs NVIDIA são as mais populares, com a VRAM sendo um fator de controle. Tomando a linha NVIDIA GeForce série 40 como exemplo, dividimos quanta VRAM cada placa tem:

  • NVIDIA GeForce RTX 4050 (8 GB de VRAM)
  • NVIDIA GeForce RTX 4060 (12 GB de VRAM)
  • NVIDIA GeForce RTX 4070 (16 GB de VRAM)
  • NVIDIA GeForce RTX 4080 (20 GB de VRAM)
  • NVIDIA GeForce RTX 4090 (24 GB de VRAM)

Em termos gerais, conforme você aumenta o tamanho do modelo ou a precisão do modelo, os requisitos de VRAM aumentam. Aqui está uma análise dos modelos DeepSeek R1 variando de 1.5B a 70B em tamanho e níveis de precisão de FP4 a FP8. Você perceberá rapidamente que a maioria das GPUs de consumo será limitada a tamanhos de modelo menores. A pegada de VRAM também flutuará dependendo do que você fizer com o modelo, então você precisa de algum espaço livre.

Tamanho do modelo DeepSeek R1 Inferência VRAM (FP8) Inferência VRAM (FP4)
1.5B ~ 1.5 GB ~ 0.75 GB
7B ~ 7 GB ~ 3.5 GB
8B ~ 8 GB ~ 4 GB
14B ~ 14 GB ~ 7 GB
32B ~ 32 GB ~ 16 GB
70B ~ 70 GB ~ 35 GB

Executando DeepSeek R1 ou Llama 3.1 localmente com Ollama

Ollama é um dos métodos mais diretos para implantar um LLM local. Ollama é amigável ao usuário, tornando-o acessível até mesmo para aqueles que não são profundamente técnicos. Sua interface simplifica o processo de download, gerenciamento e interação com grandes modelos de linguagem (LLMs). No Windows, instalar o Ollama é direto. Vá para o Site de Ollama, clique em download (escolha seu sistema operacional) e execute o arquivo de instalação.

Captura de tela do site Ollama

Uma vez instalado, a interface de linha de comando (CLI) do Ollama permite que os usuários extraiam e executem modelos facilmente com comandos simples, como ollama pull e ollama corre . Isso pode ser acessado clicando no botão Iniciar do Windows, digitando “cmd” e carregando seu prompt de comando. Abaixo está um exemplo mostrando modelos já baixados no sistema, iniciando o DeepSeek R1 14B e escrevendo uma história sobre uma preguiça construindo uma casa.

Ollama executando DeepSeek R1 LLM

Além da CLI, a Ollama também oferece o Ollama Hub, uma interface baseada na web que proporciona uma experiência de usuário semelhante às soluções de IA em nuvem, tornando-a acessível até mesmo para aqueles que preferem uma interface gráfica.

O amplo suporte da comunidade e o rápido ciclo de desenvolvimento do Ollama o tornam particularmente atraente. Há também a vantagem de que a instalação leva alguns segundos, e fazer com que alguém se atualize sobre o download ou a execução de modelos é igualmente rápido. O atraso mais prolongado para a maioria dos usuários será a velocidade da internet, pois muitos desses modelos têm muitos GBs de tamanho.

Recursos de computador executando LLM local

É importante notar que se você pretende executar um LLM local, cada modelo terá requisitos de sistema diferentes, com uma GPU altamente preferida para executar as coisas de forma eficiente. O Ollama executa o modelo DeepSeek R1 14B no recurso de sistema capturado acima, que usa pouco menos de 11 GB de VRAM. Enquanto o modelo é carregado, a GPU fica ociosa, mas o uso aumentará assim que você começar a interagir com ela.

Executando LLMs em Hardware de Baixo Custo: Modelos Quantizados

Os modelos quantizados oferecem uma solução prática para usuários que trabalham com GPUs VRAM mais baixas. Essas são essencialmente versões compactadas de LLMs que reduzem os requisitos de memória, permitindo que sejam executadas em GPUs menos potentes. Embora a quantização tenha o custo de algum desempenho e precisão, ela torna a execução de modelos avançados mais acessível a uma gama mais ampla de hardware.

Também é possível executar LLMs em CPUs, embora isso venha com uma compensação de desempenho adicional. A execução baseada em CPU é significativamente mais lenta do que o processamento baseado em GPU, mas ainda pode ser uma opção viável para modelos menores ou usuários sem acesso a uma GPU dedicada.

LHAMA.CPP

Uma das habilidades mais populares para executar LLMs em CPUs é lhama.cpp, um aplicativo nativo C++ projetado para inferência eficiente de grandes modelos de linguagem. Apesar do nome, llama.cpp não se limita a modelos LLaMA. Seu design leve e otimização para uso de CPU o tornam uma excelente escolha para usuários que desejam experimentar IA local em hardware modesto. Ao oferecer suporte a modelos quantizados, llama.cpp reduz ainda mais os requisitos de recursos, permitindo que até mesmo hardware de nível de consumidor execute LLMs avançados com eficiência.

Geração de imagem de difusão estável com ComfyUI

Para geração de imagens locais, o ComfyUI é uma maneira fácil de começar. Nós seguimos o guia sobre Arte de Difusão Estável para colocar a instância em execução. As etapas envolvem baixar a instância do ComfyUI em um arquivo 7z portátil, extrair a pasta e baixar um ponto de verificação do modelo existente.

Pasta mostrando ComfyUI

Executar o ComfyUI é um pouco diferente do Ollama LLM. Abra a pasta com a instância do ComfyUI e o checkpoint salvo, então clique duas vezes no arquivo run_cpu se você tiver um sistema com gráficos integrados ou de baixo custo ou run_nvidia_gpu se você tiver uma placa de vídeo NVIDIA dedicada robusta.

Arquivo de lote ComfyUI para GPUs NVIDIA

Isso então carregará um prompt de comando em segundo plano. Parece relativamente complexo, mas carrega rapidamente um link para seu navegador web padrão para sua GUI.

Informações do ComfyUI CLI

A GUI que será apresentada a você mostra o fluxo de trabalho do modelo de geração de imagem, embora você possa pular direto para substituir o texto dentro do prompt CLIP Text Encode. Neste exemplo, geramos quatro imagens de uma preguiça jogando um videogame. No campo Empty Latent Image, a largura e a altura das imagens foram alteradas de 512 para 1024 para torná-las maiores. O “batch_size” foi alterado para 4 para fazer múltiplas simultaneamente.

Exemplo de geração de imagem ComfyUI

Considerações finais: Capacitando a próxima geração com IA

A rápida evolução da IA ​​e sua crescente acessibilidade significa que os PCs de jogos de hoje podem servir a um propósito muito maior do que apenas entretenimento. Ao fornecer às crianças acesso antecipado à IA por meio de ofertas baseadas em nuvem ou em instâncias locais com sistemas capazes, estamos dando a elas as ferramentas para explorar o aprendizado de máquina. Elas podem experimentar a criatividade orientada por IA e desenvolver habilidades de programação valiosas que serão cada vez mais relevantes.

Da codificação de jogos simples à execução de LLMs e geração de arte com tecnologia de IA, um PC doméstico bem equipado pode se tornar um ambiente de aprendizagem robusto. Seja usando serviços de IA baseados em nuvem ou mergulhando em implantações locais com ferramentas como Ollama, ComfyUI ou inúmeras outras, as oportunidades para jovens aprendizes se envolverem com IA são mais abundantes do que nunca.

Em última análise, a decisão de investir em um sistema mais capaz não é apenas sobre atualizar o hardware; é sobre fomentar a curiosidade, a criatividade e as habilidades técnicas. À medida que a IA continua a moldar o futuro, permitir que as crianças experimentem essas tecnologias pode ser um dos investimentos mais impactantes em sua educação e desenvolvimento.

Envolva-se com a StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed