Caminho A (sem chave): LM Studio (mais fácil no Windows)
Caminho A (sem chave): LM Studio (mais fácil no Windows)
A1) Instalar LM Studio
-
Instala o LM Studio (Windows).
-
Dentro dele: baixa um modelo (ex.: Llama 3.1 / Mistral).
-
Liga o Local Server (OpenAI compatible).
A2) Testar se o servidor está de pé
No PowerShell:
Se retornar JSON, pronto: IA local online.
A3) Ligar o PRAXIUM Web nisso
Você só troca o endpoint no server.py para:
-
http://127.0.0.1:1234/v1/chat/completions
Se você disser “vou de LM Studio”, eu te passo o server.py já no formato certo.
Caminho B (sem chave): instalar Ollama direito
Como seu Windows não acha ollama, é instalação faltando (ou não entrou no PATH).
B1) Depois de instalar Ollama, teste:
B2) Subir e testar API:
O que você JÁ tem no PRAXIUM_2 (ponto importante)
Seu prax_cli.py tem só 3 comandos:
-
ping -
chunk -
stitch
Ou seja: o PRAXIUM_2 está como “kernel + utilitários”, não como IA. Ele processa comandos e organiza texto, mas não conversa com modelo.
Correção rápida do seu “erro de operação” (pra você não perder tempo)
Você tentou rodar Python dentro do PowerShell colando código Python direto. Isso sempre vai dar erro tipo:
“A palavra-chave 'from' não tem suporte…”
Regra: Python só roda quando você faz:
Agora a pergunta que decide tudo (uma só)
Você quer LM Studio (mais fácil) ou Ollama (mais leve, mas precisa instalar e ficar no PATH)?
Se você responder “LM Studio”, eu já te mando:
-
o
server.pypronto no padrão OpenAI-compatible (127.0.0.1:1234) -
os 3 comandos PowerShell para validar (modelo, chat, integração)
Comentários
Postar um comentário