Postagens

Mostrando postagens de janeiro, 2026

Resumo em camadas + provas de fidelidade Em vez de 1 resumo só, você cria 3 camadas

 Solução correta: Resumo em camadas + provas de fidelidade Em vez de 1 resumo só, você cria 3 camadas (curtas e testáveis): 1) RG — Resumo Global (30–80 linhas) Tese central 3–7 ideias principais mapa do texto (como ele se organiza) 2) RB — Resumo de Bloco (por capítulo/seção) Cada bloco tem: objetivo do bloco argumentos definições novas conclusões “não confundir com…” 3) CQ — Caderno de Citações (mínimo, cirúrgico) Não é copiar o livro. É salvar trechos âncora: definições formais frases que mudam o sentido passagens com “se/mas/exceto” números/dados Isso garante que o resumo não vire fantasia. Regra de ouro: todo resumo precisa passar em 2 testes Teste 1 — “Perguntas de prova” Você faz 5 perguntas que o texto responde e verifica se o resumo consegue responder sem inventar. Exemplos: “Qual é a tese central em 1 frase?” “Quais são as condições para X ser verdadeiro?” “Quais exceções o autor dá?” 02/01/2026, 09:04 Programador - Caminhos para Motor IA https://chatgpt.com/g/g-p-691aea6...

Resumo & Informação — Sistema PRAXIUM

Sistema PRAXIUM — Resumo & Informação 1) Princípio central Não encher o GPT. Instruir corretamente. Informação demais ou de menos gera prejuízo. O objetivo é utilidade com controle de risco . 2) Núcleo: Arcabouço Completo com Lacunas Para cada texto existe um RCE — Resumo Completo Estrutural : estrutura completa campos com lacunas (UNKNOWN / NEEDS_EXTRACTION / MISSING_IN_TEXT) cresce por demanda real Você não “faz um resumo final”. Você constrói um formulário vivo . 3) Níveis de resumo por utilidade e risco N0 índice/localização N1 snapshot (5W1H+duração+tese) N2 operacional (para agir/decidir) N3 analítico (conflitos, lacunas, consequências, implicados/implicantes) N4 auditável (âncoras + evidência por chunk) N5 modelo (paradigmas/paradoxos, com “extraído vs hipótese”) Quanto maior a utilidade/usabilidade, mais profundo. Repetição de uso → reler → re-resumir → melhorar versões. 4) Conteúdo mínimo do “resumo útil” 5W1H + duraçã...

Caminho A (sem chave): LM Studio (mais fácil no Windows)

  Caminho A (sem chave): LM Studio (mais fácil no Windows) A1) Instalar LM Studio Instala o LM Studio (Windows). Dentro dele: baixa um modelo (ex.: Llama 3.1 / Mistral). Liga o Local Server (OpenAI compatible) . A2) Testar se o servidor está de pé No PowerShell: curl http:// 127.0 . 0.1 : 1234 /v1/models Se retornar JSON, pronto: IA local online. A3) Ligar o PRAXIUM Web nisso Você só troca o endpoint no server.py para: http://127.0.0.1:1234/v1/chat/completions Se você disser “vou de LM Studio”, eu te passo o server.py já no formato certo. Caminho B (sem chave): instalar Ollama direito Como seu Windows não acha ollama , é instalação faltando (ou não entrou no PATH). B1) Depois de instalar Ollama, teste: where.exe ollama ollama -v B2) Subir e testar API: ollama pull llama3. 1 curl http:// 127.0 . 0.1 : 11434 /api/tags O que você JÁ tem no PRAXIUM_2 (ponto importante) Seu prax_cli.py tem só 3 comandos: ping chunk stitch Ou seja: o...

Caminho A (sem chave): LM Studio (mais fácil no Windows)

Caminho A (sem chave): LM Studio (mais fácil no Windows) ollama não existe no PATH → “não é reconhecido” curl 127.0.0.1:11434 não conecta → não tem servidor Ollama ativo Então, o PRAXIUM Web até sobe , mas não tem motor de IA para responder. Agora vamos resolver do jeito “Toyota”: instalar 1 motor local OU usar OpenAI com chave . Vou te dar os 2 caminhos, você escolhe. Caminho A (sem chave): LM Studio (mais fácil no Windows) A1) Instalar LM Studio Instala o LM Studio (Windows). Dentro dele: baixa um modelo (ex.: Llama 3.1 / Mistral). Liga o Local Server (OpenAI compatible) . A2) Testar se o servidor está de pé No PowerShell: curl http:// 127.0 . 0.1 : 1234 /v1/models Se retornar JSON, pronto: IA local online. A3) Ligar o PRAXIUM Web nisso Você só troca o endpoint no server.py para: http://127.0.0.1:1234/v1/chat/completions Se você disser “vou de LM Studio”, eu te passo o server.py já no formato certo. Caminho B (sem chave): instalar Ollama...