Fara beint í efni
6.2

Vopnaðu könnuðinn

Áætlaður tími: 60 minÁætlaður kostnaður: ~$0.50 (scout audit run)Tól: Claude Opus 4.6 / Gemini 3.1 Pro (scout) + Ollama (local setup)
Eftir þessa æfingu getur þú:

Eftir þessa æfingu hefur þú notað sterkasta tiltæka frumtekni-líkanið til að endurskoða Bekkvagna-forskriftina þína og kortleggja hana á að minnsta kosti þrjár mismunandi bakendur.

Hvers vegna þetta skiptir máli

Þessi æfing kennir mikilvægustu meta-færnina í námskeiðinu: að nota frumtæknina til að vera uppfærð með frumtæknina.

Hvernig á að gera það

  1. 1

    Veldu könnuðinn: sterkasta tiltæka líkanið í dag

  2. 2

    Keyrðu Könnuðarúttektaráskorunina

  3. 3

    Beittu dómgreind á tillögur könnuðarins

  4. 4

    Settu upp staðbundið líkan (Ollama + Qwen3.5)

  5. 5

    Uppfærðu leiðbeiningartöfluna í HARNESS_SPEC.md

Áskorunin

PROMPT — Scout Audit: Map Your Harness to April 2026 SOTALíkan: Claude Opus 4.6 or Gemini 3.1 Pro
I have a personal AI harness specification (HARNESS_SPEC.md) that defines how I work. I need you to act as my intelligence officer and audit this spec against the current AI landscape.

Here is my spec:
[PASTE HARNESS_SPEC.md]

Please provide:

1. **Cloud model recommendations** — For each task type in my routing logic, which current frontier model (Claude 4.6 family, Gemini 3.1 Pro, Grok 4.20, GPT-5.4 variants) is best suited and why? Be specific about model strengths vs my specific task types.

2. **Local model options** — Which tasks in my spec would be better served by local models for privacy, cost, or offline reasons? What is the current best open-weight option (Qwen3.5-72B, GLM-5, DeepSeek variants) and what hardware do I need to run it?

3. **Agentic environment fit** — Given my working patterns, should I be using Claude Code, Cursor, Continue.dev, Windsurf, or a combination? What does each give me that the others don't?

4. **Gaps in my spec** — Are there task types common to my domain that my spec doesn't cover? What routing logic am I missing?

5. **Top 3 actions** — The three changes to my setup that would have the highest impact this week.

Be specific. Use actual model names, actual tool names. No generic advice.
PROMPT — Local Model Setup (privacy-first backend)Líkan: Claude Sonnet 4.6
I want to set up a local AI model for privacy-sensitive work. My hardware: [DESCRIBE YOUR MACHINE — e.g. "MacBook Pro M3 Max 96GB" or "Windows PC, RTX 4090 24GB"].

Based on my Harness Spec:
[PASTE HARNESS_SPEC.md relevant sections]

Please recommend:
1. The best local model for my hardware and use case
2. The exact Ollama commands to install and run it
3. How to test that my Harness Spec works against it
4. What I gain vs lose compared to cloud models for my specific tasks

Gæðaviðmið

  • Þú keyrðir Könnuðarúttektaráskorunina og fékkst sérstakar bakendaráðleggingar
  • Að minnsta kosti eitt staðbundið líkan er uppsett og í gangi
  • HARNESS_SPEC.md hefur "Current Backend Map" hluta
  • Þú beyttir eigin dómgreind á að minnsta kosti eina könnuðartillögu
  • Þú þekkir ársfjórðungstíðnina: þegar stórt líkan kemur út, keyrirðu þessa æfingu aftur

Algeng mistök

Samþykkja allar könnuðartillögur án dómgreindar

Könnuðurinn þekkir landið. Þú þekkir takmarkanirnar þínar.

Sleppa uppsetningu staðbundins líkans

Ollama setur upp á 5 mínútum.

Líta á leiðbeiningartöfluna sem varanlega eftir þessa æfingu

Leiðbeiningartaflan er lifandi skjal með "endurskoðunardagsetningu".