DEVMODE Staff
DEVMODE Staff

Dipublikasikan 22 Maret 2026

Jalankan OpenClaw Lebih Aman di NVIDIA OpenShell dengan Managed Inference Sekarang!

NVIDIA NemoClaw hadir sebagai solusi open source yang mempermudah kamu buat menjalankan OpenClaw always-on assistant dengan tingkat keamanan yang lebih baik. Dengan stack referensi ini, kamu bisa install runtime NVIDIA OpenShell—bagian dari Agent Toolkit NVIDIA—sekaligus memanfaatkan model open source seperti Nemotron. Semuanya dirancang supaya agent autonomous kamu makin aman dan gampang di-manage.

NemoClaw Masih Alpha: Early Preview dan Feedback

Jangan lupa, NemoClaw baru tersedia dalam versi alpha mulai 16 Maret 2026. Saat ini belum direkomendasikan buat production ya, karena interface, API, dan behavior-nya masih bisa berubah sewaktu-waktu. NVIDIA ingin dapet masukan dan komunitas bisa ikut eksperimen lebih awal. Feel free buat share feedback, problem, atau diskusi selama development.

Quick Start: Cara Instalasi & Onboard OpenClaw Agent

Supaya installasi NemoClaw mulus, ada beberapa hal yang perlu dipersiapkan, baik hardware maupun software. Sistem ini otomatis bikin instance OpenClaw baru di sandbox setiap onboarding.

Spesifikasi Minimum Hardware

  • CPU: Minimal 4 vCPU
  • RAM: 8 GB (Rekomendasi: 16 GB)
  • Disk: 20 GB free (Rekomendasi: 40 GB)

Image sand-box-nya sekitar 2.4GB (compressed). Di sistem dengan RAM kurang dari 8GB, proses export pipeline bisa jadi error. Kalau ga bisa upgrade RAM, aktifin swap minimal 8GB (cuma performa jadi agak lambat).

Software Requirements

  • Linux: Ubuntu 22.04 LTS atau yang terbaru
  • Node.js: Versi 20+
  • npm: Versi 10+
  • Container runtime: Docker (Linux), Colima / Docker Desktop (macOS), Docker Desktop (WSL Windows)
  • OpenShell: Sudah terinstall

Untuk pengguna DGX Spark, cek dulu dokumen setup khusus Spark (biasanya perlu cgroup v2 dan konfigurasi Docker).

Cara Pasang NemoClaw & Onboard Agent

Cukup 1 baris command buat install NemoClaw plus onboarding sandbox agennya:

Plain Text

Installer ini juga otomatis install Node.js (kalau belum ada). Setelah proses selesai, bakal muncul info environment seperti sandbox yang terbentuk, model, dan status.

  • Jalankan nemoclaw my-assistant connect buat connect ke sandbox
  • Cek status: nemoclaw my-assistant status
  • Pantau log: nemoclaw my-assistant logs --follow

Kalau pakai nvm atau fnm untuk Node.js, pastikan update PATH shell setelah install. Bisa dengan source ~/.bashrc atau source ~/.zshrc.

Ngobrol Sama Agent via TUI/CLI

Udah siap? Lanjut connect ke sandbox lalu eksplor fitur chatbot baik pakai TUI (text UI) maupun CLI:

  • Connect ke sandbox: nemoclaw my-assistant connect
  • Buka OpenClaw TUI: openclaw tui (lebih enak buat chat 2 arah interaktif)
  • Tes single message via CLI: openclaw agent --agent main --local -m "hello" --session-id test (hasil full output di terminal)

Uninstall NemoClaw

Mau hapus NemoClaw dan semua resourcenya? Jalankan script uninstall berikut di luar sandbox:

Plain Text

  • Tambah --yes biar skip konfirmasi
  • Pakai --keep-openshell kalau mau biarkan openshell tetap terinstall
  • Tambah --delete-models buat hapus semua model Ollama yang ditarik NemoClaw

Cara Kerja NemoClaw

Intinya, NemoClaw install runtime OpenShell & model Nemotron, lalu bikin sandbox dengan blueprint (Python artifact) biar setiap akses network, file, sampai inference, diatur sama policy deklaratif. Semua dikoordinasiin lewat CLI nemoclaw.

  • Plugin: Perintah TypeScript CLI buat launch, connect, status, logs
  • Blueprint: Python artifact yang atur sandbox & policy
  • Sandbox: Container OpenShell yang sudah diisolasi
  • Inference: Model call ke NVIDIA Endpoint via OpenShell gateway

Lifecycle blueprint: resolve artifact → verifikasi → plan resource → apply policy langsung via CLI OpenShell.

Inference & Model Deployment

Semua request inference dari agent nggak langsung keluar dari sandbox. OpenShell intercept, terus route ke provider endpoint kayak NVIDIA Endpoint yang support model seperti nemotron-3-super-120b-a12b. Buat pakai ini, kamu perlu NVIDIA API Key (bisa request dari build.nvidia.com; nanti diminta pas onboarding).

Opsi local inference (Ollama/vLLM) masih experimental, khususnya di macOS perlu support host-route di OpenShell juga.

Lapisan Proteksi Sandbox

  • Network: Cegah koneksi keluar yang ga terdaftar. Bisa di-hot-reload.
  • Filesystem: Blokir akses baca/tulis di luar /sandbox dan /tmp.
  • Process: Cegah privilege escalation & syscall berbahaya.
  • Inference: Semua API call model dilewatkan backend terkontrol.

Kalau ada akses keluar ke host yang ga izin, request itu otomatis diblokir dan muncul di TUI buat approval operator secara real-time.

Custom Policy Sandbox (YAML)

Policy sandbox ditulis dalam bentuk YAML dan enforce langsung dari runtime OpenShell. Default policy dari NemoClaw otomatis block semua network keluar, kecuali yang ada di daftar whitelist endpoint. Bisa edit policy static dengan edit openclaw-sandbox.yaml lalu re-onboard, atau dinamis pakai openshell policy set <policy-file> (efek hanya selama session berjalan).

Presets untuk integrasi umum (contoh: PyPI, Docker Hub, Slack, Jira) udah tersedia di nemoclaw-blueprint/policies/presets/ jadi bisa langsung dipakai atau dijadikan template custom. Endpoint yang di-approve via TUI hanya berlaku untuk session itu aja.

Perintah CLI Penting

  • nemoclaw onboard: Wizard setup interaktif gateway, provider, sandbox
  • nemoclaw <nama> connect: Masuk ke shell sandbox interaktif
  • openshell term: Launch OpenShell TUI monitoring & approval
  • nemoclaw start / stop / status: Control service (misal, Telegram bridge, tunnel)

Cek dokumentasi official buat referensi lengkap, troubleshooting, atau gabung ke komunitas Discord buat diskusi bareng user lain.

Lisensi

NVIDIA NemoClaw dirilis di bawah Apache License 2.0. Kamu bebas explore atau kontribusi ke project ini sesuai lisensi.