Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553
Mengapa semakin banyak perangkat tepi yang berbicara tentang NPU dan koprosesor? RK3588 sudah menjadi SoC 6 TOPS (INT8) yang bertenaga, namun dalam adegan kompleks seperti inferensi multi-tugas, paralelisme model, dan analitik video-AI, batas komputasi dari satu chip masih ada. RK1820 dibuat persis untuk mengambil alih sebagian beban tersebut dan meringankan “kecemasan komputasi” SoC utama. Dalam peralatan edge-AI, prosesor host tidak lagi berjuang sendirian; ketika tugas AI melampaui kapasitas penjadwalan CPU/NPU tradisional, koprosesor diam-diam masuk dan mengambil alih sebagian beban kerja cerdas.
![]()
RK1820 adalah koprosesor yang dibuat khusus untuk inferensi AI dan ekspansi komputasi; ia berpasangan secara fleksibel dengan SoC host seperti RK3588 dan RK3576 dan berkomunikasi dengan mereka secara efisien melalui antarmuka PCIe atau USB.
| Kategori Kemampuan | Parameter & Fungsi Utama |
|---|---|
| Arsitektur Prosesor | 3× inti RISC-V 64-bit; 32 KB L1 I-cache + 32 KB L1 D-cache per inti, cache L2 bersama 128 KB; FPU presisi H/F/D RISC-V |
| Memori | DRAM bandwidth tinggi on-chip 2,5 GB + SRAM 512 KB; dukungan eksternal untuk eMMC 4.51 (HS200), SD 3.0, SPI Flash |
| Codec | Encode JPEG: 16×16–65520×65520, YUV400/420/422/444; Decode JPEG: 48×48–65520×65520, beberapa format YUV/RGB |
| NPU | 20 TOPS INT8; presisi campuran INT4/INT8/INT16/FP8/FP16/BF16; kerangka kerja: TensorFlow/MXNet/PyTorch/Caffe; Qwen2.5-3B (INT4) 67 token/s, YOLOv8n (INT8) 125 FPS |
| Komunikasi | PCIe 2.1 (2 jalur, 2.5/5 Gbps), USB 3.0 (5 Gbps, berbagi dengan PCIe) |
| Fungsi Utama | Inferensi Edge-AI (deteksi / klasifikasi / LLM), komputasi umum RISC-V, akselerasi grafis 2-D (skala / putar), keamanan AES/SM4 |
Dalam sistem RK3588 + RK1820, alur tugas AI diuraikan menjadi arsitektur empat tingkat:
Aplikasi → Middleware → Eksekusi Koprosesor → Kontrol & Presentasi.
Host RK3588: menangani penjadwalan tugas, pra-pemrosesan data, dan keluaran hasil, mengatur seluruh alur kerja.
Koprosesor RK1820: didedikasikan untuk inferensi AI komputasi tinggi, dipasangkan ke host melalui PCIe, membentuk model kolaborasi “kontrol ringan + komputasi berat”.
| Tahap | Aktor | Aksi |
|---|---|---|
| Permintaan Aplikasi | RK3588 | Panggilan tugas AI yang dikeluarkan dari lapisan aplikasi (pengenalan/deteksi) |
| Pengiriman | Pengirim RK3588 | Memutuskan apakah akan memuat ke koprosesor |
| Inferensi | RK1820 | Menjalankan komputasi model deep-learning |
| Kembali | RK1820 → RK3588 | Mengirim kembali hasil inferensi; host menampilkan atau melanjutkan logika |
Lapisan aplikasi adalah tempat setiap tugas AI dimulai; ia menerjemahkan persyaratan pengguna—analitik gambar, deteksi objek, Q&A LLM sisi tepi, dll.—menjadi perintah tugas yang dapat dieksekusi sistem dan meneruskannya ke lapisan middleware melalui API standar. Lapisan ini ditangani sepenuhnya oleh host RK3588, yang mengelola interaksi pengguna, logika bisnis, dan data periferal.
![]()
Penerimaan tugas: memperoleh perintah pengguna melalui kamera, panel sentuh, Ethernet, UART, dll.
Standardisasi perintah: mengubah input yang tidak terstruktur menjadi parameter tugas yang terstruktur
Lapisan middleware adalah hub kolaboratif: ia menilai setiap tugas, mengalokasikan sumber daya, memproses data sebelumnya, dan mengatur lalu lintas bus. Ia memutuskan apakah tugas berjalan di host atau dimuat ke koprosesor.
Hanya RK3588; RK1820 tidak mengambil bagian dalam konfigurasi PCIe atau manajemen interupsi—ia hanya menjalankan pekerjaan inferensi yang dikirim oleh host.
Klasifikasi dan penjadwalan tugas
Pra-pemrosesan data
![]()
Kontrol komunikasi bus
Lapisan ini adalah inti inferensi, didorong secara eksklusif oleh koprosesor RK1820, yang didedikasikan untuk inferensi AI komputasi tinggi.
RK1820 aktif; RK3588 tidak mengganggu inferensi, ia hanya menunggu hasil. Waktu habis atau pengecualian ditangani oleh RK3588 melalui perintah reset PCIe.
Penerimaan dan persiapan tugas
Menerima data, bobot model, dan perintah yang dikirim oleh RK3588; menuliskannya ke DRAM bandwidth tinggi lokal, memuat model, dan mengkonfigurasi NPU.
Komputasi inferensi NPU
Pengembalian hasil
Lapisan ini adalah terminal dari setiap tugas AI: ia mengubah hasil inferensi mentah dari RK1820 menjadi output visual atau siap bisnis dan menutup lingkaran.
RK3588 aktif; RK1820 hanya menyediakan data inferensi mentah.
![]()
Pasca-pemrosesan hasil
Kontrol sistem & output umpan balik
Nilai sinergi: tidak hanya lebih cepat, tetapi lebih pintar
| Tahap | Aktor | Aksi |
|---|---|---|
| Permintaan Aplikasi | RK3588 | Panggilan tugas AI yang dikeluarkan dari lapisan aplikasi (pengenalan/deteksi) |
| Pengiriman | Pengirim RK3588 | Memutuskan apakah akan memuat ke koprosesor |
| Inferensi | RK1820 | Menjalankan komputasi model deep-learning |
| Kembali | RK1820 → RK3588 | Mengirim kembali hasil inferensi; host menampilkan atau melanjutkan logika |
Sederhananya: RK3588 menjalankan pertunjukan dan menjaga semuanya tetap pada jalurnya, sementara RK1820 memberikan ledakan komputasi mentah; bersama-sama mereka membuat perangkat edge-AI “lebih pintar, lebih cepat, dan bebas repot.”
Ikuti kami untuk berita RK1820 dan pembaruan SDK, tutorial baru, dan demo siap pakai.