NVIDIA Jetson Orin Nano™ 超级开发者套件是一款紧凑而强大的计算机,它重新定义了小型边缘设备的生成式 AI。它提供高达 67 TOPS 的 AI 性能,较上一代提升 1.7 倍,可无缝运行最流行的生成式 AI 模型,例如视觉转换器、大型语言模型、视觉语言模型等。它仅售 249 美元,凭借NVIDIA AI 软件和广泛的 AI 软件生态系统的支持,为开发者、学生和创客提供最经济实惠且易于访问的平台。现有的 Jetson Orin Nano 开发者套件用户只需升级软件即可体验性能提升,因此现在每个人都可以通过生成式 AI 解锁新的可能性。
Jetson Orin Nano 架构与规格
项目
说明
CPU 架构
6 核 ARM Cortex-A78AE(64 位)
GPU 架构
NVIDIA Ampere 架构 GPU(最多 1024 CUDA 核心)
AI 加速单元
Ampere 架构 Tensor Core,支持 INT8 / FP16 / FP32
内存
最大 8GB LPDDR5,128-bit 带宽
算力(INT8)
20 TOPS(4GB 版本) / 40 TOPS(8GB 版本)
接口支持
PCIe、USB 3.2、CSI 摄像头接口、GPIO、I2C、SPI 等
操作系统
Ubuntu 20.04 + JetPack SDK
开发支持
TensorRT、CUDA、cuDNN、PyTorch、TensorFlow、ONNX 等
RK3588 vs Jetson Orin Nano AI 推理对比表
对比维度
RK3588
Jetson Orin Nano
架构类型
ARM Cortex-A76 + A55 + 独立 NPU
ARM Cortex-A78AE + Ampere GPU + Tensor Core
推理算力(INT8)
6 TOPS
20~40 TOPS(4GB/8GB)
AI 加速方式
专用 NPU 加速器
GPU + Tensor Core 协同推理
支持精度
INT8,部分支持 FP16
INT8 / FP16 / FP32 全支持
模型格式支持
RKNN(由 ONNX/TFLite 转换)
原生支持 ONNX / TFLite / PyTorch / TF
工具链生态
RKNN Toolkit / rknpu2
JetPack SDK / TensorRT / CUDA
部署流程
需预转换、手动配置 RKNN
可直接部署主流 AI 框架模型
性能表现(YOLOv5s)
约 20–30 FPS
约 90–120 FPS
成本(主板)
¥800–1200
¥1500–3500
适合场景
国产化部署 / 成本敏感应用
高性能 AI 推理 / 模型开发实验
RK3588 在 AI 推理领域的主要竞品
竞品名称
芯片厂商
AI 算力(INT8 TOPS)
架构类型
生态/框架支持
典型应用场景
RK3588
Rockchip
~6 TOPS
ARM + 独立 NPU
RKNN Toolkit,支持 ONNX/TFLite
边缘计算、智能监控、机器人
Snapdragon 8cx Gen3
Qualcomm
15-20 TOPS
ARM + Hexagon DSP/NPU
Qualcomm SNPE,支持多框架
轻薄本、平板、边缘AI
MediaTek Dimensity 9200
MediaTek
~20 TOPS
ARM + APU
MediaTek APU SDK
手机、智能设备
NVIDIA Jetson Orin Nano
NVIDIA
20~40 TOPS
ARM + GPU + Tensor Core
JetPack SDK,TensorRT
工业AI、机器人、无人机
Huawei Ascend 310
华为
16 TOPS
专用 AI 加速器
MindSpore,CANN
云端和边缘AI
CUDA 核心 和 Tensor 核心
图像预处理(Resize、Color Convert):
→ 使用 CUDA 核心(OpenCV GPU模块 或 NPP)