Differenze tra le versioni di "Deep Learning Halcon"

Da qualiwiki.
(Ottimizzazione Modello)
m (Qualivision ha spostato la pagina Deep Learning a Deep Learning Halcon)
(Nessuna differenza)

Versione delle 17:19, 1 apr 2025

Deep Learning livello PRO

Ottimizzazione Modello


Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento. Il problema è risolvibile in 2 modi:

1) Ottimizzare il livello da Deep Learning Tool:

- Sulla pagina "Evaluation" nella sezione "Inference and evaluation settings" impostare come device la GPU con TensorRt;
- Rieseguire l'evaluation ed esportare il modello dalla pagina "Export".

2) Ottimizzare il modello tramite Halcon:

- Aprire il seguente script: \\QVSERVER\__Projects\DEEP LEARNING\HalconDL\optimize_model.hdev;
- Inserire in read_dl_model il file del modello NON OTTIMIZZATO e lanciare lo script;
- Salvare il DLModelHandleConverted.

Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente.