Differenze tra le versioni di "Deep Learning Halcon"
Da qualiwiki.
m (Qualivision ha spostato la pagina Deep Learning a Deep Learning Halcon) |
|||
(Una versione intermedia di uno stesso utente non è mostrata) | |||
Riga 6: | Riga 6: | ||
Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento. | Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento. | ||
+ | |||
Il problema è risolvibile in 2 modi: | Il problema è risolvibile in 2 modi: | ||
Riga 18: | Riga 19: | ||
Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente. | Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente. | ||
+ | |||
+ | Se si usa un modello ottimizzato per TensorRT bisogna usare un device che abbia a sua volta TensorRT se non da errore. |
Versione attuale delle 17:30, 1 apr 2025
Deep Learning livello PRO
Ottimizzazione Modello
Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento.
Il problema è risolvibile in 2 modi:
1) Ottimizzare il livello da Deep Learning Tool:
- Sulla pagina "Evaluation" nella sezione "Inference and evaluation settings" impostare come device la GPU con TensorRt; - Rieseguire l'evaluation ed esportare il modello dalla pagina "Export".
2) Ottimizzare il modello tramite Halcon:
- Aprire il seguente script: \\QVSERVER\__Projects\DEEP LEARNING\HalconDL\optimize_model.hdev; - Inserire in read_dl_model il file del modello NON OTTIMIZZATO e lanciare lo script; - Salvare il DLModelHandleConverted.
Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente.
Se si usa un modello ottimizzato per TensorRT bisogna usare un device che abbia a sua volta TensorRT se non da errore.