Deep Learning Halcon
Da qualiwiki.
Versione del 1 apr 2025 alle 17:17 di Qualivision (Discussione | contributi) (Creata pagina con " Deep Learning livello PRO == Ottimizzazione Modello == ---- Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete...")
Deep Learning livello PRO
Ottimizzazione Modello
Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento. Il problema è risolvibile in 2 modi:
1) Ottimizzare il livello da Deep Learning Tool:
Sulla pagina "Evaluation" nella sezione "Inference and evaluation settings" impostare come device la GPU con TensorRt; Rieseguire l'evaluation ed esportare il modello dalla pagina "Export".
2) Ottimizzare il modello tramite Halcon:
Aprire il seguente script: \\QVSERVER\__Projects\DEEP LEARNING\HalconDL\optimize_model.hdev; Inserire in read_dl_model il file del modello NON OTTIMIZZATO e lanciare lo script; Salvare il DLModelHandleConverted.
Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente.