Deep Learning Halcon

Da qualiwiki.

Deep Learning livello PRO

Ottimizzazione Modello


Creando una rete che usa come device una scheda video con TensorRT il processo di apply model (caricamento rete in vram) potrebbe essere lento.

Il problema è risolvibile in 2 modi:

1) Ottimizzare il livello da Deep Learning Tool:

- Sulla pagina "Evaluation" nella sezione "Inference and evaluation settings" impostare come device la GPU con TensorRt;
- Rieseguire l'evaluation ed esportare il modello dalla pagina "Export".

2) Ottimizzare il modello tramite Halcon:

- Aprire il seguente script: \\QVSERVER\__Projects\DEEP LEARNING\HalconDL\optimize_model.hdev;
- Inserire in read_dl_model il file del modello NON OTTIMIZZATO e lanciare lo script;
- Salvare il DLModelHandleConverted.

Il modello viene ottimizzato per il device che viene utilizzato in quel momento, per esempio un modello ottimizzato su pc di laboratorio non sarà ottimizzato per il pc del cliente.

Se si usa un modello ottimizzato per TensorRT bisogna usare un device che abbia a sua volta TensorRT se non da errore.