Optimize TensorFlow Models For Deployment with TensorRT

4.6
étoiles

59 évaluations

Offert par

3 860 déjà inscrits

Dans ce Projet Guidé gratuit, vous :
1.5 hours
Intermédiaire
Aucun téléchargement requis
Vidéo en écran partagé
Anglais
Ordinateur de bureau uniquement

This is a hands-on, guided project on optimizing your TensorFlow models for inference with NVIDIA's TensorRT. By the end of this 1.5 hour long project, you will be able to optimize Tensorflow models using the TensorFlow integration of NVIDIA's TensorRT (TF-TRT), use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision, and observe how tuning TF-TRT parameters affects performance and inference throughput. Prerequisites: In order to successfully complete this project, you should be competent in Python programming, understand deep learning and what inference is, and have experience building deep learning models in TensorFlow and its Keras API. Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

Conditions

Les compétences que vous développerez

  • Deep Learning

  • NVIDIA TensorRT (TF-TRT)

  • Python Programming

  • Tensorflow

  • keras

Apprendrez étape par étape

Votre enseignant(e) vous guidera étape par étape, grâce à une vidéo en écran partagé sur votre espace de travail :

Comment fonctionnent les Projets Guidés

Votre espace de travail est un bureau cloud situé dans votre navigateur, aucun téléchargement n'est requis.

Votre enseignant(e) vous guide étape par étape dans une vidéo en écran partagé

Enseignant

Avis

Meilleurs avis pour OPTIMIZE TENSORFLOW MODELS FOR DEPLOYMENT WITH TENSORRT

Voir tous les avis

Foire Aux Questions