À propos de ce cours

212,183 consultations récentes
Certificat partageable
Obtenez un Certificat lorsque vous terminez
100 % en ligne
Commencez dès maintenant et apprenez aux horaires qui vous conviennent.
Dates limites flexibles
Réinitialisez les dates limites selon votre disponibilité.
Niveau intermédiaire
Approx. 24 heures pour terminer
Anglais

Compétences que vous acquerrez

Word2vecParts-of-Speech TaggingN-gram Language ModelsAutocorrect
Certificat partageable
Obtenez un Certificat lorsque vous terminez
100 % en ligne
Commencez dès maintenant et apprenez aux horaires qui vous conviennent.
Dates limites flexibles
Réinitialisez les dates limites selon votre disponibilité.
Niveau intermédiaire
Approx. 24 heures pour terminer
Anglais

Offert par

Placeholder

deeplearning.ai

Programme du cours : ce que vous apprendrez dans ce cours

Évaluation du contenuThumbs Up91%(2,466 notes)Info
Semaine
1

Semaine 1

6 heures pour terminer

Autocorrect

6 heures pour terminer
9 vidéos (Total 27 min), 2 lectures, 1 quiz
9 vidéos
Overview1 min
Autocorrect2 min
Building the model3 min
Building the model II2 min
Minimum edit distance2 min
Minimum edit distance algorithm5 min
Minimum edit distance algorithm II3 min
Minimum edit distance algorithm III2 min
2 lectures
Connect with your mentors and fellow learners on Slack!10 min
How to Refresh your Workspace10 min
Semaine
2

Semaine 2

4 heures pour terminer

Part of Speech Tagging and Hidden Markov Models

4 heures pour terminer
11 vidéos (Total 38 min)
11 vidéos
Markov Chains3 min
Markov Chains and POS Tags4 min
Hidden Markov Models3 min
Calculating Probabilities3 min
Populating the Transition Matrix4 min
Populating the Emission Matrix2 min
The Viterbi Algorithm3 min
Viterbi: Initialization2 min
Viterbi: Forward Pass2 min
Viterbi: Backward Pass5 min
Semaine
3

Semaine 3

7 heures pour terminer

Autocomplete and Language Models

7 heures pour terminer
9 vidéos (Total 50 min)
9 vidéos
N-grams and Probabilities7 min
Sequence Probabilities5 min
Starting and Ending Sentences8 min
The N-gram Language Model6 min
Language Model Evaluation6 min
Out of Vocabulary Words4 min
Smoothing6 min
Week Summary1 min
Semaine
4

Semaine 4

7 heures pour terminer

Word embeddings with neural networks

7 heures pour terminer
20 vidéos (Total 65 min), 1 lecture, 1 quiz
20 vidéos
Basic Word Representations3 min
Word Embeddings3 min
How to Create Word Embeddings3 min
Word Embedding Methods3 min
Continuous Bag-of-Words Model3 min
Cleaning and Tokenization4 min
Sliding Window of Words in Python3 min
Transforming Words into Vectors2 min
Architecture of the CBOW Model3 min
Architecture of the CBOW Model: Dimensions3 min
Architecture of the CBOW Model: Dimensions 22 min
Architecture of the CBOW Model: Activation Functions4 min
Training a CBOW Model: Cost Function4 min
Training a CBOW Model: Forward Propagation3 min
Training a CBOW Model: Backpropagation and Gradient Descent4 min
Extracting Word Embedding Vectors2 min
Evaluating Word Embeddings: Intrinsic Evaluation3 min
Evaluating Word Embeddings: Extrinsic Evaluation2 min
Conclusion2 min
1 lecture
Acknowledgments10 min

Avis

Meilleurs avis pour NATURAL LANGUAGE PROCESSING WITH PROBABILISTIC MODELS

Voir tous les avis

À propos du Spécialisation Traitement automatique du langage naturel

Traitement automatique du langage naturel

Foire Aux Questions

D'autres questions ? Visitez le Centre d'Aide pour les Etudiants.