Les données sont essentielles aux modèles de machine learning, mais collecter les bonnes ne suffit pas. Vous devez également vous assurer de mettre en place les processus adéquats pour nettoyer, analyser et transformer ces données si nécessaire, pour que les modèles puissent les exploiter pleinement. Dans ce module, nous verrons comment entraîner un modèle avec des ensembles de données volumineux grâce à tf.data, travailler avec des fichiers en mémoire et préparer les données pour l'entraînement. Pour terminer, nous évoquerons les représentations vectorielles continues et le scaling des données effectué à l'aide de couches de prétraitement tf.keras.