Présentation de la vision par ordinateur avec TensorFlow avis
Chargement...
Aucun résultat.

Mettez en pratique vos compétences dans la console Google Cloud

Présentation de la vision par ordinateur avec TensorFlow avis

11495 avis

Omer M. · Examiné il y a plus d'un an

Ahmad B. · Examiné il y a plus d'un an

Maura A. · Examiné il y a plus d'un an

Felix S. · Examiné il y a plus d'un an

update course to support new tensorflow version, my code successfully : # Import and configure logging import logging import google.cloud.logging as cloud_logging from google.cloud.logging.handlers import CloudLoggingHandler from google.cloud.logging_v2.handlers import setup_logging # Setup Google Cloud Logging cloud_logger = logging.getLogger('cloudLogger') cloud_logger.setLevel(logging.INFO) client = cloud_logging.Client() cloud_logger.addHandler(CloudLoggingHandler(client)) cloud_logger.addHandler(logging.StreamHandler()) # Import TensorFlow and other required libraries import tensorflow as tf import tensorflow_datasets as tfds import numpy as np # Define, load and configure data (ds_train, ds_test), info = tfds.load('fashion_mnist', split=['train', 'test'], with_info=True, as_supervised=True) # Values before normalization image_batch, labels_batch = next(iter(ds_train)) print("Before normalization ->", np.min(image_batch[0]), np.max(image_batch[0])) # Define batch size BATCH_SIZE = 32 # Normalize and batch process the dataset ds_train = ds_train.map(lambda x, y: (tf.cast(x, tf.float32) / 255.0, y)).batch(BATCH_SIZE) ds_test = ds_test.map(lambda x, y: (tf.cast(x, tf.float32) / 255.0, y)).batch(BATCH_SIZE) # Examine the min and max values of the batch after normalization image_batch, labels_batch = next(iter(ds_train)) print("After normalization ->", np.min(image_batch[0]), np.max(image_batch[0])) # Define the model model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28, 1)), tf.keras.layers.Dense(64, activation='relu'), tf.keras.layers.Dense(10, activation='softmax') ]) # Compile the model model.compile(optimizer=tf.keras.optimizers.Adam(), loss=tf.keras.losses.SparseCategoricalCrossentropy(), metrics=[tf.keras.metrics.SparseCategoricalAccuracy()]) # Train the model model.fit(ds_train, epochs=5) # Evaluate the model evaluation = model.evaluate(ds_test) cloud_logger.info(f"Model evaluation: {evaluation}") # Save the entire model to a Keras V3 file model.save('model.keras') # Save the entire model to a HDF5 file model.save('model.h5') # Recreate the exact same model from the Keras V3 file new_model_keras = tf.keras.models.load_model('model.keras') # Summary of loaded Keras V3 model new_model_keras.summary() # Recreate the exact same model from the HDF5 file new_model_h5 = tf.keras.models.load_model('model.h5') # Summary of loaded HDF5 model new_model_h5.summary()

Asep h. · Examiné il y a plus d'un an

Oliver G. · Examiné il y a plus d'un an

Swapnil-Kapile D. · Examiné il y a plus d'un an

Asep h. · Examiné il y a plus d'un an

Oliver G. · Examiné il y a plus d'un an

Galah S. · Examiné il y a plus d'un an

Fauzan F. · Examiné il y a plus d'un an

Nikhil G. · Examiné il y a plus d'un an

URL not running

Swapnil-Kapile D. · Examiné il y a plus d'un an

not working

Gautham K. · Examiné il y a plus d'un an

andy musly afryanto . · Examiné il y a plus d'un an

andy musly afryanto . · Examiné il y a plus d'un an

ali i. · Examiné il y a plus d'un an

MIFTACHUL B. · Examiné il y a plus d'un an

I must downgrade my protobuf to 3.20.0 and I cant save my model in h5. Please test these code again and update it with the most recent keras and protobuf. Thank you

Haris A. · Examiné il y a plus d'un an

Agung S. · Examiné il y a plus d'un an

Omer M. · Examiné il y a plus d'un an

Kamtina M. · Examiné il y a plus d'un an

URL not running

Swapnil-Kapile D. · Examiné il y a plus d'un an

I Kadek Virgio Adrian K. · Examiné il y a plus d'un an

Agung S. · Examiné il y a plus d'un an

Nous ne pouvons pas certifier que les avis publiés proviennent de consommateurs qui ont acheté ou utilisé les produits. Les avis ne sont pas vérifiés par Google.