Heim > Artikel > Backend-Entwicklung > Informationen zur Funktion tf.train.batch in Tensorflow
In diesem Artikel wird hauptsächlich die Verwendung der Funktion tf.train.batch in Tensorflow vorgestellt. Jetzt werde ich sie mit Ihnen teilen und Ihnen eine Referenz geben. Schauen wir mal vorbei
Ich habe in den letzten zwei Tagen auf die Warteschlange zum Lesen von Daten in Tensorflow geschaut, um ehrlich zu sein, es ist wirklich schwer zu verstehen. Vielleicht habe ich vorher keine Erfahrung in diesem Bereich. Ich habe Theano zuerst verwendet und alles selbst geschrieben. Nach diesen zwei Tagen der Durchsicht von Dokumenten und zugehörigen Informationen habe ich mich auch mit jüngeren Kommilitonen in China beraten. Ich habe heute ein kleines Gefühl. Vereinfacht ausgedrückt liest das Berechnungsdiagramm Daten aus einer Pipeline. Die Eingabepipeline verwendet eine vorgefertigte Methode, und das Gleiche gilt für das Lesen. Um sicherzustellen, dass das Lesen von Daten aus einer Pipe bei Verwendung mehrerer Threads nicht chaotisch wird, sind beim Lesen zu diesem Zeitpunkt Vorgänge im Zusammenhang mit der Thread-Verwaltung erforderlich. Heute habe ich im Labor einen einfachen Vorgang durchgeführt, der darin bestand, bestellte Daten einzugeben und zu sehen, ob sie bestellt waren, also habe ich den Code direkt eingegeben:
import tensorflow as tf import numpy as np def generate_data(): num = 25 label = np.asarray(range(0, num)) images = np.random.random([num, 5, 5, 3]) print('label size :{}, image size {}'.format(label.shape, images.shape)) return label, images def get_batch_data(): label, images = generate_data() images = tf.cast(images, tf.float32) label = tf.cast(label, tf.int32) input_queue = tf.train.slice_input_producer([images, label], shuffle=False) image_batch, label_batch = tf.train.batch(input_queue, batch_size=10, num_threads=1, capacity=64) return image_batch, label_batch image_batch, label_batch = get_batch_data() with tf.Session() as sess: coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(sess, coord) i = 0 try: while not coord.should_stop(): image_batch_v, label_batch_v = sess.run([image_batch, label_batch]) i += 1 for j in range(10): print(image_batch_v.shape, label_batch_v[j]) except tf.errors.OutOfRangeError: print("done") finally: coord.request_stop() coord.join(threads)
Denken Sie an die Methode „slice_input_producer“, die standardmäßig Shuffle erfordert.
Außerdem möchte ich diesen Code kommentieren
1: Es gibt einen Parameter „num_epochs“ in „slice_input_producer“, der steuert, wie viele Epochen die „slice_input_producer“-Methode funktionieren würde Wenn die Methode die angegebenen Epochen ausführt, würde sie den OutOfRangeRrror melden.
2: Die Ausgabe dieser Methode ist ein einzelnes Bild, das wir bearbeiten könnten B. ein einzelnes Bild mit der Tensorflow-API, z. B. Normalisierung, Zuschneiden usw., dann wird dieses einzelne Bild in die Batch-Methode eingespeist, ein Stapel von Bildern zum Training oder Testen würde empfangen werden.
tf Der Unterschied zwischen .train.batch und tf.train.shuffle_batch
tf.train.batch([example, label], batch_size=batch_size, Capacity=capacity): [example, label ] stellt die Probe und das Probenetikett dar, bei denen es sich um eine Probe und ein Probenetikett handeln kann, und „batch_size“ ist die Anzahl der Proben in einem zurückgegebenen Batch-Probensatz. Kapazität ist die Kapazität in der Warteschlange. Dies wird hauptsächlich in einem Batch zusammengefasst
tf.train.shuffle_batch([example, label], batch_size=batch_size, Capacity=capacity, min_after_dequeue) der Reihe nach. Die Parameter haben hier die gleiche Bedeutung wie oben. Der Unterschied ist der Parameter min_after_dequeue. Sie müssen sicherstellen, dass dieser Parameter kleiner als der Wert des Kapazitätsparameters ist, sonst tritt ein Fehler auf. Dies bedeutet, dass ein Stapel in ungeordneter Reihenfolge ausgegeben wird, wenn die Elemente in der Warteschlange größer sind. Mit anderen Worten, das Ausgabeergebnis dieser Funktion ist ein Stapel von Proben, die nicht in der richtigen Reihenfolge, sondern in der falschen Reihenfolge angeordnet sind.
Die oben genannten Funktionsrückgabewerte sind alle Proben und Probenetiketten einer Charge, aber eines ist in Ordnung und das andere ist zufällig
Verwandte Empfehlungen:
tensorflow So verwenden Sie Flags zum Definieren von Befehlszeilenparametern
Verwendung von Tensorflow's Saver
Das obige ist der detaillierte Inhalt vonInformationen zur Funktion tf.train.batch in Tensorflow. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!