আমি এর tensorflow
সমতুল্য করার চেষ্টা করছি torch.transforms.Resize(TRAIN_IMAGE_SIZE)
, যা ক্ষুদ্রতম চিত্রের মাত্রাকে আকার দেয় TRAIN_IMAGE_SIZE
। এটার মতো কিছু
def transforms(filename):
parts = tf.strings.split(filename, '/')
label = parts[-2]
image = tf.io.read_file(filename)
image = tf.image.decode_jpeg(image)
image = tf.image.convert_image_dtype(image, tf.float32)
# this doesn't work with Dataset.map() because image.shape=(None,None,3) from Dataset.map()
image = largest_sq_crop(image)
image = tf.image.resize(image, (256,256))
return image, label
list_ds = tf.data.Dataset.list_files('{}/*/*'.format(DATASET_PATH))
images_ds = list_ds.map(transforms).batch(4)
সহজ উত্তরটি এখানে: টেনসরফ্লো: চিত্রের বৃহত্তম কেন্দ্রীয় বর্গক্ষেত্রের অঞ্চল ক্রপ করুন
তবে আমি যখন এই পদ্ধতিটি ব্যবহার করি তখন আমি ভিতরে থেকে tf.data.Dataset.map(transforms)
আসি । আমি যখন এটিকে সাধারণভাবে কল করি তখন পদ্ধতিটি ঠিকঠাক কাজ করে।shape=(None,None,3)
largest_sq_crop(image)
largest_sq_crop
?
EagerTensors
উপলব্ধ নয় areDataset.map()
এখানে কি কাজ আছে?