টেনসরফ্লু ওয়েবসাইটের ডিপ এমএনআইএসটি টিউটোরিয়াল-এর উপর contrib.learn
ভিত্তি করে লাইব্রেরির সাথে এটি করার জন্য আরেকটি বিকল্প । প্রথমত, ধরে নিই যে আপনি প্রাসঙ্গিক লাইব্রেরিগুলি (যেমন ) আমদানি করেছেন , আপনি একটি পৃথক পদ্ধতিতে কোনও নেটওয়ার্ককে সংজ্ঞায়িত করতে পারেন:import tensorflow.contrib.layers as layers
def easier_network(x, reg):
""" A network based on tf.contrib.learn, with input `x`. """
with tf.variable_scope('EasyNet'):
out = layers.flatten(x)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=10,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = None)
return out
তারপরে, একটি প্রধান পদ্ধতিতে, আপনি নিম্নলিখিত কোড স্নিপেট ব্যবহার করতে পারেন:
def main(_):
mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
y_conv = easier_network(x, FLAGS.regu)
weights = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, 'EasyNet')
print("")
for w in weights:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
reg_ws = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES, 'EasyNet')
for w in reg_ws:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
loss_fn = cross_entropy + tf.reduce_sum(reg_ws)
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss_fn)
এটি কাজ করার জন্য আপনাকে পূর্বের সাথে লিঙ্কিত এমএনআইএসটি টিউটোরিয়ালটি অনুসরণ করতে হবে এবং প্রাসঙ্গিক গ্রন্থাগারগুলি আমদানি করতে হবে, তবে টেনসরফ্লো শেখার জন্য এটি একটি দুর্দান্ত অনুশীলন এবং কীভাবে নিয়ন্ত্রণ আউটপুটকে প্রভাবিত করে তা সহজেই বোঝা যায়। আপনি যদি একটি যুক্তি হিসাবে নিয়মিতকরণ প্রয়োগ করেন, আপনি নিম্নলিখিত দেখতে পারেন:
- EasyNet/fully_connected/weights:0 shape:[784, 200] size:156800
- EasyNet/fully_connected/biases:0 shape:[200] size:200
- EasyNet/fully_connected_1/weights:0 shape:[200, 200] size:40000
- EasyNet/fully_connected_1/biases:0 shape:[200] size:200
- EasyNet/fully_connected_2/weights:0 shape:[200, 10] size:2000
- EasyNet/fully_connected_2/biases:0 shape:[10] size:10
- EasyNet/fully_connected/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_1/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_2/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
লক্ষ্য করুন যে নিয়মিতকরণের অংশটি উপলব্ধ আইটেমগুলির উপর ভিত্তি করে আপনাকে তিনটি আইটেম দেয়।
0, 0.0001, 0.01 এবং 1.0 এর নিয়মিতকরণের সাথে, আমি উচ্চ নিয়মিতকরণের শর্তগুলির বিপদগুলি দেখিয়ে যথাক্রমে 0.9468, 0.9476, 0.9183 এবং 0.1135 এর পরীক্ষার যথার্থ মান পেয়েছি।
S = tf.get_variable(name='S', regularizer=tf.contrib.layers.l2_regularizer )
?