আমি সম্প্রতি জুড়ে এসেছিল tf.nn.sparse_softmax_cross_entropy_with_logits এবং আমি চিন্তা করতে পারে না কি পার্থক্য সাথে তুলনা করা হয় tf.nn.softmax_cross_entropy_with_logits ।
শুধু পার্থক্য প্রশিক্ষণ ভেক্টর এটা কি y
হতে হবে এক-গরম এনকোডেড যখন ব্যবহার sparse_softmax_cross_entropy_with_logits
?
এপিআই পড়ছি, আমি তুলনায় অন্য কোনও পার্থক্য খুঁজে পাইনি softmax_cross_entropy_with_logits
। তবে কেন আমাদের তখন অতিরিক্ত ফাংশন দরকার?
এটি যদি এক-হট এনকোডড প্রশিক্ষণ ডেটা / ভেক্টরগুলির সাথে সরবরাহ করা হয় তবে softmax_cross_entropy_with_logits
একই ফলাফলগুলি তৈরি করা উচিত নয় sparse_softmax_cross_entropy_with_logits
?