এই স্পষ্টকরণটি কেবল যুক্ত করুন যাতে যে কেউ এগুলি খুব বেশি নিচে স্ক্রোল করে তা কমপক্ষে এটি সঠিক হয়ে উঠতে পারে, যেহেতু অনেকগুলি ভুল উত্তরকে উর্ধ্বে দেওয়া হয়েছে।
ডায়ানশেংয়ের উত্তর এবং জ্যাকজেজের উত্তর এটি সঠিকভাবে পেয়েছে । শীতল শাহ পোস্ট করা
একটি নতুন উত্তর একটি আরও ভাল এবং আরও সম্পূর্ণ উত্তর।
হ্যাঁ, পরিসংখ্যানগুলিতে logit
গাণিতিক ক্রিয়াকলাপ হিসাবে , তবে logit
নিউরাল নেটওয়ার্কগুলির প্রসঙ্গে ব্যবহৃত আলাদা different পরিসংখ্যান logit
এমনকি এখানে কোন ধারণা দেয় না।
আমি কোথাও একটি প্রথাগত সংজ্ঞা পাইনি, তবে logit
মূলত এর অর্থ:
নিউরাল নেটওয়ার্কের শেষ স্তরটি থেকে বেরিয়ে আসা কাঁচা পূর্বাভাস।
1. এটি খুব টেনসর যার উপর আপনি argmax
পূর্বাভাসীকৃত ক্লাসটি পেতে ফাংশনটি প্রয়োগ করেন ।
২. এটি খুব টেনসর যা আপনি softmax
পূর্বাভাসীকৃত ক্লাসগুলির সম্ভাব্যতা অর্জনের জন্য ফাংশনে ফিড দিন ।
এছাড়াও, অফিশিয়াল টেনসরফ্লো ওয়েবসাইটে একটি টিউটোরিয়াল থেকে :
লজিটস স্তর
আমাদের নিউরাল নেটওয়ার্কের চূড়ান্ত স্তর হ'ল লগইট স্তর, যা আমাদের পূর্বাভাসের জন্য কাঁচা মানগুলি ফিরিয়ে দেবে। আমরা লিনিয়ার অ্যাক্টিভেশন (ডিফল্ট) সহ 10 টি নিউরন (প্রতিটি লক্ষ্য শ্রেণীর 0-9) সহ একটি ঘন স্তর তৈরি করি:
logits = tf.layers.dense(inputs=dropout, units=10)
আপনি যদি এখনও বিভ্রান্ত থাকেন তবে পরিস্থিতিটি এরকম:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
যেখানে, predicted_class_index_by_raw
এবং predicted_class_index_by_prob
সমান হবে।
raw_predictions
উপরের কোডটির জন্য অন্য একটি নামlogit
।
হিসাবে কেন logit
... আমি কোন ধারণা আছে। দুঃখিত।
[সম্পাদনা করুন: পদটির পিছনে historicalতিহাসিক প্রেরণার জন্য এই উত্তরটি দেখুন ]]
তুচ্ছ বস্তু
যদিও, আপনি চাইলে, আপনি ফাংশন থেকে বেরিয়ে আসার logit
জন্য পরিসংখ্যান প্রয়োগ করতে পারেন ।probabilities
softmax
একটি নির্দিষ্ট শ্রেণীর সম্ভাব্যতা হয়, তাহলে p
,
তারপর লগ-মতভেদ যে ক্লাসের হয় L = logit(p)
।
এছাড়াও, এই শ্রেণীর সম্ভাবনাটি ফাংশনটি p = sigmoid(L)
ব্যবহার করে পুনরুদ্ধার করা যায় sigmoid
।
লগ-প্রতিক্রিয়া গণনা করার জন্য খুব দরকারী নয়।