প্রশ্ন ট্যাগ «deep-learning»

ডিপ লার্নিং মেশিন লার্নিংয়ের একটি ক্ষেত্র যার লক্ষ্য "গভীর" (অনেক স্তর সমন্বিত) বিশেষ নিউরাল নেটওয়ার্ক আর্কিটেকচার ব্যবহার করে জটিল ফাংশনগুলি শেখা। এই ট্যাগটি গভীর শিক্ষার আর্কিটেকচার বাস্তবায়ন সম্পর্কিত প্রশ্নের জন্য ব্যবহার করা উচিত। সাধারণ মেশিন লার্নিং প্রশ্নগুলিতে "মেশিন লার্নিং" ট্যাগ করা উচিত। প্রাসঙ্গিক সফ্টওয়্যার লাইব্রেরির জন্য একটি ট্যাগ অন্তর্ভুক্ত (যেমন, "কেরাস", "টেনসরফ্লো", "পাইটরঞ্চ", "ফাস্ট.ইই" এবং ইত্যাদি) সহায়ক।

13
স্নায়ুবহুল নেটওয়ার্কগুলির প্রশিক্ষণ দেওয়ার সময় এপোক বনাম Iteration
মাল্টি-লেয়ার পার্সেপট্রন প্রশিক্ষণ দেওয়ার সময় যুগ এবং পুনরাবৃত্তির মধ্যে পার্থক্য কী ?

3
কেরাস এলএসটিএম বোঝা
আমি এলএসটিএম সম্পর্কে আমার বোঝার পুনর্মিলনের চেষ্টা করছি এবং কেরাসে প্রয়োগ করা ক্রিস্টোফার ওলা এই পোস্টটিতে এখানে উল্লেখ করেছি । আমি কেরাস টিউটোরিয়ালের জন্য জেসন ব্রাউনলি দ্বারা লেখা ব্লগটি অনুসরণ করছি । আমি যা সম্পর্কে প্রধানত বিভ্রান্ত তা হ'ল, ডেটা সিরিজগুলিতে পুনরায় আকার দেওয়া [samples, time steps, features]এবং, রাষ্ট্রীয় এলএসটিএম …

15
Tf.nn.max_pool তে সেন্সরফ্লোতে 'Same' এবং 'VALID' প্যাডিংয়ের মধ্যে পার্থক্য কী?
'একই' এবং এ 'বৈধ' প্যাডিং মধ্যে পার্থক্য কি tf.nn.max_poolএর tensorflow? আমার মতে, 'ভাল্ড' এর অর্থ যখন আমরা সর্বোচ্চ পুল করব তখন প্রান্তগুলির বাইরে শূন্য প্যাডিং থাকবে না। মতে গভীর শেখার জন্য সংবর্তন গাণিতিক একটি নির্দেশিকা , এটা বলছেন যে, পুকুর অপারেটর কোন প্যাডিং থাকবে অর্থাত শুধু ব্যবহার 'বৈধ' tensorflow। তবে …

2
কেরাস ইনপুট ব্যাখ্যা: ইনপুট_শ্যাপ, ইউনিট, ব্যাচ_ আকার, ম্লান ইত্যাদি
কোনো Keras স্তর (জন্য Layerবর্গ), করতে পারেন কেউ কিভাবে ব্যাখ্যা মধ্যে পার্থক্য বুঝতে পারা input_shape, units, dim, ইত্যাদি? উদাহরণস্বরূপ ডক বলছে unitsএকটি স্তরের আউটপুট আকার নির্দিষ্ট করুন। নীচের নিউরাল নেট এর ছবিতে hidden layer14 টি ইউনিট রয়েছে। এটি কি সরাসরি অবজেক্টের unitsবৈশিষ্ট্যে অনুবাদ করে Layer? বা unitsকেরাসে গোপন স্তরের প্রতিটি …

11
টেনসরফ্লোতে লগইট শব্দের অর্থ কী?
নিম্নলিখিত টেনসরফ্লো ফাংশনে, আমাদের অবশ্যই চূড়ান্ত স্তরটিতে কৃত্রিম নিউরনের সক্রিয়করণকে খাওয়াতে হবে। যে আমি বুঝতে। তবে বুঝতে পারছি না কেন একে লজিট বলা হয়? এটি কি গাণিতিক কাজ নয়? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels = target_output )

3
কোনও যন্ত্র লার্নিং মডেলের জন্য "ক্ষতি" এবং "নির্ভুলতা" কীভাবে ব্যাখ্যা করবেন
আমি যখন থিয়ানো বা টেনসরফ্লো দিয়ে আমার নিউরাল নেটওয়ার্ককে প্রশিক্ষণ দিয়েছি তখন তারা প্রতি যুগে "ক্ষতি" নামে একটি পরিবর্তনশীল প্রতিবেদন করবে। আমি এই পরিবর্তনশীল কীভাবে ব্যাখ্যা করব? উচ্চ ক্ষতির চেয়ে ভাল বা খারাপ, বা এটি আমার নিউরাল নেটওয়ার্কের চূড়ান্ত কর্মক্ষমতা (যথার্থতা) এর অর্থ কী?

5
পাইটর্চে প্রশিক্ষিত মডেলটি সংরক্ষণের সর্বোত্তম উপায়?
আমি পাইটর্চে প্রশিক্ষিত একটি মডেল সংরক্ষণের বিকল্প উপায়গুলি সন্ধান করছিলাম। এখন পর্যন্ত আমি দুটি বিকল্প খুঁজে পেয়েছি। torch.save () একটি মডেল এবং সংরক্ষণ করতে torch.load () একটি মডেল লোড করা হয়নি। মডেল.স্টেট_ডিক্ট () একটি প্রশিক্ষিত মডেল এবং মডেল লোড- স্টেট_ডিক্ট () সংরক্ষণ করুন load আমি এই আলোচনায় এসে পৌঁছেছি যেখানে …

11
বাইনারি_ক্রসনট্রপি এবং শ্রেণিবদ্ধ_ক্রস্রসট্রপি কেন একই সমস্যার জন্য বিভিন্ন পারফরম্যান্স দেয়?
আমি বিষয় অনুসারে পাঠ্যকে শ্রেণীবদ্ধ করার জন্য একটি সিএনএন প্রশিক্ষণ দেওয়ার চেষ্টা করছি। আমি যখন বাইনারি ক্রস-এন্ট্রপি ব্যবহার করি আমি ক্লাস্টিকাল ক্রস-এনট্রপি সহ ~ 80% নির্ভুলতা পাই। 50% নির্ভুলতা পাই। আমি কেন বুঝতে পারছি না। এটি একটি মাল্টিক্লাস সমস্যা, এর অর্থ এই নয় যে আমাকে শ্রেণীবদ্ধ ক্রস-এনট্রপি ব্যবহার করতে হবে …

8
Tf.nn.e এম্বেডিং_লুকআপ ফাংশনটি কী করে?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) আমি এই ফাংশনটির কর্তব্য বুঝতে পারি না। এটি কি দেখার টেবিলের মতো? প্রতিটি আইডির সাথে সম্পর্কিত প্যারামিটারগুলি ফিরিয়ে আনার অর্থ কী? উদাহরণস্বরূপ, skip-gramআমরা যদি মডেলটি ব্যবহার করি tf.nn.embedding_lookup(embeddings, train_inputs), তবে প্রতিটিটির জন্য train_inputএটি যথাযথ এম্বেডিং খুঁজে পাবে?

10
কেরাস, প্রতিটি স্তরের আউটপুট কীভাবে পাবেন?
আমি সিএনএন এর সাথে বাইনারি শ্রেণিবদ্ধকরণের মডেলটি প্রশিক্ষণ পেয়েছি এবং এখানে আমার কোড রয়েছে model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) …

12
ব্যাকপ্রপাগেশন নিউরাল নেটওয়ার্কে কেন একটি ননলাইনার অ্যাক্টিভেশন ফাংশন ব্যবহার করা উচিত?
আমি নিউরাল নেটওয়ার্কগুলিতে কিছু জিনিস পড়ছি এবং আমি একটি একক স্তর নিউরাল নেটওয়ার্কের সাধারণ নীতিটি বুঝতে পারি। আমি অ্যাডিশনাল স্তরগুলির প্রয়োজনীয়তাটি বুঝতে পারি, তবে কেন ননলাইনার অ্যাক্টিভেশন ফাংশন ব্যবহার করা হয়? এই প্রশ্নটির পরে এই প্রশ্নটি অনুসরণ করা হয়: ব্যাকপ্রসারণের জন্য ব্যবহৃত অ্যাক্টিভেশন ফাংশনের ডেরিভেটিভ কী?

4
কনভোলশনাল নিউরাল নেটওয়ার্কগুলিতে 1D, 2D এবং 3 ডি কনভোলিউশনগুলির অন্তর্নিহিত বোঝা
উদাহরণস্বরূপ ব্যবহারের মাধ্যমে প্রত্যেকে কীভাবে কনভ্যুশনাল নিউরাল নেটওয়ার্কগুলিতে (গভীর শিক্ষার ক্ষেত্রে) 1 ডি, 2 ডি এবং 3 ডি কনভোলিউশনের মধ্যে পার্থক্যটি স্পষ্টভাবে ব্যাখ্যা করতে পারেন?


2
আমাদের পাইটর্চে শূন্য_গ্রাড () কেন কল করতে হবে?
zero_grad()প্রশিক্ষণের সময় পদ্ধতিটি কল করা প্রয়োজন। তবে ডকুমেন্টেশন খুব বেশি সহায়ক নয় | zero_grad(self) | Sets gradients of all model parameters to zero. আমাদের কেন এই পদ্ধতিটি কল করার দরকার আছে?

2
একের কাছে অনেকগুলি এবং কেরাসের অনেকের কাছে অনেকগুলি LSTM উদাহরণ
আমি এলএসটিএম বুঝতে এবং কীভাবে কেরাস দিয়ে তাদের তৈরি করব তা বোঝার চেষ্টা করি। আমি জানতে পেরেছি যে, আরএনএন চালানোর জন্য মূলত 4 টি মোড রয়েছে (ছবিতে 4 জন সঠিক) চিত্রের উত্স: আন্দ্রেজ করপ্যাথি এখন আমি আশ্চর্য হয়েছি যে কেরাসে তাদের প্রত্যেকের জন্য একটি নমনীয় কোড স্নিপেট কেমন হবে। তাই …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.