মাল্টি-লেয়ার পারসেপেট্রন বনাম গভীর নিউরাল নেটওয়ার্ক


16

এটি পরিভাষার প্রশ্ন। কখনও কখনও আমি দেখি লোকেরা গভীর নিউরাল নেটওয়ার্কগুলিকে "মাল্টি-লেয়ার্ড পারসেপ্ট্রনস" হিসাবে উল্লেখ করে, এটি কেন? একটি পেরসেপট্রন, যা আমাকে শেখানো হয়েছিল, এটি একটি একক স্তরের শ্রেণিবদ্ধ (বা রেগ্রসর) বাইনারি থ্রেশহোল্ড আউটপুট সহ ওজন প্রশিক্ষণের নির্দিষ্ট উপায় (ব্যাক-প্রপ নয়) ব্যবহার করে। যদি পেরসেপট্রনের আউটপুট লক্ষ্য আউটপুটটির সাথে মেলে না, আমরা ইনপুট ভেক্টরকে ওজনগুলিতে যুক্ত করতে বা বিয়োগ করতে পারি (পারসেপ্ট্রন কোনও মিথ্যা ধনাত্মক বা মিথ্যা negativeণাত্মক দিয়েছে কিনা তার উপর নির্ভর করে)। এটি বেশ আদিম মেশিন লার্নিং অ্যালগরিদম। প্রশিক্ষণ পদ্ধতিটি কোনও মাল্টি-লেয়ার কেস (কমপক্ষে কোনও পরিবর্তন ছাড়াই নয়) জেনারালাইজ করার জন্য উপস্থিত হয় না। ব্যাকপ্রপের মাধ্যমে একটি গভীর নিউরাল নেটওয়ার্ক প্রশিক্ষণ দেওয়া হয় যা ব্যয় কার্যকারণের গ্রেডিয়েন্টগুলি নেটওয়ার্কের সমস্ত ওজনে ফিরে প্রচার করতে চেইন বিধি ব্যবহার করে।

সুতরাং, প্রশ্ন হল। একটি "মাল্টি-লেয়ার পার্সেপেট্রন" "ডিপ নিউরাল নেটওয়ার্ক" হিসাবে একই জিনিস? যদি তা হয় তবে এই পরিভাষাটি কেন ব্যবহৃত হয়? এটি অযথা বিভ্রান্তিকর বলে মনে হচ্ছে। এছাড়াও, পরিভাষাটি কিছুটা বিনিময়যোগ্য বলে ধরে নেওয়া, আমি সম্পূর্ণভাবে সংযুক্ত স্তরগুলি থেকে গঠিত কোনও ফিড-ফরোয়ার্ড নেটওয়ার্কের কথা উল্লেখ করার সময় "মাল্টি-লেয়ার পার্সেপট্রন" দেখেছি (কোন বিবর্তনীয় স্তর, বা পুনরাবৃত্ত সংযোগ নেই)। এই পরিভাষাটি কতটা বিস্তৃত? উদাহরণস্বরূপ, ইনসেপশন নেট উল্লেখ করার সময় কেউ কি "মাল্টি-লেয়ারড পারসেপ্ট্রন" শব্দটি ব্যবহার করবেন? এনএলপিতে ব্যবহৃত এলএসটিএম মডিউলগুলি ব্যবহার করে একটি পুনরাবৃত্ত নেটওয়ার্ক সম্পর্কে কীভাবে?


1
ডিপ নিউরাল নেটওয়ার্ক = 1 টি লুকানো স্তরযুক্ত নিউরাল নেটওয়ার্ক, এমএলপি এই বিভাগে আসে।
টিম

এটি ঠিক পুনরায় ব্র্যান্ডিং। এমএলপিগুলি 90 এর দশকে হাইপ হয়েছিল এবং এসভিএমগুলি দ্বারা সরবরাহ করা হয়েছিল, তাই 2000 এর দশকে এটিকে আলাদা কিছু বলা দরকার। পরামর্শটি হ'ল ডিএনএনের আরও স্তর রয়েছে তবে এত বড় তাত্পর্য নয় যেমন লে নেট [এমএলপি / সিএনএন] (1998) 2 কনভ্যুশনাল 2 সম্পূর্ণ সংযুক্ত। অ্যালেক্সনেট = ডিএনএন (২০১২) ৫ টি কনভ্যুশনাল এবং ৩ টি সম্পূর্ণ সংযুক্ত।
seanv507

এসভিএমগুলি গ্রেডিয়েন্ট অ্যাসেন্টের উপর ভিত্তি করে, এএনএন গ্রেডিয়েন্ট বংশোদ্ভুতের উপর ভিত্তি করে যাতে তারা সত্যই এএনএন সরবরাহ করে না। এসভিএমগুলি ওভারসোল্ড করা হয়েছিল এবং অতিরিক্ত ব্যবহার করা হয়েছিল কারণ গ্রেডের শিক্ষার্থীরা এএনএন সম্পর্কে কিছুই জানত না। এসভিএম চালানোর জন্য, শিক্ষার্থীরা কেবল আর প্যাকেজগুলি ধরেছিল এবং সম্পন্ন হয়েছিল। তবে এএনএন-এর জন্য একটি সংখ্যাসূচক পদ্ধতির দৃষ্টিকোণ থেকে সেগুলি বোঝার জন্য আপনাকে একটি সম্পূর্ণ সেমিস্টার প্রয়োজন - কোনও ব্যাখ্যামূলক ভাষার দৃষ্টিকোণ নয় (অর্থাত্ একসাথে চড় মারার কোড)।
JoleT

উত্তর:


21

মাল্টি-লেয়ার পার্সেপেট্রন (এমএলপি) কে ডিপ নিউরাল নেটওয়ার্কগুলির (ডিএনএন) একটি উপসেট হিসাবে বিবেচনা করতে পারে, তবে প্রায়শই সাহিত্যে আদান-প্রদানের জন্য ব্যবহৃত হয়।

অনুধাবনকারীদের তাদের শেখার নিয়মের ভিত্তিতে নামকরণ করা অনুমানটি ভুল। শাস্ত্রীয় "পার্সেপেট্রন আপডেট নিয়ম" এটিকে প্রশিক্ষণের জন্য ব্যবহার করা যেতে পারে এমন একটি উপায়। নিউরাল নেটওয়ার্কগুলির প্রাথমিক প্রত্যাখ্যানটি এই কারণেই ছিল কারণ পার্সেপেট্রন আপডেট বিধিটি গ্রেডিয়েন্টগুলি নিখোঁজ এবং বিস্ফোরিত হওয়ার প্রবণতা ছিল, ফলে স্তরটির চেয়ে বেশি নেটওয়ার্কগুলির প্রশিক্ষণ করা অসম্ভব হয়ে পড়েছিল।

প্রশিক্ষণ নেটওয়ার্কগুলিতে পিছনে প্রচারের ফলে তানহ এবং সিগময়েডের মতো বিকল্প স্কোয়াশিং অ্যাক্টিভেশন ফাংশন ব্যবহার করা হয়েছিল ।

সুতরাং, প্রশ্নের উত্তর দিতে,

প্রশ্ন হচ্ছে. একটি "মাল্টি-লেয়ার পার্সেপেট্রন" "ডিপ নিউরাল নেটওয়ার্ক" হিসাবে একই জিনিস?

এমএলপি হ'ল ডিএনএন-এর সাবসেট। যদিও ডিএনএন এর লুপ থাকতে পারে এবং এমএলপি সর্বদা ফিড-ফরোয়ার্ড থাকে, অর্থাৎ,

একটি মাল্টি লেয়ার পারসেসেটারস (এমএলপি) একটি সীমাবদ্ধ অ্যাসাইক্লিক গ্রাফ

কেন এই পরিভাষা ব্যবহার করা হয়?

বিজ্ঞানের সাহিত্যে ব্যবহৃত প্রচুর পরিভাষা সেই সময়ের ট্রেন্ডগুলির সাথে মিলিত হয়েছে এবং ধরে ফেলেছে।

এই পরিভাষাটি কতটা বিস্তৃত? উদাহরণস্বরূপ, ইনসেপশন নেট উল্লেখ করার সময় কেউ কি "মাল্টি-লেয়ারড পারসেপ্ট্রন" শব্দটি ব্যবহার করবেন? এনএলপিতে ব্যবহৃত এলএসটিএম মডিউলগুলি ব্যবহার করে একটি পুনরাবৃত্ত নেটওয়ার্ক সম্পর্কে কীভাবে?

সুতরাং, হ্যাঁ ইনসেপশন, কনভ্যুশনাল নেটওয়ার্ক, রেজনেট ইত্যাদি সমস্ত এমএলপি কারণ সংযোগগুলির মধ্যে কোনও চক্র নেই। এমনকি যদি শর্টকাট সংযোগগুলি স্তরগুলি এড়িয়ে চলে যায়, যতক্ষণ না এটি সামনের দিকে থাকে ততক্ষণ এটিকে মাল্টিলেয়ার পার্সেপেট্রন বলা যেতে পারে। তবে, এলএসটিএম, বা ভ্যানিলা আরএনএন ইত্যাদির চক্র সংযোগ রয়েছে, সুতরাং তাদের এমএলপি বলা যায় না তবে এটি ডিএনএন-এর একটি উপসেট।

এটি আমার জিনিস বোঝা। আমি ভুল হলে আমাকে সংশোধন করুন।

রেফারেন্স লিংক:

/cs/53521/what-is-difference-between-multilayer-perceptron-and-multilayer-neural-network

https://en.wikipedia.org/wiki/Multilayer_perceptron

https://en.wikipedia.org/wiki/Perceptron

http://ml.informatik.uni-freiburg.de/former/_media/teaching/ss10/05_mlps.printer.pdf


1
শুধু আউট কৌতুহল: আমি ভেবেছিলাম লজিস্টিক রিগ্রেশন হয় একটি রিগ্রেশন কৌশল কারণ আপনার ক্লাস 1 সদস্যপদ সম্ভাবনা অনুমান, বর্গ সদস্যপদ পরিবর্তে। এটি আমার কাছে শ্রেণিবিন্যাসের কৌশল বলে মনে হয় না (গবেষক / বিশ্লেষককে লজিস্টিক রিগ্রেশনের উপর ভিত্তি করে শ্রেণিবদ্ধকরণের জন্য সম্ভাবনা কাট-অফের বিষয়ে সিদ্ধান্ত নিতে হবে)।
IWS

@ আইডাব্লুএস আপনি ঠিক বলেছেন এই সাইটের বিভিন্ন ব্যবহারকারী বারবার এই পয়েন্টটি তৈরি করেছেন যে লজিস্টিক রিগ্রেশন (শর্তাধীন) সম্ভাবনা অনুমানের একটি মডেল, শ্রেণিবদ্ধ নয় not উদাহরণস্বরূপ এখানে দেখুন
ডেল্টাভিউ

1
ঠিক করার জন্য প্রতিক্রিয়া সম্পাদনা করা উদাহরণস্বরূপ, "লজিস্টিক রিগ্রেশন" একটি শ্রেণিবদ্ধকরণ কৌশল এবং যদি এটি বলতে হয় তবে "রিগ্রেশন" হিসাবে অভিহিত করা উচিত নয় । @ ডেল্টাআইভি-র ভাগ করা লিঙ্কটি এটিকে খুব স্পষ্ট করে তোলে কেন এটি শ্রেণিবদ্ধ নয় কেন reg
m1cro1ce

8

উত্তম প্রশ্ন: দ্রষ্টব্য যে ডিপ লার্নিংয়ের ক্ষেত্রে সর্বদা পরিসংখ্যানগত পাঠ (যেমন প্রচুর হাইপ রয়েছে) হিসাবে সুস্পষ্টভাবে সংজ্ঞায়িত হয় না, সুতরাং গণিতের মতো সংজ্ঞা যেমন খুঁজে পাওয়ার আশা করবেন না। যাইহোক, মাল্টিলেয়ার পার্সেপট্রন হ'ল একটি নির্দিষ্ট ফিড-ফরোয়ার্ড নিউরাল নেটওয়ার্ক আর্কিটেকচার, যেখানে আপনি একাধিক সম্পূর্ণ-সংযুক্ত স্তরগুলি সজ্জিত করেন (সুতরাং কোনও আবদ্ধ স্তর নেই) যেখানে লুকানো ইউনিটের সক্রিয়করণ ফাংশনগুলি প্রায়শই সিগময়েড বা তান থাকে। আউটপুট স্তরের নোডগুলিতে সাধারণত সফটম্যাক্স অ্যাক্টিভেশন ফাংশন থাকে (শ্রেণিবিন্যাসের জন্য) বা লিনিয়ার অ্যাক্টিভেশন ফাংশন (রিগ্রেশনের জন্য)। টিপিক্যাল এমএলপি আর্কিটেকচারগুলি "গভীর" নয়, অর্থাত্ আমাদের অনেকগুলি গোপন স্তর নেই। আপনার সাধারণত বলুন, 1 থেকে 5 টি গোপন স্তর রয়েছে। এই নিউরাল নেটওয়ার্কগুলি '80 সালে সাধারণ ছিল,

এখন, ডিপ নিউরাল নেটওয়ার্কের সাথে আমাদের বোঝা যাচ্ছে এমন একটি নেটওয়ার্ক যার অনেক স্তর রয়েছে (19, 22, 152, ... এমনকি > 1200 , যদিও এটি স্বীকার করা অত্যন্ত চরম)। মনে রাখবেন যে

  • আমরা নেটওয়ার্কের আর্কিটেকচার নির্দিষ্ট করে নেই, তাই এটি ফিড-ফরোয়ার্ড, পুনরাবৃত্তি ইত্যাদি হতে পারে could
  • আমরা সংযোগগুলির প্রকৃতিটি নির্দিষ্ট করে নেই, তাই আমরা সম্পূর্ণরূপে সংযুক্ত স্তরগুলি, সংমিশ্রণ স্তরগুলি, পুনরাবৃত্তি ইত্যাদি করতে পারি could
  • "অনেক" স্তর বোঝা যাচ্ছে যে নেতারা হয় না একটি কঠোর সংজ্ঞা।

32×32+ +32×10=134411584ওজন। এটি আজকের মান অনুসারে একটি ক্ষুদ্র এনএন। যাইহোক, আপনি যখন এটি যথাযথ বৃহত ডেটা সেটটিতে প্রশিক্ষণ নিতে যান, আপনি দেখতে পাবেন যে রূপান্তর হারটি খুব কমিয়েছে। এটি কেবলমাত্র বৃহত্তর ওজনের সংখ্যার কারণে নয়, বরং বিলুপ্ত গ্রেডিয়েন্ট সমস্যার কারণে - ব্যাক-প্রসারণ প্রতিটি স্তরগুলিতে বহুগুণ ত্রুটির দ্বারা ক্ষতির ফাংশনের গ্রেডিয়েন্টকে গণনা করে এবং এই ছোট সংখ্যাগুলি আপনার যুক্ত হওয়া আরও স্তরগুলিকে তাত্পর্যপূর্ণভাবে ছোট হয়। সুতরাং, ত্রুটিগুলি আপনার নেটওয়ার্কের নীচে প্রচার করে না (বা খুব ধীরে ধীরে প্রচার করে) এবং ট্রেনিং সেটে ত্রুটিটি ট্রেনিংয়ের যুগের সাথে কমতে শুরু করে।

এবং এটি একটি ছোট নেটওয়ার্ক ছিল - অ্যালেক্সনেট নামে পরিচিত গভীর কনভোলিউশনাল নিউরাল নেটওয়ার্কগুলির 5 টি স্তর ছিল তবে 60 মিলিয়ন ওজন ছিল এবং এটি আজকের মান অনুসারে ছোট বলে বিবেচিত হয়! যখন আপনার অনেক ওজন থাকে, তখন যে কোনও ডেটা সেট "ছোট" - এমনকি ইমেজনেট, শ্রেণিবিন্যাসের জন্য ব্যবহৃত চিত্রগুলির একটি ডেটা সেট, প্রায় "1 মিলিয়ন চিত্র" থাকে, সুতরাং অগভীর নেটওয়ার্কের চেয়ে ওভারফিট করার ঝুঁকি অনেক বেশি।

ডিপ লার্নিংকে এমন সরঞ্জামগুলির সেট হিসাবে বোঝা যায় যা প্রচুর পরিমাণে স্তর এবং ওজন সহ নিউরাল নেটওয়ার্কগুলি প্রশিক্ষণের জন্য ব্যবহার করা হয়, কম সাধারণীকরণের ত্রুটি অর্জন করে। এই কাজটি ছোট নেটওয়ার্কগুলির চেয়ে বেশি চ্যালেঞ্জের জন্ম দেয়। আপনি অবশ্যই একটি গভীর মাল্টিলেয়ার পার্সেপট্রন তৈরি করতে এবং প্রশিক্ষণ দিতে পারেন - তবে (বর্তমানে ডিপ লার্নিং ব্যবহৃত হয় এমন অনেক কাজের জন্য এটি সর্বোত্তম আর্কিটেকচার নয়) আপনি সম্ভবত এমন সরঞ্জামগুলি ব্যবহার করবেন যা নেটওয়ার্কগুলি যখন ব্যবহৃত হত তখন ব্যবহৃত ব্যবহৃত থেকে আলাদা হবে "অগভীর"। উদাহরণস্বরূপ, আপনি রিলু অ্যাক্টিভেশন ইউনিটগুলিকে সিগময়েড বা তানকে পছন্দ করতে পারেন, কারণ তারা বিলুপ্ত গ্রেডিয়েন্ট সমস্যা নরম করে।


M1cro1ce এর পূর্ববর্তী উত্তরটি বলেছে যে একটি রূপান্তর-জাল (যেমন শুরু হিসাবে) একটি এমএলপি হিসাবেও শ্রেণিবদ্ধ করা যেতে পারে, যেখানে আপনি উল্লেখ করেছেন যে কোনও এমএলপিতে কনজোলশনাল স্তর থাকতে পারে না (এবং মনে হয় আপনি বোঝাচ্ছেন যে অ্যাক্টিভেশন ফাংশনগুলির পছন্দটিও পছন্দ করে এমএলপি বা বলা যেতে পারে কি তা প্রভাবিত করে?)। সাহিত্যে (বা এমএল সম্প্রদায়ের মধ্যে) এমএলপি ঠিক কী বোঝায় এবং এর অর্থ কী না সে সম্পর্কে কোনও চুক্তি রয়েছে? যদি কেউ আমাকে বলেন, "আমি চাই আপনি টাস্ক এক্সের জন্য একটি এমএলপি তৈরি করুন" আমি কী করতে সীমাবদ্ধ?
enumaris

@ আনুমারিস আপনি কিছু করার জন্য আইন দ্বারা সীমাবদ্ধ নন। গতবার আমি যাচাই করেছিলাম, তখনও সিএনএন তৈরি করা এবং এটি এমএলপি বলা আইনী ছিল। আমি অবশ্যই এই জাতীয় একটি কাগজ / পোস্টার / যাই হোক না কেন প্রত্যাখ্যান করব তবে তা আমি এবং আমি পুরো ডিএল সম্প্রদায়ের পক্ষে কথা বলতে পারি না যা পরিভাষার কঠোর ব্যবহারের জন্য একেবারেই বিখ্যাত নয় isn't যাইহোক, আমার সংজ্ঞা: পুরোপুরি সংযুক্ত স্তরযুক্ত ফিড-ফরোয়ার্ড নিউরাল নেটওয়ার্ক এবং কমপক্ষে কিছু ননলাইনার অ্যাক্টিভেশন ফাংশন (অন্যথায়, যত স্তর থাকুক না কেন, এটি সর্বদা একটি একক স্তরের লিনিয়ার নেটওয়ার্কের সমতুল্য) আপনার সন্ধানের মতই একই .. ।
ডেল্টাভিউ

... উইকিপিডিয়া । স্তর বিভাগে লাইনটি নোট করুন "যেহেতু এমএলপিগুলি পুরোপুরি সংযুক্ত রয়েছে [..]"। এটি সিএনএনকে বাতিল করে দেয়। আপনি এই বইটিতে একই সংজ্ঞা (ফিড-ফরোয়ার্ড, পুরোপুরি সংযুক্ত, কমপক্ষে লুকানো স্তরগুলির ননলাইনার অ্যাক্টিভেশন ফাংশন রয়েছে) খুঁজে পেতে পারেন । অ্যাক্টিভেশন ফাংশন সম্পর্কিত, আমি অবশ্যই কিছুই বোঝায় বলে মনে হয় না। আমি কেবল বলেছি যে এমএলপিগুলিতে সাধারণত তানহ বা সিগময়েড অ্যাক্টিভেশন ফাংশন থাকে তবে এটি বাধ্যতামূলক নয়।
ডেল্টাভিউ

আমি এই 2 টির মধ্যে একটি উত্তর স্বীকৃত উত্তর হিসাবে চিহ্নিত করতে চাই, তবে যেহেতু তারা দ্বন্দ্বপূর্ণ উত্তর দেয়, আমি জানতে চাই কোন উত্তরটি সাধারণত সাহিত্যে বা এমএল সম্প্রদায়ের মধ্যে পাওয়া যায়।
enumaris

@ এনুমারিস আপনার প্রশ্নের শিরোনাম হ'ল "মাল্টি-লেয়ার পারসেপেট্রন বনাম ডিপ নিউরাল নেটওয়ার্ক", এবং আপনি যদি জিজ্ঞাসা করেন a "multi-layer perceptron" the same thing as a "deep neural network": এই প্রশ্নের উত্তর উত্তর দেওয়া হয়েছে, আমার এবং এম 1 ক্রো 1 এর উত্তর উভয় ক্ষেত্রেই। এখন আপনি প্রশ্ন জিজ্ঞাসা করছেন "সিএনএনগুলি কি এমএলপির একটি উপসেট?" - স্ট্যাক এক্সচেঞ্জ সাইট একটি নীতি আছে পোস্টের জন্য একটা প্রশ্ন
ডেল্টাভিউ

0

আমি অনেক পোস্ট থেকে যা পড়েছি তা অনুসারে এটি যুক্ত করতে চাই:

ডিএনএন এর মাধ্যমে অনেকগুলি বিভিন্ন আর্কিটেকচার রয়েছে যেমন: এমএলপি (মাল্টি-লেয়ার পারসেপ্ট্রন) এবং সিএনএন (কনভোলিউশনাল নিউরাল নেটওয়ার্ক) ।সেই বিভিন্ন ধরণের সমস্যা সমাধানের জন্য ডিজাইন করা বিভিন্ন ধরণের।

এমএলপিগুলি হ'ল ধ্রুপদী ধরণের এনএন যা এর জন্য ব্যবহৃত হয়:

  • ট্যাবুলার ডেটা-সেটগুলি (ডাটাবেস টেবিলের মতো কলামার ফর্ম্যাটে ডেটা ধারণ করে)।
  • শ্রেণিবদ্ধকরণ / রিগ্রেশন, পূর্বাভাস pbs

এমএলপিগুলি হ'ল এবং সাধারণত আউটপুটগুলিতে রাখার জন্য ম্যাপিংয়ের প্রতি ঝুঁকিতে ব্যবহার করা যেতে পারে।

অন্যান্য মডেল আরও উপযুক্ত কিনা তা নিশ্চিত করার জন্য আপনি তুলনায় বেস লাইন পয়েন্ট হিসাবে ইমেজ ডেটার মতো ইমেজ ডেটা যেমন অন্য বিন্যাসের জন্য চেষ্টা করতে পারেন।

সিএনএনগুলি আউটপুট পরিবর্তনশীলটিতে চিত্রের ডেটা ম্যাপ করার জন্য ডিজাইন করা। এটি এর জন্য ব্যবহৃত হয়:

  • চিত্র ডেটা,
  • শ্রেণিবদ্ধকরণ / রিগ্রেশন পূর্বাভাস pbs,

এটি স্প্যাসিয়াল সম্পর্কযুক্ত ডেটার সাথে ভালভাবে কাজ করে ।

এটি traditionতিহ্যগতভাবে 2D ডেটার জন্য ব্যবহৃত হয় তবে এটি 1D ডেটার জন্য ব্যবহার করা যেতে পারে, সিএনএনগুলি কিছু 1D পিবিএসে শিল্পের অবস্থা অর্জন করে।

কোন ধরণের আর্কিটেকচারটি ব্যবহার করতে হবে তা জানতে আপনার সমস্যার সমাধান হিসাবে কী লক্ষ্য করা হচ্ছে (কোন ধরণের ডেটা নিয়ে কাজ করা, শ্রেণিবদ্ধকরণ / প্রতিরোধ সমস্যা ... ইত্যাদি) আপনার প্রথমে "স্পষ্টভাবে সংজ্ঞায়িত" করতে হবে।

আপনি সেই লিঙ্কগুলিকে উল্লেখ করতে পারেন যা এই ধারণাগুলি সম্পর্কে আরও বুঝতে আমার জন্য এত দরকারী হয়েছে :)।

আশা করি এই অ্যাডটি কার্যকর হবে: পি।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.