কিভাবে স্টেরিও ক্যামেরা থেকে ঘন পয়েন্ট মেঘ পেতে?


12

আমি দৃশ্যের পুনর্নির্মাণের জন্য একটি স্টেরিও ক্যামেরা ব্যবহার করার চেষ্টা করছি, তবে আমি সাধারণত কেবল বিরল পয়েন্ট মেঘ পেতে পারি (অর্থাত্ অর্ধেকেরও বেশি চিত্রের কোনও সঠিক গভীরতার তথ্য নেই)।

আমি বুঝতে পারি যে স্টেরিও প্রসেসিং অ্যালগরিদমগুলি চিত্রগুলিতে টেক্সচারের উপস্থিতির উপর নির্ভর করে এবং কয়েকটি প্যারামিটার রয়েছে যাতে আরও ভাল ফলাফল পেতে টুইঙ্ক করা যায় যেমন বৈসাদৃশ্যের পরিসর বা পারস্পরিক সম্পর্ক উইন্ডো আকার। যদিও আমি এই প্যারামিটারগুলিকে যতটা টিউন করি, তবে আমি কখনই এমন ফলাফল পেতে সক্ষম হই না যে কিনেক্টের মতো সক্রিয় সেন্সর ব্যবহার করে যা পাওয়া যায় তার থেকেও দূরবর্তীভাবে খুব কাছাকাছি।

আমি কেন এটি চাই কারণ হ'ল প্রায়শই সংলগ্ন অঞ্চলগুলির সাথে সম্পর্কিত মেঘগুলিতে আমার কাছে ম্যাচ পাওয়ার জন্য পর্যাপ্ত ওভারল্যাপ থাকে না, তাই পুনর্গঠন মারাত্মকভাবে প্রতিবন্ধী হয়।

কম্পিউটার ভিশন বিশেষজ্ঞদের কাছে আমার প্রশ্নটি নীচে রয়েছে: আমি সাধারণভাবে (নির্বিচারে আমার অফিসের পরিবেশ পরিবর্তন না করে) ডেনার পয়েন্ট মেঘ পেতে কী করতে পারি ?


এটি একটি ভাল প্রশ্ন, তবে আমি মনে করি আরও বিশদ বিবরণ প্রয়োজন। মিলগুলি গণনা করার জন্য আপনি কোন অ্যালগরিদম চেষ্টা করেছেন? "সংলগ্ন অঞ্চলগুলি" এবং "ওভারল্যাপ?" বলতে কী বোঝাতে চেয়েছেন আপনি কী তা ব্যাখ্যা করতে পারেন?
জোশ ভান্ডার হুক

আমি যখন "সংলগ্ন অঞ্চলগুলি" বলি, তখন আমার অর্থ শারীরিক স্থানের অংশগুলি যা সমতুল্য নয় তবে একটি খালি ফাঁকা ছেদ নেই, যা আমি "ওভারল্যাপ" বলেছিলাম। এটি হ'ল, এমন এক ধরণের অঞ্চল যা পয়েন্ট মেঘ উত্পন্ন করবে যা আইসিপি অ্যালগরিদমে ম্যাচ এবং সেলাই করা যেতে পারে।
জর্জেব্রিন্দিরো

অ্যালগরিদম সম্পর্কে, আমি এখনও সন্ধান করতে পারে এমন সহজতম সমাধানটি ব্যবহার করছি: স্টেরিও_মেজ_প্রোক রস নোড, যা ওপেনসিভিতে উপলব্ধ গ্লোবাল ব্লক মেলানো অ্যালগরিদম প্রয়োগ করে। আমি প্যারামিটার সেটিংস সম্পর্কে শুনে আগ্রহী হব যা সম্ভবত আরওএস নোড বা অন্যান্য অ্যালগরিদমের মাধ্যমে আমার কাছে সরাসরি অ্যাক্সেসযোগ্য না হতে পারে যা আরও ভাল ফলাফল সরবরাহ করে বলে জানা যায়।
জর্জেব্রিন্দিরো

উত্তর:


4

আপনি প্রধান পয়েন্ট সনাক্তকরণ এড়ানোর চেষ্টা করতে পারেন, এবং চিত্রের উপর কেবল ঘন নমুনা (গ্রিড বা তাই হিসাবে) এবং প্রতিটি নমুনা পয়েন্টে একটি বৈশিষ্ট্য বর্ণনাকারী গণনা করতে পারেন। এমনকি আপনি প্রতিটি পিক্সেলের জন্য কোনও ডেস্ক্রিপ্টর গণনা করতেও যেতে পারেন।

আপনি স্কেল-চালান হারাতে পারেন, তবে আমি মনে করি স্টেরিও দর্শনের জন্য এটি খুব বেশি ক্ষতি করবে না কারণ উভয় চিত্রের মধ্যে বস্তুগুলি প্রায় একই স্কেল হবে।

আর একটি পদ্ধতি হতে পারে একাধিক মুখ্য পয়েন্ট সনাক্তকরণ অ্যালগরিদমগুলি একত্রিত করা: কোণ, প্রান্ত, ব্লবস ইত্যাদি। তারপরে আপনাকে সমস্ত সনাক্ত পয়েন্টগুলির জন্য একই বৈশিষ্ট্য বর্ণনাকারী অ্যালগরিদম ব্যবহার করতে হবে, তবে এই পরবর্তী অংশটি প্রয়োগ করা কিছুটা জটিল হতে পারে।


2

সুতরাং অতীতে আমি যে স্টেরিও চিত্র প্রক্রিয়াকরণ অ্যালগরিদমগুলি ব্যবহার করেছি তা পিক্সেল দ্বারা পিক্সেল প্রয়োগ করা হয়েছিল। আমাদের গভীরতার অনুমানটি আসল জিনিসটির সাথে মিলে না যাওয়া পর্যন্ত আমরা কেবল পিনহোল ক্যামেরা মডেলটি ব্যবহার করেছি এবং টেপ পরিমাপের সাথে কিছু পুরানো ফ্যাশন পরিমাপ করেছি।

সমান্তরাল ক্যামেরার জুটির সমীকরণগুলি হ'ল:

  • d= ক্যামেরাগুলির মধ্যে অর্ধেক দূরত্ব
  • f= ক্যামেরাগুলির কেন্দ্রিক দৈর্ঘ্য (একইরূপে ধরে নেওয়া)
  • সমন্বিত ফ্রেম:
    • x,y,z= ক্যামেরার মধ্যে ফ্রেম সমন্বয় করুন (যেমন ক্যামেরা বেস ফ্রেম)
    • uR,vR ক্যামেরাটি রোবটের দৃষ্টিকোণ থেকে ডান ক্যামেরায় স্থানাঙ্ক করে (আপনি অনুভূমিক, v উল্লম্ব)
    • uL,vL ক্যামেরা বাম ক্যামেরাটিতে স্থানাঙ্ক করে
    • দ্রষ্টব্য: ক্যামেরার স্থানাঙ্কগুলির ক্যামেরার মধ্যে স্থানাঙ্ক ফ্রেমে তাদের উত্স রয়েছে (অর্থাত্ ইউ অক্ষগুলি বিপরীত দিকে মুখ করে)

uL=f(xd)z ,uR=f(x+d)z

zuR=f(x+d) ,zuL=f(xd)

z(uRuL)=2df

z=2dfuRuL

y=vLz+dff

x=uLz+dff

এই সমীকরণগুলি ব্যবহার করে আপনি ঘন স্টেরিও মেঘ গণনা করতে পারেন। আপনার ক্যামেরায় প্রতিটি পিক্সেলের জন্য একটি।


প্রচেষ্টার জন্য ধন্যবাদ, তবে আমি স্টেরিও মডেলিংয়ের সাথে পরিচিত। সমস্যাটি হ'ল বাম এবং ডান ক্যামেরায় (ইউ, ভি) স্থানাঙ্কগুলির মধ্যে ঠিক একই রকমের যোগাযোগের। মুকসি কীভাবে এর সাথে মোকাবিলা করবেন সে সম্পর্কে কিছু ধারণা দিয়েছেন এবং sylvain.joyeux একটি দুর্দান্ত স্টেরিও লাইব্রেরি নির্দেশ করেছেন যা উন্নত ফলাফলের দিকে নিয়ে যায়, যদিও ...
জর্জেব্রাইন্ডো

1

আপনি যখন বলবেন, "অর্ধেকেরও বেশি চিত্রের কোনও সঠিক গভীরতার তথ্য নেই", কোন অর্ধেক?

একটি বিষয় যা আমরা লক্ষ্য করেছিলাম তা হ'ল যদি দূরত্ব-থেকে-অবজেক্টটি আপনার বেসলাইন (সাধারণত খুব প্রশস্ত কোণযুক্ত ক্যামেরাগুলির সাথে যুক্ত) এর চেয়ে একই মানের আকারের হয় তবে "স্ট্যান্ডার্ড" ঘন স্টেরিও অ্যালগরিদমগুলি এত ভাল কাজ করে না। আমরা লিবলা গ্রন্থাগারটি ব্যবহার করছি, এবং এর বিকাশকারীরা আমাদের বলেছিলেন যে এটি "বৃহত বেসলাইন স্টেরিও" নামে পরিচিত এবং এটি আর একটি সমস্যা।


যখন আমি বলেছিলাম যে অর্ধেক চিত্রটির কোনও সঠিক গভীরতার তথ্য নেই, তবে আমি বোঝাতে চাইছি যে সমস্ত পিক্সেলগুলির মধ্যে কেবলমাত্র অর্ধেকেরই গণ্য বৈষম্য ছিল (অগত্যা একটি স্বতন্ত্র অঞ্চল গঠনের প্রয়োজন নেই)। দূরত্ব থেকে বস্তু / বেসলাইন অনুপাতের সাথে আপনি উল্লিখিত একই সমস্যাটি আমি রাখছি না, তবে সেই লাইব্রেরি সম্পর্কে শুনে খুব আকর্ষণীয় হয়েছিল এবং এটি কোনও সমস্যা হতে পারে। ধন্যবাদ!
জর্জেব্রিন্দিরো

1
যেভাবেই হোক না কেন, আমি লিবলা চেষ্টা করব যেহেতু এটির জন্য আমি একটি আরএস র‌্যাপার পেয়েছি !
জর্জেব্রিন্দিরো

0

কেআইটিটিআই স্টেরিও বেঞ্চমার্ক নেতাদের এক নজরে দেখুন । এই মানদণ্ডটি কোনও নির্দিষ্ট সময়ে বৈষম্য তৈরি না করার জন্য অ্যালগরিদমগুলিকে দণ্ডিত করে, তাই শীর্ষস্থানীয় অভিনয়কারীরা ঘন আউটপুট উত্পাদন করে (এমনকি তাদের কাছে অনেক পর্যায়ে তাদের অনুমানের জন্য খুব বেশি ভিত্তি না থাকলেও)। কিছু পদ্ধতিতে লিঙ্কযুক্ত প্রকাশ্যে উপলব্ধ কোড রয়েছে, যা আপনি চেষ্টা করে দেখতে পারেন।

নোট করুন যে এগুলি দীর্ঘ সময় নেওয়ার জন্য দন্ডিত করা হয় না, তাই অনেকগুলি পদ্ধতি প্রতি ইমেজ কয়েক মিনিটের জন্য চালাতে পারে এবং এটি আপনার অ্যাপ্লিকেশনের জন্য উপযুক্ত নাও হতে পারে। অনেকগুলি সিএনএন-ভিত্তিক পদ্ধতি চালু হয়েছে যদিও এটি খুব ভাল করে, যদিও এখনও এক সেকেন্ডেরও কম সময় চলতে থাকে (জিপিইউতে)। এর মধ্যে কমপক্ষে একটিতে (সিআরএল) পাবলিক কোড রয়েছে।

আপনি যদি এখনও আপনার চিত্রগুলিতে এর সাথে শালীন গভীরতার অনুমান না পান তবে আপনি সম্ভবত দৃশ্যমান পদ্ধতির থেকে কী কী সম্ভাব্য তা সীমাবদ্ধতা দেখতে পাচ্ছেন। মূলত পয়েন্টগুলি ভালভাবে মেলে ধরতে সক্ষম হওয়ার জন্য ক্ষেত্রটিতে মৌলিকভাবে স্বতন্ত্র জমিন হওয়া দরকার বা টেক্সচারহীন অঞ্চলগুলিতে আপনার কিছু দৃ strong় অনুমান (যেমন, মসৃণতা) তৈরি করার জন্য একটি ভিত্তি প্রয়োজন।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.