আমি এমন একটি অ্যালগরিদম নিয়ে কাজ করছি যা বেশ কয়েকটি সেন্সর প্রবাহ থেকে অতি সাম্প্রতিক ডেটা পয়েন্টের ভেক্টর গ্রহণ করে এবং ইউক্লিডিয়ান দূরত্বকে পূর্ববর্তী ভেক্টরগুলির সাথে তুলনা করে। সমস্যাটি হ'ল বিভিন্ন ডেটা স্ট্রিমগুলি সম্পূর্ণ আলাদা সেন্সর থেকে আসে, তাই একটি সাধারণ ইউক্লিডিয়ান দূরত্ব নেওয়া নাটকীয়ভাবে কিছু মানকে ছাড়িয়ে যায়। স্পষ্টতই, ডেটা স্বাভাবিক করার জন্য আমার কিছু উপায় প্রয়োজন। তবে, যেহেতু অ্যালগরিদমটি রিয়েল টাইমে চালানোর জন্য ডিজাইন করা হয়েছে, তাই সাধারণকরণের জন্য আমি কোনও তথ্য-স্ট্রিম সম্পর্কিত কোনও তথ্য ব্যবহার করতে পারি না। এখনও অবধি আমি প্রারম্ভকালীন পর্যায়ে (প্রথম 500 ডেটা ভেক্টর) প্রতিটি সেন্সরের জন্য দেখা সবচেয়ে বড় মানের সন্ধান করে চলেছি এবং তারপরে সেই মান দিয়ে ভবিষ্যতের সমস্ত ডেটা ভাগ করে দিচ্ছি। এটি আশ্চর্যজনকভাবে ভাল কাজ করছে, তবে খুব অকার্যকর মনে হচ্ছে।
এর জন্য প্রাক-বিদ্যমান অ্যালগরিদম সন্ধান করার মতো ভাগ্য আমি পাইনি, তবে সম্ভবত আমি সঠিক জায়গাগুলি সন্ধান করছি না। কেউ কি কেউ জানেন? বা কোন ধারণা আছে? আমি চলমান গড় (সম্ভবত ওয়েলফোর্ডের অ্যালগরিদম দ্বারা গণনা করা) ব্যবহার করার জন্য একটি পরামর্শ দেখেছি, তবে আমি যদি তা করি তবে একই মানটির একাধিক পঠন একইরূপে প্রদর্শিত হবে না, যা আমি যদি না দেখি তবে বেশ বড় সমস্যা বলে মনে হয় আমি কিছু মিস করছি কোন চিন্তা প্রশংসা করা হয়! ধন্যবাদ!