ফাইল সার্ভার থেকে ফাইলের তালিকা ডাউনলোড করবেন কীভাবে?


10

এই ফাইলটি যেমন http://www.apache.org/dist/httpd/binaries/ এর মতো ফাইল সার্ভার থেকে ফাইলগুলি ডাউনলোড করব ?

আমি মনে করি আমি উইজেট ব্যবহার করতে পারি তবে তারপরে এটি সমস্ত লিঙ্ক এবং এইচটিএমএল ফাইলটিও পাওয়ার চেষ্টা করে। এটি সম্পাদন করার জন্য আরও ভাল সরঞ্জাম আছে?


কেবল আপনার প্রশ্নটি পরিষ্কার করার জন্য: আপনি কেবল ফাইলগুলির তালিকাটি চান যা সার্ভার থেকে ডাউনলোড করা যেতে পারে, ফাইলগুলি নিজেই (এখনও) নয়?
আকির

কোন উপায়ে `wget --no-verbose --spider --no-ডিরেক্টরি --recursive --level = 2 apache.org/dist/httpd/binaries like আপনার পক্ষে কাজ করছে না? আপনি যদি আরও নির্দিষ্ট হতে পারেন যা সাহায্য করতে পারে
ডেভপ্যারিলো

উত্তর:


12

wgetপৃষ্ঠাগুলি ক্রল করার সময় আপনি কোন ফাইল এক্সটেনশন ডাউনলোড করবেন তা নির্দিষ্ট করতে পারেন:

wget -r -A zip,rpm,tar.gz www.site.com/startpage.html

এই সঙ্গে একটি recursive অনুসন্ধান এবং শুধুমাত্র ফাইল ডাউনলোড সঞ্চালন করা হবে .zip, .rpmএবং .tar.gzএক্সটেনশান নেই।


8

মনে করে আপনি সত্যিই সার্ভারে থাকা ফাইলগুলির একটি তালিকা এনেছেন (এখনও):

%> wget -r -np --spider http://www.apache.org/dist/httpd/binaries/ 2> & 1 | awk -f ফিল্টার.ওক | uniq

'ফিল্টার.ওক' এর মতো দেখতে

/^--.*-- http: \ / \ /.* [^ \ /] $ / {ইউ = $ 3; }
/ ^ দৈর্ঘ্য: [[: সংখ্যা:]] + / {প্রিন্ট করুন; }

তারপরে আপনাকে সম্ভবত কিছু এন্ট্রি ফিল্টার করতে হবে

"http://www.apache.org/dist/httpd/binaries/?C=N;O=D"

0

রেফার: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/

আপনি নিম্নলিখিত কমান্ড ব্যবহার করতে পারেন:

wget --execute="robots = off" --mirror --convert-links --no-parent --wait=5 <website-url>

প্রতিটি বিকল্পের সাথে ব্যাখ্যা

  • wget: সিআরএল অনুরোধ করার সহজ সরল কমান্ড এবং আমাদের স্থানীয় মেশিনে রিমোট ফাইলগুলি ডাউনলোড করুন।
  • --execute="robots = off": এটি পৃষ্ঠাতে ক্রল করার সময় রোবটস.টি.এস.টি ফাইলটিকে উপেক্ষা করবে। আপনি যদি সমস্ত ফাইল না পেয়ে থাকেন তবে এটি সহায়ক।
  • --mirror: এই বিকল্পটি প্রদত্ত ইউআরএলটির জন্য মূলত ডিরেক্টরি কাঠামোটি আয়না করবে। এটি একটি শর্টকাট -N -r -l inf --no-remove-listingযার অর্থ:
    • -N: স্থানীয় থেকে নতুন না হলে ফাইলগুলি পুনরুদ্ধার করবেন না
    • -r: পুনরাবৃত্ত ডাউনলোড ডাউনলোড করুন
    • -l inf: সর্বাধিক পুনরাবৃত্তির গভীরতা (অসীমের জন্য inf বা 0)
    • --no-remove-listing: '.listing' ফাইলগুলি সরাবেন না
  • --convert-links: ডাউনলোড করা এইচটিএমএল বা সিএসএস সিঙ্কে স্থানীয় ফাইলগুলিতে লিঙ্ক তৈরি করুন
  • --no-parent: অভিভাবক ডিরেক্টরিতে আরোহণ করবেন না
  • --wait=5: পুনরুদ্ধারের মধ্যে 5 সেকেন্ড অপেক্ষা করুন। যাতে আমরা সার্ভারটি ছিন্ন করতে পারি না।
  • <website-url>: ফাইলগুলি ডাউনলোড করতে কোথা থেকে এই ওয়েবসাইটটি ইউআরএল।

শুভ ডাউনলোড করা: স্মাইলি:

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.