প্রশ্ন ট্যাগ «wget»

GNU উইজেট এইচটিটিপি, এইচটিটিপিএস এবং এফটিপি ব্যবহার করে ফাইলগুলি পুনরুদ্ধারের জন্য একটি মুক্ত সফ্টওয়্যার প্যাকেজ, যা বহুল ব্যবহৃত ব্যবহৃত ইন্টারনেট প্রোটোকল। এটি একটি অ-ইন্টারেক্টিভ কমান্ড লাইন সরঞ্জাম, সুতরাং এটি সহজেই স্ক্রিপ্ট, ক্রোন জবস, এক্স উইন্ডো সিস্টেম (এক্স 11) সমর্থন ছাড়াই টার্মিনাল ইত্যাদি থেকে কল করা যেতে পারে

2
লিনাক্স কমান্ড লাইন টুলটি HTTP- র মাধ্যমে মাল্টিপার্ট / ফর্ম-ডেটা হিসাবে আপলোড করার জন্য?
আমি দেখতে পাচ্ছি যে উইজেটের একটি --post-fileবিকল্প রয়েছে তবে ম্যানপেজটি বলে says উইজেট বর্তমানে POST ডেটা প্রেরণের জন্য মাল্টিপার্ট / ফর্ম-ডেটা সমর্থন করে না; কেবলমাত্র অ্যাপ্লিকেশন / x-www-form-urlencoded। এর মধ্যে একটি --post-dataএবং --post-fileনির্দিষ্ট করা উচিত। মাল্টিপার্ট / ফর্ম-ডেটাতে ফাইল আপলোড করার জন্য কি একই রকম উপায় আছে?
25 http  wget  upload 

1
সুডো দিয়ে মৃত্যুদণ্ড কার্যকর করার সময় কেন উইজেট ত্রুটি দেয়, কিন্তু ছাড়াই কাজ করে?
আমি নিম্নলিখিত আদেশটি চেষ্টা করেছি: $ wget -q --tries=10 --timeout=20 --spider http://google.com ( এই এসও পোস্টটি থেকে b আমি আমার ইন্টারনেট সংযোগ ব্যাশে চেক করতে চাই)) আমি নিম্নলিখিত আউটপুট পেতে: Spider mode enabled. Check if remote file exists. --2015-09-28 09:55:50-- http://google.com/ Connecting to 127.0.0.1:3128... connected. Proxy request sent, awaiting response... …
21 bash  sudo  wget 

3
উইজেট ব্যবহার করে সমস্ত ফোল্ডার, সাবফোল্ডার এবং ফাইলগুলি ডাউনলোড করুন
আমি উইজেট ব্যবহার করেছি এবং আমি একটি ইস্যু জুড়ে চলেছি। আমার একটি সাইট রয়েছে, যা সাইটের মধ্যে বেশ কয়েকটি ফোল্ডার এবং সাবফোল্ডার রয়েছে। আমার প্রতিটি ফোল্ডার এবং সাবফোল্ডারের মধ্যে সমস্ত বিষয়বস্তু ডাউনলোড করতে হবে। আমি উইজেট ব্যবহার করে বেশ কয়েকটি পদ্ধতি চেষ্টা করেছি এবং যখন আমি সম্পূর্ণতা যাচাই করি তখন …
21 wget 

4
উইন্ডোজের জন্য আমি কীভাবে উইজেট ইনস্টল করব?
আমি এখান থেকে উইজেট ডাউনলোড করেছি এবং wget-latest.tar.gz22-সেপ্টেম্বর -2009 তারিখে একটি ফাইল পেয়েছি । আমি এটিকে আমার D:ড্রাইভের একটি ফোল্ডারে সংরক্ষণ করেছি এবং আনজিপ করেছি। আমি READ MEফাইলটি পড়েছি , তবে কীভাবে এটি ইনস্টল করতে হবে সে সম্পর্কে কোনও তথ্য পাইনি। যেহেতু কোনও Installফাইল নেই, আমি ধরে wget.zipনিয়েছিলাম যে পূর্বে …

2
কার্ল দিয়ে পুনরায় চেষ্টা শুরু করা পুনরায় চেষ্টা করা হচ্ছে
আমি ম্যাকের সাথে রয়েছি এবং একটি এফটিপি সার্ভার থেকে ডাউনলোড করতে চাইলে ফাইলগুলির একটি তালিকা আছে। সংযোগটি কিছুটা বগিযুক্ত তাই আমি আবার চেষ্টা করে দেখতে চাই এবং সংযোগ বাদ দিলে পুনরায় শুরু করতে চাই। আমি জানি আমি এটি উইজেটের মাধ্যমে করতে পারি, তবে দুর্ভাগ্যক্রমে ম্যাক ওএস এক্স উইজেটের সাথে আসে …
17 mac  unix  download  wget  curl 

4
কোনও আলাদা ডোমেনে উইজেট ডাউনলোড পৃষ্ঠা সংস্থান করুন
আপনি কীভাবে কোনও সম্পূর্ণ সাইট (ডোমেন এ) ডাউনলোড করতে উইজেট ব্যবহার করবেন যখন এর সংস্থানগুলি অন্য ডোমেনে, (ডোমেন বি) থাকবে? আমি চেষ্টা করেছিলাম: wget -r --level=inf -p -k -E --domains=domainA,domainB http://www.domainA
16 linux  download  wget  fetch 

3
উইজেট - এমিরর দিয়ে ক্যোয়ারী স্ট্রিংগুলি ত্যাগ করছে
আমি wget --mirror --html-extension --convert-linksকোনও সাইট আয়না করতে ব্যবহার করছি তবে ফর্ম্যাটে প্রচুর ফাইলের নাম দিয়ে শেষ করছি post.php?id=#.html। আমি যখন ব্রাউজারে এগুলি দেখার চেষ্টা করি তখন এটি ব্যর্থ হয়, কারণ ফাইলটি লোড করার সময় ব্রাউজার কোয়েরি স্ট্রিংটিকে উপেক্ষা করে। ?ফাইলনামে চরিত্রটি অন্য কোনও কিছুর সাথে প্রতিস্থাপনের কোনও উপায় আছে …
15 linux  wget  mirroring 

3
ফায়ারফক্সের জন্য পুনরাবৃত্ত ডাউনলোড (`wget -r`) সমতুল্য?
আমার একটি ওয়েবসাইট আছে এবং আমি সেই ওয়েবসাইটের মধ্যে সমস্ত পৃষ্ঠা / লিঙ্ক ডাউনলোড করতে চাই। আমি wget -rএই ইউআরএল একটি করতে চান । লিঙ্কগুলির কোনওটিই এই নির্দিষ্ট ডিরেক্টরিটির "বাইরের" দিকে যায় না, তাই আমি পুরো ইন্টারনেট ডাউনলোড করে নিয়ে চিন্তিত নই। দেখা যাচ্ছে যে পৃষ্ঠাগুলি আমি চাই ওয়েবসাইটের পাসওয়ার্ড-সুরক্ষিত …

3
আমি কীভাবে উইজেটের সাথে ফায়ারফক্স কুকিজ ব্যবহার করব?
wget --load-cookies"নেটস্কেপের কুকিজ. টেক্সট ফাইল দ্বারা মূলত ব্যবহৃত বিন্যাসে পাঠ্য ফাইল হিসাবে কুকিগুলি লোড করবে"। তবে ফায়ারফক্স তার কুকিগুলি একটি এসকিউএল ডাটাবেজে রাখে । ফায়ারফক্স cookies.sqliteফাইল থেকে "নেটস্কেপের কুকিজ.টেক্সট ফাইল" বের করার কোনও উপায় আছে কি ?
15 firefox  wget  cookies 

3
এফটিপি এর জন্য উইজেট একটি পাসওয়ার্ড ব্যবহার করে @
আমি কমান্ড লাইন থেকে আমার ftp সার্ভার থেকে কিছু ফাইল নেওয়ার চেষ্টা করছি। আমি পুরো ফোল্ডারটি একবারে ডাউনলোড করতে উইজেট ব্যবহার করছি। আদেশটি হ'ল: wget -m ftp://username:password@ftp.hostname.com:/path/to/folder তবে সমস্যাটি হচ্ছে, আমার পাসওয়ার্ডটিতে '@' চিহ্ন রয়েছে। সুতরাং আদেশটি হয়ে যায় wget -m ftp://username:foo@bar@ftp.hostname.com:/.. যার কারণে, উইজেট হোস্ট হিসাবে bar@ftp.hostname.com পুনঃস্থাপন করার …
15 ftp  wget 

1
আমি টার্মিনাল থেকে পুনঃনির্দেশিত URL থেকে দূরত্বে কীভাবে ফাইলগুলি আনব?
আমি টার্মিনাল থেকে এই অজগর লাইব্রেরির একটি টারবাল আনতে চাই। https://github.com/simplegeo/python-oauth2/downloads তবে আমি কেবল কল করতে পারি না wget https://github.com/simplegeo/python-oauth2/tarball/master কারণ এটি করার ফলে একটি ওয়েব পৃষ্ঠা পুনরুদ্ধার হয়। টার্মিনাল থেকে আমি কীভাবে এই সংস্থানটি আনব?

2
আমি কীভাবে বড় ফাইলগুলি ডাউনলোড করতে উইজেট ব্যবহার করতে পারি?
আমি লিনাক্স মিন্ট 15 টি দারুচিনি 8 জিবি পেনড্রাইভ থেকে চালাচ্ছি। আমি লিনাক্স মিন্ট 14 "নাদিয়া" কেডিএর জন্য আইএসও পেতে চাই। আমি wgetটার্মিনাল ব্যবহার করার চেষ্টা করেছি । এখানে আমি টাইপ করেছি ঠিক তেমন: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso এটি 30% অবধি ডাউনলোড হওয়ার পরে (2 ঘন্টার মতো) পরে, এটি ডাউনলোড বন্ধ হয়ে …
14 linux  linux-mint  wget 

2
কেবলমাত্র এইচটিএমএল ফাইল ডাউনলোড করতে উইজেট ব্যবহার করে কীভাবে ক্রল করবেন (চিত্র, সিএসএস, জেএস উপেক্ষা করুন)
মূলত, আমি উইজেটের সাথে একটি সম্পূর্ণ সাইট ক্রল করতে চাই, তবে অন্যান্য সম্পদগুলি (যেমন চিত্র, সিএসএস, জেএস, ইত্যাদি) ডাউনলোড করার দরকার নেই। আমি কেবল এইচটিএমএল ফাইল চাই। গুগল অনুসন্ধানগুলি সম্পূর্ণ অকেজো। আমি চেষ্টা করেছি এমন একটি আদেশ এখানে: wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e robots=off -U "Mozilla/5.0 (X11; …
14 wget  web-crawler 

4
উইজেট -o ব্যর্থতা নিয়ে খালি ফাইল লিখেন
আমি যদি উইজেট "এর মতো কোনও ঠিকানা" -o "test.html" লিখি না তবে এটি প্রথমে test.html তৈরি করে এবং ব্যর্থতার ক্ষেত্রে এটি খালি রাখে। যাইহোক, -o ব্যবহার না করার সময় ডাউনলোডটি সফল হয় কিনা তা অপেক্ষা করতে হবে এবং তার পরে এটি ফাইলটি লিখবে। আমি চাই যে পরের আচরণটিও প্রয়োগ করা …
14 wget 

4
পুনরাবৃত্তভাবে কোনও সাইট ক্রল করতে এবং চিত্রগুলি ডাউনলোড করতে উইজেট ব্যবহার করে
আপনি কীভাবে কোনও ওয়েবসাইটকে ক্রমাগত ক্রল করতে এবং নির্দিষ্ট ধরণের চিত্রগুলি ডাউনলোড করতে বাজেটকে নির্দেশ দেন? আমি এটি কোনও সাইট ক্রল করার জন্য এবং কেবল জেপিগ চিত্রগুলি ডাউনলোড করতে চেষ্টা করেছি: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories http://somedomain/images/page1.html তবে, যদিও পেজ 1 এইচটিএমএলতে সাবপেজগুলিতে কয়েকশ লিঙ্ক রয়েছে, যার নিজস্ব …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.