কোনও নির্দিষ্ট ওয়েবসাইটে (1000 পৃষ্ঠাগুলি) ("http: // www।") দিয়ে শুরু হওয়া সমস্ত স্ট্রিং কীভাবে সন্ধান এবং অনুলিপি করবেন?


-1

আমি একটি নির্দিষ্ট ওয়েবসাইটে কাজের পোস্টে লিঙ্কগুলি (পৃষ্ঠাগুলির url নয়) সন্ধান করছি। আমি ওয়েবসাইটটি স্ক্যান করতে এবং সমস্ত পৃষ্ঠায় http বা www দিয়ে শুরু করে সমস্ত স্ট্রিং অনুলিপি করতে চাই (প্রায় 1000)

আমি উইন্ডোজ on এ আছি sc স্ক্রিপ্টগুলি কীভাবে চালাতে হয় তা আমি জানি না। কেউ কি এটি করার একটি দক্ষ উপায় প্রস্তাব করতে পারেন?

আমি কি প্রথমে সমস্ত এইচটিএমএল পৃষ্ঠা ডাউনলোড করতে পারি? যদি তা হয় তবে স্ট্রিংয়ের জন্য ডাউনলোড এবং স্ক্যান এবং অনুলিপি করার জন্য আমার কোন সফ্টওয়্যার ব্যবহার করা উচিত?


আপনার একটি পৃষ্ঠার উদাহরণ url সরবরাহ করা প্রয়োজন। উদাহরণস্বরূপ, তারা হতে পারে http://example.com/list.php?page=n, যেখানে পৃষ্ঠা পৃষ্ঠা নম্বর। আরেকটি সম্ভাবনা হ'ল http://example.com/pagen.html, আবার যেখানে পৃষ্ঠাগুলির নম্বর। এটি এমনও হতে পারে যে সমস্ত পৃষ্ঠার কেন্দ্রীয় তালিকা রয়েছে তবে পৃথক পৃষ্ঠার ইউআরএলগুলির সংখ্যা নেই। সেক্ষেত্রে স্ক্রিপ্ট মূল পৃষ্ঠা থেকে পরীক্ষা করার জন্য সমস্ত URL টি দখল করতে পারে বা আপনাকে প্রতিটি URL টি ম্যানুয়ালি সিপাই করতে হতে পারে This এই ধরণের তথ্য প্রয়োজনীয়।
বব

সাইটটি হ'ল: www.sarkari-naukri.in; এখন আমার সমস্ত পৃষ্ঠায় পোস্টে উল্লিখিত সমস্ত লিঙ্কগুলি অনুলিপি করা দরকার।
এম সিং

উত্তর:


2

যখন আমরা মনে রাখি যে স্ক্রিপ্টগুলি চালানো আপনার পক্ষে কোনও বিকল্প নয়, আপনি কোনও পৃষ্ঠার উত্স কোড ডাউনলোড করতে পারা যেতে পারেন (ডান ক্লিক করুন -> ডাউনলোড উত্স কোড)। তারপরে আপনি এটিকে উদাঃ নোটপ্যাড দিয়ে খুলতে পারেন এবং [Ctrl] + [F] টিপে সামগ্রীটি অনুসন্ধান করতে পারেন।

আর একটি উপায় ইউআরএল স্ট্রিংগ্রবার ব্যবহার করা হবে: http://www.nirsoft.net/utils/url_string_grabber.html


উত্তর ভ্যালেন্টিনের জন্য thx, তবে আমাকে পুরো ওয়েবসাইটটি স্ক্যান করতে হবে এবং এতে প্রায় 1000 পৃষ্ঠা রয়েছে। সোর্স কোড বিকল্পটি বাইরে is এখন urlstringgrabber কেবল খোলা পৃষ্ঠাটিও স্ক্যান করে। একে একে 1000 পৃষ্ঠাগুলি খোলার জন্য খুব দীর্ঘ সময় লাগবে। অন্য কোন বিকল্প?
এম সিং

আমি একটি শালীন সরঞ্জামের জন্য ওয়েবটি অনুসন্ধান করব। আপনি যদি পছন্দ করেন তবে গুগলে "লিঙ্কগুলির জন্য একটি ওয়েবসাইট স্ক্যান করুন" অনুসন্ধান শব্দটি ব্যবহার করুন, এটি আপনার পছন্দসই ফলাফল নিয়ে আসে।
ভ্যালেন্টাইন

ওয়েবসাইট মানচিত্র তৈরি করুন xml-sitemaps.com এবং আউটপুট XML ফাইল বিশ্লেষণ
integratorIT

1

আপনি সহজেই অপেরাতে এটি অর্জন করতে পারেন, কেবল বাম ফলকটি খুলুন - লিঙ্কগুলি এবং আপনি সেগুলি সমস্ত ক্লিপবোর্ডে অনুলিপি করতে পারেন


হাই পিংগার, এটি এখন পৃষ্ঠার জন্য উন্মুক্ত? আমার প্রায় 1000 পৃষ্ঠা সহ পুরো ওয়েবসাইটটি স্ক্যান করতে হবে।
এম সিং

0

আমি উইনএইচটিট্রাক প্রোগ্রামটি এই উদ্দেশ্যে দরকারী বলে মনে করি। এখানে বিকল্পগুলির সংমিশ্রণ রয়েছে যা আপনাকে একটি একক পৃষ্ঠা ডাউনলোড করতে দেয় তবে ইউআরএলগুলিকে একটি নির্দিষ্ট, পরম বিন্যাসে পরিবর্তন করতে দেয় যাতে আপনি পরে কাঁচা এইচটিএমএল অনুসন্ধান করতে পারেন এবং প্রায় সমস্ত লিঙ্কের গ্যারান্টিযুক্ত হতে পারেন।

  1. আয়না নামটি সেট করে এবং পরবর্তী স্ক্রিনে অগ্রগতি করার পরে, অ্যাকশনটি "ওয়েব সাইট ডাউনলোড করুন" এ পরিবর্তন করুন।
  2. "ওয়েব ঠিকানা: (ইউআরএল)" বাক্সে আরও ওয়েব পৃষ্ঠাগুলি থাকা পৃষ্ঠার URL টি রাখুন।
  3. বিকল্পগুলি নির্বাচন করুন -> কেবল বিশেষজ্ঞরা
  4. "পুনর্লিখনের লিঙ্কগুলি: অভ্যন্তরীণ / বাহ্যিক" কে "পরম ইউআরআই / পরম ইউআরএল" এ পরিবর্তন করুন (বা আপনি যদি কেবলমাত্র URL গুলি স্ক্র্যাপ করার জন্য পৃষ্ঠাটি ব্যবহার করেন তবে "পরম URL / পরম URL)" URL
  5. ঠিক আছে, তারপরে Next টিপুন, তারপরে যথারীতি বিকল্পগুলির মাধ্যমে নেভিগেট করুন।

এইচটি ট্র্যাক সম্পর্কে আরও তথ্য ট্যাগে পাওয়া যাবে ।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.