Robots.txt file क्या है? Blog के लिए क्यों जरूरी है।

  दोस्तों जो नए ब्लॉगर होते है उन्हें ज्यादातर ऐसे बहुत से फीचर के बारे में नही पता होता है। और न ही वो इसकी अच्छे से सेटिंग्स कर पाते है मै उन सभी ब्लॉगर की मदत करना चाहता हूँ जिससे वो भी एक कामयाब ब्लॉगर बने और वो लोग भी ब्लॉग से अच्छा पैसा कमाये। तो चलिए शुरू करते हैं।
Robots.txt क्या है?

Robots.txt एक Text फ़ाइल है जिसमें सरल कोड की कुछ पंक्तियाँ हैं। यह वेबसाइट या ब्लॉग के सर्वर पर सहेजा जाता है जो वेब क्रॉलर्स को खोज परिणामों में अपने ब्लॉग को इंडेक्स और क्रॉल करने का निर्देश देता है। इसकी मदत से  आप अपने ब्लॉग पर वेब क्रॉलर्स से किसी भी वेब पेज को प्रतिबंधित कर सकते हैं, ताकि इसे अपने ब्लॉग लेबल पृष्ठ, आपके डेमो पेज या किसी अन्य पृष्ठ जैसे खोज इंजनों में अनुक्रमित (Indexed) नहीं किया जा सके जो अनुक्रमित करने के लिए महत्वपूर्ण नहीं हैं। हमेशा याद रखें कि खोज क्रॉलर्स किसी वेब पेज को क्रॉल करने से पहले robots.txt फ़ाइल को स्कैन करता हैं।

ब्लॉगर पर होस्ट किए गए प्रत्येक ब्लॉग की अपनी डिफ़ॉल्ट robots.txt फ़ाइल होती है जो कुछ इस तरह दिखती है:

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://example.blogspot.com/feeds/posts/default?orderby=UPDATED

स्पष्टीकरण
यह कोड तीन खंडों में विभाजित है। चलो पहले उनमें से प्रत्येक का अध्ययन करें, हम सीखें कि ब्लॉगस्पॉट ब्लॉग्स में कस्टम robots.txt फ़ाइल कैसे जोड़ें।

1:- User-agent: Mediapartners-Google

यह कोड Google ऐडसेंस रोबोटों के लिए है जो उन्हें अपने ब्लॉग पर बेहतर विज्ञापन देने में मदद करता है।

2:- User-agent: *

User-agent: *यह तारांकन चिह्न (*) के साथ चिह्नित सभी रोबोटों के लिए है डिफ़ॉल्ट सेटिंग में हमारे ब्लॉग के लेबल लिंक खोज क्रॉलर्स द्वारा अनुक्रमित करने के लिए प्रतिबंधित हैं जिसका मतलब है कि वेब क्रॉलर हमारे लेबल पृष्ठ लिंक को नीचे कोड के कारण नहीं दिखाएंगे।

 Disallow: /search

इसका मतलब होता है कि शब्द खोज करने वाले लिंक्स के बाद ही डोमेन नाम को अनदेखा कर दिया जाएगा। नीचे दिए गए उदाहरण देखें, जो SEO नामक लेबल पेज का लिंक है।

https://hinditechnews.com/search/label/SEO

और अगर हम Disallow: /search  निकाल देते हैं तो फिर क्रॉलर्स हमारे संपूर्ण ब्लॉग को इंडेक्स में एक्सेस करेंगे और इसकी सारी सामग्री और वेब पेज क्रॉल करेंगे।

यहां Allow: / मुखपृष्ठ से संदर्भित करता है जिसका मतलब है कि वेब क्रॉलर हमारे ब्लॉग के होमपेज को क्रॉल और Index कर सकते हैं।

अस्वीकार विशिष्ट पोस्ट

अब मान लीजिए कि यदि हम अनुक्रमण से एक विशेष पोस्ट को बाहर करना चाहते हैं तो हम कोड में नीचे पंक्ति जोड़ सकते हैं।

: /yyyy/mm/post-url.html

यहां पर yyyy और mm जो है वो वर्ष और महीने को संदर्भित करता है। मतलब आपने उस पोस्ट को कौन से से साल और कौन से महीने में लिखे थे उदाहरण के लिए, यदि आपने जुलाई 2016 में प्रकाशित ( Publish)किया है तो  उसे आपको इस तरह से लिखना होगा। नीचे देखे example….

: /2016/07/post-url.html

यह कार्य आसान बनाने के लिए, आप बस पोस्ट यूआरएल की प्रतिलिपि बना सकते हैं और शुरुआत से ही ब्लॉग का नाम निकाल सकते हैं।

अस्वीकृत विशेष पृष्ठ

यदि हमें किसी विशेष पृष्ठ को अस्वीकार करने की आवश्यकता है तो हम इसके बाद के संस्करण के समान पद्धति का उपयोग कर सकते हैं। बस पृष्ठ यूआरएल की प्रतिलिपि बनाएँ और उस से ब्लॉग पते को हटा दें जो कुछ इस तरह दिखेंगे। नीचे देखे।

: /p/page-url.html

साइटमैप:

://example.blogspot.com/feeds/posts/default?orderby=

यह कोड हमारे ब्लॉग के साइटमैप को संदर्भित करता है। यहां साइटमैप लिंक जोड़कर हम बस हमारे ब्लॉग की क्रॉलिंग दर को अनुकूलित कर रहे हैं। जब भी वेब क्रॉलर्स हमारी robots.txt फ़ाइल को स्कैन करते हैं, तब वे हमारे साइटमैप का पथ पा सकते हैं जहां हमारे प्रकाशित पोस्ट के सभी लिंक मौजूद होते हैं। वेब क्रॉलर्स को हमारे सभी पदों को क्रॉल करने में आसान लगता है। इसलिए, बेहतर संभावनाएं हैं कि वेब क्रॉलर किसी भी एक को अनदेखा किए बिना हमारे सभी ब्लॉग पोस्ट क्रॉल करते हैं

Custom Robots Header Tag क्या है और ब्लॉग में कैसे Add करते है।
नोट: यह साइटमैप केवल 25 क्रॉलर के बारे में बताएगा, जो हाल में 25 पोस्ट हैं। यदि आप अपने साइटमैप में लिंक की संख्या में वृद्धि करना चाहते हैं, तो नीचे एक के साथ डिफ़ॉल्ट साइटमैप की जगह आपको  अपने ब्लॉग का एक sitemap बनाना होगा Sitemap कैसे बनाते है और Sitemap को कैसे add करते है उसकी पूरी जानकारी यहाँ पर है ये Sitemap 500 Recent Post के लिए काम करेगा। ये sitemap इस तरह से होगा नीचे देखे example….

Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500

यदि आपके पास अपने ब्लॉग में 500 से अधिक प्रकाशित पोस्ट हैं तो आप दो साइटमैप का उपयोग कर सकते हैं नीचे देखे example….

Also Read:-

Robots. txt फाइल कैसे बनाते है और उसे ब्लॉग में कैसे add करते है?
Blog का sitemap कैसे बनाते है।

Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=500&max-results=1000

तो दोस्तों अब आप लोग समझ गए होंगे कि robots.txt क्या होता है और क्यों जरूरी होता है ब्लॉग के लिए।
   अगर आपको कोई समस्या या हो तो मुझे comment में ज़रूर बताये। और अगर कोई सवाल हो तो Contact us पर मुझसे संपर्क करे या अपने सवाल के बारे में पूरी details में Ask Question पेज पर भेजे।

Related Articles

Back to top button
Close

Adblock Detected

Please consider supporting us by disabling your ad blocker