एसोसिएशन बोनस (+100 प्रतिनिधि) और साइट वियोग बग?
बग 1: बिना किसी स्पष्ट कारण के एसोसिएशन बोनस।
यह उपयोगकर्ता 101 प्रतिनिधि (एसोसिएशन बोनस से) के साथ हमारे स्टैक में शामिल हुआ। प्रतिनिधि की जाँच करने पर मुझे 101 प्रतिनिधि के साथ एक अन्य स्टैक दिखाई देता है, और 1 प्रतिनिधि के साथ एक स्टैक।
101 अन्य स्टैक पर एक सा संयोग लग रहा था तो मैं जाँच की (? ठीक 10 upvotes संभवतः।) - कोई गतिविधि नहीं। तो वह एसोसिएशन बोनस भी था।
तीसरी साइट पर, उपयोगकर्ता का पृष्ठ 404 है।
तो फिर मैंने सोचा "ठीक है, शायद एक अस्थायी प्रतिबंध है और 404/1 प्रतिनिधि प्रतिबंध की एक कलाकृति है"। इसलिए मैंने उस साइट को कई तरीकों से खोजा; कुछ भी तो नहीं।
बग 2: साइट खाते एक दूसरे से अलग / अलग हो गए हैं
मुझे जो मिला वह एक चौथे साइट का खाता था जो अन्य लोगों से "द्वीपयुक्त" है, यह अन्य 3 स्टैकों की सूची नहीं देता है और वे इसे सूचीबद्ध नहीं करते हैं। (ध्यान दें कि उपयोगकर्ता आइकन एक ही है; बैंगनी शेवरॉन)। फिर से एसोसिएशन बोनस; फिर से समर्थन करने के लिए पर्याप्त साइट गतिविधि नहीं।
जैसा कि टिंकरिंगबेल चर्चा करता है, यह साबित कर रहा है कि "टापू" साइट खाता वास्तव में एक छिपा हुआ खाता है। मैंने इसे एक सामान्य वेब खोज के माध्यम से एक [अच्छी तरह से व्यवहार किया] [4] खोज इंजन के माध्यम से खोजा। तो यह एक बग रिपोर्ट / सुविधा अनुरोध में रूपांतरित हो सकता है ताकि इसे और अधिक कठिन बनाया जा सके।
जवाब
लोगों को अपने एसोसिएशन का बोनस रखने के लिए मिलता है, क्योंकि यह उस प्रोफ़ाइल से बंधा नहीं है जिसे आप नेटवर्क खाते पर 200 प्रतिष्ठा प्राप्त करते हैं :
यहां तक कि अगर आप हर एक प्रोफ़ाइल को हटाते हैं और stackexchange.com पर भी, तो आपका अंतर्निहित नेटवर्क खाता अभी भी मौजूद है, और यही वह जगह है जहां एसोसिएशन बोनस संग्रहीत है।
तो, इस मामले में एक हटाई गई प्रोफ़ाइल है जो एक बार 200 से अधिक की प्रतिष्ठा थी, जो अब यह सुनिश्चित करती है कि कभी भी यह उपयोगकर्ता किसी साइट के लिए प्रोफ़ाइल बनाता है, वे एसोसिएशन बोनस कमाते हैं।
डेटासाइंस प्रोफ़ाइल हटा दी गई है, हालांकि यह थोड़े अजीब है जो अभी भी दिख रहा है। ऐसा प्रतीत होता है कि इसमें किसी प्रकार की कैशिंग शामिल है, जिसका अर्थ यह हो सकता है कि इसे अभी भी नेटवर्क प्रोफाइल की सूची से हटा दिया जाना चाहिए।
दूसरे 'बग' के लिए, यह समुदायों को छिपाने के कारण है । मॉडरेटर अभी भी इन्हें देख सकते हैं , यही कारण है कि मुझे यकीन है।
जैसा कि टिंकरिंगबेल चर्चा करते हैं, मैं उन चीजों को देख रहा हूं जिनका मतलब छिपा हुआ है।
मैं जीने के लिए समस्याओं को हल करता हूं, इसलिए मैं बोल सकता हूं कि यह कैसे हुआ और इसके बारे में क्या करना है। मैंने इसे एक सामान्य वेब सर्च इंजन में खोजा है जो अच्छी तरह से व्यवहार किया गया है , जिसका अर्थ है कि यह वेब स्पाइडरिंग और कंटेंट समावेश दोनों को सर्च इंजन में निर्देशित करने के नियमों का पालन करता है । ध्यान दें कि ये स्वैच्छिक नियम हैं और एक ब्लैकहैट मकड़ी का पालन नहीं हो सकता है।
मकड़ी कैसे मिली
- यह StackExchange पर कहीं पृष्ठ के लिए एक समकालीन लिंक मिला ,
- इसने एक तृतीय-पक्ष वेब साइट पर एक समकालीन लिंक पाया ,
- यह पिछले क्रॉलिंग से पृष्ठ के अस्तित्व के बारे में पहले से ही जानता था ।
मैंने उन 3 मामलों को तोड़ दिया ताकि मैं आम गलतफहमियों को दूर कर सकूं।
दूसरा मामला वह है जहां एक वेबमास्टर (यानी StackExchange) कोई आंतरिक लिंक नहीं बनाता है, लेकिन एक बाहरी व्यक्ति करता है। मान लीजिए कि किसी का उपयोगकर्ता पृष्ठ sfu.edu पर उनके वेब पेज से लिंक है । उनके बारे में अनभिज्ञ, SFU Referer सहित उनके वेब लॉग से कुल डेटा प्रकाशित करता है । खोज इंजन इन्हें एक समृद्ध डेटा स्रोत मानता है, URL खोज के लिए (हालांकि लिंक प्रासंगिकता उर्फ पेजरैंक के लिए नहीं)। SFU का उपयोग करता है rel=nofollow
, लेकिन वह यह है कि नहीं एक "लिंक का पालन नहीं करते" निर्देश, एक "उपेक्षा लिंक प्रासंगिकता" निर्देश है।
तीसरा मामला यहां सबसे अधिक संभावना वाला है। एक बार जब एक खोज इंजन में URL होता है, तो वह URL को नहीं छोड़ता है जब URL के सभी लिंक गायब हो जाते हैं। इससे लिंक प्रासंगिकता पर प्रभाव पड़ता है, लेकिन यह केवल रैंकिंग को प्रभावित करता है । यदि खोजकर्ता पर्याप्त विशिष्ट है जहां केवल दर्जनों परिणाम मौजूद हैं , तो भी एक कम-रैंकिंग पृष्ठ सतह पर होगा।
इसे अच्छी तरह से व्यवहार किए गए इंजन से कैसे छिपाएं
... StackExchange की इच्छा करना। दोनों तरह के तर्क हैं।
सबसे अच्छा विकल्प "noindex" HTML मेटा-टैग (या HTTP में एक्स-रोबोट समतुल्य) है, जैसे:
<meta name="robots" content="noindex">
यह टैग कहता है "खोज परिणामों में इस पृष्ठ को शामिल न करें"। टैग में ऐसे तत्व भी हो सकते हैं nofollow
(जिसका वास्तव में मतलब है "क्रॉलर को इस पृष्ठ पर पाए गए लिंक की अवहेलना करनी चाहिए", इसके विपरीत rel=
)।
ध्यान दें कि खोज इंजन को इस टैग को देखने के लिए पृष्ठ को लाना है; चिंता की कोई बात नहीं है। मुझे लगता है कि आप इसे एक्स-रोबोट HTTP क्षेत्र में सेवा कर सकते हैं और रिक्त पृष्ठ सामग्री परोस सकते हैं। हालाँकि उस समय आप 403 फॉरबिडन, 404 नॉट फाउंड, या 410 गोन आसानी से वापस कर सकते थे। ध्यान दें कि 410 गॉन का अर्थ है कि URL हमेशा के लिए चला जाने की योजना है; यह कुछ खोज इंजनों के लिए मायने रखता है।
किसी पेज को क्रॉल करने से इंजन को ब्लॉक करना, जैसे कि robots.txt में पेज को छोड़ना, काम नहीं करेगा। Robots.txt केवल रेंगने का निर्देश देता है, अनुक्रमण का नहीं। एक खोज इंजन अभी भी पृष्ठ के लिए एक खोज परिणाम बना सकता है, लिंक और संग्रहीत डेटा से पृष्ठ सामग्री का उल्लेख कर सकता है।