Бонус ассоциации (+100 репутации) и ошибка отключения сайта?
Ошибка 1: бонусы ассоциации без видимой причины.
Этот пользователь присоединился к нашему стеку с 101 репутацией (из бонуса ассоциации). При проверке повторения я вижу еще один стек с 101 повторением и один стек с 1 повторением.
101 на другой стек, казалось , немного случайна , так что я проверил (ровно 10 upvotes возможно?.) - никакой активности. Так что это тоже был бонус ассоциации.
На третьем сайте страница пользователя 404.
Тогда я подумал: «Ну, может быть, есть временный бан, а репутация 404/1 - артефакт запрета». Так что я искал этот сайт несколькими способами; ничего.
Ошибка 2: учетные записи сайтов отделены / отключены друг от друга
Я нашел четвертую учетную запись сайта, которая «изолирована» от других, она не перечисляет другие 3 стека, и они не перечисляют ее. (обратите внимание, что значок пользователя такой же; фиолетовые шевроны). Снова бонус ассоциации; опять же недостаточно активности на сайте для его поддержки.
Как утверждает tinkeringbell, это доказывает, что учетная запись "изолированного" сайта на самом деле является скрытой. Я обнаружил это посредством обычного поиска в [хорошо функционирующей] [4] поисковой системе. Таким образом, это может быть преобразовано в отчет об ошибке / запрос функции, чтобы усложнить задачу.
Ответы
Люди сохраняют свой бонус ассоциации, потому что он привязан не к профилю, на котором вы получаете 200 репутации, а к сетевой учетной записи :
Даже если вы удалите каждый профиль и профиль на stackexchange.com, ваша основная сетевая учетная запись все еще существует, и именно там хранится бонус ассоциации.
Итак, в этом случае есть удаленный профиль, у которого когда-то была репутация более 200, что теперь гарантирует, что каждый раз, когда этот пользователь создает профиль для сайта, он получает бонус ассоциации.
Профиль datascience выглядит удаленным, хотя, как ни странно, он все еще отображается. Кажется, что здесь задействовано какое-то кеширование, что может означать, что его все еще необходимо удалить из списка сетевых профилей.
Что касается второй «ошибки», она вызвана сокрытием сообществ . Модераторы все еще видят их , вот откуда я точно знаю.
Как говорит Тинкерингбелл, я вижу вещи, которые должны быть скрыты.
Я зарабатываю на жизнь решением подобных проблем, поэтому могу рассказать, как это произошло и что с этим делать. Я обнаружил это в общей поисковой системе, которая ведет себя хорошо , что означает, что она подчиняется правилам управления как веб-поиском, так и включением контента в поисковые системы. Обратите внимание, что это добровольные правила, и паук в черной шляпе не может им подчиняться.
Как паук его нашел
- он нашел современную ссылку на страницу где-то на StackExchange,
- он нашел современную ссылку на стороннем веб-сайте,
- он уже знал о существовании страницы из прошлого сканирования.
Я разбил их на 3 случая, чтобы исправить распространенные заблуждения.
Во втором случае веб-мастер (например, StackExchange) не создает никаких внутренних ссылок, а посторонний делает. Предположим, чья-то пользовательская страница ссылается на его веб-страницу на sfu.edu . Без их ведома SFU публикует совокупные данные из своих веб-журналов, включая Referer . Поисковая машина считает их богатым источником данных для обнаружения URL (но не для релевантности ссылок, иначе PageRank). SFU использует rel=nofollow
, но это не директива «не переходить по ссылке», а директива «игнорировать релевантность ссылки».
Третий случай здесь наиболее вероятен. Если у поисковой системы есть URL-адрес, она не удаляет URL-адрес, когда все ссылки на URL-адрес исчезают. Это действительно влияет на релевантность ссылки, но влияет только на рейтинг . Если искатель достаточно конкретная, где только десятки результатов существуют , даже низкоранговая страница поверхности.
Как скрыть это от исправных двигателей
... Предполагая, что StackExchange желает этого. Есть аргументы в обоих направлениях.
Лучшим вариантом является метатег HTML "noindex" (или эквивалент X-Robots в HTTP), как таковой:
<meta name="robots" content="noindex">
Этот тег гласит: «Не включать эту страницу в результаты поиска». Тег также может содержать такие элементы, как nofollow
(что на самом деле означает, что «сканер должен игнорировать ссылки, найденные на этой странице», в отличие от rel=
).
Обратите внимание, что поисковая система должна получить страницу, чтобы увидеть этот тег; не о чем беспокоиться. Я полагаю, вы могли бы использовать его в поле HTTP X-Robots и обслуживать содержимое пустой страницы. Однако в этот момент вы можете так же легко вернуть 403 Forbidden, 404 Not Found или 410 Gone. Обратите внимание, что 410 Gone означает, что URL-адрес планируется удалить навсегда; это важно для некоторых поисковых систем.
Блокировка сканирования страницы системой, например исключение страницы из robots.txt, не сработает. Robots.txt управляет только сканированием, но не индексированием. Поисковая система по-прежнему может создавать результат поиска для страницы, выводя содержимое страницы из ссылок и архивных данных.