연결 보너스 (+100 rep) 및 사이트 연결 끊김 버그?

Aug 17 2020

버그 1 : 명백한 이유없이 협회 보너스.

이 사용자 는 (협회 보너스에서) 101 rep으로 스택에 합류했습니다. 담당자를 확인하면 101 담당자가있는 다른 스택과 1 담당자가있는 스택이 표시됩니다.

다른 스택 의 101 은 약간 우연한 것처럼 보였으므로 (정확히 10 개의 업 보트? 아마도.) 확인했습니다. 활동이 없었습니다. 그래서 그것은 또한 협회 보너스였습니다.

세 번째 사이트에서 사용자 페이지 는 404입니다.

그래서 저는 "음, 일시적인 금지가 있고 404/1 rep은 금지의 아티팩트"라고 생각했습니다. 그래서 저는 그 사이트를 여러 가지 방법으로 검색했습니다. 아무것도.

버그 2 : 서로 분리 / 연결 해제 된 사이트 계정

내가 찾은 것은 다른 사이트에서 "islanded"된 네 번째 사이트 계정으로, 다른 3 개의 스택을 나열하지 않고 나열하지 않았습니다. (사용자 아이콘은 동일합니다. 보라색 쉐브론). 다시 협회 보너스; 이를 지원하기에 사이트 활동이 충분하지 않습니다.


팅커 링벨이 설명했듯이 "섬"사이트 계정이 실제로 숨겨진 계정임을 증명하고 있습니다. 나는 [잘 작동하는] [4] 검색 엔진에 대한 일반적인 웹 검색을 통해 이것을 발견했습니다. 따라서 이것은 버그 보고서 / 기능 요청으로 변형되어 더 어렵게 만들 수 있습니다.

답변

11 Tinkeringbell Aug 17 2020 at 18:43

사람들은 협회 보너스를 유지할 수 있습니다. 왜냐하면 그것은 200 개의 평판을 얻는 프로필이 아니라 네트워크 계정 에 연결되어 있기 때문입니다 .

모든 단일 프로필과 stackexchange.com의 프로필을 삭제하더라도 기본 네트워크 계정은 여전히 ​​존재하며 여기에 연결 보너스가 저장됩니다.

따라서이 경우 한때 평판이 200 개가 넘는 삭제 된 프로필이 있습니다. 이제이 사용자가 사이트에 대한 프로필을 만들 때마다 연결 보너스를받을 수 있습니다.

데이터 과학 프로필이 삭제 된 것처럼 보이지만 여전히 표시되는 것이 이상합니다. 어떤 종류의 캐싱이 관련 되어있는 것 같습니다. 이는 여전히 네트워크 프로필 목록에서 삭제해야 함을 의미 할 수 있습니다.

두 번째 '버그'는 커뮤니티 숨기기로 인해 발생합니다 . 중재자 는 여전히 이러한 항목을 볼 수 있습니다 . 이것이 제가 확실히 아는 방법입니다.

5 Harper-ReinstateMonica Aug 18 2020 at 00:16

팅커 링벨이 말했듯이, 나는 숨겨야 할 것들을보고 있습니다.

나는 생계를 위해 그런 문제를 해결하기 때문에 어떻게 일어 났고 어떻게해야하는지 말할 수 있습니다. 내가하는 일반적인 웹 검색 엔진이 발견 잘 행동 이 의미 규칙을 따르는 검색 엔진에서 웹 스파이더 및 콘텐츠를 포함 모두를 지시하십시오. 이들은 자발적인 규칙이며 블랙 햇 스파이더는 순종하지 않을 수 있습니다.

거미가 그것을 발견 한 방법

  • StackExchange 어딘가에 페이지에 대한 최신 링크를 찾았 습니다.
  • 타사 웹 사이트에서 최신 링크를 찾았습니다 .
  • 그것은 이미 알고 과거 크롤링에서 페이지의 존재에 대해.

일반적인 오해를 해결할 수 있도록 세 가지 사례로 분류했습니다.

두 번째 경우는 웹 마스터 (예 : StackExchange)가 내부 링크를 생성하지 않지만 외부인이 생성하는 경우입니다. 누군가의 사용자 페이지가 sfu.edu 의 웹 페이지에 링크되어 있다고 가정하십시오 . 그들에게 알려지지 않은 SFU는 Referer를 포함하여 웹 로그에서 집계 데이터를 게시 합니다. 검색 엔진 은 URL 검색을 위해 이를 풍부한 데이터 소스로 간주합니다 (링크 관련성 (PageRank라고도 함)이 아님). SFU의 사용 rel=nofollow하지만, 즉 하지 에 "무시 링크 관련"지시어 인 "링크를 따르지 않는"지시문.

세 번째 경우가 여기에서 가장 가능성이 높은 경우입니다. 검색 엔진에 URL이 있으면 URL에 대한 모든 링크가 사라질 때 URL을 삭제하지 않습니다. 링크 관련성에 영향을 미치지 만 순위 에만 영향을 미칩니다 . 검색자가 수십 개의 검색 결과 만 존재 하는 위치에 대해 충분히 구체적이면 순위가 낮은 페이지도 표시됩니다.

잘 작동하는 엔진에서 숨기는 방법

... StackExchange가 원한다고 가정합니다. 두 가지 방법 모두 논쟁이 있습니다.

가장 좋은 옵션은 다음과 같은 'NOINDEX'HTML 메타 태그 (또는 HTTP에서 X-Robots에 해당)입니다.

  <meta name="robots" content="noindex">

이 태그는 "검색 결과에이 페이지를 포함하지 않음"이라고 말합니다. 태그에는 nofollow( 과는 달리 실제로 "크롤러가이 페이지에서 찾은 링크를 무시해야 함"을 의미 함) 과 같은 요소 가 포함될 수도 있습니다 rel=.

이 태그를 보려면 검색 엔진이 페이지를 가져와야합니다. 걱정할 필요가 없습니다. X-Robots HTTP 필드에 제공하고 빈 페이지 콘텐츠를 제공 할 수 있다고 가정합니다. 그러나 그 시점에서 403 Forbidden, 404 Not Found 또는 410 Gone을 쉽게 반환 할 수 있습니다. 410 Gone은 URL이 영원히 사라질 예정임을 의미합니다. 이것은 일부 검색 엔진에 중요합니다.

엔진이 페이지를 크롤링하지 못하도록 차단 (예 : robots.txt의 페이지 제외)은 작동하지 않습니다. Robots.txt는 색인 생성이 아닌 크롤링 만 지시합니다. 검색 엔진은 여전히 ​​페이지에 대한 검색 결과를 생성하여 링크 및 보관 된 데이터에서 페이지 콘텐츠를 유추 할 수 있습니다.