アソシエーションボーナス(+100 rep)とサイト切断のバグ?

Aug 17 2020

バグ1:明らかな理由のないアソシエーションボーナス。

このユーザーは、101 rep(アソシエーションボーナスから)でスタックに参加しました。担当者を確認すると、101担当者のスタックと1担当者のスタックが表示されます。

他のスタックの101は少し偶然のように見えたので(正確に10の賛成ですか?おそらく。)、私はチェックしました-アクティビティはありません。だから、それも協会のボーナスでした。

3番目のサイトでは、ユーザーのページは404です。

それで私は「まあ、一時的な禁止があり、404/1の担当者は禁止の成果物だ」と思いました。そこで、私はそのサイトをいくつかの方法で検索しました。何も。

バグ2:サイトアカウントが互いに分離/切断されている

私が見つけたのは、他のアカウントから「アイランド化」された4番目のサイトアカウントでした。他の3つのスタックはリストされておらず、リストされていません。(ユーザーアイコンは同じで、紫色のシェブロンであることに注意してください)。再び協会ボーナス。繰り返しますが、それをサポートするのに十分なサイトアクティビティがありません。


ティンカリングベルが説明しているように、「アイランド化された」サイトアカウントが実際には非表示のアカウントであることを証明しています。私は[行儀の良い] [4]検索エンジンでの一般的なウェブ検索を通してこれを発見しました。したがって、これはバグレポート/機能リクエストに変形して、それをより困難にする可能性があります。

回答

11 Tinkeringbell Aug 17 2020 at 18:43

それはあなたが200の評判を得るプロファイルに結び付けられているのではなく、ネットワークアカウントに結び付けられているので、人々は彼らの関連付けボーナスを維持することができます:

すべてのプロファイルとstackexchange.comのプロファイルを削除しても、基盤となるネットワークアカウントは引き続き存在し、そこに関連付けボーナスが保存されます。

したがって、この場合、かつて200を超える評判があった削除されたプロファイルがあり、このユーザーがサイトのプロファイルを作成するたびに、関連付けボーナスを獲得できるようになりました。

データサイエンスプロファイルは削除されたように見えますが、まだ表示されているのはちょっと奇妙です。ネットワークプロファイルのリストからこれを削除する必要があることを意味する、何らかのキャッシュが関係しているようです。

2番目の「バグ」に関しては、それはコミュニティを隠すことによって引き起こされます。モデレーターはまだこれらを見ることができます、それは私が確かに知っている方法です。

5 Harper-ReinstateMonica Aug 18 2020 at 00:16

Tinkeringbellが話しているように、私は物事が隠されることを意図しているのを見ています。

私はそのような問題を生計のために解決するので、それがどのように起こったのか、そしてそれに対して何をすべきかについて話すことができます。私はこれを、行儀の良い一般的なWeb検索エンジンで発見しました。つまり、Webスパイダーとコンテンツの検索エンジンへの組み込みの両方を指示するためのルールに従います。これらは自主的な規則であり、ブラックハットスパイダーは従わない場合があることに注意してください。

クモがそれを見つけた方法

  • StackExchangeのどこかにページへの現代的なリンクが見つかりました。
  • サードパーティのWebサイトで最新のリンクを見つけました。
  • それはすでに知っていた過去のクロールからページの存在について。

よくある誤解に対処できるように、これらを3つのケースに分けました。

2番目のケースは、ウェブマスター(つまり、StackExchange)が内部リンクを作成しないが、部外者が作成するケースです。誰かのユーザーページがsfu.eduのWebページにリンクしているとします。彼らには知られていないが、SFUはRefererを含むWebログから集計データを公開している。検索エンジンは、これらをURL検出のための豊富なデータソースと見なします(ただし、リンクの関連性、別名PageRankではありません)。SFUの用途rel=nofollowが、それはありません「無視リンクの関連性」ディレクティブである「リンクに従わない」ディレクティブ、。

3番目のケースは、ここで最も可能性の高いケースです。検索エンジンがURLを取得すると、そのURLへのすべてのリンクが消えてもURLは削除されません。これはリンクの関連性に影響しますが、ランキングにのみ影響します。検索者が数十の結果しか存在しない場所に十分に具体的である場合、ランクの低いページでさえ表示されます。

正常に動作するエンジンからそれを隠す方法

... StackExchangeが望むと仮定します。どちらの方法にも議論があります。

最適なオプションは、「noindex」HTMLメタタグ(またはHTTPで同等のX-Robots)です。

  <meta name="robots" content="noindex">

このタグは、「このページを検索結果に含めない」ことを示しています。タグには、次のような要素を含めることもできますnofollow実際には、「クローラーはこのページにあるリンクを無視する必要があります」という意味rel=です)。

このタグを表示するには、検索エンジンがページをフェッチする必要があることに注意してください。それは心配する必要はありません。X-Robots HTTPフィールドで提供し、空白のページコンテンツを提供できると思います。ただし、その時点で、403 Forbidden、404 Not Found、または410Goneを簡単に返すことができます。410 Goneは、URLが永久になくなる予定であることを意味することに注意してください。これは一部の検索エンジンにとって重要です。

robots.txtのページを除外するなど、エンジンによるページのクロールをブロックしても機能しません。Robots.txtはクロールのみを指示し、インデックス作成は指示しません。検索エンジンは、リンクやアーカイブデータからページのコンテンツを推測して、ページの検索結果を作成する場合があります。