¿Bono de asociación (+100 rep) y error de desconexión del sitio?
Error 1: bonificaciones de asociación sin motivo aparente.
Este usuario se unió a nuestra pila con 101 representantes (del bono de asociación). Al comprobar la repetición, veo otra pila con 101 repeticiones y una pila con 1 repetición.
El 101 en la otra pila parecía un poco coincidente (¿exactamente 10 votos a favor? Posiblemente), así que verifiqué - sin actividad. Así que eso también fue un bono de asociación.
En el tercer sitio, la página del usuario es 404.
Entonces pensé "bueno, tal vez haya una prohibición temporal y el representante 404/1 sea un artefacto de la prohibición". Así que busqué en ese sitio de varias formas; nada.
Error 2: cuentas del sitio separadas / desconectadas entre sí
Lo que encontré fue una cuarta cuenta de sitio que está "aislada" de las otras, no enumera las otras 3 pilas y no la enumeran. (tenga en cuenta que el icono de usuario es el mismo; chevrones morados). Nuevamente el bono de asociación; de nuevo, no hay suficiente actividad en el sitio para respaldarlo.
Como analiza tinkeringbell, está demostrando que la cuenta del sitio "isleño" es en realidad una cuenta oculta. Descubrí esto a través de una búsqueda web general en un motor de búsqueda [de buen comportamiento] [4]. Así que esto puede estar transformándose en un informe de error / solicitud de función para hacerlo más difícil.
Respuestas
Las personas pueden mantener su bono de asociación, porque eso no está vinculado al perfil en el que obtiene 200 reputación, sino a la cuenta de la red :
Incluso si elimina todos los perfiles y el de stackexchange.com, su cuenta de red subyacente aún existe, y ahí es donde se almacena el bono de asociación.
Entonces, en este caso, hay un perfil eliminado que alguna vez tuvo más de 200 de reputación, lo que ahora asegura que cada vez que este usuario crea un perfil para un sitio, obtenga el bono de asociación.
El perfil de ciencia de datos parece eliminado, aunque es un poco extraño que siga apareciendo. Parece que hay algún tipo de almacenamiento en caché involucrado que puede significar que aún debe eliminarse de la lista de perfiles de red.
En cuanto al segundo 'error', es causado por comunidades ocultas . Los moderadores aún pueden verlos , así es como estoy seguro.
Como comenta Tinkeringbell, estoy viendo cosas destinadas a estar ocultas.
Resuelvo problemas como ese para ganarme la vida, por lo que puedo hablar sobre cómo sucedió y qué hacer al respecto. Descubrí esto en un motor de búsqueda web general que se comporta bien , lo que significa que obedece las reglas para dirigir tanto el web spidering como la inclusión de contenido en los motores de búsqueda. Tenga en cuenta que estas son reglas voluntarias y una araña de sombrero negro puede no obedecer.
Cómo lo encontró la araña
- encontró un enlace actual a la página en algún lugar de StackExchange,
- encontró un vínculo actual en un sitio web de terceros,
- que ya sabía de la existencia de la página de rastreo pasado.
Los dividí en 3 casos para poder abordar conceptos erróneos comunes.
El segundo caso es aquel en el que un webmaster (es decir, StackExchange) no crea ningún enlace interno, pero un extraño sí lo hace. Suponga que la página de usuario de alguien enlaza con su página web en sfu.edu . Sin que ellos lo sepan, SFU publica datos agregados de sus registros web, incluido Referer . El motor de búsqueda considera que estos son una fuente de datos rica, para el descubrimiento de URL (aunque no para la relevancia del enlace, también conocido como PageRank). SFU utiliza rel=nofollow
, pero esa no es una directiva de "no seguir el enlace", es una directiva de "ignorar la relevancia del enlace".
El tercer caso es el más probable aquí. Una vez que un motor de búsqueda tiene una URL, no suelta la URL cuando todos los enlaces a la URL desaparecen. Eso tiene un efecto en la relevancia del enlace, pero solo afecta la clasificación . Si el buscador es lo suficientemente específico para donde solo existen docenas de resultados , incluso una página de clasificación baja emergerá.
Cómo ocultarlo de los motores que se comportan bien
... Suponiendo que StackExchange lo desee. Hay argumentos en ambos sentidos.
La mejor opción es la metaetiqueta HTML "noindex" (o el equivalente de X-Robots en HTTP), como tal:
<meta name="robots" content="noindex">
Esta etiqueta dice "no incluir esta página en los resultados de búsqueda". La etiqueta también puede tener elementos como nofollow
(que en realidad significa "el rastreador debe ignorar los enlaces que se encuentran en esta página", a diferencia de rel=
).
Tenga en cuenta que el motor de búsqueda tiene que buscar la página para poder ver esta etiqueta; eso no es nada de qué preocuparse. Supongo que podría publicarlo en el campo HTTP de X-Robots y mostrar contenido de página en blanco. Sin embargo, en ese punto, podría devolver fácilmente 403 Forbidden, 404 Not Found o 410 Gone. Tenga en cuenta que 410 Gone significa que se planea que la URL desaparezca para siempre; esto es importante para algunos motores de búsqueda.
No funcionará bloquear el motor para que no rastree una página, por ejemplo, excluir la página en robots.txt. Robots.txt solo dirige el rastreo, no la indexación. Un motor de búsqueda aún puede crear un resultado de búsqueda para la página, infiriendo el contenido de la página a partir de enlaces y datos archivados.