Historique des algorithmes de Google. L'algorithme de recherche « magique » de Google

Maison / Récupération de données

En mars, la plupart des blogs anglophones parlent de Google Fred, sur le fait que de nombreux sites ont coulé et que le moteur de recherche a déployé un nouvel algorithme.

Selon beaucoup, l'algorithme affecte les micro-sites qui drainent leur trafic vers des programmes d'affiliation, ainsi que les projets qui contiennent beaucoup de publicité.

DANS l'épisode d'aujourd'hui nous regarderons :

  • c'est quoi cet algorithme de Google Fred ?
  • pourquoi tant de gens ont-ils écrit sur lui ?
  • qu'est-ce que cela peut affecter ?
  • quels types de sites ont planté
  • qu'en pensons-nous
  • cause et effet

Passons au visionnage de la vidéo :

Photo du tableau :

Important: Si vous avez des questions, n'hésitez pas à les poser dans les commentaires. Je me ferai un plaisir d'y répondre !

Qu'est-ce que Google Fred ?En fait?

Les résultats de recherche Google ont commencé à trembler vers les 8 et 9 mars. Ensuite, la majorité y a prêté attention.

Surtout lorsque les sites tombaient complètement en panne, beaucoup se précipitaient vers les forums et les sites spécialisés pour découvrir ce qui se passait.

Voici ce qu’un certain nombre de services de suivi des modifications d’algorithmes ont montré :

Comme vous pouvez le constater, il y a eu des changements. Beaucoup les ont également ressentis en termes de positions et de baisses de trafic.

Pourquoi le nomFRED ?

En fait, le nom a été inventé par un représentant de Google, c'est comme ça que c'est arrivé:

Ils ont donc repris le nom et ont commencé à en parler dans les blogs de l'industrie et dans les médias.

Pour quoi punit-il ?

Ils disent quoi :

  • présence d'un grand nombre de publicités
  • sites affiliés conçus uniquement pour drainer du trafic
  • sites avec un mauvais contenu ou générés

Des sites qui apportent généralement peu d'avantages à l'utilisateur.

Mais il y a une chose :

  • les sites complètement blancs se sont également affaissés
  • non adapté aux programmes d'affiliation

Alors c'est quoi ce Fred ?

En fait, il s’agit du nom « non officiel » de la mise à jour du moteur de recherche. Systèmes Google. Pas du tout un algorithme.

Google a simplement modifié quelques nuances dans les algorithmes existants, et les optimiseurs, les webmasters et les analystes l'ont vu et ressenti. Ils ont récupéré le nom et diffusé l’information autant que possible.

Google lui-même n’a officiellement rien annoncé et il n’y a nulle part où trouver des informations sur Fred sur le blog de Google destiné aux webmasters.

Que pensons-nous de la mise à jour ?CV

  • il y a eu une mise à jour - c'est juste un fait
  • Il comprenait des sites qui n'étaient même pas liés à
  • également des sites qui ne correspondent pas à la description du site pour drainer le trafic vers des programmes d'affiliation
  • quelques notifications sur Google Console de recherche Non
  • Pour certains projets, les positions dansent constamment
  • certains se sont brouillés, puis sont revenus

Alors qu'est-ce que c'est ?

Nous ne sommes pas du tout sûrs qu’il s’agisse d’un nouvel algorithme. Si l'on prend en compte que :

  • Google met à jour ses algorithmes plus de 600 fois par an
  • Il a Penguin - responsable des liens, Panda - pour le contenu, Human bird - le nouveau noyau de l'algorithme.

Il est clair qu’ils testent tout en permanence. En temps réel ou non.

Si votre site a été affecté par la mise à jour Fred, à quoi devez-vous faire attention ?

  1. Qualité du profil de lien
  2. Qualité du contenu
  3. Vérifiez la console de recherche Google
  4. Vérifiez techniquement tout sur le site

En fait, il peut y avoir absolument toutes les raisons. Ils dépendent aussi de niches.

Comme chacun le sait, il y a des massacres dans de nombreux créneaux. De ce fait, Google leur accorde beaucoup d’attention et ne cesse de serrer la vis.

CV

  • Fred n'est pas un algorithme
  • Juste une mise à jour de Google
  • Ce qui a touché de nombreux sites
  • Ils disent uniquement pour le contenu et la publicité, mais je ne pense pas (pour les liens aussi)
  • La mise à jour est nouvelle, mais elle résout les mêmes problèmes
  • Nous devons mieux planifier les liens, les contenus, les connexions entre les sites
  • Il y aura alors moins de chances d'être sanctionné

Comme je l’ai dit dans la vidéo, nous n’avons constaté aucun affaissement significatif à cette époque, et même aujourd’hui. Il y a des exemples, mais dans le contexte général, ils ne sont pas nombreux. La plupart des sites n'ont fait qu'augmenter leur visibilité et leur trafic.

C'est ainsi que les choses se passent.

PS: Le message principal de cette mise à jour est de garantir que tout le monde accepte les règles de Google pour les webmasters.

P.P.S.: Bien que Google ait confirmé cet algorithme, voici la réponse sur Twitter :

Nous connaissons tous les algorithmes existants moteurs de recherche Yandex et Google. C'est pour se conformer à leurs règles « constamment mises à jour » que tous les optimiseurs se creusent la tête avec de plus en plus de nouvelles façons d'arriver au TOP des résultats de recherche. Parmi les dernières innovations ressenties par les propriétaires de sites de la part du PS figurent les exigences de mobilité des ressources Internet et une diminution de la recherche de ces sites. qui ne sait pas comment acheter des liens. Quels algorithmes, introduits jusqu'à présent dans la recherche, ont influencé de manière significative le classement des sites ? En fait, tous les optimiseurs ne savent pas quelles technologies, quand et pourquoi ont été créées afin de donner la position la plus juste à chaque site dans la recherche et de débarrasser les résultats de recherche des « indésirables ». Nous examinerons l'historique de la création et du développement des algorithmes de recherche dans cet article.

Yandex : types d'algorithmes de la conception à aujourd'hui

Les algorithmes n’ont pas tous été créés en un seul jour et chacun d’entre eux est passé par de nombreuses étapes de raffinement et de transformation. La majeure partie des noms des algorithmes Yandex sont constitués de noms de villes. Chacun d'eux a ses propres principes de fonctionnement, points d'interaction et caractéristiques fonctionnelles uniques qui se complètent harmonieusement. De quels algorithmes dispose Yandex et comment ils affectent les sites, nous y réfléchirons plus en détail.

En plus des informations sur les algorithmes de recherche, un article sur . Je vous suggère de lire des conseils sur la création de contenu SEO de haute qualité adapté aux moteurs de recherche Google et Yandex.

Magadan

L'algorithme Magadan reconnaît les abréviations et identifie les noms avec les verbes. Il a été lancé pour la première fois en mode test en avril 2008 et la deuxième version permanente a été publiée en mai de la même année.

Particularités

"Magadan" fournit à l'utilisateur qui a écrit l'abréviation des sites Web et des transcriptions. Par exemple, si vous avez saisi la demande du ministère de l'Intérieur dans la barre de recherche, en plus des sites avec un tel mot-clé, la liste contiendra également ceux qui n'ont pas d'abréviation, mais qui ont le décodage « Ministère de l'Intérieur ». Affaires". La reconnaissance de translittération a donné aux utilisateurs la possibilité de ne pas penser dans quelle langue écrire correctement les noms, par exemple Mercedes ou Mercedes. En plus de tout cela, Yandex a inclus près d'un milliard de sites étrangers dans la liste d'indexation. La reconnaissance de parties du discours et leur reconnaissance comme requêtes de recherche équivalentes ont permis d'inclure des sites avec des phrases clés différentes dans une seule recherche. Autrement dit, pour le mot-clé « optimisation de site Web », les sites contenant l'expression « optimiser le site Web » sont également affichés dans les résultats de recherche.

Résultats

Après le lancement de l'algorithme Magadan, cela est devenu plus difficile, principalement pour les sites de faible autorité. Dans le classement, les positions pour les requêtes pertinentes des ressources jeunes et peu visitées ont diminué, et celles qui font autorité, même avec un contenu de mauvaise qualité, se sont déplacées vers les premières places, en tenant compte de la morphologie et de la dilution des mots-clés. En raison de l'inclusion de la translittération, les ressources étrangères sont également entrées dans le TOP du Runet. Autrement dit, un texte optimisé sur un sujet pourrait apparaître sur la deuxième page, uniquement parce que, soi-disant, il existe un site plus visité sur le même sujet ou un site étranger similaire. Pour cette raison, la concurrence pour les mots-clés à faible fréquence et les expressions étrangères a fortement augmenté. La publicité est également devenue plus chère - les tarifs ont augmenté, car auparavant les sites n'étaient en concurrence que sur une demande spécifique, et maintenant ils rivalisent également avec des « collègues » avec des phrases morphologiques, une translittération, des mots qui se transforment en une autre partie du discours.

Nakhodka

L'algorithme « Nakhodka » est un thésaurus étendu et une attention particulière portée aux mots vides. Relâché sur le ring immédiatement après Magadan. Classe les principaux résultats de recherche depuis septembre 2008.

Particularités

Il s'agit d'une approche innovante de l'apprentissage automatique : le classement est devenu plus clair et plus correct. Le dictionnaire élargi des connexions et l'attention portée aux mots vides dans l'algorithme de Nakhodka ont grandement influencé les résultats de la recherche. Par exemple, la demande « Optimisation du référencement» était désormais associé au mot-clé « optimisation SEO », et les sites commerciaux étaient dilués portails d'information, y compris des extraits développés avec des réponses apparaissaient dans la liste, et Wikipédia était affiché d'une manière spéciale.

Résultats

Les sites commerciaux ont mis davantage l'accent sur les requêtes commerciales, car la concurrence s'est intensifiée à plusieurs reprises pour les expressions informatives et non spécifiques. À leur tour, les plateformes d'information ont pu étendre leur monétisation à l'aide de pages de recommandations en participant à programmes d'affiliation. Les principaux sites d'information, promus par des demandes commerciales, ont commencé à vendre des liens de commande. La concurrence est devenue plus rude.

Arzamas

Algorithme "Arzamas" - statistiques lexicales introduites requêtes de recherche et une référence géographique du site a été créée. La première version d'« Arzamas » (avril 2009) sans géodépendance a été immédiatement publiée dans les principaux résultats de recherche, et « Arzamas 2 » avec un classificateur pour relier le site à la région a été annoncé en août 2009.

Particularités

La suppression du lien vers les homonymes a facilité la vie de l'utilisateur, car désormais l'expression « tarte américaine » ne revenait que sur les sites sur le thème du cinéma, sans aucune recette de desserts, comme cela aurait pu être le cas auparavant. Les liens avec la région ont fait une percée, déplaçant les phrases clés avec l'ajout de la ville plusieurs points plus bas. Désormais, l'utilisateur pouvait simplement saisir le mot « restaurants » et voir dans les leaders uniquement les sites de la ville où il se trouve. Si vous vous en souvenez, vous auriez dû saisir auparavant une phrase plus spécifique, par exemple « Restaurants à Saint-Pétersbourg », sinon Yandex aurait pu renvoyer la réponse « précisez la demande - trop d'options ont été trouvées ». Les mots-clés géo-indépendants renvoyaient uniquement les sites pertinents à la demande de n'importe quelle région, sans référence.

Résultats

Hourra! Enfin, les sites des petites régions ont cessé de concurrencer les grandes villes. Il est désormais beaucoup plus facile d'atteindre le TOP dans sa région. C'est à cette époque que le service « promotion régionale » est offert. L'algorithme Armazas a permis aux petites entreprises de se développer plus rapidement dans leur domaine, mais le piège restait. Yandex n'a pas pu déterminer la géolocalisation de tous les sites. Et comme vous le comprenez vous-même, sans attachement, les ressources sont restées, pour le moins, dans un endroit peu agréable. L'examen d'une demande de géodépendance pouvait durer plusieurs mois, et les jeunes sites sans masse de trafic et de liens (il y avait une restriction sur les TIC) ne pouvaient généralement pas déposer de demande pour leur attribuer une régionalité. C'est une arme à double tranchant.

Snejinsk

L'algorithme de Snezhinsk renforce la géodépendance et clarifie la pertinence des requêtes par rapport aux résultats de recherche grâce à la technologie d'apprentissage automatique Matrixnet. L'annonce a eu lieu en novembre 2009 et le modèle amélioré appelé « Konakovo » est entré en service en décembre de la même année.

Particularités

Les résultats de recherche sont devenus plus précis par rapport aux questions saisies. La liaison de géolocalisation joue désormais un rôle particulier : les sites commerciaux n'étaient pas associés aux régions par l'algorithme de Snezhinsk, ils ont donc été exclus des résultats de recherche. Les mots-clés qui ne sont pas liés à un emplacement sont identifiés avec des ressources d'information. L'architecture complexe de calcul de la pertinence a grandement compliqué la vie des optimiseurs, qui ont remarqué qu'au moindre changement d'un des indicateurs, la position du site dans les résultats de recherche changeait instantanément.

Résultats

A cette époque, il avait été constaté que l'achat de liens externes vers des sites jeunes affectait trop lentement les performances des nouvelles ressources, si l'on compare un achat similaire à un site présent depuis longtemps sur le marché Internet. De nouvelles méthodes permettant de déterminer la pertinence du contenu par rapport aux requêtes de recherche ont supprimé des résultats de recherche les sites dont les textes étaient sursaturés d'expressions clés. Une nouvelle ère de texte de qualité avait commencé, où il devait y avoir une mesure dans tout ; sans cela, le site pourrait simplement tomber sous le coup de sanctions pour spam. Les ressources commerciales ont commencé à paniquer, car il était presque impossible d'atteindre le TOP en utilisant des mots-clés géo-indépendants (et c'étaient les plus fréquents). À cet égard, un article a été publié sur le blog Yandex, que nous aimerions idéalement voir sur les premières pages des organisations commerciales qui n'écrivent pas magnifiquement, mais font bien leur travail, mais pour cela, nous devrons enseigner des algorithmes pour évaluer la qualité. des services offerts. Comme cela s'est avéré être une tâche impossible pour le moment, la réputation des ressources Internet commerciales a joué un rôle clé dans les résultats de recherche, tant en ligne que hors ligne.

Obninsk

L'algorithme « Obninsk » améliore le classement, élargit la base géographique des sites Internet et réduit l'impact des liens SEO artificiels sur les performances du site. Lancé en septembre 2010.

Particularités

La popularité de l'achat en masse de liens diminue et le concept d'« explosion de liens » apparaît, dont tout le monde avait désormais peur. Les concurrents pourraient se nuire mutuellement en trompant l’algorithme en achetant un grand nombre de liens provenant de « mauvaises sources » vers leur « collègue ». Après cela, le concurrent a disparu des résultats de recherche et n'a pas pu y arriver pendant longtemps. Des mots géo-sensibles sont plus souvent ajoutés sur différentes pages de sites commerciaux pour attirer l'attention du robot sur le travail avec cette région.

Résultats

Les sites commerciaux sont désormais plus attentifs à leur réputation, ce qui est une bonne nouvelle, mais beaucoup ont encore recours à des méthodes sales (gonfler artificiellement le trafic et acheter des avis). Après la sortie de l'algorithme d'Obninsk, les achats sont devenus plus populaires liens éternels et des articles, l'achat habituel de liens n'influence plus autant le classement qu'avant, et si la source du backlink tombait sous le coup de sanctions, cela pourrait conduire à une réaction en chaîne. Des textes SEO de haute qualité sont un attribut obligatoire de toute ressource. Un site jeune avec un contenu unique et correctement optimisé pourrait atteindre le TOP.

Krasnodar

Algorithme "Krasnodar" - mise en œuvre de la technologie "Spectrum" pour diluer les résultats de recherche, élargir les extraits et indexer les réseaux sociaux. Le lancement a eu lieu en décembre 2010.

Particularités

La technologie « Spectrum » a été créée pour classer les requêtes en catégories et a été utilisée dans les cas où des phrases clés non spécifiques étaient saisies. "Krasnodar" a dilué les résultats de la recherche, offrant à cet utilisateur des options plus diverses. Par exemple, avec l'expression « photo de Moscou » dans la recherche, on pourrait voir non seulement des paysages généraux, mais aussi des photographies classées par catégories telles que « attractions », « cartes », « restaurants ». L'accent a été mis sur les noms uniques de quelque chose (sites, modèles, produits) - les détails ont commencé à se démarquer. Les extraits enrichis ont permis d'afficher immédiatement les contacts des utilisateurs et d'autres données de l'organisation dans les résultats de recherche.

Résultats

Le classement des sites commerciaux a considérablement changé ; une attention particulière est portée aux détails (fiches produits, séparation de la description courte de la description générale). Le réseau social sur VK a commencé à être indexé et les profils des participants sont désormais également visibles directement dans les résultats de recherche. Les publications dans les forums pourraient être classées en première position si elles apportaient une réponse plus détaillée à la question de l'utilisateur que les autres sites.

Reykjavík

Algorithme « Reykjavik » - la personnalisation des résultats de recherche a été créée et des technologies « Assistants » ont été ajoutées pour afficher les résultats préliminaires de la requête. Formule d'indication de saisie améliorée. L'algorithme a été lancé en août 2011.

Particularités

La devise du résultat de recherche personnalisé est « Chaque utilisateur a ses propres résultats ». Le système de mémorisation des intérêts des chercheurs fonctionnait grâce à des cookies, de sorte que si les requêtes de l'utilisateur étaient plus souvent liées, par exemple, à des ressources étrangères, la prochaine fois, elles étaient affichées dans les leaders des résultats de recherche. Les indices dans la barre de recherche sont mis à jour toutes les heures, élargissant ainsi les possibilités d'une recherche spécifique. La concurrence pour les requêtes à haute fréquence augmente avec une force incroyable.

Résultats

Les sites d'information réputés atteignent plus souvent le TOP en raison de leur noyau sémantique élargi (la présence d'un grand nombre de requêtes clés différentes à basse fréquence). L'augmentation du nombre de pages pour des requêtes de recherche spécifiques sur les sites d'information a commencé à jouer un rôle majeur après la sortie de l'algorithme de Reykvik. Chaque site a essayé d'accéder aux favoris de l'utilisateur afin de faire partie du système de personnalisation ; pour cela, des méthodes d'abonnement au flux RSS et des conseils de bannières contextuelles pour mettre le site en signet ont été utilisés. Les ressources Internet ont commencé à accorder davantage d'attention à une approche individuelle plutôt qu'à faire pression sur les masses.

Kaliningrad

L'algorithme « Kaliningrad » est une personnalisation globale de la recherche et des chaînes de recherche, axée sur les facteurs comportementaux. Le lancement de Kaliningrad en décembre 2012 a considérablement augmenté le coût des services de référencement.

Particularités

Les intérêts de l'utilisateur ont bouleversé l'ensemble des résultats de recherche - les propriétaires de sites, qui auparavant ne se souciaient pas du confort du visiteur sur le site, ont commencé à perdre du trafic à une vitesse fulgurante. Désormais, Yandex divise ses intérêts en court et long terme, mettant à jour ses bases de données d'espionnage une fois par jour. Cela signifiait qu'aujourd'hui et demain, pour la même requête, le même utilisateur pourrait voir un résultat complètement différent. Les intérêts jouent désormais un rôle particulier pour un utilisateur qui était auparavant intéressé par les voyages lorsqu'il tapait l'expression taxi - les services de taxi sont affichés, et pour quelqu'un qui regarde constamment des films - il recevra tout sur le film comique « Taxi » dans les résultats de recherche . Dans la barre de recherche de chaque personne « avide d’informations », des conseils sur ses intérêts antérieurs sont désormais affichés en première position.

Résultats

Les optimiseurs ont commencé à couvrir de plus en plus de moyens de fidéliser l'utilisateur : la convivialité et la conception se sont améliorées, le contenu a été créé plus diversifié et de meilleure qualité. En quittant, des fenêtres telles que « Êtes-vous sûr de vouloir quitter la page » pourraient apparaître et l'utilisateur serait regardé par le visage triste d'une créature. Des liens de pages bien pensés et un menu toujours accessible ont amélioré les indicateurs d’activité des utilisateurs, ce qui a augmenté les positions des sites dans les résultats de recherche. Les sites qui n'étaient pas clairs pour un large éventail d'internautes étaient d'abord simplement rétrogradés, puis généralement suspendus à la fin de la liste des résultats proposés.

Dublin

Algorithme de Dublin - Personnalisation améliorée en identifiant les objectifs actuels. Cette version modernisée de « Kaliningrad » a été dévoilée au monde en mai 2013.

Particularités

La technologie comprend une fonction permettant de suivre l'évolution des intérêts des utilisateurs. Autrement dit, s’il existe deux vues de recherche complètement différentes sur une certaine période de temps, l’algorithme préférera cette dernière et l’inclura dans les résultats de la recherche.

Résultats

Pour les sites web, pratiquement rien n’a changé. La lutte continue non seulement pour le trafic, mais aussi pour l’amélioration des indicateurs comportementaux. Les anciennes présentations de sites Web commencent à être abandonnées car il est plus facile d’en créer une nouvelle que d’essayer de réparer quelque chose sur l’ancienne. L'offre de services de modèles de sites Web augmente et la concurrence pour des mises en page de ressources Web pratiques et esthétiques commence.

Îles

Algorithme « Îles » - une technologie a été introduite pour afficher des blocs interactifs dans les résultats de recherche, permettant à l'utilisateur d'interagir avec le site directement sur la page de recherche Yandex. L'algorithme a été lancé en juillet 2013, avec une proposition aux webmasters de soutenir activement la version bêta et d'utiliser des modèles pour créer des « îles » interactives. La technologie est actuellement testée à huis clos.

Particularités

Désormais, lors de la recherche d'informations pouvant être trouvées immédiatement à partir de la recherche, l'utilisateur se voit proposer des « îles » - des formulaires et d'autres éléments avec lesquels il est possible de travailler sans visiter le site. Par exemple, vous recherchez un film ou un restaurant spécifique. Pour le film dans la recherche et à droite de celui-ci, des blocs seront affichés avec la couverture du film, son titre, son casting, les horaires des séances dans les cinémas de votre ville et un formulaire d'achat de billets. Le restaurant affichera sa photo, son adresse, ses numéros de téléphone et son formulaire de réservation de table.

Résultats

Rien de significatif n’a changé dans le classement des sites au début. La seule chose qui est devenue perceptible est l'apparition de ressources Web avec des blocs interactifs en premier lieu et à droite des résultats de recherche. Si le nombre de sites participant aux tests bêta était important, ils pourraient supplanter les sites classiques en raison de leur attractivité et de leur attrait pour les utilisateurs. Les référenceurs réfléchissent à améliorer la visibilité de leur contenu dans les résultats de recherche en ajoutant plus de photos, de vidéos, de notes et d'avis. La vie est meilleure pour les boutiques en ligne - les fiches produits correctement configurées peuvent constituer une excellente « île » interactive.

Minusinsk

L'algorithme "Minusinsk" - lors de l'identification des liens SEO en tant que tels, qui ont été achetés pour fausser les résultats du classement de recherche, un filtre a été appliqué au site, ce qui a considérablement gâché la position du site. « Minusinsk » a été annoncée en avril 2015 et est pleinement entrée en vigueur en mai de la même année. C’est à cet algorithme que le fameux est associé.

Particularités

Avant la sortie de Minusinsk, en 2014, Yandex a désactivé l'influence des liens SEO pour de nombreuses clés commerciales à Moscou pour tester et analyser les résultats. Le résultat s'est avéré prévisible - la masse de liens achetés est toujours utilisée, mais pour le moteur de recherche, il s'agit de spam. La sortie de « Minusinsk » a marqué le jour où les propriétaires de sites ont dû nettoyer leurs profils de liens et utiliser le budget consacré à la promotion des liens pour améliorer la qualité de leur ressource Internet.

Résultats

Les sites « réputés » qui ont atteint TOP grâce à l'achat groupé de liens ont quitté les premières pages, et certains ont été sanctionnés pour violation des règles. Des sites jeunes et de haute qualité qui ne s'appuient pas sur des backlinks se sont soudainement retrouvés dans le TOP 10. Les sites « pris dans la distribution » qui n'ont pas voulu attendre longtemps ont créé de nouveaux sites, transférant le contenu et mettant un terme aux anciens, ou astucieusement chamanisé avec des redirections. Après environ 3 mois, nous avons trouvé une faille dans l’algorithme qui nous permet de supprimer ce filtre presque instantanément.

La convivialité et le contenu commencent à être améliorés en masse. Les liens sont achetés avec encore plus de soin et le contrôle des backlinks devient l'une des responsabilités fonctionnelles de l'optimiseur.

Selon les données actuelles, si vous achetez des liens de manière inappropriée, vous pouvez obtenir un filtre même pour 100 liens. Mais si la masse de liens est correctement diluée, vous pouvez alors acheter en toute sécurité des milliers de liens, comme au bon vieux temps. Autrement dit, les budgets de liens pour cette même dilution, qui a été jouée par la foule et les mentions, ont considérablement augmenté.

Vladivostok

L'algorithme de Vladivostok est l'introduction dans la technologie de recherche de la vérification d'un site pour une compatibilité totale avec les appareils mobiles. Le démarrage complet du projet a eu lieu en février 2016.

Particularités

Yandex a fait un pas de plus vers les utilisateurs mobiles. L'algorithme de Vladivostok a été développé spécialement pour eux. Désormais, afin d’être mieux classé dans les recherches mobiles, un site Web doit répondre aux exigences d’adaptation mobile. Pour devancer vos concurrents dans les résultats de recherche, une ressource Internet doit s'afficher correctement sur n'importe quel appareil Web, y compris les tablettes et les smartphones. "Vladivostok" vérifie l'absence de plugins Java et Flash, l'adaptabilité du contenu à la largeur de l'écran (capacité du texte sur toute la largeur de l'écran), la facilité de lecture du texte et la possibilité de cliquer confortablement sur les liens et les boutons.

Résultats

Au moment du lancement de l'algorithme de Vladivostok, seuls 18 % des sites se sont avérés adaptés aux mobiles - le reste a dû se débarrasser rapidement de la « lourdeur » des pages qui ne s'affichaient pas ou empêchaient l'affichage correct du contenu sur smartphones et tablettes. Le principal facteur qui influence le classement d’un site Web dans les résultats de recherche mobile est le comportement de l’utilisateur mobile. Du moins pour l'instant. Après tout, il n’existe pas beaucoup de sites parfaitement adaptés aux mobiles. places gratuites dans la recherche sont occupés par ceux qui sont capables de fournir à l'utilisateur les conditions les plus confortables, même si ce n'est pas complètement. Les sites qui ne sont pas adaptés aux appareils mobiles ne sont pas exclus de la recherche mobile, mais sont simplement classés moins bien que ceux qui ont obtenu les meilleurs résultats en matière d'amélioration de la qualité des services pour les utilisateurs intelligents. Pour le moment le plus vue populaire commander des mises en page de sites Web - adaptatives et non mobiles, comme on pourrait le penser. Les sites qui satisfont à toutes les exigences de l'algorithme reçoivent le nombre maximum de trafic mobile dans votre niche.

Google : histoire de la création et du développement des algorithmes

Les algorithmes et les filtres de Google ne sont pas encore entièrement compris par les optimiseurs russophones. Toujours pour Google point importantétait de cacher des détails sur les méthodes de classement, en expliquant que les sites « décents » n'ont rien à craindre, et que les sites « malhonnêtes » ont intérêt à ne pas savoir ce qui les attend. Par conséquent, des légendes circulent encore sur les algorithmes de Google et de nombreuses informations n'ont été obtenues qu'après que des questions ont été posées pour expliquer le moment où le site s'affaissait dans les résultats de recherche. Google a apporté tellement d'améliorations mineures qu'il était impossible de les compter, et lorsqu'on lui a demandé ce qui avait exactement changé, le PS étranger est tout simplement resté silencieux. Considérons les principaux algorithmes qui ont influencé de manière significative les positions des sites.

Caféine

Algorithme « Caféine » - sur la première page de recherche, il peut y avoir plusieurs pages du même site par marque, et une option d'aperçu apparaît. Le lancement a eu lieu en juin 2010.

Particularités

Mise en avant des sites Web d'entreprises lors d'une recherche par marque. Une « loupe » apparaît près de la ligne de sortie pour un aperçu. Les mots-clés de marque offrent une tendance de croissance positive dans les positions de la ressource Internet dans son ensemble. L'index Page Rank a été mis à jour, tandis que les PR ont augmenté sur les sites connus et visités.

Résultats

Les référenceurs ont commencé à accorder plus d’attention à l’image de marque des sites Web, notamment aux couleurs, aux logos et aux noms. Les mots-clés de la marque ont permis aux pages du site de se démarquer d'une manière particulière dans la recherche, et lorsqu'un visiteur passait d'une telle phrase à la page principale, sa position dans les résultats de recherche augmentait (si avant cela la ressource n'était pas un leader) . Les optimiseurs de référencement ont commencé à acheter davantage de liens pour augmenter les citations. Il était presque impossible pour des marques jeunes et peu connues de percer dans les TOP résultats de recherche.

Panda

L'algorithme Panda est une technologie permettant de vérifier la qualité et l'utilité d'un site Web, y compris de nombreux facteurs de référencement. Les sites avec un référencement « black hat » sont exclus des recherches. Panda a été annoncé en janvier 2012.

Particularités

"Panda" est allé le chercher et l'a nettoyé des débris. C'est exactement ce qu'on peut dire après beaucoup de choses hors de propos requêtes clés des sites Web ont disparu des résultats de Google. L'algorithme prête attention au spam et à l'utilisation inégale des mots clés, au caractère unique du contenu, à la cohérence des publications et des mises à jour, à l'activité des utilisateurs et à l'interaction avec le site. Le fait qu’un visiteur fasse défiler jusqu’à la fin d’une page à une vitesse de lecture était considéré comme un facteur positif.

Résultats

Après avoir activé Panda, un grand nombre de sites ont succombé aux sanctions du moteur de recherche Google et, au début, tout le monde pensait que cela était dû à la participation à des pyramides de liens et à l'achat de masses de liens. En conséquence, les optimiseurs SEO ont mené un processus de test de l’algorithme et analysé l’impact. La conclusion des expériences est que Panda vérifie toujours la qualité du site pour en évaluer la valeur pour les visiteurs. Les ressources Internet ont arrêté le copier-coller et ont commencé activement à rédiger. Les facteurs comportementaux ont été améliorés en transformant la structure du site en options plus pratiques, et les liens au sein des articles utilisant des points forts spéciaux sont devenus un élément important de l'optimisation. La popularité du référencement en tant que service est montée en flèche. Il a été constaté que les sites ne respectant pas les règles Panda disparaissaient très rapidement de la recherche.

Mise en page (Paige Lyot)

L'algorithme Page Lyot est une technologie de lutte contre le spam de recherche qui calcule le rapport entre le contenu utile et le spam sur les pages d'un site Web. Lancé en janvier 2012 et mis à jour jusqu'en 2014 inclus.

Particularités

« Page Layout » a été créé suite à de nombreuses plaintes d'utilisateurs concernant des propriétaires de sites peu scrupuleux dont les pages avaient très peu de contenu pertinent ou dont les données requises étaient difficiles d'accès, voire parfois complètement absentes. L'algorithme a calculé le pourcentage de contenu pertinent et de spam sur la page pour une demande entrante. Des sanctions ont été imposées aux sites qui ne répondaient pas aux exigences et le site a été retiré de la recherche. Le non-respect des règles de publication des documents comprenait également un en-tête de site rempli de publicité, lors de la visualisation du texte nécessitant un passage au deuxième écran.

Résultats

Les sites trop spammés avec de la publicité ont chuté de leur position, même si le contenu des pages était modérément optimisé pour les mots-clés. Les pages qui n'étaient pas pertinentes pour les requêtes ont été rétrogradées dans les résultats de recherche. Mais il n'y avait pas tellement de sites qui ne respectaient manifestement pas les règles et ne se souciaient pas du confort des visiteurs. Après trois mises à jour de l'algorithme, le nombre approximatif de ressources tombées sous le filtre ne dépassait pas 3 %.

(Venise)

L'algorithme « Venise » géoréférence le site à une région précise, en tenant compte de la présence de noms de villes sur les pages du site. Lancé en février 2012.

Particularités

« Venise » exigeait que les webmasters aient une page « À propos de nous » sur leurs sites Web, indiquant l'adresse de l'emplacement, sans prêter attention au fait que l'entreprise pourrait ne pas avoir d'emplacement réel. Dans le contexte, l'algorithme a recherché les noms de villes afin d'afficher une page distincte pour la région qui y est spécifiée. J'ai commencé à utiliser le balisage schema-creator.org pour clarifier robot de recherche sa situation géographique.

Résultats

Les sites sont apparus dans les résultats de recherche pour les régions qu'ils n'ont pas mentionnées sur leurs pages, sans tenir compte des requêtes géo-indépendantes. Les optimiseurs incluent activement des mots-clés géosensibles et tentent de créer des microdonnées. Le contenu de chaque page est personnalisé pour chacun ville spécifique ou la région dans son ensemble. La création de liens localisés a commencé à être activement utilisée pour augmenter les positions dans la région sélectionnée.

(Manchot)

Algorithme "Pingouin" - technologie intelligente déterminer le poids des sites et la qualité des backlinks. Un système d'édition d'indicateurs gonflés de l'autorité des ressources Internet. Lancé en recherche en avril 2012.

Particularités

"Penguin" vise la guerre contre l'achat de backlinks, un ensemble d'autorités de site non naturelles, c'est-à-dire artificielles. L’algorithme constitue sa base de ressources importantes basées sur la qualité des backlinks. L'impulsion pour le lancement de Penguin a été l'émergence des optimiseurs de liens, alors que tout lien vers une ressource Web avait même poids et a soulevé un tel site dans les résultats de recherche. En outre, les profils ordinaires des utilisateurs des réseaux sociaux ont commencé à être classés dans les recherches sur un pied d'égalité avec les ressources Internet standard, ce qui a encore popularisé la promotion de sites ordinaires utilisant des signaux sociaux. Parallèlement à ces capacités algorithmiques, le système a commencé à lutter contre les insertions non pertinentes de requêtes de recherche dans les mots-clés et les noms de domaine.

Résultats

Penguin « laisse tomber » de nombreux sites dans les résultats de recherche en raison de la croissance anormale des backlinks et du manque de pertinence du contenu par rapport aux demandes des utilisateurs. L'importance des catalogues et des sites de vente de liens a rapidement diminué au minimum, tandis que les ressources faisant autorité (sites d'actualités, sites thématiques et quasi thématiques) se sont développées sous nos yeux. En raison de l'introduction de l'algorithme Penguin, les PR de presque tous les sites publics ont été recalculés. La popularité de l’achat massif de backlinks a fortement chuté. Les sites Web ont commencé à adapter autant que possible les phrases clés au contenu des pages du site. La « manie de la pertinence » a commencé. L'installation de boutons sociaux sur les pages sous forme de modules s'est généralisée en raison de l'indexation rapide des comptes de réseaux sociaux dans la recherche.

Pirate

L'algorithme « Pirate » est une technologie permettant de répondre aux plaintes des utilisateurs et d'identifier les cas de violation du droit d'auteur. Le système a été lancé en août 2012.

Particularités

"Pirate" a accepté les plaintes des auteurs concernant la violation de leurs droits d'auteur par les propriétaires du site. Outre les textes et les images, les sites proposant du contenu vidéo et hébergeant des séquences piratées de films de cinéma ont été les plus touchés. Les descriptions et les critiques des vidéos étaient également soumises à un filtrage – il n'était désormais plus permis de copier-coller sous peine de sanctions. Pour grand nombre plaintes contre le site pour violations, un tel site a été exclu des résultats de recherche.

Résultats

Sur la base des résultats du premier mois de fonctionnement du « Pirate » de Google, des millions de fichiers vidéo violant les droits des titulaires de droits d’auteur ont été interdits de visualisation sur presque tous les sites, y compris les sites d’hébergement de vidéos et les cinémas en ligne. Les sites Web contenant uniquement du contenu piraté ont été sanctionnés et exclus des recherches. Le nettoyage massif des contenus « volés » est toujours en cours.

Colibri

L'algorithme « Hummingbird » est l'introduction d'une technologie permettant de comprendre l'utilisateur lorsque les requêtes ne correspondent pas aux entrées exactes. Le dispositif « d’identification précise des désirs » a été lancé en septembre 2013.

Particularités

Désormais, l'utilisateur n'a pas modifié la phrase afin de trouver plus précisément les informations dont il avait besoin. L'algorithme « Hummingbird » permettait de ne pas rechercher par occurrences exactes directes, mais renvoyait les résultats de la base de données « déchiffrement des souhaits ». Par exemple, un utilisateur a tapé l'expression « lieux de détente » dans la barre de recherche et « Kolibri » a classé les sites contenant des données sur les sanatoriums, les hôtels, les centres de spa, les piscines et les clubs dans la recherche. Autrement dit, l'algorithme a regroupé une base de données standard avec des expressions humaines concernant leur description. Le système de compréhension a considérablement modifié les résultats de la recherche.

Résultats

Avec l'aide de la technologie Hummingbird, les optimiseurs de référencement ont pu étendre leur noyau sémantique et attirer plus d'utilisateurs sur le site grâce à des clés morphologiques. Le classement des sites a été clarifié, car désormais, non seulement les occurrences de phrases clés directes et les requêtes textuelles sont prises en compte, mais également les souhaits d'actualité des utilisateurs. Le concept de rédaction LSI est apparu : écrire un texte qui prend en compte l'indexation sémantique latente. Autrement dit, les articles étaient désormais rédigés non seulement avec l'insertion de mots-clés, mais également en incluant autant que possible des synonymes et des expressions quasi thématiques.

(Pigeon)

L'algorithme « Dove » est un système permettant de localiser les utilisateurs et de lier les résultats de recherche à leur emplacement. La technologie a été lancée en juillet 2014.

Particularités

La localisation de l'utilisateur joue désormais un rôle clé dans l'obtention des résultats. La recherche organique est devenue une question de géolocalisation. La liaison des sites avec Google Maps a joué un rôle particulier. Désormais, lorsqu'un utilisateur demande, l'algorithme recherche d'abord les sites les plus proches en termes d'emplacement ou de contenu ciblé, puis s'éloigne du visiteur. Les résultats de recherche organiques ont considérablement changé.

Résultats

Les sites locaux ont rapidement progressé dans les classements de recherche et ont reçu du trafic local. Les plateformes Internet sans géodépendance ont perdu du terrain. La lutte pour chaque ville a repris et les situations se sont multipliées lorsque des sites identiques ont commencé à apparaître avec des contenus expurgés et des liens vers des zones différentes. Avant de recevoir des informations précises sur la mise en œuvre de l'algorithme « Dove » dans la recherche Internet en langue russe, de nombreux webmasters pensaient qu'ils étaient sous le coup des sanctions Penguin.

(Adapté aux mobiles)

L'algorithme Mobile-Friendly est la mise en œuvre d'une technologie permettant de vérifier l'adaptabilité des sites aux appareils mobiles. Le système a été lancé en avril 2015 et a réussi à être « appelé » sur Internet comme : « Mobile Armageddon » (mobilegeddon), « Mobile Apocalypse » (mobilepocalyse, mobocalypse, mopocalypse).

Particularités

Adapté aux mobiles lancé nouvelle ère pour les utilisateurs mobiles, recommandant aux optimiseurs d'assurer de toute urgence un séjour confortable aux visiteurs mobiles sur leurs sites. L'adaptabilité des sites aux appareils mobiles est devenue l'un des indicateurs les plus importants de l'importance que les propriétaires de sites accordent à leurs visiteurs. Les sites Web non réactifs ont dû rapidement corriger leurs défauts : supprimer les plugins non pris en charge sur les tablettes et les smartphones, ajuster la taille du texte en fonction de l'extension des différents écrans, supprimer les modules qui empêchent les visiteurs disposant d'un petit écran de se déplacer sur le site. . Quelqu'un vient d'en créer un séparé version mobile votre ressource Internet.

Résultats

Les ressources préparées à l'avance pour un tel tournant ont reçu une attention particulière parmi d'autres sites Internet dans les résultats de recherche, et le trafic provenant d'une variété d'appareils autres que les ordinateurs de bureau vers ces sites Web a augmenté de plus de 25 %. Les sites totalement non réactifs ont été rétrogradés dans la recherche mobile. L'accent mis sur la mobilité a joué un rôle - la présence de scripts lourds sur les ressources a été minimisée, la publicité et les pages ont naturellement commencé à se charger plus rapidement, étant donné que la plupart des utilisateurs de tablettes/smartphones utilisent Internet mobile, qui est plusieurs fois plus lent que le standard.

CV

C'est tout

Vous savez maintenant comment la recherche a évolué au fil des années pour les deux utilisateurs ordinaires, et pour les sites « touchés par la distribution ». Chacun des algorithmes de recherche ci-dessus est périodiquement mis à jour. Mais cela ne signifie pas que les optimiseurs et les webmasters doivent avoir peur de quelque chose (à moins, bien sûr, que vous n'utilisiez le référencement black hat), mais cela vaut toujours la peine de garder un œil ouvert afin de ne pas prendre de retard inattendu dans la recherche en raison du prochain nouveau filtre.

Nous avons publié un nouveau livre, Social Media Content Marketing : Comment entrer dans la tête de vos abonnés et les faire tomber amoureux de votre marque.

Ces dernières années, les résultats de recherche ont radicalement changé par rapport au début et au milieu des années 2000. C'est agréable de voir de nouveaux changements visant à augmenter le confort des utilisateurs. Et afin d'apprécier pleinement tout le travail qui a été effectué sur le moteur de recherche, nous avons décidé de rassembler 34 événements clés de l'histoire du développement de Google.

Passé lointain

Mars 1998. Google connaît un démarrage réussi avec Larry Page et Sergey Brin. Au même moment, le premier algorithme de classement de sites Web appelé PageRank a été lancé.
Le PageRank est une valeur qui correspond à l'importance d'une page. Les calculs sont assez simples : plus il y a de liens menant vers une page, plus son PageRank est élevé. Il est important de noter que le poids transféré par une page donatrice dépend directement des liens vers le donateur lui-même. À propos, le PageRank est un algorithme qui fonctionne depuis près de 20 ans, bien que sous une forme considérablement modifiée.

  • 2000 Lancement de Google Toolbar, une application qui est une barre d'outils pour travailler avec le moteur de recherche. C’est à cette époque que commencent les premières conversations sur le référencement.
  • Décembre 2000 - Hilltop. C'est une sorte d'ajout au PageRank. L’essentiel est que les liens provenant de sites pertinents sur le sujet ont considérablement augmenté en poids.
  • 2001 Google a commencé à séparer les résultats de recherche en requêtes commerciales et non commerciales.
  • Février 2003 - Boston. La mise à jour porte le nom de la ville dans laquelle la conférence a eu lieu. Le principal changement : des mises à jour mensuelles de la base de données de recherche ont été introduites.
  • Avril 2003 - Cassandre. L'algorithme qui a été le premier à ébranler les optimiseurs car ils ont commencé à punir l'utilisation textes cachés et des liens. À partir de ce moment-là, le référencement, du point de vue de Google, a commencé à devenir noir.
  • Mai 2003 - Dominique. À partir de ce moment, Google a commencé à évaluer différemment les backlinks vers le site. C’est après Dominic que les robots Freshbot et Deepcrawler sont apparus pour la première fois.
  • Juin 2003 - Esméralda. Juste la dernière mise à jour mensuelle du SERP. Aucun changement majeur n'a été remarqué avec la sortie d'Esmeralda.
  • Juillet 2003 - Fritz. Le principal changement : depuis la sortie de Fritz, Google a commencé à se mettre à jour quotidiennement !
  • Novembre 2003 - Floride. Une des mises à jour très importantes, puisque c’est après la Floride qu’une partie importante des sites optimisés « brutalement » étaient pessimistes. La Floride a porté un grand coup aux ressources sursaturées de mots-clés, de contenu volé et de profils de liens achetés. Depuis fin 2003, le référencement a évolué et est devenu plus exigeant.
  • Janvier 2004 - Austin. Austin Update vient en aide à la Floride. L'essence de la mise à jour est de renforcer la lutte contre les textes spammés et invisibles. L’exigence de pertinence du texte augmente.
  • Février 2004 - Brandy. Google a commencé à réagir aux synonymes de mots clés. Les textes optimisés sont devenus plus diversifiés, ce qui améliore sans aucun doute les résultats de recherche. L'attention portée au contenu thématique du texte d'ancrage a augmenté. L'analyse des mots clés a changé.

Il est temps de changer

  • Février 2005 - Allegra. Les changements apportés par Allegra sont un mystère de l'histoire. Modifications proposées : punition distincte pour les liens achetés. Le référencement continue de devenir noir.
  • Mai 2005 - Bourbon. Bourbon a commencé à imposer des sanctions aux sites ayant du contenu en double, abaissant ainsi leur classement.
  • Septembre 2005 -Gilligan. Gilligan n’a apporté aucun changement majeur, du moins pas perceptible. Mais mentionnez pour informations historiques nécessaire - je l'ai mentionné.
  • Octobre 2005 - Cartes Google+ local. Mises à jour visant à encourager les entreprises à mettre à jour leurs coordonnées sur les cartes.
  • Octobre 2005 - Jagger. Poursuite de la lutte contre la manipulation des liens. Désormais, la cible de Google était les fermes de liens, des sites qui échangeaient des backlinks par bonté d'âme, et une fois de plus, l'algorithme a parcouru un profil de lien douteux.
  • Décembre 2005 - Big Daddy. Google a proposé d'utiliser la canonisation, c'est-à-dire de choisir la page la plus adaptée parmi les doublons potentiels. Utilisez les redirections 301 et 302. Ce sont tous les changements importants.
  • Novembre 2006 - Index supplémentaire. Extension des capacités de Google. Le moteur de recherche a commencé à traiter davantage de documents. Pour une raison quelconque, c'est cette année que de sérieux changements ont été constatés dans la position des sites.
  • Juin 2007 - Buffy. Mises à jour mineures qui ne méritent pas votre attention. Et pas la moindre trace de vampire.
  • Avril 2008 - Dewey. Cela a semblé comme un tremblement de terre, a ébranlé les positions des sites et c’est tout. Personne n'a compris pourquoi.
  • Août 2008 – Google Suggestion. Google a maintenant commencé à proposer des suggestions de recherche déroulantes lorsque vous saisissez une requête dans la barre de recherche.
  • Février 2009 - Vince. Selon Matt Cuts, il ne s’est pas passé grand-chose. Mais les optimiseurs curieux sont arrivés à la conclusion que les ressources des grandes marques bénéficiaient d'un net avantage.
  • Août 2009 - Aperçu de la caféine. Google a aimablement informé les optimiseurs des changements importants dans la structure de recherche, grâce auxquels, désormais, les documents seront indexés beaucoup plus rapidement. La même année, le numéro a commencé à être mis à jour en temps réel.
  • Mai 2010 - Ma journée. Cette mise à jour a réduit la quantité de trafic provenant des requêtes détaillées.
  • Juin 2010 - Caféine. La caféine annoncée précédemment a été publiée. L'algorithme a permis d'indexer davantage de pages à un rythme plus rapide. Désormais, les nouveaux documents entrent plus rapidement dans l’index.

Mises à jour Google : aujourd'hui

  • 23 février 2011 - . Le jour des défenseurs de la patrie, l'algorithme Panda a été publié, une sorte de protecteur des résultats de recherche contre les ordures en mettant l'accent sur les facteurs internes. Panda est un algorithme à grande échelle, bien connu et sensationnel qui a subi diverses mises à niveau à plusieurs reprises. Il s'affaiblit, puis se renforça. La tâche principale est de supprimer des résultats de recherche tous les « sites de mauvaise qualité », tels que les portes et les sites créés uniquement à des fins publicitaires, tout en laissant les plus dignes d'intérêt.
  • 3 janvier 2012 - Mise en page. Un module complémentaire pour Panda qui analyse la facilité de visualisation des documents. L’objectif est de se débarrasser des publicités intrusives qui occupent la majeure partie de l’écran de l’utilisateur.
  • Février 2012 - Venise. Une mise à jour qui prend désormais en compte la localisation régionale de l'utilisateur. L'objectif est d'afficher les sites les plus proches de l'utilisateur.
  • 24 avril 2012 - Pingouin. Le deuxième algorithme sensationnel. L'objectif est le même que celui de Panda, mais l'accent est mis sur les facteurs externes. J’ai pris le contrôle de tout ce qui concerne le profil de lien de la ressource. Punit les sites en abaissant l'intégralité du site dans les résultats de recherche ou en le supprimant complètement.
  • Septembre 2012 -Domaine de correspondance exacte (EMD). Un filtre rare mais nécessaire. L'idée est de rétrograder les sites de mauvaise qualité optimisés pour une seule requête, qui est le domaine. Par exemple, le site kupi-kartoshku.ru, où chaque page est optimisée pour la demande « acheter des pommes de terre », tombera très probablement sous ce filtre.
  • Août 2013 - Colibri. Algorithme complexe. La tâche de Kolibri est de reconnaître le sens des requêtes complexes comportant plusieurs mots et de sélectionner les documents les plus pertinents. Les facteurs peuvent inclure : la signification cachée de la demande, la conception, votre emplacement, etc.
  • Août 2014 - Pigeon. Poursuivant le thème des oiseaux, Dove vise à présenter les entreprises (sites) les plus proches de vous dans les résultats de recherche basés sur des requêtes géolocalisées. Par exemple, si vous souhaitez commander des nouilles chinoises, Dove vous trouvera l'établissement le plus proche pouvant satisfaire votre besoin. Également en août 2014, il a été annoncé que Google donnait un léger coup de pouce au classement des sites utilisant un protocole sécurisé tel que https.
  • 21 avril 2015 – Adapté aux appareils mobiles. Un algorithme qui privilégie les pages individuelles du site adaptées aux écrans appareils mobiles. Ne nécessite pas de mise à l'échelle ni de défilement horizontal. En un mot, pratique pour lire depuis un téléphone/tablette. Vous pouvez le vérifier dans Google Webmaster.

À suivre…

Au cours des 5 dernières années, les algorithmes de Google ont subi de nombreux changements. Le niveau de difficulté dans la manipulation des résultats de recherche varie entre « très difficile » et « impossible ». Il ne reste donc plus qu’à être un optimiseur responsable. Google a mentionné à plusieurs reprises que le contenu reste le facteur de classement le plus important et le sera toujours. Il s'avère que le meilleur moyen de sortir de cette situation est le trafic thématique et la promotion avec des liens de très haute qualité. Je suis heureux d'optimiser en ce moment. Je suis sûr que de nombreuses nouvelles surprises nous attendent en 2016.

Technologies

La recherche Google fonctionne sur la base d'un algorithme. Les ordinateurs traitent les données et recherchent des signaux indiquant qu'un site particulier est plus ou moins intéressant et pertinent. cette demande. Classement de page joue un rôle important dans ce processus, par lequel Google et sélectionne liens externes, ainsi que les textes qui s'y rapportent. Mais Google utilise également de nombreux autres signaux pour déterminer pertinence des pages, sinon le PageRank rechercherait sans fin.

Les liens entrants sont évalués pour diverses pages Web. Si l'on prend en compte ces liens, la recherche donne d'assez bons résultats. C'est pourquoi Google était unique et unique en 1999, lorsque les résultats ressemblaient moins à un jeu sans fin et à moins d'intervention humaine.

Mais aujourd’hui, tout cela a changé. Algorithme de Google de plus en plus soumis à des personnes et des entreprises motivées qui se battent pour cela. Comment ça "course aux armements", là où Google est en train de perdre.

Un autre événement survenu l'autre jour ne joue pas en faveur du moteur de recherche lui-même : des changements sont apparus dans l'algorithme de Google visant à lutter contre certains des plus pollueurs Internet ennuyeux - "fermes de contenu", par exemple. La « course aux armements » continue.

Google insiste sur le fait qu'il n'utilise pas directement la fonctionnalité récemment lancée Les utilisateurs bloquent les résultats non pertinents V Navigateur Chrome. Cependant, en ce qui concerne le fonctionnement de l'algorithme, la nouvelle solution de Google s'apparente à une interdiction d'utilisateur.

"Si l'on prend les quelques dizaines de sites que les utilisateurs de Chrome ont le plus souvent bloqués, 84 % d'entre eux sont rétrogradés dans le nouvel algorithme", indique la société.

Une déclaration étrange cependant. Après tout, cela pourrait constituer une énorme incitation à manipuler le blocage. Oubliez les fermes de contenu, embauchez simplement des milliers de personnes qui vont simplement bloquer les sites des concurrents. Une autre facette de la « course aux armements ».

Google, tel le magicien d'Oz, se cache derrière son puissant et mystérieux algorithme de recherche. Si une bonne recherche consiste simplement à cliquer avec la souris sur une page Web, alors toute la magie peut s’évaporer.

Et si, d'une manière ou d'une autre, vous parvenez à supprimer autant de spam que possible, en le faisant sur la base d'indicateurs démographiques ou géographiques ou même des données personnelles de l'utilisateur, alors les choses peuvent vraiment être assez désagréables. Surtout si Google n’a accès à aucune de ces données. Et Facebook l'aura.

L'une des expériences les plus intéressantes se déroule actuellement, elle concerne Possibilité de recherche par liens que vous aimez sur Facebook. Les résultats de recherche sont déterminés par ce que vos amis ont aimé sur Facebook, et ces données sont stockées très longtemps.

Réseau social utilisé par plus de cinq cent millions de personnes, dont la moitié consulte le profil chaque jour. Ces personnes passent 700 milliards de minutes sur le site et partagent trente milliards de contenus. Ils partagent des liens et les gens cliquent sur le bouton « J’aime » pour voter pour son contenu. Dans l'ensemble, c'est assez expérience de recherche intéressante avec Blekko.

Imaginez maintenant ce que Google peut faire avec toutes ces données et vous comprendrez pourquoi réseaux sociaux sont si importants pour lui maintenant. Non pas pour « tuer » Facebook, mais pour essayer de « neutraliser » la menace afin que le prochain grand pas dans l’évolution des moteurs de recherche ne se fasse pas sans eux. Là où Google a tendance à échouer, c'est dans le commerce et le tourisme. C'est pourquoi la suggestion d'un ami pour un hôtel à Paris, par exemple, peut être une bonne chose dans les résultats de recherche.

Cela peut prendre plus d'un an avant Facebook sera effectivement intéressé par la recherche au maximum. Il y a tellement de choses dans ce business revenus publicitaires, qu’il ne sera pas non plus possible de l’ignorer indéfiniment. C’est d’ailleurs ce qui devrait le plus effrayer Google.

« La qualité des sources Web est traditionnellement évaluée à l'aide de signaux externes tels que des hyperliens. Nous proposons une nouvelle approche basée sur des signaux internes, à savoir l'exactitude des informations factuelles obtenues à partir d'autres sources. Une source qui contient un minimum de faux faits sera considérée comme fiable. C’est par ces mots que commence un document publié fin février par une équipe de chercheurs de Google.

Cela signifie-t-il qu'après YandexGoogle entend réduire l’influence du facteur de référence ? Voyons cela dès le début.

Le 8 août 2012, Google a officiellement lancé l'algorithme de recherche sémantique Knowledge Graph dans le monde entier.

Le Knowledge Graph est une vaste base de connaissances utilisée par Google pour améliorer les résultats de recherche. C'est à partir de cette date que le concept Recherche Google déplacé vers la sémantique. Désormais, au lieu de traiter les mots-clés, les algorithmes de Google tentent de comprendre le sens de la requête. C'est la première étape vers la recherche sémantique, y compris le développement recherche vocale Google.

Deux ans plus tard, Google commence à travailler à la création du Knowledge Vault, une nouvelle base de connaissances encore plus étendue qui remplacera à terme le Knowledge Graph. Si le Knowledge Graph collecte des connaissances uniquement à partir de sources fiables, comme Wikipédia, alors le Knowledge Vault collecte et combine automatiquement des informations provenant de partout sur Internet dans une base de connaissances unique sur le monde, les personnes, les connexions et les objets.

Qu’est-ce que ce nouvel algorithme a à voir là-dedans ?

Le document publié indique que Google ne détermine actuellement en aucune manière la fiabilité des informations contenues dans les sites. Et si un site sur Internet lance une rumeur et, disons, cette rumeur est immédiatement reprise par d'autres ressources, citant la source d'origine, alors le site d'origine prendra très probablement la place qui lui revient dans les résultats de recherche. Ainsi, Google contribue indirectement à la diffusion de fausses informations.

Confiance basée sur la connaissance - connaissance basée sur la confiance. Nouvel algorithmeévaluera l'exactitude des informations présentées sur le site et les comparera avec les données déjà disponibles dans les bases de connaissances Google Knowledge Vault et Knowledge Graph. Dans le même temps, l'algorithme réduira les sites dans les résultats de recherche s'il y a beaucoup de faits faux ou non confirmés.

KBT et PageRank

Dans le document, les développeurs de Google ont présenté plusieurs expériences intéressantes avec KBT. Y compris l'expérience « KVT vs PageRank ».

Les développeurs ont comparé le KBT au PageRank traditionnel. La figure montre les indicateurs CBT et PageRank pour 2000 pages sélectionnées au hasard. Pour faciliter la comparaison, les valeurs des deux indicateurs ont été mises à l'échelle de 0 à 1. Il s'est avéré qu'en général, les valeurs du CBT et du PageRank ne sont pas corrélées.

Les développeurs ont examiné plus en détail 2 cas où le CBT diffère considérablement du PageRank afin de comprendre lequel des algorithmes est le plus fiable et pourquoi de telles divergences se sont produites.

Étude n°1

Le premier cas est un PageRank faible, mais un CBT élevé (coin inférieur droit) : pour comprendre quelle est exactement la source d'un CBT élevé, les ingénieurs de Google ont pris comme échantillon une centaine de sites avec une valeur CBT d'environ 0,9. Pour chaque site, les ingénieurs ont identifié 3 énoncés appropriés et en ont sélectionné au hasard 10 triplés.

Ce que sont les triplets (ou triplets de base de connaissances) est mieux expliqué avec un exemple. Chaque fait est constitué d'un sujet, d'un objet et d'une caractéristique de l'objet. Par exemple, Barack Obama est un sujet, sa citoyenneté est une caractéristique d’un objet, les États-Unis sont un objet. Nous obtenons donc le fait : Barack Obama est un citoyen américain. Le Knowledge Vault collecte des informations factuelles à l’aide de triplets similaires.

Chaque site a ensuite été noté manuellement. Sur les 100 sites, 85 ont été considérés comme fiables. Or, seuls 20 sites sur 85 ont un PageRank supérieur à 0,5. Cette expérience a prouvé que CBT peut reconnaître les sources contenant des données fiables même si elles ont un faible PR.

Étude n°2

PageRank élevé, mais CBT faible (coin supérieur gauche) : les ingénieurs de Google ont examiné les 15 sites de potins sur les célébrités les plus populaires. Parmi eux, 14 avaient un PageRank élevé, mais pour tous l’indicateur CBT était inférieur à 50 % ; en d’autres termes, ils sont moins fiables que la moitié de tous les sites Internet. D'autres sites qui se sont avérés avoir une faible CVT sont les forums. Par exemple, Answers.yahoo.com indique que Catherine Zeta-Jones est née en Nouvelle-Zélande, même si, selon Wikipédia, elle est née au Pays de Galles.

Les deux expériences ont montré que KBT est un algorithme assez fiable, différent de tous les algorithmes traditionnels (comme le PageRank) et capable d'identifier les sites qui publient des faits non vérifiés, ainsi que les sites qui copient de tels contenus.

Il est difficile de dire si Google décidera d'annuler le lien en pariant sur KBT ou non. Très probablement, si KBT est utilisé, les deux facteurs seront pris en compte.

Quand faut-il s’attendre à l’algorithme KBT ?

On ne sait toujours pas exactement quand l’algorithme sera lancé (et s’il le sera réellement).

L'autre jour, John Mueller (un spécialiste du département des webmasters de Google), lors d'une réunion régulière avec les webmasters de Google+, s'est vu demander si cet algorithme était utilisé dans le classement (voir. diffusion en direct du 10 mars, 49e minute), auquel il a répondu que le personnel emploie de nombreux scientifiques qui mènent périodiquement diverses études, mais cela ne signifie pas que ces développements seront utilisés dans la recherche, alors qu'il ne s'agit certainement que d'une autre étude.

Les ingénieurs de Google disent : " Des recherches ont montré que notre méthode permet de calculer la véritable crédibilité des sources. Nous l'avons appliqué à une base de données de 2,8 milliards de faits extraits d'Internet, évaluant ainsi la crédibilité de 119 millions de pages Web. Des évaluations humaines sélectives des résultats ont confirmé l'efficacité de la méthode.
KBT fournit un signal utile sur la fiabilité d'une ressource et n'est pas en corrélation avec les signaux traditionnels tels que le PageRank
».

Le lancement de KBT (s'il se produit) pourrait devenir une nouvelle ère dans toute l'histoire de Google et, bien sûr, l'un des facteurs importants dans le classement des sites. Mais il est déjà clair que l'algorithme ne peut pas être appliqué à tous les sites : son effet ne s'appliquera qu'aux ressources qui publient des éléments factuels.

KBT est un autre signal indiquant que bientôt seuls les sites intéressants et utiles pour les gens occuperont des places dignes dans les résultats des moteurs de recherche. Et c’est certainement bon pour tout le monde.

© 2024 ermake.ru -- À propos de la réparation de PC - Portail d'information