Historia algorytmów Google. „Magiczny” algorytm wyszukiwania Google

Dom / Odzyskiwanie danych

W marcu pisze o tym większość anglojęzycznych blogów Google Fred, o tym, że wiele witryn upadło, a wyszukiwarka wdrożyła nowy algorytm.

Według wielu algorytm wpływa na mikrowitryny, które odprowadzają ruch do programów partnerskich, a także projektów zawierających dużo reklam.

W dzisiejszy odcinek przyjrzymy się:

  • co to za algorytm Google Fred?
  • dlaczego tyle osób o nim pisało?
  • na co może mieć wpływ?
  • jakie typy witryn uległy awarii
  • co o tym myślimy
  • przyczyna i skutek

Przejdźmy do oglądania wideo:

Zdjęcie z tablicy:

Ważny: Jeśli masz pytania, możesz je zadać w komentarzach. Chętnie na nie odpowiem!

Co to jest Fred Google?W rzeczywistości?

Wyniki wyszukiwania Google zaczęły się trząść około 8–9 marca. Wtedy większość zwróciła na to uwagę.

Zwłaszcza gdy witryny uległy całkowitej awarii, wiele osób spieszyło się na fora i niszowe witryny, aby dowiedzieć się, co się dzieje.

Oto, co pokazało wiele usług śledzenia zmian algorytmów:

Jak widać nastąpiły zmiany. Wielu odczuło je również z powodu pozycji i spadków ruchu.

Dlaczego nazwaFRED?

Tak naprawdę nazwę wymyślił przedstawiciel Google, tak to powstało:

Przyjęli więc tę nazwę i zaczęli o niej pisać na blogach branżowych i w mediach.

Za co karze?

Mówią co:

  • obecność dużej liczby reklam
  • witryny stowarzyszone przeznaczone wyłącznie do odprowadzania ruchu
  • witryny ze złą lub wygenerowaną treścią

Witryny, które zazwyczaj przynoszą użytkownikowi niewielkie korzyści.

Ale jest jedna rzecz:

  • witryny, które są całkowicie białe, również zwisają
  • nie są dostosowane do programów partnerskich

Więc co to za Fred?

W rzeczywistości jest to „nieoficjalna” nazwa aktualizacji wyszukiwarki. Systemy Google’a. Wcale nie algorytm.

Google po prostu poprawił pewne niuanse w istniejących algorytmach, a optymalizatorzy, webmasterzy i analitycy to zauważyli i wyczuli. Wybrali nazwę i rozpowszechnili informację, gdzie tylko było to możliwe.

Samo Google niczego oficjalnie nie ogłosiło, a na blogu Google dla webmasterów nie ma gdzie przeczytać o Fredzie.

Co sądzimy o aktualizacji?wznawiać

  • była aktualizacja - to po prostu fakt
  • Zawierało witryny, do których nawet nie linkowano
  • także witryny, które nie pasują do opisu witryny w celu odprowadzania ruchu do programów partnerskich
  • niektóre powiadomienia w Google Konsola wyszukiwania NIE
  • W przypadku niektórych projektów stanowiska stale się tańczą
  • niektórzy wypadli, a potem wrócili

Więc co to jest?

Wcale nie jesteśmy pewni, czy jest to nowy algorytm. Jeśli weźmiesz pod uwagę, że:

  • Google aktualizuje algorytmy ponad 600 razy w roku
  • Ma Pingwina - odpowiedzialnego za linki, Pandę - za treść, Ludzkiego ptaka - nowy rdzeń algorytmu

Oczywiste jest, że stale wszystko testują. Zarówno w czasie rzeczywistym, jak i nie.

Jeśli aktualizacja Freda miała wpływ na Twoją witrynę – na co powinieneś zwrócić uwagę?

  1. Jakość profilu łącza
  2. Jakość treści
  3. Sprawdź konsolę wyszukiwania Google
  4. Sprawdź technicznie wszystko na stronie

W rzeczywistości mogą być absolutnie dowolne powody. Zależą również od nisz.

Jak wszyscy wiedzą, w wielu niszach dochodzi do rzezi. Dzięki temu Google przykłada do nich dużą wagę i stale dokręca śruby.

Wznawiać

  • Fred nie jest algorytmem
  • Wystarczy aktualizacja Google
  • Co miało wpływ na wiele witryn
  • Mówią tylko dla treści i reklam, ale myślę, że nie (także dla linków)
  • Aktualizacja jest nowa, ale rozwiązuje te same problemy
  • Musimy lepiej zaplanować linki, treść, połączenia pomiędzy stronami
  • Wtedy szansa na nałożenie sankcji będzie mniejsza

Jak powiedziałem na filmie, nie zaobserwowaliśmy żadnego znaczącego osiadania ani wtedy, ani nawet teraz. Przykłady były, ale na tle ogólnym nie było ich wiele. Widoczność i ruch w większości witryn jedynie wzrosły.

Tak się sprawy mają.

PS: głównym przesłaniem tej aktualizacji jest zapewnienie, że wszyscy zaakceptują zasady Google dla webmasterów.

P.P.S.: Chociaż Google potwierdził ten algorytm, oto odpowiedź na Twitterze:

Wszyscy wiemy z pierwszej ręki o istniejących algorytmach wyszukiwarki Yandex i Google. Aby zachować zgodność ze swoimi „stale aktualizowanymi” zasadami, wszyscy optymalizatorzy głowią się nad coraz to nowymi sposobami na dostanie się na GÓRĘ wyników wyszukiwania. Do najnowszych innowacji, których doświadczyli właściciele witryn w PS, należą wymagania dotyczące mobilności zasobów Internetu i zmniejszenie wyszukiwania tych witryn którzy nie wiedzą, jak kupować linki. Jakie algorytmy wprowadzone dotychczas do wyszukiwania w znaczący sposób wpłynęły na ranking witryn? Tak naprawdę nie wszyscy optymalizatorzy wiedzą, jakie technologie, kiedy i po co zostały stworzone, aby zapewnić każdej witrynie jak najbardziej uczciwą pozycję w wyszukiwaniu i oczyścić wyniki wyszukiwania ze „śmieci”. W tym artykule przyjrzymy się historii powstania i rozwoju algorytmów wyszukiwania.

Yandex: rodzaje algorytmów od poczęcia do dnia dzisiejszego

Nie wszystkie algorytmy powstały w ciągu jednego dnia, a każdy z nich przeszedł wiele etapów udoskonalenia i transformacji. Większość nazw algorytmów Yandex składa się z nazw miast. Każdy z nich ma swoje własne zasady działania, punkty interakcji i unikalne cechy funkcjonalne, które harmonijnie się uzupełniają. Zastanowimy się dalej, jakie algorytmy ma Yandex i jak wpływają na witryny.

Oprócz informacji o algorytmach wyszukiwania, artykuł o . Sugeruję przeczytanie wskazówek na temat tworzenia wysokiej jakości treści SEO odpowiednich dla wyszukiwarek Google i Yandex.

Magadan

Algorytm Magadan rozpoznaje skróty i identyfikuje rzeczowniki z czasownikami. Po raz pierwszy została uruchomiona w trybie testowym w kwietniu 2008 roku, a druga wersja stała została wydana w maju tego samego roku.

Osobliwości

„Magadan” udostępnia użytkownikowi, który napisał skrót, strony internetowe i transkrypcje. Na przykład, jeśli w pasku wyszukiwania wpisałeś zapytanie do Ministerstwa Spraw Wewnętrznych, to oprócz witryn z takim słowem kluczowym na liście znajdą się również te, które nie mają skrótu, ale mają dekodowanie „Ministerstwo Spraw Wewnętrznych Spraw”. Rozpoznawanie transliteracji dało użytkownikom możliwość nie zastanawiania się, w jakim języku poprawnie napisać nazwy, na przykład Mercedes lub Mercedes. Oprócz tego Yandex umieścił na liście indeksowanej prawie miliard zagranicznych witryn. Rozpoznawanie części mowy i uznawanie ich za równoważne zapytania pozwoliło na uwzględnienie w jednym wyszukiwaniu witryn zawierających różne frazy kluczowe. Oznacza to, że obecnie w przypadku słowa kluczowego „optymalizacja witryny” w wynikach wyszukiwania wyświetlają się także witryny z frazą „optymalizuj witrynę”.

Wyniki

Po uruchomieniu algorytmu Magadan stało się to trudniejsze, głównie w przypadku witryn o niskim autorytecie. W rankingu spadły pozycje na trafne zapytania mało odwiedzanych i młodych zasobów, a na pierwsze miejsca przesunęły się te wiarygodne, nawet o niskiej jakości treści, biorąc pod uwagę morfologię i rozwodnienie słów kluczowych. Dzięki włączeniu transliteracji na TOP Runetu weszły także zasoby zagraniczne. Oznacza to, że zoptymalizowany tekst na dany temat może pojawić się na drugiej stronie tylko dlatego, że podobno istnieje częściej odwiedzana witryna na ten sam temat lub podobna zagraniczna. Z tego powodu gwałtownie wzrosła konkurencja o słowa kluczowe o niskiej częstotliwości i frazy obce. Reklama też stała się droższa - wzrosły stawki, bo wcześniej strony konkurowały tylko o jedno konkretne żądanie, a teraz konkurują także z „kolegami” frazami morfologicznymi, transliteracją, słowami zamieniającymi się na inną część mowy.

Nachodka

Algorytm „Nakhodka” to rozszerzony tezaurus i zwracanie szczególnej uwagi na zatrzymywanie słów. Wypuszczony na ring zaraz po Magadanie. Zajmuje pierwsze miejsce w wynikach wyszukiwania od września 2008 r.

Osobliwości

To innowacyjne podejście do uczenia maszynowego – ranking stał się wyraźniejszy i bardziej poprawny. Duży wpływ na wyniki wyszukiwania miał rozbudowany słownik powiązań i uważność zatrzymywania słów w algorytmie Nakhodki. Na przykład żądanie „ Optymalizacja SEO” był teraz kojarzony ze słowem kluczowym „optymalizacja SEO”, a witryny komercyjne zostały osłabione portale informacyjne, w tym rozszerzone fragmenty z odpowiedziami, pojawił się na liście, a Wikipedia została wyświetlona w specjalny sposób.

Wyniki

Serwisy komercyjne położyły większy nacisk na zapytania sprzedażowe, gdyż konkurencja w zakresie fraz informacyjnych, niespecyficznych wzrosła kilkukrotnie. Z kolei platformy informacyjne mogły poszerzyć swoją monetyzację, korzystając ze stron rekomendacyjnych, uczestnicząc w programy partnerskie. Najpopularniejsze serwisy informacyjne, promowane przez komercyjne zapytania, zaczęły sprzedawać linki do zamówień. Konkurencja stała się ostrzejsza.

Arzamy

Algorytm „Arzamas” – wprowadzenie statystyki leksykalnej zapytania wyszukiwania i utworzono odniesienie geograficzne do tego miejsca. Pierwsza wersja „Arzamas” (kwiecień 2009) bez zależności geograficznej została natychmiast umieszczona w głównych wynikach wyszukiwania, a „Arzamas 2” z klasyfikatorem umożliwiającym powiązanie witryny z regionem została ogłoszona w sierpniu 2009 roku.

Osobliwości

Usunięcie linku do homonimów ułatwiło życie użytkownikowi, ponieważ teraz fraza „American pie” zwracała jedynie strony o tematyce filmowej, bez przepisów na desery, jak mogło to mieć miejsce wcześniej. Przełomem było powiązanie z regionem, przesunięcie fraz kluczowych wraz z dodaniem miasta o kilka punktów w dół. Teraz użytkownik może po prostu wpisać słowo „restauracje” i zobaczyć w czołówce tylko witryny z miasta, w którym się znajduje. Jeśli pamiętasz, wcześniej musiałbyś wpisać bardziej szczegółową frazę, na przykład „Restauracje w Petersburgu”, w przeciwnym razie Yandex mógłby zwrócić odpowiedź „określ żądanie - znaleziono zbyt wiele opcji”. Słowa kluczowe niezależne od lokalizacji geograficznej zwróciły tylko witryny powiązane z żądaniem z dowolnego regionu, bez odniesienia.

Wyniki

Brawo! Wreszcie obiekty z małych regionów przestały konkurować z dużymi miastami. Teraz znacznie łatwiej jest dotrzeć do TOP w Twoim regionie. To właśnie w tym okresie oferowana była usługa „promocji regionalnej”. Algorytm Armazas umożliwił małym firmom szybszy rozwój na swoim terenie, jednak haczyk pozostał. Yandex nie mógł określić geolokalizacji wszystkich witryn. I jak sam rozumiesz, bez linku zasoby pozostały, delikatnie mówiąc, w jednym niezbyt przyjemnym miejscu. Rozpatrzenie wniosku o geozależność mogło trwać kilka miesięcy, a młode serwisy bez ruchu i masy łączy (istniało ograniczenie dotyczące TIC) w zasadzie nie mogły złożyć wniosku o przypisanie im regionalności. To miecz obosieczny.

Śnieżyńsk

Algorytm Snezhinsk wzmacnia geozależność i wyjaśnia znaczenie zapytań dla wyników wyszukiwania przy użyciu technologii uczenia maszynowego Matrixnet. Ogłoszenie miało miejsce w listopadzie 2009 roku, a ulepszony model pod nazwą „Konakovo” wszedł do użytku w grudniu tego samego roku.

Osobliwości

Wyniki wyszukiwania stały się bardziej dokładne w stosunku do wprowadzonych pytań. Powiązanie geolokalizacyjne odgrywa teraz szczególną rolę - witryny komercyjne nie zostały powiązane z regionami przez algorytm Śnieżinska, przez co wypadły z wyników wyszukiwania. Z zasobami informacyjnymi utożsamiane są słowa kluczowe niezwiązane z lokalizacją. Złożona architektura obliczania trafności znacznie skomplikowała życie optymalizatorów, którzy zauważyli, że przy najmniejszej zmianie jednego ze wskaźników natychmiast zmienia się pozycja witryny w wynikach wyszukiwania.

Wyniki

Zauważono wówczas, że zakup linków zewnętrznych do młodych witryn zbyt wolno wpływał na wydajność nowych zasobów, jeśli porównamy podobny zakup do witryny, która istnieje na rynku internetowym od dłuższego czasu. Nowe metody określania trafności treści dla wyszukiwanych haseł usunęły z wyników wyszukiwania witryny, których teksty były przesycone frazami kluczowymi. Rozpoczęła się nowa era tekstu wysokiej jakości, w której we wszystkim musiał być jakiś środek; bez niego witryna mogłaby po prostu zostać objęta sankcjami za spam. Zasoby komercyjne wpadły w panikę, bo prawie niemożliwe było dotarcie do TOP przy użyciu słów kluczowych niezależnych od geografii (a były to słowa o najwyższej częstotliwości). W związku z tym na blogu Yandex opublikowano wpis, który idealnie chcielibyśmy zobaczyć na pierwszych stronach organizacje komercyjne, które nie piszą pięknie, ale dobrze wykonują swoją pracę, ale w tym celu będziemy musieli nauczyć algorytmów oceniających jakość oferowanych usług. Ponieważ okazało się to w tej chwili zadaniem niemożliwym do zrealizowania, kluczową rolę w wynikach wyszukiwania, zarówno online, jak i offline, odegrała reputacja komercyjnych zasobów Internetu.

Obnińsk

Algorytm „Obnińsk” poprawia ranking i poszerza bazę geograficzną witryn internetowych oraz zmniejsza wpływ sztucznych linków SEO na wydajność witryny. Uruchomiony we wrześniu 2010 roku.

Osobliwości

Spada popularność zakupu mas linków i pojawia się koncepcja „eksplozji linków”, której wszyscy się teraz obawiali. Konkurenci mogą sobie nawzajem zaszkodzić, wprowadzając algorytm w błąd, kupując ogromną liczbę linków od „złych źródeł” do swojego „kolegi”. Po tym, konkurent wypadł z wyników wyszukiwania i przez długi czas nie mógł się tam dostać. Słowa wrażliwe geograficznie są częściej dodawane do różnych stron witryn komercyjnych, aby zwrócić uwagę robota na pracę z tym regionem.

Wyniki

Strony komercyjne bardziej dbają o swoją reputację, co jest dobrą wiadomością, ale wiele z nich nadal ucieka się do brudnych metod (sztuczne zwiększanie ruchu i recenzje zakupów). Po wydaniu algorytmu Obnińska zakupy stały się bardziej popularne wieczne linki i artykułów, zwykły zakup linków nie wpływa już tak bardzo na ranking, jak wcześniej, a jeśli źródło linku zwrotnego zostanie objęte sankcjami, może to doprowadzić do reakcji łańcuchowej. Wysokiej jakości teksty SEO są obowiązkowym atrybutem każdego zasobu. Młoda witryna z unikalną i odpowiednio zoptymalizowaną treścią może dostać się na TOP.

Krasnodar

Algorytm „Krasnodar” - wdrożenie technologii „Spectrum” w celu rozrzedzenia wyników wyszukiwania, rozszerzenia fragmentów i indeksowania sieci społecznościowych. Premiera odbyła się w grudniu 2010 roku.

Osobliwości

Technologia „Spectrum” została stworzona w celu klasyfikacji zapytań na kategorie i znalazła zastosowanie w przypadkach, gdy wprowadzono niespecyficzne frazy kluczowe. „Krasnodar” rozrzedził wyniki wyszukiwania, oferując takiemu użytkownikowi bardziej zróżnicowane możliwości. Na przykład, wpisując w wyszukiwaniu frazę „zdjęcie Moskwy”, można zobaczyć nie tylko ogólne krajobrazy, ale także zdjęcia według kategorii, takich jak „atrakcje”, „mapy”, „restauracje”. Nacisk położono na unikalne nazwy czegoś (strony, modele, produkty) - zaczęła się wyróżniać specyfika. Rich snippets umożliwiły natychmiastowe pokazanie kontaktów użytkowników i innych danych organizacji w wynikach wyszukiwania.

Wyniki

Ranking serwisów komercyjnych uległ znaczącym zmianom, szczególną uwagę przywiązuje się do szczegółów (karty produktów, oddzielenie krótkiego opisu od ogólnego). Sieć społecznościowa na VK zaczęła być indeksowana, a profile uczestników są teraz równie widoczne bezpośrednio w wynikach wyszukiwania. Posty na forach mogłyby zająć pierwsze miejsce, gdyby zawierały szerszą odpowiedź na pytanie użytkownika niż inne strony.

Reykjavik

Algorytm „Reykjavik” - utworzono personalizację wyników wyszukiwania oraz dodano technologie „Wizards” umożliwiające wyświetlenie wstępnych wyników zapytania. Ulepszona formuła podpowiedzi wprowadzania. Algorytm został uruchomiony w sierpniu 2011 roku.

Osobliwości

Motto spersonalizowanych wyników wyszukiwania brzmi: „Każdy użytkownik ma swoje własne wyniki”. System zapamiętywania zainteresowań wyszukiwarki działał poprzez pliki cookies, więc jeśli zapytania użytkownika częściej dotyczyły np. zasobów zagranicznych, następnym razem wyświetlały się w czołówce wyników wyszukiwania. Podpowiedzi w pasku wyszukiwania aktualizowane są co godzinę, poszerzając tym samym możliwości konkretnego wyszukiwania. Konkurencja w zakresie zapytań o wysokiej częstotliwości rośnie z niewiarygodną siłą.

Wyniki

Renomowane serwisy informacyjne częściej trafiają na TOP ze względu na rozbudowany rdzeń semantyczny (obecność ogromnej liczby różnych zapytań kluczowych o niskiej częstotliwości). Wzrost liczby stron dla określonych zapytań w serwisach informacyjnych zaczął odgrywać znaczącą rolę po wydaniu algorytmu Reykvik. Każda witryna próbowała przedostać się do zakładek użytkownika, aby stać się częścią systemu personalizacji; w tym celu wykorzystano metody subskrypcji kanału RSS oraz wyskakujące banery z podpowiedziami do dodania witryny do zakładek. Zasoby internetowe zaczęły zwracać większą uwagę na indywidualne podejście, zamiast wywierać presję na masy.

Kaliningrad

Algorytm „Kaliningrad” to globalna personalizacja wyszukiwania i ciągu wyszukiwania, skupiająca się na czynnikach behawioralnych. Uruchomienie Kaliningradu w grudniu 2012 roku znacząco podniosło koszty usług SEO.

Osobliwości

Zainteresowania użytkownika wywróciły do ​​góry nogami całe wyniki wyszukiwania – właściciele witryn, którym wcześniej nie zależało na komforcie pobytu odwiedzającego w serwisie, w błyskawicznym tempie zaczęli tracić ruch. Teraz Yandex podzielił swoje zainteresowania na krótkoterminowe i długoterminowe, aktualizując swoje szpiegowskie bazy danych raz dziennie. Oznaczało to, że dziś i jutro dla tego samego żądania temu samemu użytkownikowi może zostać wyświetlony zupełnie inny wynik. Zainteresowania odgrywają teraz szczególną rolę dla użytkownika, który wpisując frazę „taxi” interesował się podróżami – wyświetli się informacja o usługach taksówkowych, a dla kogoś, kto stale ogląda filmy – w wynikach wyszukiwania otrzyma wszystko o komedii „Taxi” . W pasku wyszukiwania każdej osoby „głodnej szukania informacji” na pierwszych pozycjach wyświetlają się teraz wskazówki dotyczące dotychczasowych zainteresowań.

Wyniki

Optymalizatory zaczęły uwzględniać coraz więcej sposobów na utrzymanie użytkownika: poprawiono użyteczność i wygląd, tworzono treści bardziej zróżnicowane i wyższej jakości. Podczas wychodzenia może pojawić się okno typu „Czy na pewno chcesz opuścić stronę”, a na użytkownika będzie wpatrywana się smutna twarz jakiegoś stworzenia. Przemyślane linkowanie stron i zawsze dostępne menu poprawiły wskaźniki aktywności użytkowników, co przełożyło się na wzrost pozycji witryn w wynikach wyszukiwania. Strony, które były niejasne dla szerokiego grona internautów, były najpierw po prostu degradowane na pozycjach, a następnie zazwyczaj zawieszane na końcu listy proponowanych wyników.

Dublin

Algorytm Dubliński - Lepsza personalizacja poprzez identyfikację bieżących celów. Ta unowocześniona wersja „Kaliningradu” została wydana światu w maju 2013 roku.

Osobliwości

Technologia zawiera funkcję śledzenia zmieniających się zainteresowań użytkowników. Oznacza to, że jeśli w pewnym okresie czasu pojawią się dwa zupełnie różne widoki wyszukiwania, algorytm będzie preferował ten drugi i uwzględni go w wynikach wyszukiwania.

Wyniki

W przypadku stron internetowych praktycznie nic się nie zmieniło. Walka toczy się nie tylko o ruch, ale także o poprawę wskaźników behawioralnych. Zaczyna się odchodzić od starych układów stron internetowych, bo łatwiej jest stworzyć nowy, niż próbować coś poprawiać na starym. Rośnie podaż usług szablonów stron internetowych i rozpoczyna się konkurencja o wygodne i piękne układy zasobów internetowych.

Wyspy

Algorytm „wyspy” - wprowadzono technologię wyświetlania interaktywnych bloków w wynikach wyszukiwania, umożliwiając użytkownikowi interakcję z witryną bezpośrednio na stronie wyszukiwania Yandex. Algorytm wystartował w lipcu 2013 roku wraz z propozycją dla webmasterów aktywnego wsparcia wersji beta i wykorzystania szablonów do tworzenia interaktywnych „wysp”. Technologia jest obecnie testowana za zamkniętymi drzwiami.

Osobliwości

Teraz, szukając informacji, które można znaleźć natychmiast po wyszukiwaniu, użytkownikowi oferowane są „wyspy” - formularze i inne elementy, z którymi można pracować bez odwiedzania witryny. Na przykład szukasz konkretnego filmu lub restauracji. Przy wyszukiwanym filmie i po jego prawej stronie zostaną wyświetlone bloki z okładką filmu, jego tytułem, obsadą, godzinami seansów w kinach w Twoim mieście oraz formularzem zakupu biletów. Restauracja wyświetli swoje zdjęcie, adres, numery telefonów i formularz rezerwacji stolika.

Wyniki

Na początku nic istotnego nie uległo zmianie w rankingu witryn. Jedyne, co stało się zauważalne, to pojawienie się zasobów sieciowych z interaktywnymi blokami na pierwszym miejscu i na prawo od wyników wyszukiwania. Jeśli liczba witryn, które wzięły udział w beta testach, byłaby znaczna, mogłyby one wyprzeć zwykłe witryny ze względu na ich atrakcyjność i chwytliwość dla użytkowników. SEO myślą o poprawie widoczności swoich treści w wynikach wyszukiwania poprzez dodanie większej liczby zdjęć, filmów, ocen i recenzji. W sklepach internetowych żyje się lepiej – odpowiednio skonfigurowane karty produktów mogą być doskonałą interaktywną „wyspą”.

Minusińsk

Algorytm „Minusinsk” – przy identyfikacji samych linków SEO, które zostały zakupione w celu zafałszowania wyników wyszukiwania, na stronę zastosowano filtr, co znacząco zepsuło jej pozycję. „Minusińsk” został ogłoszony w kwietniu 2015 roku, a w pełni wszedł w życie w maju tego samego roku. Z tym algorytmem kojarzy się ten słynny.

Osobliwości

Przed wydaniem Minusinsk w 2014 roku Yandex wyłączył wpływ linków SEO dla wielu kluczy komercyjnych w Moskwie w celu przetestowania i przeanalizowania wyników. Wynik okazał się przewidywalny - zakupiona masa linków nadal jest wykorzystywana, jednak dla wyszukiwarki jest to spam. Wydanie „Minusińska” oznaczało dzień, w którym właściciele witryn musieli uporządkować swoje profile linków i wykorzystać budżet wydany na promocję linków w celu poprawy jakości swoich zasobów internetowych.

Wyniki

„Reputowane” witryny, które osiągnęły TOP dzięki masowemu zakupowi linków, spadły z pierwszych stron, a niektóre otrzymały sankcje za naruszenie zasad. Wysokiej jakości i młode witryny, które nie opierają się na linkach zwrotnych, nagle znalazły się w TOP 10. Witryny „złapane w dystrybucji”, które nie chciały długo czekać, utworzyły nowe witryny, przenosząc treści i podpinając stare, lub sprytnie szamanizowany za pomocą przekierowań. Po około 3 miesiącach znaleźliśmy lukę w algorytmie, która pozwala niemal natychmiastowo usunąć ten filtr.

Użyteczność i zawartość zaczynają być masowo ulepszane. Linki kupuje się z jeszcze większą starannością, a kontrola nad linkami zwrotnymi staje się jednym z obowiązków funkcjonalnych optymalizatora.

Według dzisiejszych danych, jeśli nieudolnie kupisz linki, możesz uzyskać filtr nawet dla 100 linków. Jeśli jednak masa ogniw zostanie odpowiednio rozcieńczona to można spokojnie kupić tysiące ogniw jak za starych dobrych czasów. Oznacza to, że w istocie budżety linków dla tego właśnie rozwodnienia, w którym grał tłok i wzmianki, znacznie wzrosły.

Władywostok

Algorytm „Władywostok” to wprowadzenie do technologii wyszukiwania polegającej na sprawdzaniu witryny pod kątem pełnej kompatybilności z urządzeniami mobilnymi. Pełne rozpoczęcie realizacji projektu nastąpiło w lutym 2016 r.

Osobliwości

Yandex zrobił kolejny krok w kierunku użytkowników mobilnych. Specjalnie dla nich opracowano algorytm Władywostoku. Aby uzyskać lepszą pozycję w wynikach wyszukiwania na urządzeniach mobilnych, witryna musi spełniać wymagania dostosowane do urządzeń mobilnych. Aby wyprzedzić konkurencję w wynikach wyszukiwania, zasób internetowy musi poprawnie wyświetlać się na każdym urządzeniu internetowym, w tym na tabletach i smartfonach. „Władywostok” sprawdza brak wtyczek Java i Flash, dostosowanie treści do szerokości ekranu (pojemność tekstu na całej szerokości wyświetlacza), łatwość czytania tekstu oraz możliwość wygodnego klikania w linki i przyciski.

Wyniki

Do czasu uruchomienia algorytmu Władywostoku jedynie 18% witryn okazało się przyjaznych dla urządzeń mobilnych – reszta musiała szybko pozbyć się „ciężkości” na stronach, które nie były wyświetlane lub uniemożliwiały prawidłowe wyświetlanie treści na smartfony i tablety. Głównym czynnikiem wpływającym na pozycję witryny w wynikach wyszukiwania na urządzeniach mobilnych jest zachowanie użytkownika mobilnego. Przynajmniej na razie. W końcu nie ma zbyt wielu witryn idealnie dostosowanych do urządzeń mobilnych, tzw wolne miejsca w wyszukiwaniu zajmują ci, którzy są w stanie zapewnić użytkownikowi najbardziej komfortowe warunki, nawet jeśli nie całkowicie. Strony, które nie są przystosowane do urządzeń mobilnych, nie są wyrzucane z wyszukiwania mobilnego, a po prostu zajmują niższą pozycję w rankingu niż te, które osiągnęły najlepsze wyniki w poprawie jakości usług dla inteligentnych użytkowników. W tej chwili najbardziej popularny wygląd zamawianie układów stron internetowych – adaptacyjnych, a nie mobilnych jak mogłoby się wydawać. Strony, które spełnią wszystkie wymagania algorytmu, otrzymują maksymalną liczbę ruch mobilny w swojej niszy.

Google: historia tworzenia i rozwoju algorytmów

Algorytmy i filtry Google wciąż nie są w pełni zrozumiałe dla rosyjskojęzycznych optymalizatorów. Zawsze dla Google ważny punkt polegało na ukryciu szczegółów metod rankingu, tłumacząc, że „przyzwoite” strony nie mają się czego obawiać, a „nieuczciwym” lepiej, jeśli nie wiedzą, co je czeka. Dlatego na temat algorytmów Google wciąż krążą legendy, a wiele informacji uzyskano dopiero po zadaniu pytań mających na celu wsparcie, gdy witryna opadała w wynikach wyszukiwania. Google wprowadziło tak wiele drobnych usprawnień, że nie sposób było zliczyć, a zapytany, co dokładnie się zmieniło, zagraniczny PS po prostu milczał. Rozważmy główne algorytmy, które znacząco wpłynęły na pozycje witryn.

Kofeina

Algorytm „Kofeina” - na pierwszej stronie wyszukiwania może znajdować się kilka stron tej samej witryny według marki i istnieje opcja podglądu. Premiera odbyła się w czerwcu 2010 r.

Osobliwości

Wyróżnianie stron firmowych podczas wyszukiwania według marki. W pobliżu linii wyjściowej pojawi się „szkło powiększające”, umożliwiające podgląd. Słowa kluczowe związane z marką zapewniają pozytywny trend wzrostowy pozycji całego zasobu Internetu. Indeks Page Rank został zaktualizowany, a PR wzrósł na znanych i odwiedzanych stronach.

Wyniki

SEO zaczęli zwracać większą uwagę na branding witryny, w tym schematy kolorów, logo i nazwy. Słowa kluczowe dla marki sprawiły, że strony serwisu w szczególny sposób wyróżniły się w wyszukiwaniu, a gdy odwiedzający przeszedł z takiej frazy na stronę główną, jego pozycja w wynikach wyszukiwania wzrosła (o ile wcześniej zasób nie był liderem) . Optymalizatorzy SEO zaczęli kupować więcej linków, aby zwiększyć liczbę cytowań. Młodym i mało rozpoznawalnym markom przebicie się do TOP wyników wyszukiwania było prawie niemożliwe.

Panda

Algorytm Panda to technologia sprawdzająca witrynę internetową pod kątem jakości i przydatności treści, z uwzględnieniem wielu czynników SEO. Witryny z SEO „czarnego kapelusza” są wykluczone z wyszukiwania. Panda została ogłoszona w styczniu 2012 roku.

Osobliwości

„Panda” wyszła na poszukiwania i oczyściła je z gruzu. Dokładnie to można powiedzieć po wielu nieistotnych kwestiach kluczowe zapytania strony internetowe zniknęły z wyników Google. Algorytm zwraca uwagę na: spam i nierównomierne wykorzystanie słów kluczowych, unikalność treści, spójność publikacji i aktualizacji, aktywność użytkowników i interakcję z serwisem. Za pozytywny czynnik uznano fakt, że odwiedzający przewinął się w dół strony z szybkością czytania.

Wyniki

Po włączeniu Pandy ogromna liczba stron uległa sankcjom ze strony wyszukiwarki Google i początkowo wszyscy myśleli, że dzieje się tak za sprawą udziału w piramidach linków i zakupu mas linków. W rezultacie optymalizatorzy SEO przeprowadzili proces testowania algorytmu i przeanalizowali wpływ. Wnioski z eksperymentów były takie, że Panda nadal sprawdza jakość witryny pod kątem wartości dla odwiedzających. Zasoby internetowe przestały kopiować i wklejać i aktywnie rozpoczęły copywriting. Poprawiono czynniki behawioralne, przekształcając strukturę witryny w wygodniejsze opcje, a łącza w artykułach za pomocą specjalnych wyróżnień stały się ważną częścią optymalizacji. Popularność SEO jako usługi gwałtownie wzrosła. Zauważono, że strony niespełniające zasad Pandy bardzo szybko znikały z wyszukiwania.

Układ strony (Paige Lyot)

Algorytm Page Lyot to technologia zwalczania spamu w wyszukiwarkach, która oblicza stosunek treści przydatnych do spamu na stronach internetowych. Uruchomiony w styczniu 2012 r. i aktualizowany do 2014 r. włącznie.

Osobliwości

„Układ strony” powstał po licznych skargach użytkowników na pozbawionych skrupułów właścicieli witryn, których strony zawierały bardzo mało istotnej treści lub wymagane dane były trudno dostępne, a czasem w ogóle ich nie było. Algorytm obliczył procent odpowiedniej treści i spamu na stronie dla przychodzącego żądania. Na witryny, które nie spełniały wymagań, nałożono sankcje, a witryna została usunięta z wyszukiwania. Niezastosowanie się do zasad zamieszczania dokumentów dotyczyło także nagłówka serwisu wypełnionego reklamą, przy przeglądaniu tekstu wymagane było przejście na drugi ekran.

Wyniki

Witryny, które były zbyt spamerskie reklamami, spadły ze swoich pozycji, mimo że treść stron była umiarkowanie zoptymalizowana pod kątem słów kluczowych. Strony, które nie były powiązane z zapytaniami, zostały zdegradowane w wynikach wyszukiwania. Niewiele było jednak stron, które rażąco nie przestrzegały zasad i nie martwiły się o komfort odwiedzających. Po trzech aktualizacjach algorytmu przybliżona liczba zasobów, które wpadły pod filtr, okazała się nie większa niż 3%.

(Wenecja)

Algorytm „Wenecja” georeferuje witrynę do konkretnego regionu, biorąc pod uwagę obecność nazw miast na stronach witryny. Uruchomiony w lutym 2012 roku.

Osobliwości

„Wenecja” wymagała od webmasterów posiadania na swoich stronach internetowych zakładki „O nas”, zawierającej adres lokalizacji, bez zwracania uwagi na to, że firma może nie posiadać faktycznej lokalizacji. W kontekście algorytm wyszukiwał nazwy miast, aby wyświetlić odrębną stronę dla określonego w nich regionu. Zacząłem używać znaczników schema-creator.org, aby to wyjaśnić szukaj robota jego położenie geograficzne.

Wyniki

Witryny pojawiały się w wynikach wyszukiwania dla tych regionów, o których nie wspominały na swoich stronach, nie biorąc pod uwagę zapytań niezależnych geograficznie. Optymalizatory aktywnie uwzględniają słowa kluczowe wrażliwe geograficznie i próbują tworzyć mikrodane. Treść na każdej stronie jest spersonalizowana dla każdego konkretne miasto lub regionu jako całości. Zaczęto aktywnie wykorzystywać lokalny linkbuilding do zwiększania pozycji w wybranym regionie.

(Pingwin)

Algorytm „Pingwin” - inteligentna technologia określenie wagi stron i jakości linków zwrotnych. System edycji zawyżonych wskaźników autorytetu zasobów Internetu. Wprowadzony do wyszukiwania w kwietniu 2012 r.

Osobliwości

„Pingwin” ma na celu wojnę z zakupem linków zwrotnych, czyli nienaturalnego, czyli sztucznego zestawu uprawnień witryny. Algorytm tworzy bazę znaczących zasobów w oparciu o jakość linków zwrotnych. Impulsem do uruchomienia Penguina było pojawienie się optymalizatorów linków, gdy istniało jakiekolwiek łącze do zasobu sieciowego ta sama waga i umieścił taką witrynę w wynikach wyszukiwania. Ponadto zwykłe profile użytkowników sieci społecznościowych zaczęły być klasyfikowane w wynikach wyszukiwania na równi ze standardowymi zasobami Internetu, co dodatkowo spopularyzowało promocję zwykłych witryn za pomocą sygnałów społecznościowych. Równolegle z tymi możliwościami algorytmu, system zaczął zwalczać niepotrzebne wstawianie zapytań do słów kluczowych i nazw domen.

Wyniki

Penguin „zawiódł” wiele witryn w wynikach wyszukiwania ze względu na nienaturalny wzrost liczby linków zwrotnych i brak związku treści z żądaniami użytkowników. Znaczenie katalogów i witryn do sprzedaży linków szybko spadło do minimum, a wiarygodne zasoby (strony informacyjne, strony tematyczne i okołotematyczne) rosły na naszych oczach. W związku z wprowadzeniem algorytmu Pingwina przeliczono PR dla niemal wszystkich serwisów publicznych. Popularność masowego zakupu linków zwrotnych gwałtownie spadła. Serwisy internetowe zaczęły w miarę możliwości dopasowywać frazy kluczowe do treści znajdujących się na stronach serwisu. Rozpoczęła się „mania trafności”. Instalacja przycisków społecznościowych na stronach w formie modułów była powszechna ze względu na szybkie indeksowanie kont sieci społecznościowych w wyszukiwaniu.

Pirat

Algorytm „Pirat” to technologia reagowania na skargi użytkowników i identyfikowania przypadków naruszeń praw autorskich. System został uruchomiony w sierpniu 2012 roku.

Osobliwości

„Pirat” przyjął skargi autorów dotyczące naruszenia praw autorskich przez właścicieli witryn. Oprócz tekstów i zdjęć, największy wpływ na atak odniosły strony zawierające treści wideo, w których znajdowały się pirackie materiały filmowe z kin. Filtrowaniu poddano także opisy i recenzje filmów – teraz nie wolno było kopiować-wklejać pod groźbą sankcji. Dla duża liczba skargi na witrynę z powodu naruszeń, taka witryna została wyrzucona z wyników wyszukiwania.

Wyniki

Na podstawie wyników pierwszego miesiąca działania Google's Pirate, miliony plików wideo naruszających prawa właścicieli praw autorskich zostały zablokowane do oglądania na niemal wszystkich serwisach, w tym na serwisach hostujących wideo i w kinach internetowych. Witryny zawierające wyłącznie pirackie treści zostały ukarane i usunięte z wyszukiwań. Masowe sprzątanie „skradzionych” treści nadal trwa.

Koliber

Algorytm „Koliber” to wprowadzenie technologii umożliwiającej zrozumienie użytkownika, gdy zapytania nie odpowiadają dokładnie wpisom. System „identyfikacji dokładnych pragnień” został uruchomiony we wrześniu 2013 roku.

Osobliwości

Teraz użytkownik nie zmienił frazy, aby dokładniej znaleźć potrzebne mu informacje. Algorytm „Koliber” pozwolił nie wyszukiwać bezpośrednio po dokładnych wystąpieniach, ale zwrócił wyniki z bazy „rozszyfrowania życzeń”. Przykładowo, użytkownik wpisał w wyszukiwarkę frazę „miejsca wypoczynku”, a w wynikach wyszukiwania „Kolibri” umieściło witryny zawierające dane o sanatoriach, hotelach, ośrodkach spa, basenach i klubach. Oznacza to, że algorytm pogrupował standardową bazę danych z ludzkimi frazami dotyczącymi ich opisu. System rozumienia znacząco zmienił wyniki wyszukiwania.

Wyniki

Dzięki technologii Hummingbird optymalizatorzy SEO mogli rozszerzyć swoje rdzeń semantyczny i przyciągnij więcej użytkowników do witryny dzięki kluczom morfologicznym. Doprecyzowano ranking witryn, ponieważ obecnie pod uwagę brane są nie tylko wystąpienia bezpośrednich fraz kluczowych i zapytań związanych z tekstem, ale także aktualne życzenia użytkowników. Pojawiła się koncepcja copywritingu LSI – pisania tekstu uwzględniającego ukryte indeksowanie semantyczne. Oznacza to, że teraz artykuły pisano nie tylko z wstawianiem słów kluczowych, ale także w miarę możliwości włączając synonimy i frazy zbliżone do tematu.

(Gołąb)

Algorytm „Dove” to system lokalizacji użytkowników i powiązania wyników wyszukiwania z ich lokalizacją. Technologia została wprowadzona na rynek w lipcu 2014 roku.

Osobliwości

Lokalizacja użytkownika odegrała teraz kluczową rolę w dostarczaniu wyników. W wyszukiwaniu organicznym skupiono się przede wszystkim na geolokalizacji. Szczególną rolę odegrało łączenie witryn z mapami Google. Teraz, gdy użytkownik o to poprosi, algorytm najpierw wyszukuje witryny znajdujące się najbliżej lokalizacji lub docelowej treści, a następnie oddala się od odwiedzającego. Organiczne wyniki wyszukiwania uległy znaczącym zmianom.

Wyniki

Witryny lokalne szybko rosły w rankingach wyszukiwania i przyciągały ruch lokalny. Platformy internetowe nieposiadające zależności geograficznej spadły na pozycje. Walka o każde miasto rozpoczęła się od nowa, a liczba sytuacji wzrosła, gdy zaczęły pojawiać się identyczne strony ze zredagowaną treścią i linkami do różnych obszarów. Przed otrzymaniem dokładnych informacji na temat wdrożenia algorytmu „Dove” w rosyjskojęzycznej wyszukiwarce internetowej wielu webmasterów myślało, że podlegają sankcjom ze strony Pingwina.

(Przyjazny dla urządzeń mobilnych)

Algorytm Mobile-Friendly to implementacja technologii sprawdzania witryn pod kątem dostosowania do urządzeń mobilnych. System został uruchomiony w kwietniu 2015 roku i zdążył zostać „nazwany” w Internecie jako: „Mobile Armageddon” (mobilegeddon), „Mobile Apocalypse” (mobilepocalyse, mobocalypse, mopocalypse).

Osobliwości

Uruchomiono wersję przyjazną dla urządzeń mobilnych nowa era dla użytkowników mobilnych, zalecając optymalizatorom pilne zapewnienie komfortu użytkownikom mobilnym w ich witrynach. Dostosowanie witryn do urządzeń mobilnych stało się jednym z najważniejszych wskaźników tego, jak bardzo właściciele witryn dbają o swoich gości. Nieresponsywne strony internetowe musiały szybko skorygować niedociągnięcia: pozbyć się wtyczek, które nie są obsługiwane na tabletach i smartfonach, dostosować rozmiar tekstu do rozbudowy różnych ekranów, usunąć moduły uniemożliwiające poruszanie się po witrynie osobom z małym ekranem . Ktoś właśnie stworzył oddzielny wersja mobilna swoje zasoby internetowe.

Wyniki

Zasoby przygotowane wcześniej na taki zwrot zyskały wśród innych witryn internetowych szczególną wagę w wynikach wyszukiwania, a ruch z różnych urządzeń innych niż stacjonarne na te strony wzrósł o ponad 25%. Całkowicie nieresponsywne witryny zostały zdegradowane w wyszukiwarce mobilnej. Nacisk na mobilność odegrał pewną rolę – zminimalizowano obecność ciężkich skryptów w zasobach, reklamy i strony w naturalny sposób zaczęły ładować się szybciej, biorąc pod uwagę, że większość użytkowników posiadających tablety/smartfony korzysta z internet mobilny, który jest kilkukrotnie wolniejszy niż standardowy.

Wznawiać

To wszystko

Teraz wiesz, jak wyszukiwanie rozwijało się na przestrzeni lat w obu przypadkach zwykli użytkownicy oraz dla witryn, na które natrafiono w wyniku dystrybucji. Każdy z powyższych algorytmów wyszukiwania jest okresowo aktualizowany. Nie oznacza to jednak, że optymalizatorzy i webmasterzy powinni się czegoś bać (chyba, że ​​oczywiście stosujecie SEO typu black hat), ale mimo wszystko warto mieć to na oku, aby niespodziewanie nie opóźnić się w wyszukiwaniu ze względu na kolejne nowy filtr.

Wydaliśmy nową książkę „Marketing treści w mediach społecznościowych: jak dostać się do głów obserwujących i sprawić, by zakochali się w Twojej marce”.

W ostatnich latach wyniki wyszukiwania zmieniły się radykalnie w porównaniu z początkiem i połową XXI wieku. Miło widzieć nowe zmiany mające na celu zwiększenie komfortu użytkownika. A żeby w pełni docenić ile pracy włożono w wyszukiwarkę, postanowiliśmy zebrać 34 kluczowe wydarzenia w historii rozwoju Google.

Odległa przeszłość

Marzec 1998. Google ma udany start dzięki Larry'emu Page'owi i Sergeyowi Brinowi. W tym samym czasie wypuszczono pierwszy algorytm rankingu stron internetowych o nazwie PageRank.
PageRank to wartość odpowiadająca ważności strony. Obliczenia są dość proste: im więcej linków prowadzi do strony, tym wyższy jest jej PageRank. Należy pamiętać, że ciężar przenoszony przez stronę darczyńcy zależy bezpośrednio od linków do samego darczyńcy. Swoją drogą PageRank to algorytm, który działa już prawie 20 lat, choć w mocno zmodyfikowanej formie.

  • 2000 Uruchomienie Google Toolbar, aplikacji będącej paskiem narzędziowym do pracy z wyszukiwarką. Mniej więcej w tym czasie rozpoczęły się pierwsze rozmowy na temat SEO.
  • Grudzień 2000 - Hilltop. Jest to swego rodzaju dodatek do PageRank. Najważniejsze jest to, że linki z witryn związanych z danym tematem znacznie wzrosły.
  • 2001 Google zaczął dzielić wyniki wyszukiwania na zapytania komercyjne i niekomercyjne.
  • Luty 2003 - Boston. Aktualizacja nosi nazwę miasta, w którym odbyła się konferencja. Główna zmiana: wprowadzono comiesięczne aktualizacje bazy wyszukiwania.
  • Kwiecień 2003 - Cassandra. Algorytm, który jako pierwszy wstrząsnął optymalizatorami, bo zaczęły karać za użycie ukryte teksty i linki. Od tego momentu SEO, z punktu widzenia Google, zaczęło tracić na znaczeniu.
  • Maj 2003 – Dominik. Od tego momentu Google zaczęło inaczej oceniać linki zwrotne do witryny. To właśnie po Dominicu po raz pierwszy pojawiły się roboty Freshbot i Deepcrawler.
  • Czerwiec 2003 - Esmeralda. Tylko najnowsza comiesięczna aktualizacja SERP. Wraz z wydaniem Esmeraldy nie zauważono większych zmian.
  • Lipiec 2003 - Fritz. Główna zmiana: od wydania Fritza Google zaczął codziennie aktualizować!
  • Listopad 2003 – Floryda. Jedna z bardzo ważnych aktualizacji, gdyż to właśnie po Florydzie znaczna część „brutalnie” zoptymalizowanych stron była pesymistyczna. Floryda zadała cios zasobom przesyconym słowami kluczowymi, skradzionymi treściami i zakupionymi profilami linków. Od końca 2003 roku SEO uległo zmianie i stało się bardziej wymagające.
  • Styczeń 2004 – Austin. Austin Update przybywa z pomocą Florydzie. Istotą aktualizacji jest zaostrzenie walki ze spamowanymi i niewidocznymi SMS-ami. Wzrastają wymagania dotyczące trafności tekstu.
  • Luty 2004 - Brandy. Google zaczął reagować na synonimy słów kluczowych. Zoptymalizowane teksty stały się bardziej zróżnicowane, co niewątpliwie poprawia wyniki wyszukiwania. Wzrosła uwaga poświęcana tematycznej zawartości tekstu zakotwiczenia. Analiza słów kluczowych uległa zmianie.

Czas na zmiany

  • Luty 2005 - Allegra. Zmiany, jakie przyniosła Allegra, są zagadką historii. Proponowane zmiany: osobna kara za zakupione linki. SEO nadal idzie na czarno.
  • Maj 2005 - Burbon. Bourbon zaczął nakładać sankcje na witryny zawierające zduplikowaną treść, obniżając ich rankingi.
  • wrzesień 2005 -Gilligana. Gilligan nie dokonał żadnych większych zmian, przynajmniej niezauważalnych. Ale wspomnij o informacje historyczne konieczne – wspomniałem o tym.
  • październik 2005 - Mapy Google+ lokalny. Aktualizacje mające na celu zachęcenie firm do aktualizowania swoich danych kontaktowych na mapach.
  • Październik 2005 - Jagger. Kontynuacja walki z manipulacją linkami. Teraz celem Google były farmy linków, strony, które z dobroci serca wymieniały linki zwrotne, i po raz kolejny algorytm przejrzał wątpliwy profil linków.
  • Grudzień 2005 - Wielki Tatuś. Google zaproponowało zastosowanie kanonizacji, czyli wybrania najbardziej odpowiedniej strony spośród potencjalnych duplikatów. Użyj przekierowań 301 i 302. To wszystkie istotne zmiany.
  • listopad 2006 - Indeks uzupełniający. Rozszerzanie możliwości Google. Wyszukiwarka zaczęła przetwarzać kolejne dokumenty. Z jakiegoś powodu to właśnie w tym roku zauważono poważne zmiany w pozycjach witryn.
  • Czerwiec 2007 - Buffy. Drobne aktualizacje, które nie są warte Twojej uwagi. I ani śladu wampirów.
  • Kwiecień 2008 – Dewey. Wyglądało to jak trzęsienie ziemi, wstrząsnęło pozycjami miejsc i to wszystko. Nikt nie rozumiał dlaczego.
  • Sierpień 2008 – Sugestie Google. Google zaczął teraz wyświetlać sugestie wyszukiwania w menu rozwijanym po wpisaniu zapytania w pasku wyszukiwania.
  • Luty 2009 – Vince. Według Matta Cutsa nic wielkiego się nie wydarzyło. Jednak dociekliwi optymalizatorzy doszli do wniosku, że zasoby dużych marek uzyskały zdecydowaną przewagę.
  • Sierpień 2009 — Zapowiedź kofeiny. Google uprzejmie powiadomiło optymalizatorów o znaczących zmianach w strukturze wyszukiwania, dzięki czemu od teraz dokumenty będą indeksowane znacznie szybciej. W tym samym roku zaczęto aktualizować numer w czasie rzeczywistym.
  • Maj 2010 - Mój dzień. Ta aktualizacja zmniejszyła ilość ruchu generowanego przez szczegółowe zapytania.
  • Czerwiec 2010 - Kofeina. Wypuszczono zapowiadaną wcześniej kofeinę. Algorytm umożliwił szybsze indeksowanie większej liczby stron. Teraz nowe dokumenty szybciej trafiają do indeksu.

Aktualizacje Google: dzisiaj

  • 23 lutego 2011 - . W Dniu Obrońców Ojczyzny wypuszczono algorytm Panda, swego rodzaju protektor wyników wyszukiwania przed śmieciami, z naciskiem na czynniki wewnętrzne. Panda to zakrojony na szeroką skalę, znany i rewelacyjny algorytm, który wielokrotnie przechodził różne ulepszenia. Osłabiło się, a potem wzmocniło. Głównym zadaniem jest usunięcie z wyników wyszukiwania wszystkich „stron niskiej jakości”, takich jak portale i witryny stworzone wyłącznie w celach reklamowych, pozostawiając jednocześnie te najbardziej wartościowe.
  • 3 stycznia 2012 r. — Układ strony. Dodatek do Pandy analizujący łatwość przeglądania dokumentów. Celem jest pozbycie się natrętnych reklam, które zajmują większość ekranu użytkownika.
  • Luty 2012 - Wenecja. Aktualizacja, która teraz uwzględnia regionalną lokalizację użytkownika. Celem jest pokazanie witryn znajdujących się najbliżej użytkownika.
  • 24 kwietnia 2012 r. – Pingwin. Drugi rewelacyjny algorytm. Cel jest taki sam jak w przypadku Pandy, ale nacisk położony jest na czynniki zewnętrzne. Przejąłem kontrolę nad wszystkim, co jest związane z profilem linków zasobu. Karze witryny poprzez obniżenie całej witryny w wynikach wyszukiwania lub całkowite jej usunięcie.
  • wrzesień 2012 -Domena dokładnego dopasowania (EMD). Rzadki, ale niezbędny filtr. Pomysł polega na degradowaniu witryn o niskiej jakości, zoptymalizowanych pod kątem jednego żądania, jakim jest domena. Na przykład witryna kupi-kartoshku.ru, gdzie każda strona jest zoptymalizowana pod kątem żądania „kup ziemniaki”, najprawdopodobniej zostanie objęta tym filtrem.
  • Sierpień 2013 - Koliber. Złożony algorytm. Zadaniem Kolibri jest rozpoznanie znaczenia w złożonych zapytaniach wielowyrazowych i wyselekcjonowanie najbardziej odpowiednich dokumentów. Czynniki mogą obejmować: ukryte znaczenie żądania, projekt, Twoją lokalizację i tak dalej.
  • Sierpień 2014 - Gołąb. Kontynuując temat ptaków, Dove ma na celu prezentowanie firm (witryn), które znajdują się najbliżej Ciebie, w wynikach wyszukiwania na podstawie zapytań geograficznych. Na przykład, jeśli chcesz zamówić makaron chiński, Dove znajdzie Ci najbliższy lokal, który może zaspokoić Twoje potrzeby. Również w sierpniu 2014 roku ogłoszono, że Google zapewnia niewielką przewagę w rankingu witrynom korzystającym z bezpiecznego protokołu, takiego jak https.
  • 21 kwietnia 2015 r. — Dostosowany do urządzeń mobilnych. Algorytm preferujący poszczególne strony serwisu dostosowane do ekranów urządzenia mobilne. Nie wymaga skalowania ani przewijania w poziomie. Jednym słowem wygodny do czytania z telefonu/tabletu. Możesz to sprawdzić w Google Webmaster.

Ciąg dalszy…

W ciągu ostatnich 5 lat algorytmy Google przeszły wiele zmian. Poziom trudności w manipulowaniu wynikami wyszukiwania waha się od „bardzo trudnego” do „niemożliwego”. Dlatego jedyne, co pozostaje, to być odpowiedzialnym optymalizatorem. Google wielokrotnie wspominał, że treść pozostaje najważniejszym czynnikiem rankingowym i zawsze tak będzie. Okazuje się, że najlepszym wyjściem z tej sytuacji jest ruch tematyczny i promocja za pomocą bardzo wysokiej jakości linków. Cieszę się, że obecnie optymalizuję. Jestem pewien, że w 2016 roku czeka nas wiele nowych niespodzianek.

Technologie

Wyszukiwarka Google działa w oparciu o algorytm. Komputery przetwarzają dane, szukając sygnałów, że dana witryna jest mniej lub bardziej interesująca i istotna. tę prośbę. PageRank odgrywa dużą rolę w tym procesie, poprzez który Google i wybiera linki zewnętrzne oraz teksty z nimi związane. Ale Google wykorzystuje również wiele innych sygnałów do ustalenia znaczenie strony, w przeciwnym razie PageRank wyszukiwałby w nieskończoność.

Linki przychodzące są oceniane dla różnych stron internetowych. Jeśli uwzględnimy te linki, wyszukiwanie daje całkiem niezłe wyniki. Dlatego Google był wyjątkowy i wyjątkowy w 1999 r., kiedy wyniki nie przypominały niekończącej się gry i mniej interwencji człowieka.

Ale dzisiaj wszystko się zmieniło. Algorytm Google'a coraz częściej podlega zmotywowanym osobom i firmom, które o to walczą. Jak to jest? „wyścig zbrojeń”, gdzie Google przegrywa.

Kolejne wydarzenie, które miało miejsce wczoraj, nie gra na korzyść samej wyszukiwarki – w algorytmie Google pojawiły się zmiany mające na celu walkę z niektórymi z najbardziej irytujących twórców zanieczyszczeń Internetu – na przykład „farmy treści”.. „Wyścig zbrojeń” trwa.

Google upiera się, że nie korzysta bezpośrednio z niedawno uruchomionej funkcji Użytkownicy blokujący nieistotne wyniki V Przeglądarka Chrome. Jednak jeśli chodzi o działanie algorytmu, nowe rozwiązanie Google przypomina blokadę użytkownika.

„Jeśli weźmiemy pod uwagę kilkadziesiąt witryn najczęściej blokowanych przez użytkowników Chrome, okazuje się, że nowy algorytm powoduje obniżenie jakości 84 procent z nich” – twierdzi firma.

Jednak dziwne stwierdzenie. W końcu może to być ogromna zachęta do manipulowania blokowaniem. Zapomnij o farmach treści i po prostu zatrudnij tysiące ludzi, którzy po prostu to zrobią blokować witryny konkurencji. Inna strona „wyścigu zbrojeń”.

Google niczym czarodziej z krainy Oz kryje się za swoją potężnością i tajemniczością algorytm wyszukiwania. Jeśli dobre wyszukiwanie jest tak proste, jak kliknięcie myszą na stronie internetowej, cała magia może wyparować.

A jeśli w jakiś sposób uda Ci się usunąć jak najwięcej spamu, robiąc to w oparciu o wskaźniki demograficzne, geograficzne, a nawet dane osobowe użytkownika, wtedy sytuacja może być naprawdę nieprzyjemna. Zwłaszcza jeśli Google nie będzie miał dostępu do żadnych z tych danych. I Facebook to będzie miał.

To dotyczy jednego z najciekawszych eksperymentów, który ma miejsce właśnie teraz Możliwość wyszukiwania według linków, które lubisz na Facebooku. Wyniki wyszukiwania zależą od tego, co polubili Twoi znajomi na Facebooku, a dane te są przechowywane przez naprawdę długi czas.

Sieć społecznościowa korzysta z niego ponad pięćset milionów osób, z czego połowa sprawdza profil codziennie. Osoby te spędzają w serwisie 700 miliardów minut i udostępniają trzydzieści miliardów treści. Udostępniają linki, a ludzie klikają przycisk „Lubię to”, aby oddać głos na treść. Ogólnie rzecz biorąc, jest całkiem ciekawy eksperyment poszukiwawczy z Blekko.

Teraz wyobraź sobie, co Google może zrobić z tymi wszystkimi danymi, a zobaczysz dlaczego media społecznościowe są dla niego teraz bardzo ważne. Nie po to, by „zabić” Facebooka, ale by spróbować „neutralizować” zagrożenie, tak aby kolejny duży skok w ewolucji wyszukiwarek nie odbył się bez nich. Google zwykle zawodzi w handlu i turystyce, dlatego na przykład propozycja znajomego dotycząca hotelu w Paryżu może dobrze sprawdzić się w wynikach wyszukiwania.

Wcześniej może to zająć więcej niż rok Facebook rzeczywiście będzie zainteresowany wyszukiwaniem w pełni. W tym biznesie jest mnóstwo rzeczy przychody z reklam, że nie da się go też w nieskończoność ignorować. To właściwie powinno najbardziej przestraszyć Google.

„Jakość źródeł internetowych tradycyjnie ocenia się za pomocą sygnałów zewnętrznych, takich jak hiperłącza. Proponujemy nowe podejście oparte na sygnałach wewnętrznych, czyli poprawności informacji faktycznych uzyskanych z innych źródeł. Źródło zawierające minimum fałszywych faktów zostanie uznane za wiarygodne.” Tymi słowami rozpoczyna się dokument opublikowany pod koniec lutego przez zespół badaczy Google’a.

Czy to oznacza, że ​​po Yandex Google zamierza zmniejszyć wpływ współczynnika odniesienia? Rozwiążmy to od samego początku.

8 sierpnia 2012 r. firma Google oficjalnie uruchomiła na całym świecie algorytm wyszukiwania semantycznego Graf wiedzy.

Graf wiedzy to ogromna baza wiedzy wykorzystywana przez Google do ulepszania wyników wyszukiwania. To właśnie od tej daty powstała koncepcja Wyszukiwarka Google przesunął się w stronę semantyki. Teraz zamiast przetwarzać słowa kluczowe, algorytmy Google starają się zrozumieć znaczenie zapytania. To pierwszy krok w kierunku wyszukiwania semantycznego, w tym jego rozwoju wyszukiwanie głosowe Google'a.

Dwa lata później Google rozpoczyna prace nad stworzeniem Knowledge Vault, czyli nowej, jeszcze obszerniejszej bazy wiedzy, która docelowo zastąpi Graf wiedzy. Jeśli Graf wiedzy gromadzi wiedzę wyłącznie z zaufanych źródeł, takich jak Wikipedia, wówczas Skarbiec Wiedzy automatycznie zbiera i łączy informacje z całego Internetu w jedną bazę wiedzy o świecie, ludziach, powiązaniach i przedmiotach.

Co ma z tym wspólnego ten nowy algorytm?

Z opublikowanego dokumentu wynika, że ​​Google obecnie w żaden sposób nie określa wiarygodności informacji znajdujących się na stronach. A jeśli jedna witryna w Internecie rozpuści plotkę i, powiedzmy, plotka ta zostanie natychmiast podchwycona przez inne zasoby, powołując się na oryginalne źródło, wówczas oryginalna witryna najprawdopodobniej zajmie należne jej miejsce w wynikach wyszukiwania. W ten sposób Google pośrednio przyczynia się do rozpowszechniania fałszywych informacji.

Zaufanie oparte na wiedzy – wiedza oparta na zaufaniu. Nowy algorytm oceni poprawność informacji prezentowanych w serwisie i porówna je z danymi już dostępnymi w bazach wiedzy Google Knowledge Vault i Knowledge Graph. Jednocześnie algorytm obniży witryny w wynikach wyszukiwania, jeśli będzie w nich dużo fałszywych lub niepotwierdzonych faktów.

KBT kontra PageRank

W dokumencie programiści Google przedstawili kilka interesujących eksperymentów z KBT. W tym eksperyment „KVT vs. PageRank”.

Twórcy porównali KBT z tradycyjnym PageRankem. Na rysunku przedstawiono wskaźniki CBT i PageRank dla 2000 losowo wybranych stron. Dla ułatwienia porównania wartości obu wskaźników przeskalowano od 0 do 1. Jak się okazało, generalnie wartości CBT i PageRank nie są ze sobą skorelowane.

Twórcy zbadali bardziej szczegółowo 2 przypadki, w których CBT różni się znacząco od PageRank, aby zrozumieć, który z algorytmów jest bardziej niezawodny i dlaczego wystąpiły takie rozbieżności.

Badanie nr 1

Pierwszy przypadek to niski PageRank, ale wysoki CBT (prawy dolny róg): aby zrozumieć, co dokładnie jest źródłem wysokiego CBT, inżynierowie Google wzięli jako próbę około 100 witryn o wartości CBT około 0,9. Dla każdego miejsca inżynierowie zidentyfikowali 3 odpowiednie stwierdzenia i losowo wybrali z nich 10 trójek.

Czym są trojaczki (lub trójki z bazy wiedzy) najlepiej wyjaśnić na przykładzie. Każdy fakt składa się z podmiotu, przedmiotu i cechy przedmiotu. Na przykład Barack Obama jest podmiotem, jego obywatelstwo jest cechą przedmiotu, Stany Zjednoczone są przedmiotem. Stąd otrzymujemy fakt: Barack Obama jest obywatelem USA. Skarbiec wiedzy gromadzi informacje oparte na faktach, korzystając z podobnych trójek.

Następnie każdą witrynę oceniano ręcznie. Spośród 100 witryn 85 uznano za wiarygodne. Jednak tylko 20 witryn z 85 ma PageRank powyżej 0,5. Eksperyment ten udowodnił, że CBT potrafi rozpoznać źródła posiadające wiarygodne dane, nawet jeśli mają one niski PR.

Badanie nr 2

Wysoki PageRank, ale niski CBT (lewy górny róg): inżynierowie Google sprawdzili 15 najpopularniejszych witryn plotkarskich o gwiazdach. Wśród nich 14 miało wysoki PageRank, ale u wszystkich wskaźnik CVT był mniejszy niż 50%; innymi słowy, są mniej niezawodne niż połowa wszystkich witryn w Internecie. Inne witryny, które okazały się mieć niski współczynnik CVT, to fora. Na przykład witryna Answers.yahoo.com podaje, że Catherine Zeta-Jones urodziła się w Nowej Zelandii, chociaż według Wikipedii urodziła się w Walii.

Obydwa eksperymenty pokazały, że KBT jest algorytmem dość niezawodnym, odmiennym od wszystkich tradycyjnych (jak PageRank) i potrafiącym identyfikować witryny publikujące niezweryfikowane fakty, a także witryny kopiujące podobne treści.

Trudno powiedzieć, czy Google zdecyduje się na anulowanie połączenia stawiając zakład na KBT, czy nie. Najprawdopodobniej, jeśli zostanie zastosowany KBT, oba czynniki zostaną wzięte pod uwagę.

Kiedy powinniśmy się spodziewać algorytmu KBT?

Kiedy dokładnie algorytm zostanie uruchomiony (i czy w ogóle zostanie uruchomiony), wciąż nie wiadomo.

Niedawno John Mueller (specjalista w dziale webmasterów Google) na regularnym spotkaniu z webmasterami w Google+ został zapytany, czy ten algorytm jest wykorzystywany w rankingu (patrz. transmisja na żywo od 10 marca, 49 min), na co odpowiedział, że w kadrze zatrudnionych jest wielu naukowców, którzy okresowo prowadzą różne badania, ale to nie znaczy, że te osiągnięcia zostaną wykorzystane w poszukiwaniach, choć jest to na pewno nic innego jak kolejne badanie.

Inżynierowie Google mówią: „ Badania wykazały, że naszą metodą można obliczyć rzeczywistą wiarygodność źródeł. Zastosowaliśmy go do bazy zawierającej 2,8 miliarda faktów wydobytych z Internetu, oceniając w ten sposób wiarygodność 119 milionów stron internetowych. Selektywna ocena wyników na ludziach potwierdziła skuteczność metody.
KBT dostarcza użytecznego sygnału o wiarygodności zasobu i nie koreluje z tradycyjnymi sygnałami, takimi jak PageRank
».

Uruchomienie KBT (jeśli do tego dojdzie) może stać się nową erą w całej historii Google i oczywiście jednym z ważnych czynników rankingowych witryn. Ale już jest jasne, że algorytmu nie można zastosować do wszystkich witryn - jego działanie będzie dotyczyło tylko zasobów publikujących materiał faktograficzny.

KBT to kolejny sygnał wskazujący, że już wkrótce tylko strony interesujące i przydatne dla ludzi będą zajmować godne miejsca w wynikach wyszukiwania. I to z pewnością jest dobre dla wszystkich.

© 2024 ermake.ru - O naprawie komputerów PC - Portal informacyjny