Netsprint to dynamicznie rozwijająca się firma z branży nowych technologii. Specjalizujemy się w rozwiązaniach technologicznych wspierających marketing internetowy.
EN

Oto najnowszy algorytm wyszukiwania stworzony przez ekspertów z wyszukiwarki NetSprint.pl oraz portalu Wirtualna Polska - informacje interesujące dla właścicieli polskich serwisów internetowych, które mogą im pomóc w osiągnięciu jeszcze wyższych pozycji na liście wyników wyszukiwania.

Internet rozwija się bardzo dynamicznie. Według wrześniowego raportu zaprezentowanego w serwisie statystykidomen.pl aktualna liczba polskich domen internetowych wynosi 353 669, przy czym w ciągu ostatnich 12 miesięcy przybyło ich ponad 140 000. Największe polskie portale osiągają rozmiary kilkuset tysięcy dokumentów. Każdy właściciel serwisu, czy to korporacyjnego czy hobbystycznego, chciałby oczywiście, aby jego witryna znalazła się w wynikach wyszukiwania najlepszych wyszukiwarek. I to oczywiście na jak najwyższej pozycji. Podejmuje bądź zleca specjalistom działania polegające na dostosowywaniu poszczególnych stron internetowych do wymagań wyszukiwarek. Polegają one głównie na takich zmianach w kodzie źródłowym stron www, aby były bardziej przyjazne algorytmom oceniającym strony.

Odwróćmy jednak problem i przeanalizujmy go od drugiej strony. Jak wyszukiwarka porównuje witryny i od czego tak naprawdę zależy pozycja danej strony w wynikach wyszukiwania? Dlaczego jeden z konkurencyjnych serwisów będzie prezentowany wyżej od drugiego? Jak w natłoku tylu milionów dokumentów znaleźć te najbardziej wartościowe i zaprezentować je w stosownej kolejności, aby Internauci byli zadowoleni z otrzymanych wyników? Informacje zawarte w tym artykule mogą okazać się interesujące z punktu widzenia właścicieli polskich serwisów internetowych i będą pomocne w osiągnięciu jeszcze wyższych pozycji na liście wyników wyszukiwania.

Tak było kiedyś

Twórcy pierwszych wyszukiwarek przyjęli założenie, że w natłoku milionów stron, jakie pojawiają się w sieci, najważniejszym zadaniem wyszukiwarki będzie nie tylko wyświetlanie stron związanych z treścią zapytania Użytkownika, ale przede wszystkim prezentowanie tych będących obiektywnie wartościowym źródłem informacji.

W wyniku takiego założenia już wówczas stworzono mechanizm, który określał, jaka jest wartość poszczególnych dokumentów w sieci. Opierał się on głównie na analizie linków. Badano po prostu ile odnośników prowadzi do danej strony www, jak również czy pochodzą one z wartościowych serwisów. Dzięki temu mechanizmowi strony częściej polecane przez inne serwisy były prezentowane wyżej w wynikach wyszukiwania. Precyzyjniej mówiąc, na pierwszej stronie wynikowej znajdowały się przede wszystkim te strony, które miały jednocześnie dużo linków prowadzących do siebie z popularnych stron (co świadczyło o ich wysokiej wartości obiektywnej) oraz ta zawierające treści bezpośrednio związane z wpisanym zapytaniem Użytkownika. Odbywało się to dzięki zastosowaniu zaawansowanej analizy językowej zaindeksowanych stron internetowych.

Linki zostały rozpracowane

Przez długi czas mechanizm badania i zliczania linków bardzo dobrze spełniał swoje zadanie. Jednak wraz z popularyzacją wiedzy na temat znaczenia linkowania dokumentów coraz częściej okazywało się, że webmasterzy nie zawsze polecają wartościowe dokumenty. Ponieważ ruch z wyszukiwarek łatwo przekładał się na przychody właścicieli serwisów internetowych, część z właścicieli serwisów zaczęła wykorzystywać tą wiedzę sztucznie zawyżając pozycję swojej strony w wynikach wyszukiwania. W efekcie słuszny w swoim założeniu mechanizm działał coraz słabiej. Właściciele wyszukiwarek byli zmuszeni rozpocząć walkę z różnego rodzaju nadużyciami webmasterów i spamerów. W wyniku ich nieuczciwych praktyk powstał cały przemysł mający na celu promocję stron niezasługujących na wysoką pozycję w rankingu.

Dodatkowo, wraz z eksplozją Internetu, powstawało coraz więcej nowych serwisów, do których nikt nie linkował. Oznaczało to, że wiele stron – w tym często wartościowych - pozostawała na marginesie Internetu. Nie miały one żadnych szans na osiągnięcie wysokich pozycji na najbardziej popularne słowa kluczowe.

W tej sytuacji dla właścicieli wyszukiwarek, których przecież priorytetowym celem jest dostarczanie wszelkiego rodzaju najwartościowszych informacji, kluczowe stało się znalezienie nowego mechanizmu, który pozwoliłby wyszukiwarce określać obiektywną wartość serwisu. Jednym z takich nowatorskich algorytmów jest Traffic Index. W poszukiwaniu wartości obiektywnej Przeprowadzono badania, które obejmowały szeroką listę czynników wpływających na wartość strony:
  • miejsce pochodzenia linku,
  • wartość serwisu w opinii Internautów i redaktorów katalogów,
  • tematykę serwisu, z jakiego pochodzi link itd.

W wielu przypadkach zastosowanie dodatkowych kryteriów dawało pozytywne efekty i nowe mechanizmy mogły zostać zaimplementowane w algorytm wyszukiwarki. Tym samym ranking badania wartości stron stawał się coraz bardziej złożony. Nadal szukano alternatywy, czegoś, co pozwalałoby jednoznacznie określić wartość danego serwisu, a nie byłoby obciążone wadami badania linków Celem wyszukiwarki było zatem znalezienie obiektywnej miary wartości dla każdego polskiego serwisu internetowego. Założono, iż, miara ta powinna spełniać następujące kryteria:

  • obejmować cały polski Internet (włącznie z nowo powstającymi stronami);
  • być trudna do zmanipulowania – właściciel serwisu powinien mieć tylko pośredni wpływ na jego obiektywną wartość (jedynie poprzez poprawianie jego wartości merytorycznej oraz zwiększanie społeczności użytkowników regularnie z niego korzystającej);
  • być stale aktualizowana – Internet rozwija się w niezwykłym tempie – zastosowana miara powinna to uwzględniać (serwisy stare i nie odświeżane będą gorzej punktowane);
  • umożliwiać porównywanie względem siebie zarówno najpopularniejszych portali jak i małych serwisów hobbistycznych.
Megapanel PBI/Gemius - badanie polskiego Internetu

Pod koniec 2004 zakończyły się prace nad unikalnym w skali światowej Badaniem Megapanel PBI/Gemius, łączącego właściwości badania panelowego z badaniem monitorującym ruch na witrynach internetowych. Celem badania jest poznanie liczby i profilu społeczno-demograficznego użytkowników Internetu oraz sposobu, w jaki Internauci korzystają z sieci. Polska sieć długo czekała na niezależną i wiarygodną analizę, która ukaże jej pełny i prawdziwy obraz. Wyniki badania umożliwiają porównywanie popularności witryn i aplikacji internetowych. Badania oparte są na obiektywnej próbie a jego wyniki są praktycznie nie możliwe do zniekształcenia.

Dostrzeżono, że dzięki wynikom takich badań wyszukiwarka mogłaby wzbogacić swoją wiedzę na temat polskiego Internetu – a dokładniej kilkuset tysięcy domen, które zostały kiedykolwiek odwiedzone przez panelistów biorących udział w sondażu. Nowotworzony algorytm opierałby się na obiektywnej i nie zmanipulowanej ocenie Internautów. Dodatkowym atutem ewentualnego oparcia się na wynikach badania jest fakt, że są one przeprowadzane co miesiąc. Dzięki temu wiedza na temat szybko zmieniającego się i rozwijającego Internetu byłaby zawsze aktualna.

Traffic Index -  alternatywa dla systemów wyszukiwawczych

Po wielu miesiącach testów powstał nowatorski algorytm wyszukiwawczy. Miara ta bierze pod uwagę dane o oglądalności serwisu, ilości jego użytkowników, czasie, jaki spędzają na nim czy ich lojalności. Wykorzystuje całą dostarczaną wiedzę z badania Megapanel. Ponieważ nowy algorytm, jako pierwszy na świecie uwzględniał w tak dużym stopniu analizę ruchu na poszczególnych serwisach, został nazwany Traffic Index. Oczywiście system oceny nadal wykorzystywał dotychczasowe mechanizmy badania wartości stron www, czyli np. badanie linków czy uwzględnianie charakteru poszczególnych serwisów i ich zawartości.

Ważnym zadaniem było jeszcze znalezienie odpowiedniej skali premiowania serwisów o wysokim współczynniku Traffic Index. Kluczem było stworzenie odpowiednich mechanizmów, które pozwolą zidentyfikować serwisy nieposiadające jeszcze dużej oglądalności, ale posiadające wartościowe treści i zapewnienie im wysokiej pozycji. W tym celu przeprowadzono różnego rodzaju działania optymalizacyjne i zastosowano system badania jakości wyników wyszukiwania po wdrożeniu każdej istotnej zmiany w mechanizmie. Dzięki temu ostateczna wersja algorytmu spełniła zadane na wstępie założenie.

Słuszność koncepcji integracji algorytmu wyszukiwania z wynikami Megapanelu PBI/Gemius potwierdza fakt, że portal Onet.pl, wprowadzając ulepszoną wersję swojej wyszukiwarki, również oparł jej algorytm o badanie Megapanel, z tym, że uwzględnia on tylko kilka tysięcy najpopularniejszych domen, a nie kilkaset tysięcy, jak w przypadku algorytmu NetSprint.

Konsekwencje

Najbardziej na wprowadzeniu Traffic Index skorzystali Użytkownicy. Dzięki uwzględnieniu w algorytmie wiedzy na temat ruchu na poszczególnych serwisach w wynikach wyszukiwania:

  • wyżej prezentowane są serwisy zawierające wartościowe dla Użytkowników treści;
  • witryny o wysokim wskaźniku Traffic Index będą częściej odwiedzane przez robota wyszukiwarki - dzięki temu w wyszukiwarce przeszukiwane będą aktualne treści pochodzące z tych serwisów;
  • w dużym stopniu eliminowane są strony bezwartościowe, nie odwiedzane przez Internautów - dzięki temu w wynikach rzadko znajdą się strony tworzone jedynie w celu ich wysokiego pozycjonowania w wyszukiwarkach, tzw. strony spamerskie.

Wprowadzenie innego sposobu oceny serwisów niesie za sobą pewne konsekwencje dla specjalistów ds. e-marketingu, content menedżerów czy innych osób odpowiedzialnych za rozwój korporacyjnych serwisów internetowych. E-marketingowcy powinni walczyć o lojalnych użytkowników swoich witryn aby zyskać wyższą pozycję w rankingu wyników. Wyszukiwarki coraz częściej postrzegane są przecież jako medium zwiększające rozpoznawalność czy znajomość marki.

Traffic Index zniweluje znaczenie nieetycznego pozycjonowania stron www. Farmy linków i handel odnośnikami straci na znaczeniu a decydujący wydźwięk odegra zdobycie popularności i stworzenie merytorycznie wartościowych witryn.

Pochodną wprowadzenia nowych algorytmów wyszukiwawczych będzie zapewne wzrost liczby użytkowników polskich wyszukiwarek, co w połączeniu z wejściem do Polski Google powinno prowadzić również do wzrostu znaczenia płatnych form reklamy w wyszukiwarkach, zgodnie z trendami światowymi.  W zeszłym roku ich udział w rynku reklamy internetowej w USA wyniósł 40%, podczas gdy w Polsce kształtował się na poziomie 7%.

Robert Sadowski, Netsprint

Netsprint S.A.
Budynek Focus wejście „C”
al. Armii Ludowej 26
00-609 Warszawa
nasze marki: