Оптимизация за търсачки

(6 гласа, оценка 5.00 от 5)


Seo оптимизация

Какво е Оптимизация за търсачки? Какво е SEO Оптимизацията?

SEO оптимизацията (Оптимизация за търсачки) е процес на покачване на класирането на уеб сайт или уеб страница в търсачките, по естествен начин от само себе си чрез собствени резултати или чрез платени услуги, познати като "SEO Оптимизация". Като цяло, колкото по-често един уеб сайт се появява в списъка с резултатите от търсене, толкова повече посетители ще получи от търсачката. SEO може да са насочени към различни видове търсене, включително и търсене на изображения, локално търсене, търсене на видео и други видове търсене филтриращи резултатите по специални показатели и уеб услуги.

Като цяло интернет маркетинговата стратегия, се фокусира върху това как хората работят с търсачките. Кои са действителните термини за търсене, въведени в търсачките от определената целева аудитория. Оптимизацията на някой уебсайт може да включва редакция на неговото съдържание и HTML код, с цел увеличаване на значението на специфични ключови думи, както и премахване бариерите за индексирането им в търсачките. Също така увеличаването броя на препратките, или входящите препратки от чужди сайтове е друга често използвана SEO тактика.

Съкращението SEO може да се приема като термин определящ оптимизацията за търсачки. Той е приет от индустрия от SEO консултанти, които осъществяват проекти за оптимизация от името на своите клиенти, както и от независими SEO консултанти, извършващи тази услуга. Оптимизация за търсачки може да предложи SEO като самостоятелна услуга или като част от една по-широка маркетингова кампания. Тъй като ефективното SEO може да изисква промени в HTML структурата на кода на даден сайт и неговото съдържанието, то тогава SEO тактики могат да бъдат включени още в процеса на създаването и развитието на даден уебсайт, на ниво дизайн. Терминът SEO friendly може да включва много части от сайта като например, уеб дизайн, менюта, системи за управление на съдържанието, изображения, видео, колички за пазаруване, и други елементи, които са оптимизирани за целите на търсачките.

История на Оптимизацията за търсачки

Уебмастърите и авторите на съдържание започват оптимизиране на сайтове за търсачки в средата на 1990-те, като първи опити за каталогизиране на уеб съдържанието. Първоначално всички уебмастъри са представяли адреса на страницата, или URL на различни търсачки, които да накарат техния "паяк" да обходи страницата на сайта и да извлече други връзки към други страници от нея, по този начин съдържанието. от нея да бъде индексирана. Процесът включвал един паяк за търсене, изтегляне на определено съдържание и съхраненяването му на собствен сървър на търсачката, където втора програма, известна като Indexer, извличала разнообразна информация за страницата, определени думи от съдържатието, както и специфично значение и важност, също и URL адресите съдържащи се в страницата, които след това се поставяли в Scheduler за обхождане на по-късен етап.

Собствениците на сайтове започнаха да признават стойността на високото класиране на техните уеб сайтове в резултатите на търсачките. Това породи създаването и излозането на различи позволени и непозволени техники известни като White Hat Seo и Black Hat SEO. Според анализаторите от Дани Съливан, фразата "оптимизация на уеб сайтове" е навлязла в употреба през 1997 година. А първата документирана употреба на термина оптимизация за тъсачка е на Джон Аудете и неговата компания Multimedia Marketing Group, което е документирано чрез уеб страница от сайта MMG от август 1997 година.

Търсачката Google

Дипломираните студенти от Станфордския университет Лари Пейдж и Сергей Брин, разработват "backrub", търсачка, която разчита на математически алгоритъм за известност на уеб страниците. Броят им се изчислява чрез алгоритъм, а PageRank е функция за количеството и силата на входящи URL адреси. PageRank оценява и вероятността дадена страница да бъде достигната от уеб потребител, който на случаен принцип сърфира в интернет и следва URL адреси от една страница към друга. На практика това означава, че някои URL адреси са по-силни от други, тъй като имат страница с по-висок PageRank и е по-висока вероятността да бъдат посетени от случаен сърфист.

Пейдж и Брин основават Google през 1998 година. Google бързо привлича лоялни клиенти сред нарастващия брой на потребителите на интернет, който обичат простия и изчистен дизайн. Фактори извън уеб страницата като например PageRank и анализ на URL адрес и такива вътре в нея, като честота на ключови думи, мета тагове, заглавия, URL адреси и структура на сайта, позволиха на Google да се избегне различни видове манипулация, относно класирането в неговата ранглиста.Въпреки че PageRank-а е по-труден за манипулиране, някои уебмастъри вече са разработили инструменти за изграждане на връзки и схеми за влияние върху друга търсачка наречена Inktomi, а тези методи в последствие се оказаха и приложими по същия начин и за PageRank.

Много сайтове, фокусирани върху обмена на връзки, купуват и продават такива, често в огромен мащаб. Някои от тях имат свои ферми за URL адреси, включващи създаването на хиляди сайтове единственно с цел връзки за спам. До 2004 г. търсачките са включили широк спектър от неразкрити фактори и алгоритми определящи тяхното класиране, с цел да се намали въздействието на манипулацията. Google казва, че са открили сайтове с повече от 200 различни сигнали за манипулация. Водещите търсачки като Google, Bing и Yahoo, не разкриват алгоритмите, които те използват за класирането на страници. SEO доставчиците на услуги, като Ранд Фишкин, Бари Шварц, Аарон Уол и Джил Уолън, изучават различни подходи за оптимизация за търсещи машини и са публикували своите становища в онлайн форуми и блогове.

Оптимизация за търсачки за Google

През 2005 г. Google започна персонализиране на резултатите от търсене за всеки потребител. В зависимост от историята на предишните търсения, Google създава резултати за своите регистрирани потребители. През 2008 г., Брус Клей каза, че "Класирането е мъртво", във връзка с появяването на персонализираното търсене. Като това вероятно ще обезсмисли темата за това, как да класираме даден уебсайт, тъй като позицията в класирането, ще бъде различно за всеки потребител и при всяко търсене.

Google въведе в края на 2009 г. и търсенето в реално време в опит да направят резултатите от търсенето по-навременни и актуални. 
Това съвпадна и с нарастването на популярността на социалните медии, блоговете и др. Затова и водещите търсачки направиха промени на техните алгоритми, за да позволят на новото и актуално съдържание да се появи по-бързо в резултатите от търсенето.

Отношения с търсачките

От 1997 г. търсачките признават, че уебмастърите правят усилия да се класират добре и че някои уебмастъри дори манипулират в оптита да повишат резултатите от търсенето си, като пълнят техните страници с излишни или неподходящи ключови думи. Ранните търсачки като Altavista и Infoseek, коригираха алгоритмите си, за да предотвратят тази манипулация.

Поради високата стойност на маркетинга от целеви резултати в класирането, се породи и този потенциал за състезателни отношения между търсачките и SEO доставчиците на услуги. През 2005 г. на годишна конференция AIRWeb се обсъди и темата за минимизиране на вредното въздействие на агресивните доставчици на уеб съдържание . Фирми, които използват прекалено агресивни техники за класирането на уеб сайтовете на техните клиенти, могат да бъдат забранени от резултатите на търсенето. През 2005 г. Wall Street Journal съобщи за дружество, за което се твърди, че използва високо-рискови техники, но не успя да разкрие тези рискове на своите клиенти. Друго списание съобщи, че същата компания съди блогър и SEO доставчика Арон Уол за забраната за писане.

Методи за индексиране на търсачките

Водещи търсачки, като Google, Bing и Yahoo!, използват роботи, за обхождане на страници и свои алгоритми, за определяне на резултатите от търсенето. Страници, които са индексирани от други търсачки, не е необходимо да бъдат представени, тъй като те са открити автоматично. Някои търсачки, като Yahoo!, използват платена услуга за подаване с фиксирана такса или цена на клик. Такива програми обикновено гарантират включване в базата данни, но не гарантират специфично класиране в резултатите от търсенето. Два основни директории, Yahoo Directory и Open Directory се нуждаят от ръчно подаване и редакторски преглед.

Увеличаване на известността в търсачките

Разнообразни методи могат да увеличат популярността на дадена уеб страница в резултатите от търсенето.Писане на съдържание, включващо често срещана ключова фраза, така търсачките са склонни да увеличат трафика към нея. Актуализирането на съдържанието, кара търсачките да го обхождат по-често, а това дава допълнителна тежест на един сайт. Добавянето на подходящи ключови думи в мета данните, включително в таговете за заглавие, подобрява приложимостта на даден сайт.

Оптимизация на търсенето на изображения в търсачките

Оптимизация на търсенето на изображения е процес по организиране на съдържанието на дадена уеб страница, с цел увеличаване значението на определена ключова дума в търсачките на изображения. Както и при други типове оптимизация, целта е да се постигне по-високо класиране при търсене, а оттам и увеличаване обема на трафик от търсачките.

Бялата шапка (White Hat SEO) в сравнение с черната шапка (Black Hat SEO)

SEO техниките могат да бъдат класифицирани в две основни категории: техники, които търсачките препоръчват, като част от добрия дизайн и структура и тези, които не одобряват. Търсачките усилено опитват да намалят ефекта на последните. Техниките на бялата шапка са склонни да дават резултати, които траят дълго време, докато при черната шапка, се очаква такива сайтове в крайна сметка, да бъдат открити и забранени, или за временно, или за постоянно.

Черната шапка или Black Hat се опитва да подобри класирането по начини, които са неодобрени от търсачките, или включват измама. Една известна техника за черна шапка използва текст, който е скрит и изместен от видимата част, слят с цвета на фона на сайта, поставен в невидими div тагове, позиционирани извън екрана. Друг метод е извикването на различна страница, в зависимост от това дали страницата се отваря от човек или от търсачка - тази техника е известна като прикриване (cloacking).

Международните пазари при оптимизацията за търсачки

Успешната оптимизация за международните пазари може да изисква професионален превод на уеб страници, регистрация на име на домейн с домейн от първо ниво в целевия пазар и уеб хостинг, който дава локален IP адрес. В останалите случаи, основните елементи за оптимизацията на търсачки, по същество е една и съща, независимо от езика, тоест добрия seo оптимизатор българин ще е добър и на руския, и на испанския, и на английския пазар на seo услуги, стига да знае добре езика и да има достатъчен брой регионални източници (уеб сайтове) на линк билдинг за сайта който ще оптимизира и класира в търсачките.

В заключение SEO Оптимизацията за търсачки е науката, изкуството на класирането на някакъв сайт в търсачките по-високо, бързо и с минимален бюджет, без това да се отразява неблагоприятно върху продължителността на високото му класиране в търсачките. Нещо което в България почти никой не практикува :)