آموزش جامع سئو یا بهینهسازی سایت

فصل اول: موتورهای جستجو چگونه کار میکنند؟
How Search Engines Operates
با سلام خدمت کاربران گرامی راهکارینو، در این سری مقالات، قصد داریم ترجمه مقالات وب سایت معتبر ماز (Moz.com) در زمینه سئو یا بهینه سازی وب سایت برای موتورهای جستجو را خدمت شما عزیزان ارائه دهیم. این مقالات شامل 10 بخش می باشد که بصورت تصویر زیر بخش بندی شده اند:
همانطور که می دانید وب سایت MOZ یکی از معتبرترین وب سایت هایی است که در زمینه سئوی سایت ابزارها و راهکارهای مفیدی در دسترس کاربران و مدیران سایت ها قرار می دهد. لطفا با فصل اول از آموزش بهینه سازی سایت با ما همراه باشید.
خزیدن و ایندکس کردن
دو وظیفه اصلی موتورهای جستجو عبارتند از :
- خزیدن و یا پیمایش صفحات وب (Crawling) و ایندکس کردن آنها
- فراهم کردن و استخراج صفحات و مطالب مرتبط با جستجوی کاربر و نمایش آنها به کاربر در کمترین زمان ممکن
شبکه جهانی وب (World Wide Web) را مانند شبکه ای از ایستگاههای مترو در یک شهر زیرزمینی عظیم در نظر بگیرید :
هر ایستگاه یک سند (Document) یکتا و منحصر بفرد می باشد که عموما صفحات وب می باشند (و گاهی اوقات نیز تصاویر-ویدیو-pdf و غیره) موتورهای جستجو باید راهی پیدا کنند تا در تمام ایستگاه های این شهر زیرزمینی بخزند. بنابراین آنها از لینک ها استفاده می کنند .
ساختار لینکها، اتصال تمام صفحات وب را به یکدیگر انجام می دهد :
لینکها این امکان را به ربات های اتوماتیک و یا خزنده ها (Spider یا Crawler) می دهند که به میلیاردها داکیومنت (معمولا صفحات وب – web pages) دسترسی پیدا کنند .
به محض اینکه خزنده ها به داکیومنتی دسترسی پیدا می کنند ، آن را در بصورت کد خاصی در پایگاه داده بسیار عظیم خود (Massive Database) ذخیره میکنند تا بعدا بتوانند با جستجوی کاربران ، آنرا استخراج کند .
موتورهای جستجو برای اینکه بتوانند این تعداد فوق العاده زیاد داکیومنت ها را در دیتابیس خود ذخیره کنند تا بعدا هنگام جستجوی کاربر آنها را در کسری از ثانیه استخراج کنند ، در سرتاسر جهان ، دیتاسنتر (Data Center) هایی ایجاد کرده اند .
این تسهیلات ذخیره سازی غول آسا ، هزاران ماشین پردازنده در خود نگه داری می کنند که بتوانند تعداد بسیار زیادی از اطلاعات را با سرعت بالایی پردازش کنند . وقتی کاربری جستجویی در هر یک از موتورهای جستجوی معروف (مانند Baidu – Google – Yahoo! – Bing) انجام می دهد ، به درخواست او در کسری از ثانیه پاسخ داده می شود . حتی اگر این پاسخ در حد یکی دو ثانیه هم تاخیر داشته باشد ، ممکن است باعث نارضایتی کاربر شود . بنابراین بسیار مهم است که پاسخ به سرچ کاربر در سریعترین زمان ممکن انجام شود.
فراهم کردن پاسخ جستجو
موتورهای جستجو یک ماشین پاسخگو هستند . هنگامی که کاربری در اینترنت جستجویی انجام می دهد ، موتورهای جستجو سراغ داکیومنت های ایندکس شده خود می روند و دو کار را همزمان انجام میدهند :
- بازگرداندن داکیومنت هایی که بیشترین ارتباط را به عبارت مورد جستجوی کاربر داشته باشند .
- مرتب سازی نتایج فوق بر اساس اعتبار و محبوبیت وب سایت حاوی داکیومنت .
همین دو مورد فوق (یعنی مرتبط بودن و محبوبیت – relevance , popularity ) است که در روند بهینه سازی (SEO) تاثیر می گذارند .
موتورهای جستجو چگونه ارتباط و محبوبیت داکیومنت های وب را تشخیص می دهند ؟
این روزها برای موتورهای جستجو ، ارتباط مطلب (relevance) به جستجوی کاربر مفهومی بالاتر از پیدا کردن صفحه وبی است که کلمات درست داشته باشد . اما در روزهای اولیه موتورهای جستجوگر ، بیشتر از این مرحله پیش نمی رفتند . در طول سالیان پیشرفت تکنولوژی و به تبع آن نحوه کارکرد موتورهای جستجوگر ، مهندسین باهوش به راه های بهتر برای استخراج مطالب مرتبط با سرچ کاربر رسیدند . فاکتورهای زیادی بر روی ارتباط مطالب تاثیر می گذارند که در این سری از مقالات ، به برخی از مهم ترین آنها اشاره می کنیم .
موتورهای جستجوگر معمولا فرض را بر این می گذارند که وب سایت هایی که محبوبیت بیشتری دارند ، مطالب ارزشمندتری نیز دارند . این فرضیه باعث رضایتمندی بیشتر کاربران از نتایج جستجو شده است .
ارتباط و محبوبیت بصورت دستی اندازه گیری و یا محاسبه نمی شوند ، بلکه موتورهای جستجو ، الگوریتمهای هوشمند و دقیقی دارند که توسط آنها این عملیات انجام می شود . به اینصورت که ابتدا گندم را از کاه بیرون می کشند (استخراج مطالب مرتبط –relevance documents) و سپس گندم ها را بر اساس کیفیتشان (محبوبیت – popularity) مرتب سازی می کنند .
این الگوریتم ها اغلب شامل صدها متغیر و فاکتور می باشند که در رشته بازاریابی به این متغیرها فاکتورهای رتبه بندی (ranking factors) می گویند .
چگونه در بهینه سازی وب سایت موفق باشیم؟
الگوریتم های پیچیده موتورهای جستجو به ظاهر غیرقابل رسوخ بنظر می رسند ولی خود موتورهای جستجوگر، بینش و بصیرتی را برای دارندگان وب سایت فراهم کرده اند که بتوانند به نتایج بهتری در زمینه جستجو برسند و آمار بازدید خود را افزایش دهند.
مواردی که موتورهای جستجو برای بهینه سازی وب سایت به ما پیشنهاد می دهند عبارتند از :
اطلاعات SEO از دستورالعمل وب مستر گوگل (Google Webmaster)
گوگل راه های زیر را برای موفقیت در امر بهینه سازی وب سایت در موتور جستجوگر خود پیشنهاد داده است :
- طراحی و ایجاد صفحات وب برای کاربران و نه برای موتورهای جستجو . کاربران خود را گول نزنید و نیز محتوایی متفاوت به کاربران و موتورهای جستجو نمایش ندهید !
- صفحاتی با ساختار سلسله مراتبی و لینک های مرتب و واضحی بسازید . هر صفحه باید حداقل توسط یک لینک استاتیک قابل دسترس باشد.
- محتوای مناسب و پرباری برای صفحات سایت خود در نظر بگیرید و مطالب سایت تان شفاف و غیرپیچیده بیان شده باشند . مطمئن شوید که اتریبیوت های title , alt المان های سایت تان بصورت دقیق و توصیفی تعریف شده باشند .
- استفاده ازکلمات کلیدی توصیفی و URL های کاربرپسند (User-Friendly) و همچنین استفاده از قابلیت 303 redirect و یا rel=”canonical” برای مطالب تکراری (Duplicate) سایت تان .
اطلاعات SEO از دستورالعمل وب مستر بینگ (Bing Webmaster):
مهندسین بینگ در مایکروسافت ، موارد زیر را برای کسب رتبه بهتر در موتور جستجوی bing پیشنهاد داده اند:
- مطمئن شوید از کلمات کلیدی مناسب و نیز ساختار مناسب برای آدرس صفحات (Url) استفاده کرده اید.
- مطمئن شوید محتوای سایت تان درون المان هایی مانند flash و Ajax و javascript پنهان و مدفون نشده باشد و نیز لینک های درون آنها از خزنده های موتورهای جستجو مخفی نشده باشند.
- محتواهایی تولید کنید که دارای کلمات کلیدی غنی باشند و نیز مطالبی که در سایت تان قرار می دهید تازه و دست اول باشند (از سایتی کپی نکرده باشید) و نیز بطور منظم مطالب سایت را آپدیت کنید (بعنوان مثال روزی یکبار و آنهم در ساعت مشخصی)
- کلماتی که میخواهید ایندکس شوند را درون تصاویر قرار ندهید (زیرا مسلما ایندکس نخواهند شد) مثلا اگر میخواهید نام شرکت و شعار آن ایندکس شود ، نباید آنها را در لوگوی سایت قرار دهید .
علاوه بر توصیه هایی که در بالا بیان شد ، با توجه به اینکه می دانیم بیش از 15 سال است که موتورهای جستجوگر تاسیس و شروع بکار کرده اند ، بازاریاب های جستجو (Search Marketer) اطلاعاتی مبنی بر نحوه رتبه بندی سایت ها در سرچ بدست آورده اند و توسط این اطلاعات ، بر تعداد کاربران سایت خود و متعاقب آن تعداد مشتریان کسب و کار خود افزوده اند.
در فصل دوم از آموزش سئو برای مبتدیان، نحوه تعامل کاربران با موتورهای جستجو را بیان خواهیم کرد.
منبع: https://moz.com
در فصل اول از آموزش سئو یا بهینه سازی وب سایت، بیان کردیم که “موتورهای جستجو چگونه کار میکنند“. در فصل دوم از آموزش سئو، نحوه کارکردن کاربران با موتورهای جستجو را شرح خواهیم داد.
فصل دوم : نحوه تعامل کاربران با موتورهای جستجو
یکی از مهمترین المان هایی که در بازاریابی اینترنتی در حوزه بهینه سازی وب سایت ها وجود دارد اینست که با کاربران همدردی کنید! و خودتان را جای آنها قرار دهید . ابتدا باید حوزه فعالیت وب سایت تان را مشخص کنید سپس کاربرانی که به کسب و کارتان مرتبط می شوند را بدست آورده و نگه دارید.
توصیه مجدد : ” برای کاربران بسازید نه برای موتورهای جستجو “
نحوه سرچ کاربران در گوگل:
نحوه جستجوی کاربران در موتورهای جستجو سه نوع می باشد :
- “انجام دادن” رفتار متقابل : من میخواهم کاری انجام دهم مانند خریدن بلیط هواپیما و یا گوش دادن به یک موسیقی!
- “دانستن” اطلاعاتی : من به اطلاعاتی نیاز دارم مانند نام یک برند و یا بهترین رستوران در تهران!
- “رفتن” جهت یابی : من میخواهم به جای خاصی در اینترنت بروم مانند فیسبوک و یا سایت محتوا !
“وقتی کاربران عبارتی را در موتور جستجو سرچ می کنند و به یک صفحه وبی هدایت می شوند ، آیا آنها از نتیجه رضایت دارند و به صفحه مناسبی هدایت شده اند؟” این سوالی است که موتورهای جستجو روزانه میلیون ها بار از خود می پرسند!
وظیفه اولیه موتورهای جستجو این است که نتایجی مرتبط با جستجوی کاربر به او نمایش دهد.
بنابراین شما مدیران وب سایت ، باید از خود بپرسید که کاربران مورد هدف شما دنبال چه چیزی می باشند و اطمینان حاصل کنید که سایت شما این اطلاعات را به آنها می دهد .
روند جستجوی کاربران در موتور جستجو:
روند نحوه جستجوی کاربران در موتورهای جستجو بطور کلی بصورت زیر است:
- احساس نیاز به اطلاعات و یا یافتن پاسخی برای سوال شان
- تبدیل آن به فرمتی از کلمه و یا عبارت (که در علم کامپیوتر به آن query گفته می شود)
- ورود آن عبارت در باکس موتورهای جستجو
- مرور نتایج حاصله از جستجو
- کلیک کردن روی لینک یک نتیجه
- اسکن کردن صفحه وب برای یافتن اطلاعات مورد نیاز خود
- بازگشت به صفحه جستجو در صورت پیدا نکردن اطلاعات دلخواه و اسکن مجدد نتایج جستجو
- جستجوی عبارتی دیگر (با انجام اصلاحاتی در آن) در باکس موتور جستجو برای یافتن نتایج دلخواه
لزوم صرف وقت، هزینه و منابع برای بهینه سازی سایت:
- این روزها ، جستجو در اینترنت بسیار محبوب و پرطرفدار شده است ، بطوری که سالیانه 20 درصد به تعداد جستجو در موتورهای جستجو اضافه می شود و سرتاسر جهان را تحت تاثیر خود قرار داده است .
- جستجوهای اینترنتی ، مقیاس بزرگی از فعالیت های آنلاین و آفلاین اقتصادی را در بر می گیرد .
- رتبه بالاتر در صفحه اول نتایج موتورهای جستجو برای دیده شدن وب سایت بسیار اهمیت دارد.
- لیست شدن وب سایت ما بعنوان رتبه اول نتایج جستجو علاوه بر اینکه ترافیک سایت را افزایش می دهد ، به مشتری کسب و کار ما ، حس اعتماد را القا خواهد کرد و با افزایش محبوبیت همراه است .
” بنابراین یادگیری اصول بهینه سازی (SEO) برای رسیدن به اهداف فوق ضروری است”
در فصل سوم، دلایل اهمیت بازاریابی اینترنتی را بیان می کنیم.
منبع: https://moz.com
در فصل دوم از آموزش سئو یا بهینه سازی برای موتورهای جستجو (SEO:Search Engine Optimization) چگونگی تعامل کاربران با موتورهای جستجو را بیان کردیم. در این فصل، به بیان دلایل اهمیت بازاریابی جستجوی اینترنتی می پردازیم.
فصل سوم : دلایل اهمیت بازاریابی موتورهای جستجو (Search Engine Marketing)
یکی از جنبه های مهم بهینه سازی سایت برای موتورهای جستجو (Search Engine Optimization) اینست که وب سایت خود را هم برای کاربران و هم برای ربات های خزنده موتورهای جستجو سهلالوصول و قابل فهم کنیم. با اینکه الگوریتم های موتورهای جستجو بسیار پیچیده شده اند ، نمی توانند مانند انسان وب سایت ها را مشاهده کنند. بهینه سازی به موتورهای جستجو کمک می کند که هر صفحه وب درباره چی هست و چگونه می تواند برای کاربران مفید باشد.
محدودیت های تکنولوژی موتورهای جستجو :
تعداد زیادی از محدودیت ها وجود دارد که باعث بروز مشکلات قابل توجهی در دو موضوع ارتباط و محبوبیت (در فصل اول در این باره صحبت شد) می شود . در زیر تعدادی از محدودیت های مهم موتورهای جستجو را آورده ایم:
مشکل با خزیدن و ایندکس کردن (Crawling & Indexing) :
- فرمهای آنلاین: موتورهای جستجو معمولا در فرمهای آنلاین مانند فرم لاگین خوب عمل نمیکنند و ممکن است اطلاعاتی که در پشت فرم هستند کلا از دید آنها پنهان بماند .
- صفحات تکراری: سیستم های مدیریت محتوا (CMS) گاها نسخه های تکراری از یک صفحه تولید می کنند که فهمیدن آن برای موتورهای جستجو مشکل است .
- آدرس های بلاک شده: وجود خطا (Error) در فایل robots.txt ممکن است باعث خزیدن موتور جستجو در میان صفحات بلاک شده شود.
- ساختار لینک ضعیف: اگر ساختار لینک دهی در وب سایت برای موتور جستجو قابل فهم نباشد ممکن است موتور جستجو به تمام محتویات وب سایت ما دست پیدا نکند.
- محتوای غیر متنی: اگرچه الگوریتم های موتورهای جستجو در خزیدن در محتوای غیر متنی (Non-Text Content) رو به بهبود است ولی هنوز کاستی هایی در این زمینه دارند مانند خواندن متون داخل عکس، فلش، ویدیو و غیره.
مشکل تطابق عبارت موردجستجوی کاربر با محتوای وب سایت:
- اصطلاحات غیررایج: عباراتی که بصورت جمله ها و یا اصطلاحات رایج بین عموم جستجو می شوند مانند جستجوی “دستگاه خنک کننده غذا” بجای “جستجوی یخچال” !
- زبان و پیچیدگی های بین المللی کردن: مانند color و colour . زمانی که شک دارید ، چک کنید و ببینید کاربران دنبال کدام هستند و محتوای صفحه را بر اساس آن بنویسید.
- هدف گیری مکانی غیر متجانس: به این مفهوم که بعنوان مثال شما کاربران واقع در کشور لهستان را مورد هدف مطالب سایت خود قرار داده اید ، در حالی که اکثریت بازدیدکنندگان سایت شما از کشور ژاپن می باشند!
- سیگنال های متنی غیر هماهنگ: به این مفهوم که بعنوان مثال تیتر مقاله شما “بهترین قهوه کشور مکزیک” است ولی متن مقاله درباره “گذراندن تعطیلات در کانادا به صرف قهوه” باشد!
از دیده شدن محتوای وب سایت خود اطمینان حاصل کنید:
اگرچه کسب اطلاعات در زمینه نحوه طراحی و پیاده سازی وب سایت بهینه برای موتورهای جستجو مهم است ولی کافی نیست. موتورهای جستجو به خودی خود نمی توانند کیفیت محتوای صفحات وب را اندازه گیری کنند . بلکه توسط دو ویژگی “ارتباط و اهمیت” (relevance and importance) اعتبار محتویات یک وب سایت را مقیاس می کنند . بنابراین شرط لازم برای داشتن یک وب سایت بهینه، نوشتن محتوای مناسب و غنی برای کاربران و شرط کافی اینست که محتوای آنرا به اشتراک بگذارید و نیز کاربران درباره آن نظر بدهند.
طبیعت رقابتی موتورهای جستجو:
بطور متوسط در هر صفحه از نتایج جستجوی موتورهای جستجوی مهم مانند گوگل-یاهو-بینگ ، ده لینک نمایش داده می شود که به ترتیب محبوبیت چیدمان شده اند. مسلما هر چه رتبه شما در این ده نتیجه بالاتر باشد ، به تبع آن ، تعداد کلیک بیشتری شامل سایت شما می شود و نزد کاربران محبوب تر خواهید شد. نتایج 1 و 2 و 3 تعداد بازدیدکنندگان بیشتری نسبت به سایر لینکهای نتایج جستجو (صفحه اول) خواهند داشت و همچنین اگر سایت شما در صفحه اول (جزو 10 نتیجه اول) قرار گیرد مسلما نسبت به صفحات دیگر بازدهی بسیار بیشتری دارد . دلیل رقابتی که بین قرارگیری در بین ده نتیجه اول جستجو وجود دارد داشتن منفعت مالی برای صاحبان وب سایت ها می باشد. بدون توجه به اینکه نحوه جستجوی کاربران و نیز نحوه کارکرد الگوریتم های هوشمند در آینده چگونه خواهد شد ، رقابت بر سر قرارگیری در صفحه اول نتایج جستجو و حتی نمایش بین سه لینک اول ادامه خواهد داشت ….
تغییر مداوم بهینه سازی برای موتورهای جستجو (SEO):
وقتی در اواسط دهه آخر قرن بیستم یعنی حدود سال 1995 میلادی، بازاریابی اینترنتی شروع بکار کرد، تگ متای کلمات کلیدی (Keyword meta tag) قسمت ثابت و منظم تاکتیک های سئو محسوب میشد. در سال 2004 استفاده از لینک ها در وبلاگ ها و وب سایت ها و همچنین ارسال کامنت اسپم در آنها و نیز ساختار لینک ها در وب سایت ، می توانست ترافیک سایت را افزایش دهد. در سال 2011 ، استفاده از شبکه های اجتماعی و جستجوی پیشرفته ، از مسیرهای اصلی بهینه سازی بود . بنابراین سیر تکاملی موتورهای جستجو باعث شده که اگر تاکتیکی در سال 2004 باعث بهینه شدن سایت شما میشد اکنون که سال 2017 است در سایت تان استفاده کنید ، باعث صدمه زدن به سئوی سایت شما شود!
آینده نامعلوم و غیرقطعی است ولی چیزی که مشخص است، تغییر مدام در موتورهای جستجو می باشد.
برخی معتقدند سئو مرده است (SEO is dead!) در حالی که منطق ساده اینست:
“وب سایت ها برای قرارگیری در رتبه بالاتری در نتایج جستجو با هم رقابت می کنند، آنهایی که علم و تجربه کافی برای بهینه کردن سایت خود دارند، برنده این رقابت خواهند بود و از افزایش بازدیدکننده سایت خود نفع می برند!”
در فصل بعد، مبانی طراحی و توسعه بهینه وب سایت برای موتورهای جستجو را بیان خواهیم کرد.
فصل چهارم : مبانی طراحی و توسعه بهینه وب سایت برای موتورهای جستجو
بخش 1 از فصل چهارم
موتورهای جستجو در چگونگی خزیدن در صفحات وب و تفسیر آنها محدودیت دارند. یک صفحه وب، آنگونه که برای ما انسانها نمایان است برای موتورهای جستجو قابل فهم و ساده نیستند. در این فصل، تمرکز ما بر روی این موضوع خواهد بود که چگونه صفحات وب را تولید کنیم و یا تغییر دهیم تا ساختار آن هم برای انسانها قابل فهم باشد هم برای موتورهای جستجو. این فصل از مقاله را می توانید با برنامه نویس سایت خود و یا گرافیست آن به اشتراک بگذارید، زیرا همه آنها از این مقاله بهره خواهند برد.
محتوا با قابلیت ایندکس شدن:
من با مشکل پیدا نشدن مواجه هستم!
یک صفحه تمام فلش زیبا برای نمایش پاندا طراحی کرده ام،
ولی در هیچ بخشی از گوگل شناسایی نشده است!
برای افزایش کارایی سایت در زمینه کسب رتبه بالاتر در نتایج جستجو، با اهمیت ترین محتوای سایت شما باید در فرمت Html تعریف شوند. علیرغم پیشرفتهای تکنولوژی، تصاویر، فایلهای فلش، جاوااسکریپت و امثال اینها توسط خزنده های موتور جستجو نادیده گرفته می شوند. ساده ترین راه برای حصول اطمینان از اینکه مطالبی که به کاربران نمایش می دهید، توسط موتورهای جستجو هم مشاهده می شوند، اینست که آنها را در html صفحه قرار دهید. اگرچه متدهای پیشرفته تری برای نمایش مطالب صفحه وب به موتورهای جستجو وجود دارد.
متدهای پیشرفته برای نمایش مطالب به موتورهای جستجو:
- تعریف کردن اتریبیوت alt برای تصاویر . با اینکار به موتورهای جستجو، عبارت داخل alt را نمایش داده ایم و به کاربران سایت تصویر را بصورت ویژوال! . مانند مثال روبرو: <img alt=”test alt attr” src=”images/test.jpg” />
- بهینه کردن باکس های جستجو با لینکهای خزنده و جهت یاب.
- بهینه کردن فایلهای فلش و پلاگین های جاوااسکریپت با تعریف متن برای آنها.
- بهینه سازی فایلهای ویدیویی و صوتی توسط یک متن رونوشت.
سایت خود را مانند یک موتور جستجو مشاهده کنید!
بسیاری از وب سایت ها با مشکل ایندکس نشدن مطالب خود مواجه هستند. بنابراین چک کردن مجدد (Double checking) وب سایت تان می ارزد! توسط ابزارهایی مانند Google’s cache و SEO-browser.com و MozBar می توانید مشاهده کنید که کدام المان های سایت تان توسط موتورهای جستجو قابل مشاهده و ایندکس شدن هستند (تصویر زیر را مشاهده کنید)
محتوای فلش از دید موتورهای جستجو:
به مثال زیر توجه کنید:
فرض کنید یک صفحه وب بصورت تمام فلش باشد (تصویر زیر-سمت چپ) همانطور که مشاهده می کنید در نمایش آن به کاربران مشکلی ندارد ولی وقتی این صفحه را توسط ابزار Google-Cache مشاهده می کنید (تصویر زیر-سمت راست) یعنی آن چیزی که موتور جستجو می بیند، صفحه وب فوق مانند یک بیابان بی آب و علف می باشد. یعنی هیچ المانی در موتور جستجو ایندکس نخواهد شد! و رتبه بدی را از لحاظ رتبه بندی در گوگل کسب خواهد کرد.
در بخش بعد، ساختار لینک های قابل پیمایش (Crawlable links) و آناتومی تگ لینک (Anchor Link) را بررسی می کنیم
بخش 2 از فصل چهارم
در بخش قبل، درباره موضوعات “محتوا با قابلیت ایندکس شدن” و “سایت خود را مانند یک موتور جستجو مشاهده کنید” صحبت کردیم. در این بخش، ساختار لینک های قابل پیمایش (Crawlable links) و آناتومی تگ لینک (Anchor Link) را بررسی می کنیم.
ساختار لینک های قابل پیمایش! (Crawlable Links):
همانطور که موتورهای جستجو نیاز دارند تا محتوای صفحات وب را ببینند تا آنها را بصورت ایندکس هایی در دیتابیس عظیم خود ذخیره کنند، باید بتوانند ساختار لینک های وب سایت را مشاهده کنند تا محتوای سایت را بر اساس آنها پیدا کند. برای یک ساختار لینک قابل پیمایش مهم است که موتور جستجو بتواند از طریق آن به تمام صفحات وب دسترسی پیدا کند. میلیون ها وب سایت بطور اشتباه ساختار لینک های خود را طراحی کرده اند و این امر باعث شده تا تمام صفحات آنها در موتور جستجو ایندکس نشود!
در تصویر زیر، چگونگی بروز این مشکل را نمایش داده ایم:
همانطور که در تصویر بالا مشاهده می کنید، موتور جستجوی گوگل، با پیمایش HomePage (لینک A) به صفحات B و E می رسد ولی صفحات C و D با اینکه جزئی از وب سایت فوق هستند (و شاید از صفحات b , e هم مهمتر باشند) از دید موتور جستجو مخفی باقی می مانند و موتور جستجو راهی برای رسیدن به آنها ندارد. و این بدین دلیل است که بین صفحات B,E با صفحات C,D هیچ مسیر و لینکی وجود ندارد .
حتی محتوای عالی، کلمات کلیدی مناسب و کلا بهینه سازی مناسب صفحات C,D نیز به این مشکل کمکی نخواهد کرد!
آناتومی تگ لینک (Anchor Link):
لینکها می توانند شامل متن، عکس، و یا المانهای دیگری باشند که تمام آنها یک بخشی را در صفحه وب فراهم می کند که قابل کلیک است و کاربر با کلیک روی آنها وارد صفحه دیگری (و یا بخش دیگری از همان صفحه) می شود. این لینکها، بعنوان المانهای جهت یابی (Navigational) در فضای اینترنت می باشند و با نام هایپرلینک (hyperlink) شناخته می شوند.
در تصویر بالا که بیانگر اعضای تشکیل دهنده یک لینک است، بخش اول شروع کننده لینک یعنی <a می باشد و بخش دوم آدرس لینک (referral location) است که به مرورگر و همچنین موتورهای جستجو می گوید این لینک به کجا اشاره دارد. بخش بعدی بخش قابل رویت برای کاربران است که به anchor text معروف است. بخش آخر نیز برای بستن تگ لینک است یعنی </a> تا سایر المان های سایت را تحت تاثیر قرار ندهد. البته یک لینک می تواند المان های دیگری نیز داشته باشد که در مقالات بعدی آنها را بررسی خواهیم کرد. لینک فوق توسط موتورهای جستجو قابل رویت و ایندکس شدن است.
بخش 3 از فصل چهارم
در بخش قبل، ساختار لینک های قابل پیمایش و آناتومی تگ لینک (Anchor tag Link) را بررسی نمودیم. در این بخش، دلایل مرسوم عدم شناسایی یک صفحه وب توسط موتورهای جستجو را بیان خواهیم کرد.
دلایل مرسوم عدم شناسایی یک صفحه وب توسط موتورهای جستجو:
- فرمهای ارسال اطلاعات: اگر بخشی از سایت خود مثلا در صورت لاگین کردن کاربر نمایش داده می شود، امکان عدم مشاهده آن بخش محافظت شده و ایندکس نشدن آن در موتور جستجو وجود دارد. زیرا موتورهای جستجو در حالت عادی سعی نمی کنند در فرم لاگین، اطلاعات را ثبت کنند و لاگین کنند!!!
- لینکهای واقع در کدهای جاوااسکریپت: اگر شما در صفحه وب از لینکهایی استفاده کنید که در اسکریپت های javascript بصورت embed باشد ، احتمال این وجود دارد که توسط موتور های جستجو شناسایی نشوند و یا ارزش کمی به آنها داده شود. بهتر است از لینکهای استاندارد در قالب html استفاده شود.
- بلاک کردن دسترسی به صفحه وب توسط متا تگ robot و یا فایل robots.txt: هر دوی آنها یعنی هم متاتگ robot و هم فایل robots.txt این امکان را به طراحان وب سایت می دهد که صفحه یا فولدری را از دید خزندگان! موتورهای جستجوگر (Crawler) مخفی کند و آنها را ایندکس نکند. ممکن است طراح وب بصورت سهوا و یا برای تست، صفحه یا صفحاتی از سایت خود را از دسترس موتورهای جستجوگر خارج کرده باشد! بنابراین صفحات مذکور پیمایش و ایندکس نخواهند شد.
- فریم و یا آی-فریم (Frame – iFrame): از لحاظ تکنیکی لینک ها در فریم ها و آی-فریم ها قابل پیمایش و ایندکس شدن هستند اما هر دوی آنها مسائل ساختاری برای موتورهای جستجو ایجاد می کنند. اگر شما فردی حرفه ای از لحاظ فنی در زمینه وب هستید مشکلی ندارد ولی در غیر اینصورت از استفاده از آنها بپرهیزید!
- ربات های خزنده از فرم های جستجو استفاده نمی کنند: با اینکه در مباحث فوق درباره استفاده نکردن ربات ها از فرم های سایت صحبت کردیم، اما بدلیل اشتباه های رایجی که در این زمینه وجود دارد، این مورد را دوباره مطرح کردیم. ربات های خزنده (Crawler یا Spider) برای یافتن مطالب سایت هیچگاه از فرم جستجوی سایت ما استفاده نمی کنند. با این طرز تفکر اشتباه که ربات ها همانند کاربران سایت می توانند برای دستیابی به محتوای سایت در باکس جستجو ، سرچ کنند باعث شده برخی از طراحان وب، یک سری از مطالب سایت را در پشت فرم جستجو پنهان کنند!
- لینکها در پلاگین های فلش و جاوااسکریپت شناسایی نمی شوند: همانطور که در مثال سایت تمام فلش پاندا که در مقالات قبل دیدیم، اگر لینکی درون این پلاگین ها استفاده شود، نه تنها توسط خزنده ها مورد شناسایی و در نتیجه ایندکس شدن قرار نمیگیرد بلکه ممکن است از جستجوی کاربران سایت نیز مخفی بمانند.
برای جلوگیری از به دام افتادن در تله های فوق، باید لینکهای سایت تان بصورت شفاف و قابل پیمایش (Spiderable) توسط خزنده ها (Spiders) باشد“
بخش 4 از فصل چهارم
در بخش قبل، دلایل مرسوم عدم شناسایی یک صفحه وب توسط موتورهای جستجو را بیان کردیم. در این بخش، اتریبیوت rel=nofollow را بررسی می کنیم.
اتریبیوت rel=”nofollow” :
فرمت استفاده از اتریبیوت فوق بصورت زیر است:
<a href="https://moz.com" rel="nofollow">Lousy Punks!</a>
یک لینک استاندارد html می تواند چندین اتریبیوت داشته باشد، اما تقریبا تمام آنها توسط موتورهای جستجو نادیده گرفته می شوند به جز اتریبیوت rel=”nofollow” . استفاده از این اتریبیوت در مثال بالا بدین معنی است که طراح سایت به موتورهای جستجو می گوید که این لینک را بعنوان یک لینک مورد تائید در نظر نگیرند.
عبارت nofollow همانطور که از معنای لغوی آن برمی آید، به موتور جستجو می گوید این لینک را دنبال (follow) نکند! (البته برخی موتورهای جستجو اینکار را می کنند!!!)
کاربرد خاصیت نوفالو (NoFollow Attribute):
اتریبیوت nofollow در ابتدا به این دلیل آمد که از ایجاد کامنتهای اسپم و لینک های تزریق کننده اسپم در وبلاگ ها جلوگیری کند . ولی به مرور زمان کاربری آن تغییر یافت و به متدی تبدیل شد که به موتورهای جستجو بگوید لینک شامل اتریبیوت nofollow را جزء لینکهای معمولی سایت در نظر نگیرد.
Nofollow Attribute در موتورهای جستجو به روش های کمی متفاوت تفسیر می شود ولی بطور کلی مفهوم آن اینست که به لینک دارای nofollow به اندازه سایر لینک های وب سایت اهمیت داده نشود.
گوگل (Google) :
گوگل در اکثر مواقع بیان کرده است که هیچگاه لینک های دارای اتریبیوت nofollow را دنبال (follow) نمی کند و همچنین استفاده از اینگونه لینکها page rank را جابجا نخواهد کرد. لینک های Nofollow از دید گوگل هیچ وزن و اعتباری ندارد و بعنوان یک متن html در نظر گرفته می شوند (به بیان دیگر، تگ لینک را نمی بیند و انگار متنی در تگ p نوشته شده است)
بینگ و یاهو! (Bing and Yahoo!) :
هر دوی این موتورهای جستجو نیز اعلام کرده اند که لینک های nofollow را در گراف لینک های خود قرار نمی دهند ولی با این وجود، خزنده های آنها ممکن است از این لینک ها برای شناسایی و کشف صفحات جدید استفاده کنند. بنابراین اگرچه ممکن است موتورهای جستجوی یاهو و بینگ ، لینک های دارای rel=”nofollow” را دنبال کنند ولی آنها را در محاسبات و رتبه بندی سایت ها دخالت نمی دهند.
بخش 5 از فصل چهارم
در بخش قبل، اتریبیوت rel=”nofollow” را بررسی کردیم. در این بخش، نحوه استفاده مناسب از کلمات کلیدی را شرح می دهیم.
استفاده از کلمات کلیدی (Keywords) :
کلمات کلیدی (Kewwords) اساس و بنیان جستجو هستند. در حقیقت علم بازیابی اطلاعات (اعم از موتورهای جستجوی بر پایه وب مانند گوگل) بر اساس کلمات کلیدی بنا شده اند. هنگامی که خزنده های موتور جستجو، در صفحات وب می گردند و صفحات وب را پیمایش و ایندکس می کنند، در واقع کلمات کلیدی این صفحات را در دیتابیس خود ذخیره می کنند نه کل صفحات وب را ! میلیون ها دیتابیس کوچکتر، که هر کدام کلمات کلیدی خاصی را ذخیره کرده اند، به موتورهای جستجو کمک می کنند تا در کسری از ثانیه اطلاعات مورد نیاز کاربران را بازیابی کنند
بعنوان نمونه اگر شما می خواهید در کلمه سگ (Dog) رتبه سایت تان در نتایج جستجو بهینه باشد، باید بررسی کرده باشید که حتما کلمه کلیدی سگ در صفحاتی قرار داشته باشد که توسط خزنده های موتورهای جستجو قابل پیمایش و ایندکس باشد. (تصویر زیر را مشاهده کنید)
سلطه کلمات کلیدی :
این کلمات کلیدی هستند که مشخص می کنند ما چگونه با موتورهای جستجو تعامل داریم. وقتی ما کلمه یا عبارتی (word or phrase) را در گوگل سرچ می کنیم، موتور جستجو دنبال صفحاتی که با کلمه تایپ شده ما مرتبط هستند می گردد. ترتیب کلمات (Juggling Pandas یا Pandas Juggling) ، هجی (spell) کلمات، علامت گذاری عبارات موردجستجو و غیره باعث انتقال اطلاعات بیشتری به موتور جستجو برای بازیابی اطلاعات دقیق تر و رتبه بندی بهتر آنها می شود.
بطور کلی اگر شما کلمات کلیدی را که برای سایت تان انتخاب می کنید را بطور جزئی تر و خاص تر تعریف کنید، احتمال بیشتری دارد که رتبه سایت شما در آن کلمات بالاتر باشد تا اینکه کلمات کلی و general را بعنوان کلمات کلیدی مطالب سایت خود برگزینید.
برای مثال، اگر شما کتابی در سایت خود معرفی کرده اید بنام “Tale of two cities” بهتر است از همین عنوان کتاب بعنوان کلیدی استفاده کنید تا اینکه کلمه کتاب (Book) را انتخاب کنید:
اگرچه برای کلمه کلی و عمومی Book ، تعداد جستجوی بسیار بیشتری انجام می شود اما شانس بالا رفتن رتبه سایت شما در این کلمه بسیار کمتر از کلمه Tale of two cities می باشد.
بخش 6 از فصل چهارم
در بخش قبل، درمورد استفاده از کلمات کلیدی مناسب برای صفحات وب سایت به منظور بهبود سئوی سایت صحبت کردیم. در این بخش می خواهیم ادامه مبحث بخش قبل را داشته باشیم و درمورد سوء استفاده از کلمات کلیدی در صفحات وب نکاتی را بیان کنیم.
استفاده از کلمات کلیدی (Keywords):
سوء استفاده کردن از کلمات کلیدی:
از آغاز پیدایش جستجوی اینترنتی و موتورهای جستجو، مردم بصورت اشتباه و تلاش بیهوده، از کلمات کلیدی سوء استفاده کرده اند تا بلکه موتورهای جستجو را دستکاری کنند! شامل استفاده بیش از حد از کلمات کلیدی در متون، URL، تگ های متا و لینکها . متاسفانه (و یا خوشبختانه) این جور کارها نه تنها باعث بهینه شدن سایت ما نمی شود بلکه باعث افت رتبه در نتایج جستجو نیز می شود.
روند کار موتورهای جستجو:
در روزهای اولیه کار موتورهای جستجو، الگوریتم این موتورها بصورتی بود که به استفاده از کلمات کلیدی در محتوای یک صفحه وب تکیه می کردند بدون در نظر گرفتن چگونگی استفاده از آنها. اما امروزه با اینکه موتورهای جستجو نمی توانند مانند انسان ها ، متون را بخوانند و تفسیر کنند اما استفاده از تکنولوژی یادگیری ماشین (machine learning) این امکان را فراهم کرده تا به این ایده آل نزدیک تر شوند. (یعنی موتورهای جستجو بتوانند همانند انسان ها متون و صفحات وب را بخوانند و تفسیر کنند)
استفاده صحیح از کلمات کلیدی:
بهترین تمرین (best practice) در زمینه نحوه استفاده از کلمات کلیدی اینست که از کلمات کلیدی بطور استراتژیک و طبیعی استفاده کنید. مثلا اگر عبارت “برج ایفل” را بعنوان کلمه کلیدی برای محتوای یکی از مقالات سایت خود برگزیدید، احتمالا متن آن مقاله می تواند درباره خود برج ایفل، تاریخچه برج ایفل و یا حتی معرفی بهترین هتل های پاریس باشد. ولی اگر مقاله ای که کلمه کلیدی برج ایفل را دارد ، درباره یک موضوع بی ربط به برج ایفل باشد (مانند مستند راز بقا در آفریقا!) مسلما انتظار رتبه خوب داشتن از این مقاله و ایندکس شدن آن ، انتظار بیهوده ای است و بی نتیجه است.
نکته استفاده از کلمات کلیدی اینست که نیازی نیست در تمام کلمات کلیدی رتبه بالایی داشته باشید، بلکه داشتن رتبه خوب در زمینه مقالات سایت شما بهنگام سرچ یک کاربر.
نحوه بهینه سازی وب سایت توسط کلمات کلیدی:
بهره بردن از کلمات کلیدی هنوز یکی از فاکتورهای الگوریتم موتور جستجو می باشد و ما در این مقاله تکنیک هایی (در حوزه کلمات کلیدی) یاد می گیریم که چگونه می توان صفحات وب بهینه برای موتورهای جستجو داشت . در وب سایت https://Moz.com ابزارها و امکانات (رایگان و پولی) زیادی برای ارزیابی سئوی سایت ارائه شده است. هنگامی که می خواهید یکی از سایت های خود را از طریق کلمات کلیدی ، بهینه سازی کنید، ما (وب سایت معتبر Moz) روند زیر را پیشنهاد می دهیم:
- حداقل در یکی از عنوان های صفحات (Title tag)، از کلمات کلیدی استفاده کنید. سعی شود کلمات کلیدی را نزدیک به ابتدای عنوان صفحه انتخاب شود.
- در نزدیک بالای صفحه، یکبار و به صورت واضح و bold از کلمات کلیدی استفاده شود.
- حداقل دو یا سه بار در تگ body صفحه وب از کلمات کلیدی استفاده کنید. استفاده بیش از حد ، بر اساس تجربه ما، نمی تواند باعث بهبود رنکینگ سایت شما شود.
- حداقل یکبار در اتریبیوت alt تگ img از کلمه کلیدی استفاده کنید. هم در بهبود رنک آن مقاله تاثیر دارد هم در ایندکس شدن بهتر آن تصویر.
- یکبار در URL از کلمات کلیدی استتفاده کنید.
- حداقل یکبار در تگ متای description . دقت کنید که استفاده از این تگ باعث بهبود رنک آن مطلب در موتورهای جستجو نمی شود ، بلکه این بخش در نتیجه جستجوی کاربران نمایش داده می شود و ممکن است باعث جذب کاربران شود (تصویر زیر را مشاهده کنید):
مثالی برای شفاف سازی 6 مورد بالا :
فرض کنید مقاله ای در سایت تان دارید که کلمه کلیدی آن Running Shoes می باشد. حالت بهینه برای طراحی و محتوای این صفحه به شکل زیر خواهد بود:
بخش 7 از فصل چهارم
در بخش قبل، در مورد سوء استفاده کردن از کلمات کلیدی و استفاده نابجا از آنها صحبت کردیم. در این بخش می خواهیم در مورد عنوان صفحه صحبت کنیم.
عنوان صفحه (Page Title) :
عنوان صفحه باید دقیق و خلاصه ای از متن و یا محتوای صفحه باشد. عنوان هر صفحه وب هم برای کاربران و تجربه کاربری (User Experience-UX) ضروری و حیاتی است هم برای موتورهای جستجو.
از آنجایی که عنوان صفحه بخش مهمی از بهینه سازی صفحات وب می باشد، در پایین، مواردی که به بهینه سازی این بخش مهم کمک می کند را بیان کرده ایم:
طول عنوان صفحه را در نظر بگیرید:
دقت داشته باشید که موتورهای جستجو فقط 65 تا 75 کاراکتر ابتدای عنوان یک صفحه وب را در صفحه نتایج جستجو نمایش می دهد. (و ادامه آن را با سه نقطه … مشخص می کند) و همینطور برای نمایش عناوین صفحات وب در شبکه های اجتماعی نیز محدودیت تعداد کاراکتر وجود دارد. در برخی موارد که کلمات کلیدی استفاده شده در عنوان صفحه طولانی هستند، اشکالی ندارد که عنوان صفحه وب طولانی شود.
سعی کنید کلمات کلیدی را در ابتدای عنوان سایت بنویسید:
هر چه کلمات کلیدی را به ابتدای عنوان صفحه نزدیک کنید، هم برای بهبود رتبه مطلب شما در نتایج جستجو بهتر می شود هم کاربران بیشتری راغب به کلیک روی لینک سایت شما در نتایج جستجو خواهند شد.
نام تجاری (Branding) در عنوان صفحه:
بهتر است نام تجاری کسب و کار خود را در انتهای عناوین صفحات سایت تان بیان کنید. تا هم کاربران بیشتر با برند و نام شرکت شما آشنا شوند هم تعداد کلیک روی لینک سایت تان افزایش یابد. البته در برخی موارد مانند صفحه اصلی ، بهتر است نام تجاری در ابتدای عنوان صفحه باشد. بنابراین با دانستن اینکه کلمات استفاده شده در ابتدای عناوین صفحات چه وزن و اعتباری نزد موتورهای جستجو دارند، آگاه باشید که روی چه کلماتی دارید سرمایه گذاری می کنید.
خوانایی و اثر احساسی کلمات بکار رفته در عنوان سایت را در نظر بگیرید:
تگ عنوان صفحه باید توصیفی و خوانا باشد. عنوان صفحه اولین تعامل کاربران با برندینگ شما می باشد و باید حس مثبتی را به کاربران سایت القا کند. یک عنوان متقاعد کننده می تواند نظر کاربران را در کلیک روی سایت شما در نتایج جستجو جلب کند. این موضوع بیانگر و تاکیدی بر اینست که SEO وب سایت فقط مربوط به بهینه سازی و کلمات کلیدی و سایر تکنیک ها نیست، بلکه تجربه کاربری نیز در این زمینه بسیار موثر است.
بخش 8 از فصل چهارم
در بخش قبل، درباره تگ عنوان (Title Meta Tag) مواردی را بیان کردیم. در این بخش متاتگ های مهم و کاربردی در زمینه سئو را بررسی می کنیم.
تگ های متا (Meta Tags):
متا تگ ها بطور کلی بعنوان المانی از یک صفحه وب می باشند که اطلاعاتی راجع به محتوای آن صفحه ارائه می کند. چندین متا تگ کاربردی بهمراه توضیح مختصری از آنها در زیر لیست شده اند:
1- متا تگ ربات (Meta Robots):
تگ های متای ربات برای کنترل عملکرد ربات های خزنده بکار می روند (برای اکثر موتورهای جستجوی معتبر کاربرد دارد). روش های متعددی برای اعمال کنترل روی Crawler ها وجود دارد که در زیر آمده است:
- Index/noindex: بیانگر اینست که آیا صفحه توسط خزنده ها قابل پیمایش و ایندکس شدن باشد یا خیر. با افزودن noindex به یک صفحه به موتور جستجو می گوییم که این صفحه را از لیست صفحات قابل ایندکس خارج (exclude) کند. بطور پیش فرض، تنظیمات این بخش روی index می باشد یعنی تمامی صفحات بصورت پیش فرض قابل ایندکس شدن می باشند.
- Follow/nofollow: بیانگر اینست که تمام لینک های صفحه قابل ایندکس شدن باشند یا خیر. اگر تصمیم دارید از nofollow در یک صفحه استفاده کنید، به موتور جستجو می گویید سراغ لینکهای این صفحه نرود و آنها را پیمایش و در نتیجه آنها را در جدول ایندکس خود درج نکند. بطور پیش فرض تمام صفحات follow هستند یعنی لینک تمامی آنها قابل ایندکس شدن می باشند. نخوه استفاده از آنها بدین صورت است:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
- Noarchive: توسط این قابلیت، شما موتور جستجو را محدود کرده اید که از یک صفحه خاص، کش کپی (Cached copy) ذخیره نکند. بطور پیش فرض، موتورهای جستجو یک نسخه بصورت کپی ذخیره می کنند که از طریق لینک cached در صفحه نتایج جستجو برای کاربران در دسترس می باشد.
- Nosnippet: موتور جستجو را از نمایش اسنیپت (snippet) بعد از تگ عنوان صفحه منع میکند. اسنیپت همان متا تگ description می باشد که در تصویر زیر مشخص شده است:
بطور پیش فرض، در نتایج موتورهای جستجو، ابتدا عنوان صفحه، سپس Url صفحه و در نهایت description نمایش داده می شود.
2- تگ متای توضیحات (Description meta tags):
تگ توضیحات بیان کننده توضیح مختصری از محتوای یک صفحه وب است. موتورهای جستجو از این تگ برای بهره بردن از کلمات کلیدی آن و بهبود رتبه سایت ها استفاده نمی کنند بلکه این بخش بیشتر جنبه نمایشی دارد و در صفحه نتایج جستجو به کاربران (همانطور که قبلا ذکر شد تگ توضیحات در زیر عنوان صفحه و آدرس آن می آید)
نمایش داده می شود. طول متای توضیحات می تواند هر اندازه ای باشد ولی معمولا موتورهای جستجو کاراکترهای بیشتر از 160 کاراکتر را از اسنیپت کات می کند. هوشمندانه است اگر بتوانید تعداد کاراکترهای اسنیپت (description meta tag) را بیشتر از 160 درنظر نگیرید. در صورت تعریف نشدن این متاتگ، موتور جستجو، از سایر بخشهای سایت، مقداری برای آن در نظر می گیرد.
3- متا تگ کلمات کلیدی (Keywords Meta):
این تگ متا، زمانی برای بهینه سازی صفحات وب موثر بود ولی مدتی است که دیگر اثر چندانی روی سئو ندارد.
بخش 9 از فصل چهارم
در بخش قبل، متا تگ های مهم و کاربردی robots و keywords و description را بررسی کردیم. در این بخش، ساختار آدرس سایت (URL Structure) را مورد بررسی قرار می دهیم.
ساختار آدرس سایت (URL Structure):
آدرس صفحات وب از اهمیت خاصی در بهینه سازی صفحات وب برخوردارند. این اهمیت از سه منظر قابل بررسی است:
- از آنجایی که موتورهای جستجو در فهرست نتایج جستجوی خود، آدرس سایت (Website Url) را نیز نمایش می دهند، آدرس ها می توانند روی کلیک های کاربران اثر بگذارد.
آن دسته از وب سایت هایی که عبارت مورد جستجوی کاربر را در url خود داشته باشند، از رتبه بهتری نسبت به رقبا بهره مند خواهند بود:
مانند وب سایت Mohtavaban.com که در عبارت “فروشگاه آنلاین با mvc” رتبه اول گوگل را داراست!
- جنبه زیبایی و نمایشی آدرس سایت در مرورگرهای وب . با اینکه این قضیه، تاثیر کمی روی موتورهای جستجو دارد، اما از جنبه تجربه کاربری (User Experience-UX) می تواند بر کاربران تاثیرگذار باشد.
- استفاده از آدرس سایت بعنوان متن لینک (Anchor Text) :
دستورالعمل ایجاد URL:
- با کاربر همدردی کنید! خودتان را جای کاربر بگذارید و به آدرس سایت تان بنگرید! اگر شما بتوانید از آدرس یک صفحه خاص از سایت تان، متوجه شوید که محتوای آن صفحه راجع به چه چیزی است، URL شما بطور مناسبی توصیفی است.
- آدرس کوتاهتر بهتر است: اگرچه آدرس توصیفی بهتر است، اما اگر بتوانید تعداد اسلش های متوالی و کلمات را در url کمتر کنید، برای کاربران و به اشتراک گذاری آدرس ها مناسب تر است.
- استفاده به اندازه از کلمات کلیدی: اگر صفحه وب شما درباره عبارت خاصی است و آن را توضیح میدهد، حتما از آن کلمات در url آن صفحه استفاده کنید. دقت داشته باشید که بیش از حد از کلمات کلیدی بی ربط و با ربط استفاده نکنید. زیرا ممکن است باعث شود موتورهای جستجو ، url این صفحه را بعنوان یک آدرس با اهمیت کمتر در نظر بگیرد.
- آدرس های استاتیک: بهترین آدرس ها آدرسی است که توسط انسان ها قابل خواندن باشد و از تعداد پارامترها و سمبل ها و اعداد کمی در آن استفاده شده باشد. توسط تکنولوژی mod_rewrite در سرور آپاچی و ISAPI_rewrite در مایکروسافت می توانید براحتی آدرس های داینامیکی مانند : https://moz.com/blog?id=123 را به آدرس استاتیک و خوانایی مانند : https://moz.com/blog/google-fresh-factor تبدیل کنید.
- برای جداسازی کلمات از – (hyphen) استفاده کنید: علامتهایی مانند _ (underscores) و + (plus) و فاصله (space) غیره توسط تمام وب اپلیکیشن ها قابل تفسیر نیست. سعی کنید برای جداسازی کلمات داخل url از – استفاده کنید. مانند آدرس “google-fresh-factor” در مثال بالا .
بخش 10 از فصل چهارم
در بخش قبل، ساختار آدرس بهینه سایت (URL Structure) را بررسی کردیم. در این بخش، درباره آدرس استاندارد (Canonical) و نسخه های تکراری (Duplicate Versions مطالبی را بیان خواهیم کرد.
آدرس استاندارد (Canonical) و نسخه های تکراری (Duplicate Versions):
یکی از مشکلات و دردسرهای بزرگ برای یک سایت، محتوای تکراری آن است. در چند سال اخیر، موتورهای جستجو، وب سایت های دارای محتوای تکراری را سرکوب کرده و رتبه پایینی به آنها اعطا می کند!
استاندارد سازی زمانی اتفاق می افتد که یک محتوای خاص روی دو آدرس (url) متفاوت باشد. این قضیه در سیستم های مدیریت محتوا (CMS) بیشتر رایج است. مثلا اگر از یک نسخه از محتوا، در 3 آدرس مختلف در سایت تان استفاده کرده اید، با 301-redirected می توانید دو نسخه بعدی را ریدایرکت کنید و فقط یک نسخه اصلی و قدرتمند داشته باشید که در موتورهای جستجو ایندکس می شود. (تصویر زیر):
نکته : وقتی چند صفحه را با قابلیت ایندکس شدن و بهینه بودن با هم ادغام میکنید نه تنها دیگر با هم رقابتی بر سر بهبود رتبه ندارند بلکه آن صفحه ادغام شده شانس بیشتری برای بهبود رتبه در نتایج سرچ خواهد داشت و از حالت قبل، نتیجه بهتری می دهد.
استفاده از تگ canonical برای ادغام url ها:
روش دیگری که می توان برای ادغام آدرس های متفاوت (اما محتوای یکسان) بکار برد، استفاده از تگ canonical می باشد که هم می توان از آن برای ادغام چند آدرس در یک وب سایت (یک دامین) استفاده کرد هم در بین دو آدرس با دامین های متفاوت. از قابلیت rel=”canonical” در صفحه ای که محتوای تکراری دارد استفاده کنید تا url ای که در آن تعریف کرده اید بعنوان url اصلی (Master URL) شناخته شود و در موتورهای جستجو ثبت شود.
نحوه استفاده از این قابلیت بصورت <link rel=”canonical” href=”https://moz.com/blog”/> می باشد.
از دیدگاه سئو (SEO) اتریبیوت canonical شبیه 301-redirect می باشد. در اصل، شما به موتور جستجو می گویید صفحات موردنظر را بعنوان یک صفحه واحد در نظر بگیرد (بدون اینکه کاربر را به url دیگری هدایت کند).
Rich Snippets:
ریچ اسنیپت نوعی از ساختار داده ای می باشد که به وب مستران این امکان را می دهد که محتوای داخل صفحات وب را به نحوی علامت گذاری کنند که راحتتر توسط موتورهای جستجو شناسایی شود. این قابلیت باعث می شود تا موتورهای جستجو سریعتر بفهمند یک صفحه وب یا یک مطلب درباره چه چیزی است . مانند رویداد-مردم-تجارت-محصول و … یکی از سایت هایی که این امکان را ارائه می دهد http://schema.org/ می باشد که متاسفانه فعلا آی-پی ایران مسدود می باشد و نیاز به فیلترشکن دارد! سایت دیگری در این زمینه https://developers.google.com/structured-data/testing-tool/ می باشد که برای خود گوگل است و مسلما باز هم فیلترینگ اجازه نمی دهد بدون vpn آنرا مشاهده کنید. روش دیگر برای استفاده از rich snippet ها ابزار https://moz.com/products/pro/seo-toolbar می باشد.
مثالی از rich snippet:
فرض کنید در بخش اعلانات سایت تان، می خواهید کنفرانس آموزش سئو را اعلام کنید. در حالت عادی داریم:
<div> SEO Conference<br /> Learn about SEO from experts in the field.<br /> Event date:<br /> May 8, 7:30pm </div>
اما در صورت ساختار دادن به اطلاعات فوق (به منظور دادن اطلاعات دقیق تر به موتور جستجو) توسط schema.org خواهیم داشت:
<div itemscope itemtype="http://schema.org/Event"> <div itemprop="name">SEO Conference</div> <span itemprop="description">Learn about SEO from experts in the field.</span> Event date: <time itemprop="startDate" datetime="2012-05-08T19:30">May 8, 7:30pm</time> </div>
مسلما نوع اطلاعات فوق رویداد (event) می باشد که نام آن رویداد SEO Conference است و یک توضیح دارد و یک زمان (تاریخ و ساعت) خاص .
از اعتبار وب سایت خود محافظت کنید!
متاسفانه دنیای وب پر شده از وب سایتهایی که تجارت و بازاریابی آنها بر پایه کپی کردن محتوای سایت های دیگر و یا استفاده غیرمجاز از آنها در وب سایت خود بنا شده است. عملیات کپی محتوای سایت دیگر و استفاده از آن در دامین خود “Scraping” گفته می شود و به انجام دهنده این کار “Scraper” می گویند و گاها اسکرپرها انقدر کار خود را خوب انجام می دهند که رتبه خوبی در نتایج موتورهای جستجو پیدا می کنند و حتی از رتبه وب سایت اصلی (Original Website) نیز بهتر خواهند شد.
نحوه جلوگیری از سرقت مطالب وب سایت:
وقتی شما محتوایی را در فرمت هایی مانند RSS,xml,… منتشر می کنید، مطمئن شوید که این مطالب را به موتورهای جستجوی معروف مانند گوگل، یاهو و یا بینگ معرفی کرده باشید. شما می توانید دستورالعمل انجام اینکار را در وب سایت آنها یعنی google.com و yahoo.com و bing.com مطالعه کنید. (البته در ایران، موتور جستجوی گوگل از اهمیت بسیار بالاتری نسبت به دو موتور جستجوی دیگر برخوردار است) البته توسط سرویس هایی مانند وب سایت http://pingomatic.com/ نیز می توانید این فرآیند را بطور اتوماتیک انجام دهید. در مرحله بعد، شما (بعنوان وب مسترانی که محتوای جدید تولید می کنند) می توانید برای جلوگیری از فعالیت اسکرپرها، از تنبلی آنها علیه خودشان استفاده کنید. اکثر اسکرپرها، محتوای سایت های دیگر را بدون هیچ ویرایشی در سایت خود قرار می دهند. بنابراین شما میتوانید با قرار دادن لینک وب سایت خود در مطالب (مثلا لینک هایی که به مقالات دیگر وب سایت تان اشاره دارد)، موتورهای جستجو را نسبت به این موضوع که تمام لینکهای داخل مقاله به سایت شما بازمی گردند، هوشیار کنید. یعنی وب سایت شما خالق اولیه این محتوا می باشد. بنابراین، برای انجام چنین کاری (لینک بازگشت به سایت تان) باید آدرس های تعریف شده در لینکها (href) بصورت مطلق باشند نه نسبی. بعنوان مثال آدرس لینک زیر غیرقابل قبول است:
<a href=”../” > Home </a>
و لینک زیر در این زمینه معتبر است:
<a href=”
”> Home </a>
در این حالت وقتی یک سارق مطلب، از مقاله سایت شما کپی می کند، لینک یا لینک هایی در مقاله هنوز به سایت شما اشاره می کنند.
راه های دیگری نیز برای جلوگیری از به نتیجه رسیدن فعالیت سارقین مطالب! وجود دارد که خالی از خطا و اشتباه نیستند. بنابراین به روش های فوق بسنده می کنیم. باید این نکته را بدانید که هرچه وب سایت شما بیشتر در دید کاربران باشد، احتمال کپی و بازنشر مطالب آن از طرف اسکرپرها (Scrapers) بیشتر می شود.
ممکن است در برخی موارد، شما این سرقت محتوا را نادیده بگیرید، اما در صورتی که این موضوع خیلی حاد شود و واقعا روی رتبه شما در نتایج موتورهای جستجو تاثیر زیادی بگذارد، می تواند از طریق DMCA(Digital Millennium Copyright Act) حق کپی رایت را بر روی محتوای وب سایت تان اعمال کنید که از طریق وب سایت ماز میتوانید بیشتر در این زمینه مطالعه کنید.
در مقاله بعد فصل پنجم را شروع خواهیم کرد و درباره انجام تحقیقات و آنالیز کلمات کلیدی (Keyword research) صحبت خواهیم کرد.
در مقاله قبل، مبانی طراحی و توسعه بهینه وب سایت برای موتورهای جستجو را شرح دادیم. در فصل 5 قصد داریم تحقیقات در مورد انتخاب کلمات کلیدی (Keywords Research) را آموزش دهیم.
فصل پنجم: تحقیقات در مورد انتخاب کلمات کلیدی (Keywords Research)
اهمیت تحقیقات در مورد انتخاب کلمات کلیدی:
تمام دنیای کلمات کلیدی به آنچه که در باکس جستجو تایپ می شود مربوط می باشد. تحقیقات در مورد کلمات کلیدی، یکی از با اهمیت ترین و با ارزش ترین فعالیت های است که در حوزه بازاریابی اینترنتی باید انجام شود. با تحقیق کردن در مورد کلمات کلیدی، شما نه تنها متوجه می شوید که چه کلمات یا عباراتی در بهینه سازی سایت تان موثر است، بلکه در مورد مشتریان کسب و کار خود نیز اطلاعاتی بدست خواهید آورد.
تحقیقات راجع به کلمات کلیدی، تنها باعث افزایش بازدیدکنندگان سایت تان نمی شود بلکه باعث می شود کاربرانی را جذب کنید که واقعا به مطلب و یا محصول ارائه شده در سایت تان نیاز دارند.
با انجام تحقیقات درباره انتخاب کلمات کلیدی، می توانید تغییرات در نیازهای کاربران و شرایط بازار را متوجه شوید و مطالب و یا محصولاتی را در سایت تان ارائه دهید که کاربران در حال حاضر دنبال آن هستند.
چگونه یک کلمه کلیدی را ارزیابی کنیم؟
یک کلمه کلیدی چقدر می تواند برای وب سایت تان مفید واقع شود؟ اگر شما یک وب سایت فروش آنلاین کیف و کفش دارید، با سرچ دو کلمه “کفش قهوه ای” یا “بوت مشکی” توسط کاربران و بازدیدکنندگان سایت تان، فروش کدامیک بیشتر بوده است؟
کلمات یا عباراتی که کاربران در موتورهای جستجو تایپ می کنند اکثرا توسط وب مستران قابل دستیابی می باشد و ابزارهایی مانند وب سایت معتبر Moz می توانند این اطلاعات را در اختیار صاحبین سایت ها قرار دهند.
اگر چه ابزارهای فوق نمی توانند بطور مستقیم بیان کنند آیا فلان کلمه کلیدی برای سایت تان مفید بوده است یا خیر. برای دریافتن اینکه کدام کلمه کلیدی برای سایت مان مفید بوده است یا خیر، باید وب سایت خودمان را مورد بررسی قرار دهیم و فرضیه هایی مطرح کنیم و آنها را تست کنیم تا به نتیجه برسیم.
مراحل اساسی فهمیدن ارزش کلمات کلیدی:
- از خودتان بپرسید: آیا کلمه کلیدی به محتوای سایت تان مرتبط می باشد یا خیر؟ آیا جستجوگران با جستجوی این کلمه کلیدی، می توانند به آنچه که نیاز دارند در سایت تان برسند؟ آیا آنها از چیزی که پیدا کرده اند راضی هستند یا خیر؟ آیا ترافیک حاصله از آن، در راستای اهداف سازمانی و یا رسیدن به منفعت مالی می باشد یا خیر؟ اگر پاسخ تمام این سوالات، “بلی” است، پس در انتخاب کلمه کلیدی موفق بوده اید!
- کلمه و یا عبارت موردنظر را در موتورهای جستجوی معروف سرچ کنید: با جستجوی کلمه کلیدی موردنظرتان در گوگل می توانید بفهمید در حال حاضر رقابت بر سر آن کلمه یا عبارت به چه صورت است و با وب سایت هایی که در این مورد رتبه خوبی در نتایج گوگل دارند، آشنا شوید. و نیز مقدار سختی رسیدن به رتبه خوبی در نتایج جستجو را دریابید.
- در سرویس گوگل ادوردز (Google AdWords) یک کمپین نمونه برای کلمه کلیدی موردنظرتان خریداری کنید: اگر وب سایت شما در یک کلمه یا عبارت کلیدی، رتبه خوبی ندارد، می توانید ترافیک تستی بخرید. در تنظیمات گوگل ادوردز، آپشن “exact match” را انتخاب کنید. تاثیر این کلمه کلیدی را روی حداقل 200 تا 300 کلیک ابتدایی بررسی و مقیاس کنید.
- از اطلاعات بدست آمده استفاده کنید و ارزش هر کلمه کلیدی را مشخص کنید: بعنوان مثال فرض کنید تبلیغات خریداری شده شما باعث شده تا متوجه شوید که کاربران کل جهان تعداد 5000 سرچ روی این کلمه خاص در طی یکروز انجام داده اند که سهم وب سایت شما 100 کاربر در طول آنروز بوده است و در کل 300 دلار منفعت مالی داشته اید، بنابراین هر کاربر به مقدار 3 دلار برای کسب و کار شما ارزش داشته است. برای کسب اطلاعات بیشتر در زمینه CTR(Click Through Rate) می توانید به وب سایت Moz مراجعه کنید.
در ادامه مقاله، مباحث درک نیازمندی ها برای کلمات کلیدی و منابع تحقیقات درباره کلمات کلیدی و ابزار Keyword Explorer وب سایت Moz و ابزار Google’s AdWords Keyword Planner ر ابررسی می کنیم.
درک نیازمندی ها برای کلمات کلیدی:
به همان مثال فروشگاه اینترنتی کیف و کفش بر می گردیم. آیا ممکن است برای کلمه “کفش” رتبه یک را در نتایج جستجو بدست آورد؟
این می تواند فوق العاده باشد که روی کلمه کلیدی ای سرمایه گذاری کنید که تعداد 5000 سرچ روی آن در طول یکروز انجام می شود. اما در واقعیت حدود 30درصد جستجوهای کاربران واژه “کفش” می باشد و سایر سرچ های کاربران یعنی 70درصد بقیه، کلمات خاص تری برای جستجوی خود استفاده می کنند (مانند کفش قهوه ای چرمی)
استفاده از کلمات کلیدی جزئی تر مانند “کیف مشکی چرمی”، احتمال بیشتری دارد تا کاربر جستجوکننده آن کلمه، واقعا دنبال خرید آن محصول باشد . نسبت به کاربری که واژه کلی “کفش” را سرچ میکند. و همینطور کاربری که عبارت “کفش چرمی ارزان قیمت” را درموتور جستجو تایپ می کند، به احتمال زیاد کیف پولش را از جیبش بیرون آورده و قصد خرید یک کیف را دارد!
فهمیدن و درک کردن منحنی نیازمندی های جستجو بسیار ضروری است. تصویری که در پایین ملاحظه می کنید، بیانگر این نکته است که تعداد جستجوهای کمتر در حوزه یک کلمه کلیدی خاص باعث ارسال ترافیک بیشتری از بازدیدکنندگان به وب سایت شده است. (نسبت به کلمه های کلیدی کلی که تعداد جستجوی بیشتری دارند ولی احتمال اینکه کاربری را به سایت هدایت کنند بسیار کم است)
منابع تحقیقات درباره کلمات کلیدی:
شاید این سوال پیش بیاید که چگونه و از کجا میتوانیم اطلاعاتی راجع به ارزش کلمات کلیدی کسب کنیم؟ پاسخ آن هم اینست: وب سایت ها و ابزارهای زیر منابعی در این زمینه می باشند:
- اکسپلورر کلمات کلیدی وب سایت ماز (Moz Keywords Explorer)
- پلنر کلمات کلیدی در سرویس ادوردز گوگل (Google AdWords Keyword Planner Tool)
- سرویس گوگل ترند (Google Trends)
- سرویس هوشمند تبلیغات بینگ (Microsoft Bing Ads Intelligence)
- Wordtracker’s Free Basic Keyword Demand
ابزار Keyword Explorer وب سایت Moz:
در ابزاری که وب سایت Moz فراهم کرده، به وب مستران کمک می کند تا فرآیند کشف و اولویت بندی کلمات کلیدی مناسب را راحت تر و مکانیزه انجام دهند. ابزار Keyword Explorer در این سایت کلمات کلیدی دقیق را که طی یکماه اخیر جستجو شده اند را فراهم آورده است و بطور غیرمستقیم بیانگر اینست که رتبه خوب داشتن در یک کلمه کلیدی خاص، چقدر می تواند سخت باشد. و نیز نمایانگر CTR و احتمال موفقیت سایت شما در آن کلمه یا عبارت می باشد. و کلمات کلیدی مرتبط را نیز اعلام می کند تا شما بتوانید روی آنها نیز تحقیقات لازم را انجام دهید.
با مراجعه به این وب سایت می توانید از این ابزار رایگان استفاده کنید.
ابزار Google’s AdWords Keyword Planner:
این سرویس از گوگل، نیز می توانید یکی دیگر از نقطه های شروع تحقیقات در زمینه کلمات کلیدی سایت تان باشد. این ابزار نه تنها کلمات کلیدی پیشنهاد می دهد و حجم جستجوی انجام شده در طی یک دوره زمانی خاص را نمایش می دهد، بلکه هزینه خریداری کمپین در AdWords را در مورد آن کلمات کلیدی تخمین می زند. برای یافتن ارزش یک کلمه کلیدی خاص، مطمئن شوید که گزینه exact match را فعال کرده باشید. دقت داشته باشید که مقادیری که مشاهده خواهید کرد، کلی می باشند و بسته به مقدار CTR سایت تان و تعداد بازدیدکنندگان سایت تان، به مراتب تعداد کمتری خواهد شد. برای کسب اطلاعات بیشتر در این زمینه می توانید به بخش یادگیری وب سایت Moz مراجعه کنید (پولی می باشد-Primium).
شانس های موفقیت من در زمینه کلمات کلیدی کدامند؟
نه تنها درک نیازهای کاربران در زمینه کلمات کلیدی مهم است بلکه یک وب مستر باید بداند رسیدن به رتبه های بالاتر در آن کلمات کلیدی چقدر می تواند سخت و گاها طاقت فرسا باشد. بعنوان مثال فرض کنید شما بخواهید با یک برند معروف که معمولا در ده سایت ابتدای نتایج جستجو نمایش داده می شود، در یک کلمه کلیدی خاص رقابت کنید. مسلم است که دستیابی به موفقیت، نیازمند سالها تلاش است!
در فصل بعد، فصل ششم را آغاز می کنیم که موضوع آن “چگونگی اثرگذاری UX و محتوای سایت بر روی سئو” می باشد.
فصل ششم : چگونه تجربه کاربری و محتوای وب سایت میتوانند روی سئوی سایت اثرگذار باشند؟
در فصل قبل، ابزار Keyword Explorer وب سایت Moz و Google’s AdWords Keyword Planner را بررسی کردیم. در فصل ششم، تاثیر قابل استفاده بودن (Usability) و تجربه کاربری (User Experience-UX) بر سئوی سایت را بررسی می کنیم.
نحوه نمایش نتایج توسط موتورهای جستجو:
موتورهای جستجو همواره در تلاشند تا بهترین نتایج ممکن را به کاربران نمایش دهند. وقتی موضوع “بهترین” باشد، موتورهای جستجو خوب می دانند کدامیک از وب سایت ها می توانند کاربران را راضی سازند. اینگونه وب سایت ها دارای صفات زیر می باشند:
- راهبری (Navigation) و استفاده و درک آسان و غیرپیچیده
- فراهم کردن محتوای مستقیم و سرراست، کاربردی و مرتبط به عبارت موردجستجوی کاربر
- طراحی مدرن و زیبا و قابل دسترس بودن از طریق تمام مرورگرها
- دارا بودن محتوای باکیفیت، معتبر و دست اول (کپی نبودن)
علیرغم تمام پیشرفت های تکنولوژی، موتورهای جستجو نمی توانند تصاویر، متون، ویدیوها را مانند انسان ها ببینند و تفسیر کنند. به منظور کشف مطالب مناسب و مفید، موتورهای جستجو به اطلاعات متا (نه لزوما متا تگ ها) تکیه و اعتماد می کنند. این اطلاعات شامل نحوه تعامل کاربران با وب سایت ها و بینش آنها نسبت به آن سایت ها می باشد.
تاثیر قابل استفاده بودن (Usability) و تجربه کاربری (User Experience-UX) بر سئوی سایت:
فاکتورهای محدودی بطور مستقیم بر روی موتورهای جستجو اثر دارند مانند لینک ها، کلمات کلیدی، ساختار وب سایت و …
تجربه کاربری، بعنوان دومین عامل مهم و تاثیرگذار روی موتورهای جستجو می باشد. تجربه کاربری، اثر غیرمستقیم اما قابل اندازه گیری روی محبوبیت یک وب سایت دارد. که توسط موتورهای جستجو بعنوان سیگنالی برای اعتبار و کیفیت آن وب سایت محسوب می شود.
علائم کیفیت محتوای وب سایت:
- Engagement Metrics: هنگامی که یک موتور جستجو، لیستی از نتایج جستجو را به شما نمایش می دهد، از نحوه برخورد و تعامل شما با لینکهای صفحه اول نتایج جستجو، می تواند رتبه و محبوبیت وب سایت ها را اندازه گیری کند. به این صورت که مثلا اگر شما روی اولین لینک کلیک کنید و وارد سایت آن شوید ولی سریعا دکمه بازگشت (back) مرورگر را بزنید و لینک دیگری کلیک کنید، موتور جستجو می فهمد که سایت اول نظر شما را جلب نکرده و مورد رضایت شما نبوده است. موتورهای جستجو بدنبال سایت هایی می گردند که بقول معروف “Long Click” باشند یعنی کاربران با مراجعه به این گونه سایت ها، مدت طولانی تری در آن سپری کنند و سریعا دکمه بازگشت را نزنند. در طی میلیون ها جستجویی که در طول هر روز انجام می شود، موتور جستجو داده های زیادی در زمینه کیفیت هر سایت تهیه می کند.
- یادگیری ماشین (Machine Learning) : گوگل در سال 2011 آپدیت الگوریتم پاندا را معرفی کرد که بطور مشخص وب سایت ها را بر اساس کیفیت شان مورد قضاوت قرار می داد. گوگل با ارزیابی انسانی این قضیه را شروع کرد و بصورت دستی هزاران وب سایت را که از نظر محتوایی کیفیت کمتری داشتند را رتبه بندی کرد و سپس در مرحله بعدی، ماشین های یادگیری را به خدمت گرفت تا از این ارزیابی انسانی تقلید کند. در ابتدا این کامپیوترها قادر بودند بطور دقیق وب سایت هایی را که از نظر انسان ها بی کیفیت هستند را شناسایی کنند. این الگوریتم، بطور گسترده روی تمام وب سایت های جهان فعالیت می کرد و در نتیجه باعث جابجایی هایی در رتبه بندی نتایج جستجوی گوگل شد که رتبه 20درصد وب سایت ها توسط این الگوریتم در نتایج جستجو جابجا شدند. اگر علاقه مند هستید در مورد الگوریتم پاندای گوگل بیشتر بدانید می توانید به این لینک مراجعه کنید.
- الگوی لینک دهی: در اولیل شکل گیری موتورهای جستجو، لینک ها بعنوان نماینده ای برای محبوبیت و اعتبار یک وب سایت مطرح می شدند. هر چه کیفیت و اعتبار یک سایت بالاتر باشد، لینک های بیشتری دریافت می کند. امروزه با اینکه الگوریتم های آنالیز لینک ها بطور قابل ملاحظه ای پیشرفت کرده است، قوانین سابق پابرجاست. به تصویر زیر دقت کنید:
در سمت راست تصویر، وب سایتی را مشاهده می کنید که محتوای محبوبی ندارد و لینکی به آن داده نشده است اما در سمت چپ، وب سایتی را می بینید که مدام توسط کاربران مختلف سفارش می شود و لینک های آن در فضای مجازی و شبکه های اجتماعی به اشتراک گذاشته می شود. و تعداد این لینک ها بعنوان معیاری برای کارایی آن وب سایت توسط یک موتور جستجو تعبیر می شود.
تولید محتوا (Crafting Content):
تولید محتوای عالی، شاید از پرتکرارترین پیشنهادها در دنیای سئوی وب سایت باشد. محتوای جذاب و مفید برای بهینه سازی یک وب سایت یک امر حیاتی می باشد. هر جستجویی که در موتورهای جستجو انجام می شود یک هدفی دارد: پیدا کردن-یاد گرفتن-حل مساله-خریدن-تعمیر کردن-رفتار کردن و یا فهمیدن.
روش های مختلف سرچ کردن کاربران:
- جستجوهای رفتار متقابل (Transactional): مانند شناسایی یک تجارت محلی، یک خرید آنلاین، تکمیل یک فعالیت. اینگونه جستجوها لزوما شامل استفاده از کارتهای اعتباری (Credit Cards) یا Wire transfer نمی شوند. مانند ثبت نام در یک وب سایت آموزش آشپزی، ایجاد اکانت جی-میل، پیدا کردن بهترین رستوران غذای مکزیکی:
- جستجوهای راهبری (Navigational): مانند ملاقات یک مقصد از پیش تعیین شده و یا مراجعه به یک URL خاص. معمولا به نیت مشاهده یک وب سایت خاص انجام می شوند اما در بعضی از موارد، آدرس دقیق آن وب سایت را نمی دانیم.
- جستجوهای اطلاعاتی (Informational): جستجوی اطلاعات غیر متقابل (Non-Transactional) یا پیدا کردن سریع پاسخ یک سوال. اینگونه جستجوها، گستره وسیعی از جستجوهای انجام شده در موتورهای جستجو را شامل می شوند. مانند گرفتن اطلاعاتی در مورد شرایط آب و هوایی در یک منطقه و جهت یابی یک مقصد خاص توسط نقشه گوگل و … این دسته از جستجوها ذاتا غیرتجاری (non-commercial) و غیرتعاملی (non-transaction-oriented) هستند.
پاسخ دادن به جستجوهای فوق، به خودتان بستگی دارد. خلاقیت، نوشتن محتوای باکیفیت، استفاده از مثال های متعدد، استفاده از تصاویر و المان های چندرسانه ای همه اینها می توانند به بهینه شدن وب سایت و در نهایت نزدیک شدن به اهداف کاربران منجر شوند. هدیه شما می تواند رضایتمندی کاربران با ارائه تجربه مثبت شان درباره سایت تان و یا به اشتراک گذاری لینک سایت تان با سایر کاربران (مثلا از طریق شبکه های اجتماعی) باشد.
در بخش بعد، فصل هفتم از آموزش سئو را شروع خواهیم کرد که موضوع آن “گسترش محبوبیت و تعداد لینک های وب سایت” می باشد.
فصل هفتم: گسترش محبوبیت و تعداد لینک های وب سایت
در بخش قبل، یعنی فصل ششم از آموزش سئو، نحوه تاثیرگذاری تجربه کاربری (UX) و محتوای وب سایت (Content) روی سئوی وب سایت را بررسی کردیم و ابزارهای مفیدی را نیز معرفی نمودیم. در این مقاله، که بخش اول از فصل هفتم می باشد، درباره نحوه گسترش محبوبیت و در نتیجه تعداد لینک های سایت را بررسی می کنیم.
اهمیت لینک ها در وب سایت:
برای خزنده های موتور جستجو، که دنیای بسیار وسیع وب را پیمایش (Crawl) می کنند، لینک ها همانند خیابان های بین صفحات وب هستند. موتورهای جستجو توسط آنالیز ساختار این لینکها، می توانند بین صفحات ارتباط برقرار کنند.
از اواخر دهه 90 میلادی، موتورهای جستجو به لینک های یک وب سایت بعنوان یک رای به محبوبیت و اهمیت آن وب سایت نگاه می کنند. لینکها همه چیز در سئو نیستند، اما از طریق لینک ها موتورهای جستجو نه تنها محبوبیت وب سایت ها را آنالیز می کنند بلکه معیارهایی مانند قدرت، اسپم، اطمینان و اعتماد را نیز آنالیز می کنند. وب سایت های قابل اعتماد به وب سایت قابل اعتماد دیگر لینک می دهند در حالیکه یک وب سایت بی اهمیت و اسپم تعداد لینک های خیلی کمی از وب سایت های قابل اعتماد و محبوب دریافت می کنند.
بر اساس الگوریتم های آنالیز لینک های وب سایت، گسترش پروفایل لینک ها برای جذب ترافیک از سمت موتورهای جستجو ضروری می باشد. بعنوان یک سئوکار باید بدانید ایجاد لینک در وب سایت باعث موفقیت در امر بهینه سازی وب سایت تان خواهد شد.
سیگنال های لینک (Link Signals):
موتور جستجو چگونه به لینک ها ارزش نسبت می دهند؟ برای پاسخ دادن به این سوال، نیاز است به یک المان لینک بطور مجزا نگاه کنیم و ببینیم موتور جستجو چگونه این المان ها را ارزیابی می کند. ما بطور کامل از معیارهای اختصاصی موتورهای جستجو چیز زیادی نمی فهمیم، اما فاکتورهایی در زیر مطرح شده است که ارزش بررسی را دارند. این سیگنال ها و بسیاری دیگر، توسط بهینه سازان حرفه ای زیر نظر قرار می گیرند:
- محبوبیت جهانی: هر چقدر محبوبیت و اعتبار یک وب سایت بیشتر باشد، به همان اندازه لینک های آن سایت ارزش و اهمیت دارند. به سایتی مانند ویکی پدیا (WikiPedia) هزاران وب سایت مختلف لینک داده اند که بیانگر اینست که احتمالا ویکی پدیا یک وب سایت مهم و معتبر است.
- Local/Topic-Specific Popularity: مفهوم محبوبیت محلی (Local) اولین بار توسط موتور جستجوی Teoma مطرح شد. این مفهوم پیشنهاد می دهد که لینک هایی که از سایت های دارای موضوعات و تیترهای خاص و مرتبط به سایت ما هستند اهمیت بیشتری دارند نسبت به لینک هایی که از وب سایت هایی بیایند که تاپیک ها و تیترهای کلی و general دارند و به موضوع سایت ما ربطی ندارند. بعنوان مثال فرض کنید موضوع وب سایت شما درباره فروش خانه سگ باشد، مسلما لینک هایی که از سایت جامعه پرورش دهندگان سگ به سایت شما داده می شوند اهمیت بیشتری دارند نسبت به لینک هایی که مثلا از یک سایت اسکی روی آب دریافت می کنید!
- متن لینک (Anchor Text): یکی از قویترین سیگنال هایی که یک موتور جستجو برای رتبه بندی وب سایت ها استفاده می کند، متن لینک یا anchor text است. اگر ده ها لینک با کلمه کلیدی مناسب به یک صفحه وب اشاره کنند، احتمال زیادی دارد که آن صفحه در رتبه بندی نتایج گوگل در آن کلمه کلیدی خاص بهینه باشد.
- رتبه اعتماد (Trust Rank): تعجبی ندارد که بگوییم اینترنت پر است از تعداد بسیار زیادی اسپم. برخی تخمین زده اند که 6 درصد صفحات وب اسپم باشند. به منظور هرس کردن محتواهای غیر مفید و تکراری، موتورهای جستجو از سیستم های اندازه گیری اعتبار و اعتماد استفاده می کنند که بسیاری از آنها بر اساس گراف لینک های وب سایت ها هستند. لینک شدن وب سایت A توسط سایت معتبر و مهم B می تواند تا حد زیادی اعتبار و اهمیت سایت A را نزد موتورهای جستجو تامین کند. وب سایت دانشگاه ها، سازمان های دولتی نمونه هایی از وب سایت های مورد اعتماد می باشند.
- همسایگی لینک (Link Neighborhood): لینک های اسپم اکثرا دو طرفه هستند. اگر وب سایت A به یک وب سایت اسپم لینک داشته باشد، احتمالا خود وب سایت A نزد موتورهای جستجو اسپم محسوب خواهد شد و برعکس. احتمالا وب سایت های اسپم زیادی به وب سایت A لینک داده اند. موتور جستجو با نگرش در این لینک ها، می تواند جایگاه وب سایت شما را مشخص کند. بنابراین این موضوع مهم است که دقت کنید به چه سایت هایی لینک می دهید و سعی دارید چه سایت هایی به شما لینک بدهند.
- تازگی لینک ها (Freshness): قدرت و سیگنال لینک های قدیمی با مرور زمان رو به افول می رود و سایتی که زمانی از اعتبار بالایی به واسطه لینک ها برخوردار بود، اکنون دیگر آن اهمیت را ندارد. زیرا باید بتدریج به تعداد لینک های سایت مان اضافه کنیم و آنها را آپدیت کنیم. موتورهای جستجو با بررسی و کشف لینک های تازه و جدید، محبوبیت (popularity) و ارتباط (relevance) وب سایت ما را ارزیابی می کنند.
- اشتراک گذاری در شبکه های اجتماعی (Social Sharing): در سال های اخیر، به استفاده از شبکه های اجتماعی (مانند فیسبوک (Facebook)، توییتر(Twitter)، گوگلپلاس(GooglePlus)) و به اشتراک گذاری مطالب در آنها رشد بسیار زیادی پیدا کرده است. موتورهای جستجو با لینکهای به اشتراک گذاشته شده (shared links) در شبکه های اجتماعی به گونه متفاوتی نسبت به لینک های معمولی رفتار می کند. بین متخصصین و حرفه ای های دنیای سئو بر سر اینکه “اهمیت و قدرت سیگنال لینک های به اشتراک گذاشته شده در شبکه های اجتماعی چگونه توسط موتورهای جستجو ارزیابی می شود” بحث و منظره وجود دارد اما چیزی که مشخص است اینست که روز به روز اهمیت و محبوبیت شبکه های اجتماعی در میان مردم در حال افزایش است.
در ادامه مقاله، به اشتراک گذاری مطالب سایت در شبکه های اجتماعی و نیز مبانی ایجاد لینک را آموزش خواهیم داد.
قدرت به اشتراک گذاری در شبکه های اجتماعی:
گوگلپلاس، توییتر، لینکداین، فیسبوک و سایر شبکه های اجتماعی معروف چگونه می توانند قاعده بازی را عوض کنند؟
سال های 2011 و 2012 اوج به اشتراک گذاری مطالب در شبکه های اجتماعی بود و تاثیر زیادی روی موتورهای جستجو داشتند. بطور خاص، موتور جستجوی گوگل، شروع کرد به دخالت دادن لینک های شبکه های اجتماعی در نتایج جستجوی خود. این قضیه به این صورت انجام می شد که برای کاربرانی که در هریک از این شبکه ها لاگین بودند، نتایج جستجوی متفاوتی را با توجه به مطالب به اشتراک گذاشته شان نمایش می داد. این گونه نتایج اگرچه ممکن است جزء ده نتیجه اول جستجو به آن کاربر نمایش داده نشوند اما مطمئنا در آن نتایج تاثیرگذار خواهد بود. قدرت بالقوه استفاده از شبکه های اجتماعی تاثیر زیادی بر روی بازاریابی جستجوی اینترنتی دارد. به نحوی که اگر بعنوان مثال فردی دارای اعضای زیادی در circle خود در گوگل پلاس باشد، و مطالب فراوانی را در این شبکه به اشتراک بگذارد، احتمال اینکه رتبه مطالب و لینکهایی که به اشتراک گذاشته ارتقا یابد زیاد است. برای نویسندگان سایت ها این از اهمیت بالایی برخوردار است که مطالب نوشته شده خود را با اینگونه افراد (که circle گسترده ای دارند) به اشتراک بگذارد.
آیا اشتراک گذاری در شبکه های اجتماعی مانند لینک ها عمل می کنند؟
در یک کلمه نه! اگرچه شواهدی وجود دارد که لایک ها (Likes) و پلاس ها (Plus) درباره یک مطلب در شبکه های اجتماعی مذکور می تواند روی رتبه بندی موتورهای جستجو تاثیرگذار باشد، اما لینک ها بعنوان فاکتوری غیرقابل انکار در رتبه بندی وب سایت ها و نیز روشی ماندگارتر نسبت به سایر روش ها می باشند.
مبانی ایجاد لینک (Link Building Basics):
ساختمان لینک یک هنر است و یکی از چالش انگیزترین آیتم ها در بهینه سازی وب سایت ها برای موتورهای جستجو (Search Engine Optimization-SEO) می باشد و همچنین مهمترین فاکتور حیاتی برای دستیابی به موفقیت در زمینه بهبود رتبه سایت در نتایج موتورهای جستجو می باشد. ایجاد ساختار لینک در وب سایت نیاز به خلاقیت، زمان، و گاهی بودجه مالی دارد.
شروع یک کمپین ایجاد لینک:
مانند سایر فعالیت های بازاریابی اینترنتی، اولین قدم برای ایجاد یک کمپین، هدف گذاری و مشخص کردن استراتژی تان می باشد. متاسفانه ایجاد لینک یکی از مواردی است که اندازه گیری و ارزیابی آن بسیار سخت می باشد. اگرچه موتورهای جستجو با وزن کردن دقیق لینک ها توسط معیارهای ریاضی می توانند وزن و اعتبار هر لینک را اندازه گیری کنند.
سئو بر روی تعدادی سیگنال برای کمک به رتبه بندی وب سایت ها تکیه و اعتماد می کند. این معیارها در لیست زیر آمده است:
- رتبه بندی (Ranking) توسط عبارات مرتبط مورد جستجو: یکی از بهترین روش ها برای تعیین ارزش یک صفحه وب توسط موتور جستجو، اینست که عبارات و کلمات مورد هدف خود را سرچ کنیم (بطور خاص، عنوان صفحه و سرخط مقالات). بعنوان مثال اگر شما قصد دارید در عبارت “غذای سگ” رتبه خوبی بدست آورید، با سرچ این عبارت در گوگل و تلاش برای بدست آوردن لینک از وب سایت هایی که هم اکنون در این عبارت رتبه بالایی دارند، می توانید زودتر به این هدف خود برسید.
- استفاده از ابزار MozRank: این ابزار مشخص می کند که صفحه وبی که به آن داده می شود تا چه حد در دنیای وب محبوب و مهم می باشد. صفحات وبی که دارای MozRank بالاتری باشند، احتمال بیشتری دارند که رتبه خوبی در نتایج جستجو بدست آورند. هرچه تعداد لینک به آن وب سایت بیشتر باشد، آن وب سایت محبوب تر می شود. لینک هایی که از سایت های معتبری مانند cnn.com به یک صفحه وب بیایند، می تواند محبوبیت و اعتبار آن صفحه و متعاقبا MozRank آن را تا حد زیادی افزایش دهد. MozRank می تواند با کسب لینک های زیاد از وب سایت های نیمه-محبوب (semi-popular) و یا تعداد کمی لینک از وب سایت های کاملا محبوب مانند bbc.com افزایش یابد.
- اقتدار دامین (Domain Authority یا DA): فاکتوری است مستقل از رشته پرس و جو (query-independent) که احتمال رتبه گرفتن دامین (دامنه) یک وب سایت را با توجه به رشته مورد جستجو (searched query) را اندازه گیری می کند. DA توسط آنالیز گراف دامین های اینترنت محاسبه می شود و یک دامین با هزاران دامنه موجود در گوگل مقایسه می شود.
- لینک های بازگشت رقبا (Competitors): با آزمایش بک لینک های (Back Links یا Inbound Links) یک وب سایت که در حال حاضر دارای رتبه خوبی در عبارت مورد هدف شما می باشد، شما می توانید به ایده ها و اطلاعات ارزشمندی از لینک هایی که آن وب سایت توسط آنها توانسته این رتبه خوب را کسب کند، دست یابید. سئوکاران می توانند توسط ابزارهایی مانند Open Site Explorer می توانید به این لینک ها و وب سایت های حاوی آنها به منظور ایجاد کمپین دسترسی پیدا کنید.
- تعداد لینک های موجود در یک صفحه وب: ارزشی که توسط یک لینک تبادل می شود با حضور لینک های دیگر در آن صفحه کمتر می شود. بنابراین اگر وب سایت A بتواند در صفحه ای از وب سایت B لینک شود که آن صفحه تعداد لینک های کمتری دارد، ارزش بیشتری دارد نسبت به اینکه در صفحه ای با تعداد لینک بالا لینک شود.
- ترافیک مراجعین بالقوه (Potential Referral Traffic): ایجاد ساختار مناسب لینک در یک وب سایت تنها درباره موتور جستجو نیست. لینک هایی که بصورت مستقیم ترافیک بازدیدکنندگان را به وب سایت تان هدایت می کند، نه تنها باعث بهبود رتبه وب سایت شما می شود بلکه کاربران ارزشمند نیازمند سرویس مورد ارائه شما (Targeted Users) را به سایت تان روانه خواهند شد (هدف اساسی بازاریابی اینترنتی) این چیزی است که شما می توانید با محاسبه تعداد بازدیدکنندگان وب سایت و یک صفحه خاص توسط آنالیزورهای موجود (مانند گوگل آنالیتیکس-Google Analytics) آنرا تخمین بزنید. اگر نمی توانید از سرویس های آنالیز استفاده کنید، سرویسی نظیر گوگل ترندز (Google Trends) می تواند شما را در این زمینه کمک کند. توسط این سرویس می توانید وب سایت های با ترافیک بالا را مشاهده کنید. و هم اینکه اطلاعات این سرویس دقیق و معتبر می باشد.
“فعالیت در زمینه فاکتورهایی که روی موتورهای جستجو تاثیر گذار هستند زمانبر و نیازمند تمرین و تجربه می باشند. اگرچه با بررسی سرویسی مانند گوگل آنالیتیکس، می توانید دریابید که کمپین های شما چقدر موفق بوده اند. شما هنگامی موفقیت بدست آورده اید که افزایشی در تعداد بازدیدکنندگان، بهبود رتبه در نتایج جستجو، افزایش تعداد پیمایش توسط خزنده ها و افزایش تعداد لینک ها به سایت تان مشاهده کنید. اگر این معیارها بعد از بکارگیری یک کمپین موفق رخ ندادند، احتمالا یا باید بدنبال هدف گیری جدیدی باشید، یا بهینه سازی On-Page (onPage Optimization) را بهبود بخشید. “
5 نمونه از استراتژی های ایجاد لینک (Link Building):
- از مشتریان وفادار خود بخواهید به وب سایت شما لینک بدهند: اگر در کسب و کار اینترنتی خود شریکی دارید که بطور منظم و مداوم با هم کار می کنید، و یا مشتریانی که عاشق برند شما هستند و به شما وفادار هستند، می توانید با ارسال آیکون های گرافیکی و یا شبیه آن، از آنها بخواهید به وب سایت تان لینک دهند.
- یک بلاگ بسازید و آنرا یک منبع ارزشمند، آگاهی دهنده و سرگرم کننده قرار دهید: ساختار لینک و محتوای یک وب سایت آنقدر مبحث مهمی است که از معدود پیشنهادات مهندسین گوگل می باشد.
- محتوایی تولید کنید که بطور طبیعی لینک دهی به آن مطلب و به اشتراک گذاری آن زیاد باشد: در دنیای سئو، نام اینکار Linkbait می باشد. کاربرانی که اینگونه مطالب را میخوانند، تصمیم می گیرند آنرا با دوستان خود به اشتراک بگذارند و بلاگر ها (Blogger) یا مدیران وب سایت ها (Webmasters) که این مطالب را بخوانند لینک آن صفحه را در سایت و یا بلاگ خود معرفی می کنند.
- قابل انتشار بودن مطالب: جلب کردن توجه نشریات، وبلاگ ها و رسانه های خبری روش خوبی برای کسب لینک است. گاهی اوقات این قضیه می تواند به راحتی انتشار رایگان یک مطلب، بهره برداری از یک محصول جدید و یا بیان مطلبی بحث برانگیز باشد.
پول را به من نشان بده!
موتورهای جستجوی گوگل و بینگ؛ بدنبال کم کردن اثر لینک های خریداری شده در نتایج اولیه خود هستند. از آنجایی که برای آنها، شناسایی و بی اعتبار ساختن تمام لینک های پولی غیرممکن است، موتورهای جستجو وقت و هزینه زیادی را برای این شناسایی صرف می کنند. وب سایت هایی که بدین گونه شناسایی می شوند (از لینک های پولی-Paid Links– استفاده کرده باشند) رتبه آنها توسط موتور جستجو به فراموشی سپرده می شود و دچار افت SEO خواهند شد. با اینحال، گاهی اوقات، خرید لینک جواب می دهد!
ما (متخصصین وب سایت Moz) پیشنهاد می کنیم بجای خرید لینک، محتوایی تولید کنید که بطور طبیعی، لینک دهی به سایت تان زیاد باشد.
در بخش بعد، فصل هشتم از سری آموزشی سئو برای مبتدیان ارائه خواهد شد.
فصل هشتم: سرویس ها و ابزارهای موتورهای جستجو
بخش اول
در بخش قبل، به اشتراک گذاری در شبکه های اجتماعی و مبانی ایجاد لینک (Link Building Basics) و استراتژی های ایجاد لینک را بررسی کردیم. موضوع این مقاله، سرویس ها و ابزارهای موتورهای جستجو می باشد.
سئوکاران تمایل دارند از ابزارهای مختلفی استفاده کنند. برخی از کاربردی ترین این ابزارها توسط خود موتورهای جستجو ایجاد و فراهم شده اند. موتورهای جستجو از وب مستران می خواهند سایت هایی در دسترس طراحی کنند؛ بنابراین، آنها ابزارها و آنالیزها و دستورالعمل هایی در این زمینه فراهم کرده اند.
در زیر، لیستی از ابزارها و امکاناتی را بیان کرده ایم که توسط تمام موتورهای جستجوی معروف پشتیبانی می شوند و دلیل اهمیت آنها را می دانند.
پروتکل های معروف موتورهای جستجو:
1- نقشه سایت (Sitemap):
به نقشه سایت بعنوان لیستی از فایل هایی نگاه کنید که به موتورهای جستجو ارائه می دهید تا آنها را در چگونگی پیمایش سایت تان راهنمایی و کمک کنید. نقشه سایت، این امکان را به موتور جستجو می دهد تا محتوای سایت تان را بصورت طبقه بندی شده پیدا کنند که شاید در حالت عادی امکان دسترسی و طبقه بندی وجود نداشته باشد. نقشه های سایت می توانند در فرمت های مختلفی تولید شوند و محتواهای گوناگونی از قبیل خبر، متن، تصویر، ویدیو را در بر می گیرند. برای کسب اطلاعات بیشتر درباره پروتکل نقشه سایت به وب سایت Sitemaps.org مراجعه کنید. علاوه بر آن شما می توانید نقشه سایت خودتان را با مراجعه به وب سایت xml-sitemaps ایجاد کنید.
فرمت های نقشه سایت (Sitemap Formats):
نقشه سایت به سه فرمت تولید می شوند:
- XML (Extensible Markup language): فرمت پیشنهادی می باشد و رایج ترین فرمت نقشه های سایت است. برای موتورهای جستجو تقسیر آن بسیار ساده است ولی ضعف آن اینست که بدلیل استفاده از تگ های باز و بسته برای هر المنت، حجم فایل نقشه سایت می تواند بسیار بالا رود.
- RSS (Really Simple Syndication or Rich Site Summary): نگهداری آن ساده است. نقشه های سایت با فرمت rss می توانند طوری کدنویسی شوند که به محض درج اطلاعات جدید در وب سایت، نقشه سایت نیز آپدیت شود. نقطه ضعف آن اینست که مدیریت آن سخت است. بدلیل اینکه rss از xml مشتق شده است، مدیریت آن به نسبت مشکل تر می باشد.
- Txt: نقشه های سایت در این فرمت، به شدت ساده هستند. نقشه سایت در فرمت متن (text sitemap) بصورت یک URL در یک خط تا 50 هزار خط می باشد. نقطه ضعف آن اینست که هیچ متا داده ای را نمی توان در آن تعریف کرد.
بخش دوم
تا اینجای مقاله، پروتکل های معروف موتورهای جستجو را معرفی کردیم و فرمت های نقشه سایت (SiteMap) را شرح دادیم. در این بخش ، فایل متنی ربات (Robots.txt) و تگ متای ربات (Meta Robots) و اتریبیوت nofollow برای لینک را معرفی کرده و آموزش می دهیم.
2- فایل متنی ربات (Robots.txt):
فایل robots.txt که محصولی از وب سایت robotstxt می باشد، یک فایل متنی می باشد که در فولدر ریشه هر وب سایت (root directory) ذخیره می شود (برای مثال www.google.com/robots.txt) و دستوراتی را به خزنده های اتوماتیک موتورهای جستجو می دهد. وب مستران توسط این فایل اعلام می کنند چه دایرکتوری از وب سایت شان را می خواهند توسط خزنده ها پیمایش نشود. برای کسب اطلاعات بیشتر در زمینه فایل robots.txt به وب سایت Moz مراجعه کنید. دستورات زیر را می توان در این فایل تعریف کرد:
- Disallow: دسترسی ربات های خزنده را به یک فایل یا فولدری خاص را محدود می کند.
- Sitemap: آدرس قرارگیری نقشه و یا نقشه های سایت را در آن تعریف می کنیم.
- Crawl Delay: سرعت خزنده را مشخص می کند که با چه سرعتی سرور را پیمایش می کند.
مثالی از فایلrobots.txt بصورت زیر است:
#Robots.txt www.example.com/robots.txt User-agent: * Disallow: # Don’t allow spambot to crawl any pages User-agent: spambot disallow: / sitemap:www.example.com/sitemap.xml
نکته: تمام ربات های خزنده از این فایل تبعیت نمی کنند. افرادی با نیت های کثیف! ممکن است رباتی بسازند (مانند email scrapers) که از این پروتکل پیروی نکند و در موارد حاد این قضیه، اینگونه ربات ها می توانند محل اطلاعات محرمانه را بدست آوردند و از آن داده ها سوء استفاده کنند. به همین دلیل توصیه می شود آدرس فولدر مدیریت وب سایت (Administration) و سایر مسیرهای محرمانه و امنیتی وب سایت تان را در فایل robots.txt ذخیره نکنید.
3- تگ متای ربات (Meta Robots):
در تگ متای ربات، دستوراتی در سطح هر صفحه وب به ربات های خزنده (Crawler Robots) داده می شود. این تگ متا نیز مانند سایر تگ های متا باید در بخش head داکیومنت وب تعریف شود.
در زیر مثالی از نحوه استفاده از تگ متای ربات می بینید:
An Example of Meta Robots <html> <head> <title>The Best Webpage on the Internet</title> <meta name="ROBOTS" content="NOINDEX, NOFOLLOW"> </head> <body> <h1>Hello World</h1> </body> </html>
در تگ متای مثال فوق، به خزنده های موتور جستجو دستور داده ایم که نه تنها این صفحه را ایندکس نکند (NOINDEX) بلکه لینک های این صفحه را نیز پیگیری نکند و در گراف لینک های این صفحه تعریف نکند (NOFOLLOW). به تصویر زیر دقت کنید:
4- اتریبیوت nofollow برای لینک (rel=”nofollow”) :
آیا به یاد دارید (در مقالات قبل) که هر لینک چگونه می تواند مانند یک رای مثبت برای صفحه وب باشد؟ nofollow این اجازه را به وب مستران می دهد که با اینکه به صفحه ای لینک داده اند، به آن لینک رأی (Vote) ندهند. بطور لفظی nofollow به موتور جستجو می گوید که از این لینک پیروی نکند. با این وجود، برخی از موتورهای جستجو به نظور کشف صفحات جدید از اینگونه لینک ها پیروی می کنند ولی رأی در نظر نمی گیرند. لینک های nofollow ارزش به مراتب کمتری نسبت به لینک های معمولی یک وب سایت دارند اما در مواقعی که می خواهید در سایت تان به یک منبع غیرقابل اعتماد لینک دهید، مورد استفاده قرار می گیرد. نحوه استفاده از اتریبیوت nofollow در زیر آمده است:
<a href="http://www.example.com" title="Example" rel="nofollow">Example Link</a>
5- اتریبیوت canonical »»» rel=canonical :
اغلب دو یا چند کپی از محتوای یک صفحه در URL های مختلف ظاهر می شود. مانند صفحه اصلی یک وب سایت که می تواند روی آدرس های زیر فراخوانده شود:
- http://www.example.com/
- http://www.example.com/default.asp
- http://example.com/
- http://example.com/default.asp
- http:// example.com/Default.asp
از منظر یک موتور جستجو، آدرس های فوق 5 صفحه مجزا محسوب می شود و به دلیل اینکه محتوای هر 5 صفحه عینا مانند هم هستند، مطمئنا این محتوا را بی ارزش تلقی می کند و هیچ رتبه ای برای آن در نظر نمی گیرد. Canonical این مشکل را حل کرده است و به موتور جستجو می گوید 5 صفحه فوق یک صفحه واحد هستند و تنها یکی از آنها باید ایندکس شوند و در نتایج جستجو نمایش داده شوند.
بعنوان مثال، فرض کنید در صفحه وبی با آدرس www.example.com/default.asp اتریبیوت canonical را به شکل زیر تعریف کرده ایم:
<html> <head> <title>The Best Webpage on the Internet</title> <link rel="canonical" href="http://www.example.com"> </head> <body> <h1>Hello World</h1> </body> </html>
در مثال بالا، با استفاده از rel=canonical به خزنده های موتور جستجو گفتیم که این صفحه یک کپی از www.example.com می باشد و URL دوم باید بعنوان آدرس استاندارد و معتبر محسوب شود.
بخش سوم
ابزارهای موتور جستجو (Search Engine Tools) :
در بخش قبل، فرمت های نقشه سایت و تگ متای ربات و اتریبیوت nofollow برای لینک و اتریبیوت canonical را بررسی کردیم. در این بخش، ابزارهای موتور جستجو (Search Engine Tools) را معرفی خواهیم کرد.
»»» کنسول جستجوی گوگل (Google Search Console):
ویژگی های کلیدی گوگل وبمستر تولز:
- اهداف و مقاصد جغرافیایی: اگر وب سایتی کاربران یک منطقه خاص جغرافیایی را مورد هدف قرار داده باشد، وب مستران این سایت ها می توانند با ارائه اطلاعات خود به گوگل، مشخص کنند محتوای وب سایت شان چگونه در جستجوی پیشرفته گوگل (سرچ در منطقه ای خاص) به کاربران نمایش داده شوند و همچنین دقت جستجوی گوگل را در هنگام جستجوهای جغرافیایی بیشتر کنند.
- دامنه ترجیحی (Preferred Domain-PA): دامنه ترجیح داده شده دامنه ای است که وب مستر یک سایت علاقه دارد با آن فرمت دامنه ، صفحات وب سایتش در موتورهای جستجو ایندکس شوند. بعنوان مثال اگر PA برابر http://example.com باشد، اگر لینکی به سایت تان مشاهده کند که به فرمت http://www.example.com باشد، این لینک را به شکل دامین ترجیحی یعنی http://example.com خواهد دید.
- پارامترهای URL: شما بعنوان یک مستر، می توانید به گوگل، پارامترهای استفاده شده در url سایت تان را معرفی کنید تا گوگل آنها را بهتر و موثرتر پیمایش و ایندکس کند (sprt=price یا sessionId=2).
- نرخ پیمایش (Crawl Rate): فاکتوری است که مشخص می کند سرعت پیمایش خزنده ها چقدر باشد (و نه فرکانس آنها).
- بدافزار (Malware): در صورتی که بدافزاری در وب سایت تان وجود داشته باشد، گوگل این موضوع را به شما اطلاع می دهد. وجود بدافزارها می تواند تجربه کاربری ناخوشایندی را ایجاد کند و همچنین باعث پایین آمدن رتبه سایت تان شود.
- خطاهای در حین پیمایش (Crawl Error): اگر خزنده های گوگل در هنگام پیمایش وب سایت تان، با خطایی (مانند وجود نداشتن صفحه یعنی ارور 404) مواجه شوند، گوگل این خطا را به شما اعلام می کند.
- پیشنهادهای HTML (HTML Suggestion): گوگل توسط این معیار، اگر در کد وب سایت شما المنتی دارای فرمت و یا مقادیری نامناسب برای موتورجستجو (Search Engine-Unfriendly) پیدا کند، اعلام خواهد کرد (مانند وجود نداشتن تگ های title و description).
برای ثبت نام در سرویس گوگل وب مسترز (Google Webmasters) کلیک کنید.
ارائه آمار وب سایت در دنیای وب:
آمارها (Statistics) که توسط موتورهای جستجو فراهم شده اند، بینش دقیقی نسبت به سایت تان برای شما فراهم می کند. مانند تاثیرات کلمات کلیدی (Keywords Impression) و CTR (Click Through Rate) و صفحات با رتبه خوب در نتایج جستجو و نیز آماری درباره لینک های سایت تان.
تنظیمات وب سایت (Site Configuration):
این بخش مهم از سرویس وب مسترز شرکت گوگل، این امکان را برای وب مستران فراهم می کند تا نقشه های سایت شان را آپلود کنند، فایل های robots.txt را تست کنند، لینک های سایت (Sitelinks) را تنظیم کنند، تغییر آدرس درخواست ها وقتی از یک دامین به دامینی دیگر مهاجرت کرده اید، تنظیمات مربوط به پارامترهای URL (که در بخش قبل توضیح دادیم)
معیار +1 (+1 Metrics): وقتی کاربران مطلبی را در سایت شما روی شبکه گوگلپلاس (GooglePlus) توسط دکمه 1+ به اشتراک می گذارند، این فعالیت در نتایج جستجوی گوگل تاثیرگذار خواهد بود و اهمیت فراوانی در رتبه بندی سایت تان دارد.
آزمایشگاهها (Labs):
این بخش، شامل آمار و اطلاعات تجربی می شود که گوگل به وب مستران نمایش می دهد. یکی از امکانات مهم این بخش، نمایش کارایی سایت (Site Performance) به مدیران وب سایت ها می باشد مانند اینکه سایت شان بهنگام لود شدن برای کاربران، چقدر کند یا سریع است؟
بخش چهارم
در بخش قبل، کنسول جستجوی گوگل (Google Search Console) را معرفی و بررسی کردیم. در این بخش، دو ابزار Bing Webmaster Tools و Moz Open Site Explorer را بررسی خواهیم کرد.
»»» ابزار مدیریت سایت در بینگ (Bing Webmaster Tools):
ویژگی های کلیدی Bing Webmaster Tools:
- بررسی اجمالی سایت (Sites Overview): این قابلیت، یک دید کلی از وب سایت فراهم می کند که کارایی سایت را در نتایج موتورجستجوی بینگ را نمایش می دهد. بطور کلی معیارهایی مانند تعداد صفحات پیمایش شده (Crawled Pages) و تعداد صفحات ایندکس شده (Indexed Pages) و تعداد کلیک ها را شامل می شود.
- آمار پیمایش (Crawl Stats): تعداد صفحات کشف شده و ایندکس شده را بهمراه خطاهای احتمالی در حین پیمایش را نمایش می دهد. مانند گوگل شما می توانید در این بخش، نقشه سایت تان را آپلود کرده و به کشف و اولویت بندی هرچه سریعتر صفحات سایت تان کمک کنید.
- ایندکس (Index): این بخش به وب مستران کمک می کند که نحوه ایندکس شدن صفحات وب سایت شان را مشاهده و کنترل کنند. مجددا همانند سرویس گوگل وب مسترز، شما می توانید مشاهده کنید که مطالب سایت شما چگونه در موتورجستجوی بینگ ثبت شده است. مانند اینکه یک URL ارسال کنید یا URL ای را حذف کنید. پارامترهای URL را مدیریت کنید. لینک های داخلی سایت تان را مرور کنید.
- ترافیک (Traffic): این قابلیت از سرویس بینگ وب مسترز، با تلفیق اطلاعات موتورهای جستجوی یاهو! و بینگ، معیارهای Impressions و CTR را به مدیران وب سایت ها نمایش می دهد. این گزارش، اطلاعات میانگینی را ارائه می دهد مانند میانگین هزینه هر تبلیغ (Ads) در صورتی که شما میخواستید هر کلمه کلیدی را خریداری کنید.
»»» ابزار مدیریت سایت توسط وب سایت Moz (Moz Open Site Explorer):
ابزار Open Site Explorer دید خوبی از وب سایت تان و لینک های آن به شما نشان می دهد.
ویژگی های Moz Open Site Explorer:
- لینک های قدرتمند سایت تان را بشناسید: این ابزار لینک های داخلی سایت را بصورت مرتب شده (Sort) بهمراه Metric آنها نمایش می دهد. بنابراین شما قادر خواهید بود لینکهای موثر و قوی را از سایر لینکهای سایت تشخیص دهید.
- یافتن قدرتمندترین دامنه هایی که به دامنه سایت شما متصل هستند: این ابزار، امکانی فراهم می کند که قوی ترین دامین هایی را که به دامین سایت شما لینک هستند را شناسایی کنید.
- آنالیز کردن نحوه توزیع متن لینک های سایت (Anchor Text Distribution): این ابزار، فراوانی متون لینک هایی که کاربران به سایت شما داده اند را نمایش می دهد.
- ارائه کردن دید مقایسه ای (Comparison View): این قابلیت به شما امکان مقایسه و آنالیز دو وب سایت را می دهد تا متوجه شوید چرا یک سایت رتبه بالایی دارد و دیگری خیر.
- معیارهای به اشتراک گذاری در شبکه های اجتماعی (Social Sharing Metrics): تعداد لایک های فیسبوک، 1+ های گوگلپلاس، توییت های توییتر را ارزیابی می کند.
“موتورهای جستجو در طی سالهای اخیر، ابزارهای بهتر و قدرتمندتری برای کمک به مدیران سایت ها برای بهینه کردن سایت شان فراهم کرده اند. این یک قدم بلند در راستای بهبود رابطه بین سئوکاران و موتورهای جستجو می باشد.“
مقاله فوق ترجمه ای است از مقاله نوشته شده توسط Rand Fishkin از سری مقالات وب سایت Moz
در بخش بعد، وارد فصل 9 خواهیم شد و در مورد تصورات غلط راجع به موتورهای جستجو صحبت می کنیم.
فصل نهم: تصورات غلط راجع به موتورهای جستجو
Misconceptions about search engines
بخش اول
در بخش قبل، ابزار مدیریت سایت در بینگ (Bing) و ابزار Moz Open Site Explorer را مورد بررسی قرار دادیم. در این مقاله، در مورد تصورات اشتباهی که در مورد موتورهای جستجو وجود دارد صحبت خواهیم کرد.
در طی سالیان گذشته، تعدادی از تصورات غلط درباره نحوه عملکرد موتورهای جستجو بوجود آمده است. برای سئوکاران مبتدی، این قضیه ممکن است باعث سردرگمی شود که چه روشی برای بهینه سازی موثرتر است. در این بخش، ما داستان واقعی که پشت این تصورات وجود دارد را بیان می کنیم.
ارسال اطلاعات به موتورهای جستجو (Search Engine Submission):
در دوران سئوی کلاسیک (اواخر دهه 90 میلادی) موتورهای جستجو فرم های ارسالی داشتند که وب مستران اطلاعات و عبارات کلیدی صفحات وب سایت خود را در آن submit می کردند و موتورهای جستجو بلافاصله آن وب سایت را پیمایش و بر اساس اطلاعات ارسالی، ایندکس صفحات انجام می شد. سئوی ساده!
اما متاسفانه این فرآیند نتوانست به مقیاس های بزرگ پاسخگو باشد. داده های ارسالی غالبا اسپم بودند. از سال 2001 میلادی، نه تنها ارسال اطلاعات در فرم های موتورهای جستجو نیاز نمی باشد بلکه این روش یعنی ارسال اطلاعات در فرم های موتورهای جستجو بلااستفاده (Useless) شده است. موتورهای جستجو به این نتیجه رسیدند که به ندرت از url های submit شده استفاده می کنند و باید روش بهتری برای اینکار بیابند.
شما می توانید کماکان فرم های ارسال را در برخی موتورهای جستجو پیدا کنید (مانند این صفحه از موتورجستجوی بینگ) اما این فرم ها، بقایای روش کلاسیک سئو می باشد و در سئوی مدرن امروزی، نیازی به submit کردن url های سایت تان نیست.
تگ های متا (Meta Tags):
زمانی استفاده از تگ های متا (بطور خاص متاتگ کلمات کلیدی : Keywords meta tag) یکی از فاکتورهای اساسی بهینه سازی وب سایت ها می بود، در آن زمان، کلمات و عباراتی را که می خواستید برای آنها رتبه خوبی بگیرید را بعنوان کلمات کلیدی در تگ متای keywords تعریف می کردید و بنابراین اگر کاربران آن کلمات را سرچ می کردند، سایت شما می توانست رنک و رتبه خوبی داشته باشد. این روش بتدریج باعث اسپم شدن سایت ها شده است و این فاکتور از الگوریتم موتورهای جستجوی مهم حذف شده است و کاربرد قدیم را ندارد. تگ های دیگر مانند عنوان (title) و توضیحات (description) هنوز از اهمیت حیاتی سابق برخوردارند. علاوه بر این، استفاده از تگ های متای ربات (Robot meta tag) برای کنترل دسترسی ربات های خزنده به صفحات سایت ضروری می باشد. اکنون با اینکه از اهمیت و کاربرد تگ های متا با خبرید، باید بدانید که در سالیان اخیر، استفاده از این فاکتور، موضوع اصلی سئو نمی باشد.
استفاده بیش از حد از کلمات کلیدی (Keyword Stuffing):
آیا تابحال صفحات وبی را دیده اید که اسپم بنظر می رسند؟ تعجبی نیست که بگوییم بیشتر افسانه های موجود در زمینه سئو، در مورد تراکم کلمات کلیدی در صفحه (نسبت کلمات کلیدی هر صفحه به کل کلمات کلیدی وب سایت) می باشد که در محاسبه فاکتورهای رتبه (Ranking) و ارتباط (Relevancy) در موتورهای جستجو استفاده می شوند. ولی این افسانه واقعیت ندارد. یعنی تعداد کلمات کلیدی که در یک صفحه وب استفاده می کنید اهمیت ندارد و فقط آنها را بصورت هوشمندانه و منطقی در صفحات سایت تان استفاده کنید. در نظر داشته باشید که ارزش استفاده از ده کلمه کلیدی در یک صفحه وب کمتر از یک لینکی است که یک وب سایت معتبر به سایت شما بدهد.
بخش دوم
در بخش قبل، تگهای متا (Meta Tags) و استفاده بیش از حد از کلمات کلیدی (Keyword Stuffing) را بررسی کردیم. با بخش دوم از فصل 9 آموزش سئو برای مبتدیان همراه ما باشید.
جستجوی پولی (Paid Search) به نتایج ارگانیک موتورهای جستجو کمک می کند:
وقت آنست که در مورد یکی از رایج ترین تئوری های موجود درباره سئو بحث کنیم: هزینه کردن برای تبلیغات در موتورهای جستجو (pay per click یا PPC) باعث بهبود رتبه ارگانیک سایت تان می شود.
بر اساس تحقیقات و تجربیات قابل توجه ما (نویسندگان وب سایت Moz) شواهدی مبنی بر جمله بالا (ارتقا رتبه ارگانیک وب سایت توسط تبلیغات) یافت نمی شود. در گوگل، یک تبیلغ کننده، ممکن است میلیون ها دلار خرج تبلیغات در گوگل کند اما از هیچ توجه و امتیاز خاصی نسبت به سایر رقبا در نتایج جستجوی ارگانیک برخوردار نیست. تا وقتی که سیاست موتورهای جستجو بدینگونه است، نظریه فوق (ارتقا نتایج ارگانیک جستجو توسط تبلیغات) باید در حد همان افسانه باقی بماند.
اسپم موتور جستجو (Search Engine Spam):
تا وقتی که جستجو هست، اسپم نیز وجود دارد! تلاش برای بهینه سازی بصورت اسپم (طراحی و تولید صفحاتی که بطور مصنوعی و تقلبی رتبه وب سایت را در موتور جستجو بهبود می بخشند)، از اواسط دهه 90 میلادی مرسوم شد.
مخاطرات استفاده از اینگونه روش ها بسیار بالاست. بعنوان مثال اگر تنها یک روز وب سایت شما با عبارت “buy Viagra” در رتبه اول نتایج جستجوی گوگل باشد، می تواند منفعت مالی حدود 20هزار دلار برای شما داشته باشد. بنابراین تعجبی ندارد که دستکاری موتورهای جستجو انقدر طرفدار داشته باشد و محبوب باشد! اگرچه روز به روز اینگونه فعالیت ها سخت تر و سخت تر می شود و به دو دلیل ارزش کمتری پیدا می کنند:
1- ارزش تلاش کردن ندارد:
کاربران از اسپم متنفرند و موتورهای جستجو برای مبارزه با اسپم ها، انگیزه اقتصادی دارند. بسیاری معتقدند که گوگل بدلیل مزیت های موتور جستجویش نسبت به سایر موتورهای جستجوی معروف (مانند یاهو! و بینگ)، در طی 10 سال گذشته، باعث شده بتواند نسبت به رقبایش بهتر و موثرتر با اسپم ها مقابله کند. بدون شک، این موضوع (مبارزه با اسپم ها) از مواردی است که تمام موتورهای جستجو زمان و منابع و تلاش زیادی را برای آن بکار می گیرند.
پس بهتر نیست بجای صرف زمان و هزینه برای تولید محتواهای اسپم (که موتورهای جستجو آنها را دور می ریزند!)، روی استراتژی های بلندمدت و هدفمند و تولید محتوای مفید وقت بگذارید؟؟؟
2- موتورهای جستجوی باهوش تر (Smarter Engines):
موتورهای جستجو، کارهای قابل توجه زیادی را در حوزه شناسایی مشاغل مقیاس پذیر و بکارگیری روش های هوشمندتر برای مبارزه با دستکاری اسپم ها انجام می دهند و بطور چشمگیری امکان گذاشتن تاثیر منفی بر روی الگوریتم های موردنظر را مشکل ساخته اند. معیارهایی مانند ابزار TrustRank وب سایت Moz و آنالیزهای آماری و داده های تاریخی ارزش جستجوی اسپم را کاهش داده اند و تاکتیک های سئوی کلاه سفید (White Hat SEO) را ایجاد کرده اند. منظور از سئوکاران کلاه سفید آنهایی می باشند که دستورالعمل ها و guideline های موتورهای جستجو را نقض نمی کنند.
اخیرا، گوگل در آپدیت جدید الگوریتم پاندا، الگوریتم های پیچیده یادگیری ماشین (machine learning) را معرفی کرده است که با اسپم ها و صفحات بی ارزش یا کم ارزش مقابله کند و به همین ترتیب، موتورهای جستجو کماکان برای نمایش نتایج جستجوی باکیفیت به کاربران در حال نوآوری و تلاش می باشند.
مسلما ما پیشنهاد نمی کنیم روش های اسپم را بکار بگیرید اما برای کمک به خیل عظیم وب مسترانی که وب سایت شان توسط موتورهای جستجو (بویژه گوگل) اسپم شده و یا جریمه شدند، ارزشمند است که با فاکتورهایی که گوگل بعنوان اسپم می شناسد آشنا شوید. برای کسب اطلاعات تکمیلی در این زمینه می توانید به دستورالعمل های گوگل مراجعه کنید.
نکته مهمی که باید به یاد داشته باشید اینست که تکنیک های دستکاری و خرابکاری به شما کمکی نمی کند بلکه به مرور باعث جریمه شدن وب سایت شما و اسپم اعلام شدن آن می شوند.
بخش سوم
در بخش قبل، درباره جستجوی پولی (Paid Search) و اسپم موتور جستجو (Search Engine Spam) صحبت کردیم. در بخش سوم از فصل نهم آموزش سئو، مبحث آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis) را مورد بررسی قرار خواهیم داد.
آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis):
موتورهای جستجو چک کردن اسپم ها را هم در سطح یک صفحه وب انجام می دهند و هم در کل وب سایت. ما ابتدا یاد می گیریم که چگونه دستکاری های انجام شده در سطح URL را ارزیابی کنیم:
کلمات کلیدی زیاد (Keywords stuffing):
یکی از تکنیک های واضح اسپم در یک صفحه وب، استفاده بیش از حد و تکراری کلمات و عبارات کلیدی می باشد که بطور اشتباه تصور می شود با تکرار کلمات کلیدی، بیشتر می توانند باعث تاثیر روی موتورهای جستجو شوند! همانطور که در بالا مطرح شد، این روش بی فایده می باشد.
اسکن صفحه وب برای کلمات کلیدی اسپم کار چالش انگیز و سختی نمی باشد.
برای کسب اطلاعات بیشتر در این زمینه می توانید به بلاگ MattCutts (مدیر بخش اسپم شرکت گوگل) مراجعه کنید.
لینک دهی دستکاری شده (Manipulative Linking):
یکی از رایج ترین انواع اسپم در دنیای وب، تلاش برای استفاده از قانون محبوبیت لینک ها در موتورهای جستجو است که به منظور بهبود رتبه وب سایت (بصورت مصنوعی و تقلبی) انجام می شود. این موضوع یکی از سخت ترین موارد اسپم است که یافتن اسپم هایی از این نوع برای موتورهای جستجو مشکل می باشد زیرا به فرمت های مختلفی استفاده می شود. تعداد اندکی از روش های زیاد لینک دهی دستکاری شده عبارتند از:
– تبادل لینک متقابل (Reciprocal link exchange): در این روش، وب سایت ها، صفحه ای برای تبادل لینک ایجاد می کنند که لینک وب سایت های مورد تبادل را در آن درج می کنند و به همین شکل، وب سایت مقابل نیز لینک سایت اول را قرار می دهد. با تصور اینکه بر اساس قانون محبوبیت لینک، وب سایت بهینه تری داشته باشند. موتورهای جستجو، در نشانه گذاری و بی ارزش کردن اینگونه سایت ها تبحر خاصی دارند.
– لینک های خریداری شده (Paid links): وب سایت هایی که بدنبال ارتقاء رتبه سایت خود هستند، از وب سایت های دیگر، لینک هایی خریداری می کنند. این شکل از تبادل گاهی به شبکه ای از فروشندگان و خریداران لینک تبدیل می شود که موتورهای جستجو بطور جدی در پی جلوگیری از کار آنها می باشند.
– دایرکتوری لینک های بی کیفیت (Low quality directory links): این از موارد پرتکراری است که بسیاری از سئوکاران بعنوان منبعی برای دستکاری از آن استفاده می کنند. تعداد زیادی از وب سایت ها وجود دارند که بصورت رتبه-به ازای-پرداخت (pay-for-placement) فعالیت دارند و خود را قانونی و موجه نشان می دهند. گوگل اغلب با حذف کردن pagerank اینگونه سایت ها با آنها مقابله می کند اما با همه آنها اینگونه برخورد نمی کند.
روش های مختلفی برای ساختار لینک دهی وب سایت ها توسط موتورهای جستجو کشف شده است که در بسیاری از موارد، الگوریتم هایی تعریف کرده اند که تا حد زیادی جلوی تاثیر این روش ها را بگیرند. هنگامی که سیستم اسپم جدید گوگل معرفی شد، مهندسین گوگل توسط الگوریتم های هدفمند، مرور و بازخوانی توسط انسان ها و نیز مجموعه ای از گزارشات اسپم که وب مستران و سئوکاران گزارش می دهند، در حال مقابله با این روش ها می باشند.
بخش چهارم
در بخش قبل (بخش 3 از قصل 9)، آنالیزهای اسپم در سطح صفحه وب (page-level spam analysis) و کلمات کلیدی زیاد (Keywords stuffing) و لینک دهی دستکاری شده (Manipulative Linking) را بررسی کردیم.در این بخش، اثرات پنهان سازی محتوا (Cloaking) بر روی سئوی سایت و نیز صفحات کم ارزش (Low value pages) را بررسی خواهیم کرد.
پنهان سازی محتوا (Cloaking):
از اصول اولیه و اساسی سئو اینست که همان محتوایی را که به خزنده های موتور جستجو (Crawler) نشان می دهید همانی باشد که به کاربران وب سایت ارائه می کنید. به بیان دیگر، مطلبی را در کد html سایت خود پنهان نکنید که یک کاربر عادی نتواند آنرا ببیند.
موتورهای جستجو این گونه از اسپم ها را Cloaking نامیده اند و اقداماتی برای جلوگیری از ارتقا رتبه این وب سایت ها انجام می دهند. عمل Cloaking می تواند به روش ها و اهداف مختلف و نیت های مثبت و منفی انجام شود. در مواقعی که این پنهان سازی باعث بهبود تجربه کاربری (User Experience-UX) شود، موتورهای جستجو ممکن است مانع اینکار نشوند. برای بالا بردن اطلاعات خود در این زمینه و نیز میزان ریسکی که ممکن است هر روش داشته باشد می توانید به مقاله White Hat Cloaking از وب سایت Moz مراجعه کنید.
صفحات کم ارزش (Low value pages):
اگرچه ممکن است اینگونه صفحات توسط موتورهای جستجو بعنوان اسپم شناخته نشوند، اما موتورهای جستجو این امکان را دارند که صفحاتی که محتوای یکتا (Unique) دارند را شناسایی کنند. انواع مختلف صفحاتی که می توانند کم ارزش و یا بی ارزش باشند عبارتند از: صفحاتی که بصورت داینامیک تولید می شوند که غالبا محتوای آنها یکتا نیست، صفاتی که محتوای تکراری دارند (Duplicate content)، صفحاتی که محتوای کم و وابسته دارند. موتورهای جستجو با آوردن این صفحات در نتایج جستجو مخالفند و روش ها و الگوریتم های زیادی برای شناسایی اینگونه صفحات بکار می گیرند.
الگوریتم پاندا در سال 2011 آپدیتی را شامل شد که از تعداد صفحات و وب سایت های کم ارزش و بی ارزش در دنیای وب کم کند و در آپدیت های بعدی نیز این مطلب مشاهده می شود.
آنالیزهای اسپم در سطح دامین (Domain-Level spam analysis):
موتورهای جستجو علاوه بر اسکن هر صفحه وب بطور جداگانه، می توانند رفتار و ویژگی های وب سایت ها را در سطح دامین و یا ساب دامین (domain یا subdomain) بررسی و شناسایی کنند و در مواقع لزوم، برچسب اسپم را روی هر کدام بزنند.
تمرین لینک دهی (Linking Practice):
همانند صفحات جداگانه وب، موتورهای جستجو می توانند بر انواع لینک ها و نیز کیفیت وب سایت های مرجع لینک ها نظارت داشته باشند. وب سایت هایی که با دستکاری و تقلب در لینک دهی به سایت شان (manipulative linking) همانطور که در مقالات بالا ذکر شد، سعی در فریب موتورهای جستجو و یا میانبر زدن دارند، با افت شدید رتبه در نتایج جستجو و یا حتی ایندکس نشدن مواجه خواهند شد.
امانت (Trustworthiness):
وب سایت هایی که توانسته اند وضعیت معتبر و قابل اعتمادی بدست آورند، غالبا رفتارشان با سایر وب سایت ها متفاوت است. اگر وب سایت شما شامل مطالب کم ارزش و یا تکراری (کپی شده) است و لینک هایی از وب سایت های اسپم نیز خریداری نموده اید، بطور حتم رتبه سایت شما در نتایج جستجو با افت شدیدی روبرو خواهد شد. اما اگر همین مطالب را حتی با خرید لینک از سایت های اسپم، در وب سایت معتبر ویکی پدیا درج کنید، تاثیر خوبی برای سایت ویکی پدیا خواهد داشت (بدلیل قدرت و اعتبار دامین : Domain Authority-DA)
اعتبار (Trust) می تواند از طریق لینک های داخلی (inbound links) نیز تامین شود. فرض کنید در وب سایت شما تعداد کمی مقاله وجود دارد که تکراری و کپی می باشند. اما چندین سایت معتبر مانند CNN به سایت شما لینک داده باشند، این باعث می شود تا اندک لینک هایی که از وب سایت های اسپم و بی ارزش دریافت کرده اید از طرف موتورهای جستجو نادیده گرفته شوند.
ارزش محتوا (Content Value):
همانطور که دیدیم، ارزش یک صفحه وب مجزا، بر اساس محتویات یکتا و غیر تکراری و نیز تجربه کاربری (UX) مربوط به آن صفحه ارزیابی می شود، همینطور برای ارزیابی کل دامین نیز این معیارها صادق هستند. وب سایت هایی که دارای صفحات بی ارزش و مقالات تکراری (duplicate) هستند، مطمئنا در نتایج جستجو دچار مشکل می شوند (حتی اگر این صفحات بخوبی برای موتورهای جستجو بهینه شده باشند). به بیان ساده، موتورهای جستجو مانند گوگل دوست ندارند ایندکس های خود را پر از صفحات ویکی پدیا کنند. بنابراین از روش ها و الگوریتم هایی برای جلوگیری از فعالیت اینگونه صفحات استفاده می کنند.
موتورهای جستجو بطور مدام و پیوسته در حال ارزیابی نتایج خود هستند. هنگامی که کاربری بعد از سرچ کردن عبارت موردنظر خود، و کلیک روی لینک یک وب سایت در لیست نتایج جستجو، بلافاصله دکمه بازگشت را می زند، موتور جستجو می فهمد که این وب سایت برای کاربر مفید واقع نشده و با انتظارات کاربر فاصله داشته است.
رتبه خوب داشتن برای یک کلمه و یا عبارت خاص در نتایج موتورهای جستجو به تنهایی کافی نیست. بلکه وقتی شما موقعیت وب سایت تان را در جستجو تثبیت کردید، باید بطور مداوم و مکرر آنرا ثابت کنید.
بخش پنجم
در بخش قبل، پنهان سازی محتوا (Cloaking) و صفحات کم ارزش (Low value pages) و آنالیزهای اسپم در سطح دامین (Domain-Level spam analysis) را بررسی کردیم. در این بخش، بیان می کنیم که چگونه می توان متوجه شد کارهای شما در زمینه بهینه سازی وب سایت تان اشتباه بوده است.
از کجا متوجه می شوید که کارهای شما برای سئوی سایت اشتباه بود است؟
متوجه شدن اینکه وب سایت تان توسط موتورهای جستجو جریمه (penalty) شده است مشکل است. ممکن است الگوریتم گوگل آپدیت شده باشد و تغییراتی کرده باشد. ممکن است تغییری که شما در بخشی از سایت تان و یا محتوای آن داده اید باعث افت رنکینگ سایت شما شده باشد. قبل از اینکه تصور کنید وب سایت شما جریمه شده است، موارد زیر را بررسی کنید:
- مرحله اول: رد کردن (Rule out): اگر سایت شما شامل موارد موجود در این مرحله نمی باشد، به مرحله دوم یعنی چک کردن و پیروی از فلوچارت (به منظور رفع جریمه) مراجعه کنید.
* خطاها (Errors): خطاهای احتمالی یک وب سایت ممکن است مانع پیمایش خزنده های موتور جستجو (Crawler) شود. ابزار Google Search Console می تواند در این زمینه مفید باشد.
* تغییرات (Changes): انجام تغییراتی در سایت و یا صفحات آن ممکن است باعث تغییر نحوه پیمایش آن توسط موتورهای جستجو شود (مانند تغییر ساختار لینک دهی، جابجایی محتوا و غیره).
* شباهت (Similarity): سایت هایی را که دارای پروفایل با اشتراک گذاری بک لینک هستند را چک کنید. ممکن است آنها نیز دچار افت رتبه شده باشند. هنگامی که الگوریتم های موتور جستجو آپدیت می شوند ممکن است باعث جابجایی اهمیت لینک ها شود که به تغییر رتبه منتج خواهد شد.
* محتوای تکراری (Duplicate Content): بسیاری از وب سایت ها با مشکل تکراری و کپی بودن مطالب شان مواجه هستند. بویژه در وب سایت هایی با مقیاس بزرگ این مشکل حاد تر است.
2- چک کردن فلوچارت (Follow Flowchart):
ترجمه فلوچارت بالا:
نکته: برای کسب اطلاعات بیشتر در زمینه ارسال درخواست به گوگل برای بررسی مجدد وب سایت می توانید به این مقاله که از سری داکیومنت های گوگل است مراجعه کنید.
برداشتن جریمه ها از روی سایت (Getting penalties lifted):
ارسال درخواست بررسی مجدد و تجدیدنظر در مورد سایت مان به گوگل گاها کاری سخت و ناموفق می باشد. زیرا هیچ فیدبک و واکنشی مبنی بر تائید و یا عدم تائید مجدد سایت مان و دلیل آن به ما نمایش داده نمی شود. بنابراین مهم است که بدانیم به هنگام جریمه شدن سایت مان، چه کارهایی می توانیم انجام دهیم.
نحوه رفع جریمههای گوگل (Google-Penalty):
- اگر تاکنون در ابزار وب مستران گوگل (Google Webmaster Tool)، وب سایت خود را ثبت نام نکرده اید، حتما ثبت نام کنید. با اینکار یک لایه اعتماد بین سایت شما و موتور جستجوی گوگل ایجاد می شود.
- اطلاعاتی که از ابزار گوگل وب مسترز بدست می آورید را با دقت آنالیز کنید تا خطایی مبنی بر عدم دسترسی خزنده گوگل به صفحه یا صفحاتی از سایت تان و یا اسپم بودن آنها مشاهده نکنید. اکثر جریمه های اسپمی که وب سایت ها دچار آنها می شوند بدلیل همین عدم دسترسی Crawler ها می باشد.
- درخواست بررسی و تجدیدنظر را از طریق پنل سرویس گوگل وب مسترز ارسال کنید و نه از طریق فرم های عمومی (public). با اینکار، مجددا می توانید لایه ای از اعتماد را بین سایت تان و گوگل ایجاد کنید.
- شرح کارهایی که انجام داده اید (مانند لینک هایی که بدست آورده اید، چگونگی بدست آوردن آنها، چه کسی یا شرکتی آنرا به شما فروخته است و غیره) برای گوگل می تواند مهم باشد زیرا با استفاده از این اطلاعات، الگوریتم های خود را بهبود می بخشد.
- هر چیزی را که می توانید از سایت تان تصحیح و یا حذف کنید مانند لینک های بدی را که دریافت کرده اید، بهینه سازی افراطی و بیش از حد سایت تان (مانند keywords stuffing و …) را تصحیح کنید. بعد از اینکه تمام این کارها را انجام دادید، درخواست تجدیدنظر خود را برای گوگل بفرستید.
- برای انتظاری نسبتا طولانی آماده باشید، زیرا تجدیدنظر گوگل ممکن است هفته ها و حتی ماه ها طول بکشد. صدها و شاید هزاران وب سایت در طول یکهفته جریمه (penalized) می شود. بنابراین تصور صف انتظار طولانی، غیر منطقی نیست.
- اگر شما دارای برند و یا وب سایت معتبر و با ارزشی هستید، ترتیب اثر دادن به درخواست شما می تواند سریع تر انجام شود. مهندسین از تمام موتورهای جستجو بطور منظم در کنفرانس های صنعت جستجو (Search Industry) شرکت می کنند. مانند کنفرانس SMX و SES و …
“در نظر داشته باشید که رفع جریمه (penalty lifting) از تعهدات و مسئولیت های موتورهای جستجو نمی باشد. بطور قانونی آنها می توانند صفحه و یا سایتی را از نتایج جستجوی خود حذف کنند. شامل شدن (inclusion) در نتایج موتورهای جستجو یک امتیاز است و نه یک حق. بنابراین احتیاط کنید که از تکنیک هایی در سئوی سایت تان استفاده نکنید که باعث شود وب سایت تان دچار مشکل شود.”
در بخش بعد، با فصل دهم با موضوع اندازه گیری و پیگیری موفقیت (Measuring & tracking success) با شما خواهیم بود.
فصل دهم: اندازه گیری و پیگیری موفقیت
Measuring & tracking success
بخش اول
در بخش قبل، فصل نهم آموزش سئو را بیان کردیم و درباره این موضوعات صحبت کردیم:
چگونه متوجه شویم کارهای ما در زمینه سئوی سایت مان اشتباه بوده است ؟
چگونه در صورت جریمه شدن سایت توسط گوگل، جریمه را برطرف کنیم ؟
اگر شما می توانید چیزی را اندازه بگیرید، قادر خواهید بود که آنرا بهبود ببخشید. در موضوع بهینه سازی برای موتورجستجو (Search Engine Optimization-SEO) اندازه گیری، فاکتوری مهم برای موفقیت است. سئوکاران حرفه ای، از اطلاعاتی مانند لینک ها، کلمات کلیدی و … برای مشخص کردن راه و نقشه موفقیت و تعریف استراتژی برای رسیدن به رتبه بالاتر در نتایج موتورهای جستجو استفاده می کنند.
معیارهای پیشنهادی برای ارزیابی و پیگیری (Recommended metrics to track):
اگرچه هر تجارت و کسب و کاری، منحصر بفرد است و در هر وب سایتی معیارهای بخصوصی اهمیت دارد، اما مواردی که در زیر بیان شده اند عمومی و کلی می باشند. در اینجا مواردی را ذکر کرده ایم که برای سئو حیاتی می باشند و سایر موارد عمومی شامل لیست زیر نمی شود:
1- میزان ترافیک و بازدید مجدد و بازگشتی کاربران: هر ماه، اطلاعاتی را که مربوط به میزان بازدید هر یک از موارد زیر می باشد را بررسی و پیگیری کنید:
* مراجعه مستقیم به وب سایت (Direct Navigation): مراجعاتی که توسط تایپ نام دامین وب سایت در مرورگر، توسط bookmark ها، توسط لینک داخل ایمیل های غیرقابل ردیابی انجام می شوند جزء موارد بازدید مستقیم وب سایت می باشند.
* میزان ترافیک Referral: مراجعه به وب سایت از طریق لینک های سراسر دنیای وب مانند تبلیغات و یا شبکه های اجتماعی، لینک موجود در ایمیل های قابل ردیابی، لینک کمپین های برندینگ شما.
* مشاهده وب سایت از طریق جستجو (Search Traffic): مراجعاتی که به وب سایت از طریق سرچ کاربران در موتورهای جستجوی معتبر مانند گوگل و یاهو انجام می شوند.
دانستن درصد و تعداد دقیق بازدیدکنندگان وب سایت، نقاط ضعف آن وب سایت را به مدیرش نشان می دهد و باعث می شود وب مستر بتواند سایت خود را با سایر وب سایت های رقیب مقایسه کند. اگر در طی یک مدت زمان، میزان ترافیک سایت تان بطور چشمگیری افزایش یافت اما این افزایش از طریق لینک های با ارتباط کم (low relevance) بوجود آمده باشد، نباید زیاد خوشحال و هیجانزده شوید! از طرفی اگر میزان بازدید وب سایت تان بطور قابل ملاحظه ای افت کرد، احتمالا دچار دردسر شده اید! شما باید از این داده ها، برای ارزیابی بازاریابی خود در زمینه کسب و کارتان استفاده کنید.
2- مراجعات از طریق موتورهای جستجو (Search Engine Referral): 95درصد ترافیکی که از موتورهای جستجو روانه وب سایت ها می شود، از سه موتورجستجوی اصلی می باشد: گوگل، مجموعه یاهو! و بینگ.
برای بیشتر کشورهای جهان (به غیر از ایالات متحده آمریکا و درصدی از کشورهای روسیه و چین) میزان 80درصد ترافیک وب سایت ها از طریق موتورجستجوی گوگل می باشد. اندازه گیری میزان ترافیک سایت از فیلتر موتورهای جستجو به دلایل زیر اهمیت دارد:
- مقایسه عملکرد وب سایت با سهم بازار (Compare performance vs. Market share): میزان سهم مشارکت هر موتور جستجو را با میزان تخمینی سهم بازار آن مقایسه کنید.
- Get visibility to potential drops: اگر وب سایت شما در زمینه بهینه سازی و رنکینگ در موتورهای جستجو دچار مشکل شده است، مهم است که میزان بازدید از هر موتورجستجو را بررسی کنید. اگر در تمام موتورهای جستجو این مشکل وجود دارد، پس احتمالا امری که باعث بروز این مشکل شده است، عدم دسترسی خزنده های موتورجستجو به بخشی و یا کل سایت شما می باشد. اما اگر مثلا وب سایت تان فقط در گوگل دچار افت رتبه شده است، به احتمال زیاد، سئوی سایت شما تنها از سوی گوگل دارای مشکل است.
- Uncover strategic value: این امکان وجود دارد که کارهایی که در زمینه سئوی سایت تان انجام داده اید در موتورهای جستجوی اصلی، بصورت متفاوتی تعبیر شوند و مثلا در گوگل تاثیر مثبت بیشتری داشته باشد. بعنوان مثال، بر اساس تجربه ما (نویسندگان وب سایت Moz) استفاده از فاکتورهای بهینه سازی on-page (مانند استفاده از کلمات کلیدی:keywords inclusion) بر روی موتورهای جستجوی یاهو! و بینگ تاثیر بیشتری دارد (نسبت به گوگل) و بدست آوردن لینک های زیاد از وب سایت های معتبر تاثیر بیشتری روی گوگل دارد (نسبت به سایر موتورهای جستجو). بنابراین اگر شما بتوانید کشف کنید که چه فاکتورهایی در هریک از موتورهای جستجو تاثیر بیشتری دارد بهتر می توانید روی کارهای تان تمرکز کنید.
3- ترافیکی که توسط کلمات و عبارات خاصی در یک موتورجستجو به سمت سایت روانه می شود: کلمات کلیدی که ترافیک را به سمت سایت شما جاری می کند هم یکی از مهمترین بخش های آنالیز سئوی وب سایت می باشد. وب سایت تان را در کلمات کلیدی ارزیابی کنید و کلمات و عبارات کلیدی که ترافیک بیشتری را به سایت شما می فرستند را شناسایی کنید. کلمات و عباراتی که در حوزه کسب و کار (business) شما مهم هستند را پیدا کنید. اگر کلمات کلیدی که توسط آنها در گوگل رتبه بالاتری دارید هم جهت با سیاستگذاری و استراتژی های تجارت شما نمی باشند، باید آنها را تصحیح کنید. بازدیدکنندگان وب سایت ها توسط سرچ در موتورهای جستجو در طی 15 سال اخیر رشد زیادی داشته اند. بنابراین یک کاهش در رتبه وب سایت مشکل ساز می شود.
باید کلمات کلیدی فصلی (seasonality) را نیز بررسی کنید. یعنی کلماتی که مثلا در طی یک هفته/یکماه/یکسال اهمیت بیشتری پیدا می کنند. مانند یکماه قبل از ولنتاین تا روز 14 فوریه، عباراتی مانند هدیه روز ولنتاین، تاریخچه ولنتاین و … می تواند از اهمیت ویژه ای برخوردار باشند.
4- نرخ تبدیل توسط عبارات موردجستجو (Conversion rate by search query term/phrase):
به تصویر زیر دقت کنید. 5.8 درصد از بازدیدکانندگانی که توسط عبارت seo tools به وبسایت Moz مراجعه کرده اند، همان لحظه در سایت ثبت نام کرده اند تا عضو سایت ماز شوند.
در حالی که سایر داده های آنالیزی اهمیت دارند، مواردی که در بالا ذکر کردیم (5 مورد) از اهمیت بیشتری در زمینه سئو برخوردار هستند.
بخش دوم
در بخش قبل، معیارهای پیشنهادی برای ارزیابی و پیگیری (Recommended metrics to track) را بررسی کردیم. در این بخش، نرم افزارها و ابزارهای آنالیز (Analytics Software) را معرفی و بررسی می کنیم.
نرم افزارها و ابزارهای آنالیز (Analytics Software):
پولی (Paid):
رایگان (Free):
- Google Analytics
- Yahoo! Web Analytics
- Clicky Web Analytics
- Piwik Open Source Analysis
- Woopra Website Tracking
- AWStats
پیشنهاد ما برای انتخاب بین گزینه های پولی، سرویس Moz Analytics می باشد. و از بین گزینه های رایگان، مسلما گوگل آنالیتیکز (Google Analytics) بهترین انتخاب است زیرا هم می توانید دستورالعمل ها و راهنمایی های زیادی درباره این سرویس در وب سایت های گوناگون مشاهده کنید، هم با سرویس های دیگر گوگل مانند Google AdWords و AdSense و …
اهمیت چندانی ندارد که کدام سرویس و ابزار فوق را برای آنالیز سایت تان انتخاب می کنید. ما اکیدأ توصیه می کنیم نسخه های مختلف صفحات وب سایت تان را در سرویس موردنظر تست کنید و با توجه به نتیجه بدست آمده، باعث بهبود نرخ تبدیل (Conversion Rate) شوید.
تست کردن صفحات یک وب سایت هم می تواند به سادگی استفاده از یک ابزار رایگان برای مقایسه هدرهای دو ورژن یک وب سایت باشد و هم به سختی کار کردن با یک نرم افزار پیچیده و چندمتغیره برای تست صدها صفحه وب باشد.
معیارهای ارزیابی سئو (SEO Measuring Metrics):
بهینه سازی برای یک رفتار خاص موتورهای جستجو کاری مشکل است. زیرل الگوریتم آنها عمومی و کلی نیست. اما ترکیبی از تاکتیک ها می تواند موثر باشد. شما حتی می توانید از خود موتورهای جستجو برای بدست آوردن مزیت های رقابتی استفاده کنید. مانند دستورالعمل ها و ابزارهایی که موتورهای جستجو در اختیار وب مستران قرار می دهند. شما بعنوان مدیر وب سایت می توانید تکنیک هایی را که با مطالعه این دستورالعمل ها یاد گرفته اید و همچنین داده هایی که از نرم افزارهای آنالیز وب سایت بدست آورده اید را ترکیب کنید و در بهینه سازی سایت تان از آنها استفاده کنید.
موتورجستجوی گوگل (Search EngineGoogle ):
جستجوی خود را در گوگل به سایت خود محدود کنید (مانند site:mohtavaban.com)
فهمیدن تعداد صفحات ایندکس شده یک سایت و دامین مشخص (مانند mohtavaban.com) می تواند مفید واقع شود. برای توسعه اینگونه جستجوها می توانید پارامترهایی را به آن اضافه کنید.
بعنوان مثال برای یافتن صفحاتی از بلاگ وب سایت Moz که در گوگل ایندکس شده اند و شامل کلمه tools می باشد باید به این شکل در گوگل جستجو کنیم: site:moz.com/blog inurl:tools
و یا برای یافتن صفحاتی از وب سایت محتوا که در url آنها کلمه jquery وجود داشته باشد عبارت زیر را جستجو کنید: site:mohtavaban.com inurl:jquery و با نتایج زیر مواجه می شوید:
البته تعداد صفحاتی که شامل یک کلمه خاص باشند، ممکن است نوسان داشته باشد.
سرویس گوگل ترندز (Google Trends):
با استفاده از این سرویس (که خوشبختانه هنوز IP ایران را فیلتر نکرده است!) می توانید میزان محبوبیت و حجم استفاده از یک کلمه و یا عبارت کلیدی را در طی مدت زمانی خاص مشاهده کنید. برای دیدن اطلاعات دقیق تر و جزئی تر بجای اطلاعات کلی و عمومی، باید وارد حساب گوگل خود شده باشید.
موتورجستجوی بینگ (Search EngineBing ):
Bing Site Query :
عبارت موردجستجوی خود را در موتورجستجوی بینگ، به دامین سایت خودتان محدود کنید.
بعنوان مثال اگر عبارت site:http://mohtavaban.com را در این جستجوگر تایپ کنید، صفحاتی را که از سایتMohtavaban.com در بینگ ایندکس شده اند را بهمراه تعدادشان مشاهده خواهید کرد که البته این تعداد ممکن است نوسان داشته باشد.
Bing IP Query :
جستجوی خود را به IP خاصی محدود کنید.
بعنوان مثال اگر عبارت ip:216.176.191.233 را در بینگ جستجو کنید، موتورجستجوی مایکروسافت، صفحاتی را که در آن IP پیدا می کند را نمایش می دهد. این روش می تواند برای کسب اطلاعاتی نظیر اشتراکی بودن صفحه یا وب سایت و همچنین فهمیدن این موضوع که چه سایت های دیگری با این IP میزبانی می شوند مفید باشد.
بخش سوم
در بخش قبل، نرم افزارها و ابزارهای آنالیز (Analytics Software) در موتورهای جستجوی گوگل و بینگ را بررسی کردیم. در این بخش، ابزارهای وب سایت MOZ را در این زمینه بررسی خواهیم کرد.
ابزار وب سایت Moz:
1- معیارهای صفحه محور (Page Specific Metrics):
- قدرت صفحه (Page Authority): این معیار مشخص کننده اینست که یک صفحه وب تا چه حد می تواند رتبه خوبی در نتایج جستجو بدست آورد (بدون درنظر گرفتن محتوای آن صفحه). هر قدر که Authority یک صفحه وب بیشتر باشد، پتانسیل بیشتری برای گرفتن رتبه بالاتر دارد.
- رنک ماز (MozRank): این امکان که بخشی از سرویس Open Site Explorer وب سایت Moz می باشد، که میزان محبوبیت (popularity) و قدرت (authority) لینک ها را از ده نمره مشخص می کند. موتورهای جستجو معمولا به صفحاتی که دارای لینک های با link authority بالاتر باشند، رنک و رتبه بهتری اختصاص می دهند.
- اعتماد ماز (MozTrust): بخش دیگر از سرویس Open Site Explorer معیار MozTrust می باشد که با لینک ها در ارتباط است. در ابتدا، وب سایت های قابل اعتماد مانند وب سایت های دولتی و دانشگاه های معتبر بعنوان معیار اعتماد در نظر گرفته می شوند. وب سایت هایی که از وب سایت های معتبر و قابل اعتماد مذکور لینک می گیرند، بعدا قادر به کسب رای اعتماد از طریق لینک هایشان خواهند بود. این فرآیند در سراسر دنیای وب ادامه پیدا می کند و لینک هایی که از وب سایت های معتبر (که در بالا ذکر شد) فاصله بیشتری داشته باشند، MozRank کمتری دریافت می کنند.
- تعداد لینک ها (Number of Links): تعداد کلی صفحاتی که حداقل دارای یک لینک به صفحه یا وب سایتی دیگر می باشند. اگر مثلا در یک صفحه از وب سایت محتوا دات اینفو، هم در متن مقاله و هم در فوتر سایت به سایت moz.com لینک داده شده باشد، هر دوی این لینک ها بعنوان یک لینک واحد محسوب می شود.
- تعداد لینک های واقع در روت دامین (Number of linking root domains): تعداد روت دامین های یکتا که به یک صفحه خاص لینک هستند. بعنوان مثال، اگر دامین nytimes.com به صفحه اصلی moz.com لینک باشد و همچنین topics.nytimes.com نیز به moz لینک باشد، این دو دامین یعنی nytimes.com و topics.nytimes.com بعنوان یک دامین واحد محسوب می شوند.
- رتبه ماز خارجی (External MozRank): در حالیکه معیار MozRank ارزش هر دوی لینک های خارجی (External) و داخلی (Internal) را ارزیابی می کند، External MozRank تنها لینک های خارجی را ارزیابی می کند (لینک هایی که به دامین دیگری اشاره دارند) مانند لینک زیر:
<a href=”http://www.external-domain.com/” title=”linktext”>Link Anchor Text</a>
زیرا لینک های خارجی نقش مهمی را بعنوان مهر تائید مستقل بازی می کنند و می توان توسط آنها رتبه وب سایت را در موتورجستجو پیش بینی کرد.
2- معیارهای دامین محور (Domain Specific Metrics):
- قدرت دامین (Domain Authority): مشخص کننده میزان احتمال گرفتن رتبه بالا برای یک صفحه وب در زیرمجموعه یک دامین می باشد. هر چه میزان قدرت یک دامین بیشتر باشد، احتمال اینکه یک صفحه تحت آن دامین رتبه بهتری در موتورهای جستجو بدست آورد، بیشتر خواهد بود.
- رتبه ماز دامین (Domain MozRank): میزان محبوبیت (popularity) یک دامین را در بین سایر دامین های موجود در دنیای وب را Domain-Level MozRank (DmR) می گویند. این معیار برای ارزیابی دامنه (Domain) و زیردامنه (subDomain) بکار می رود. DmR از همان الگوریتم MozRank استفاده می کند اما نتایج بدست آمده را در گراف لینک های سطح دامین درج می کند. مشاهده یک وب سایت از این دید، باعث می شود یک بینش دیگری از قدرت کلی دامین بدست بیاوریم.
- رای اعتماد ماز به دامین (Domain MozTrust): همانطور که MozRank می تواند در سطح دامین اعمال شود، MozTrust نیز می تواند. اعتماد ماز در سطح دامین (Domain-Level MozTrust) همانند MozTrust عمل می کند. فقط بجای اینکه در بین صفحات بررسی انجام دهد، ارزیابی را در سطح دامین ها انجام می دهد. صفحات جدید یا کم ارزش اگر در دامین های معتبر و قابل اعتماد درج شوند، احتمالا مقداری از اعتماد آن دامین شامل آن صفحه شود و رتبه خوبی بدست آورد. و بازه امتیازدهی در این معیار نیز بین 0 تا 10 می باشد.
- تعداد لینک ها (Number of links): تعداد صفحاتی که حداقل یک لینک به دامین دیگر دارند. بعنوان مثال، اگر هر دوی صفحات http://www.loc.gov/index.html و http://www.loc.gov/about شامل لینکی به سایت http://nasa.gov باشند، هر دوی لینک ها به دامین ناسا ارزیابی و محاسبه می شوند.
- تعداد لینک های روت دامین (Number of linking root domains): تعداد دامین های مجزایی که حاوی حداقل یک لینک به هرجا باشند را گویند. بعنوان مثال اگر در هر دو صفحه http://www.loc.gov/index.html و http://www.loc.gov/about لینکی باشد که به nasa.gov اشاره دارد، این دامین های سایت loc بعنوان یک دامین واحد محاسبه خواهند شد.
افت محسوس ترافیک بازدیدکنندگان:
اگر یک موتورجستجوی خاص (مانند گوگل) مدتی است که ترافیک بسیار کمتری نسبت به گذشته به سایت شما ارسال می کند، دلایل آن می تواند بصورت زیر باشد:
- ممکن است شما توسط آن موتورجستجو جریمه شده باشید (بدلیل نقض قوانین و دستورالعمل های آن موتورجستجو) و برای خارج شدن از حالت جریمه، می توانید به مقالات قبل مراجعه کنید.
- ممکن است شما بصورت سهوی و اتفاقی، دسترسی خزنده های آن موتورجستجو را به سایت خود محدود کرده اید. برای رفع این مشکل، متاتگ robot و نیز فایل robots.txt را چک کنید و یا از طریق گوگل وب مستر تولز (google webmaster tools) اقدام کنید.
- ممکن است آن موتورجستجو، الگوریتم خود را تغییر داده باشد و آپدیت کرده باشد که با ساختار سایت شما در تضاد است. محتمل ترین حالتی که ممکن است رخ دهد اینست که لینک هایی که به سایت شما اشاره دارند، بی ارزش (devalue) شده باشند و این حالت عمدتا برای سایت هایی رخ می دهد که عضو کمپین های به اشتراک گذاری لینک های بی ارزش و کم ارزش باشند.
بروز نوسان در رتبه وب سایت (Website Ranking Fluctuation):
افت و یا بهبود رتبه یک وب سایت در زمینه چند عبارت کلیدی، امری است که روزانه میلیون ها بار در موتورهای جستجو و دنیای وب رخ می دهد و در کل چیزی نیست که نگرانش باشید. ممکن است در الگوریتم موتورجستجو تغییری ایجاد شده باشد. ممکن است رقبای شما لینک هایی را بدست آورده و یا از دست داده باشند. ممکن است سایت های رقیب شما از تکنیک های onPage سئو استفاده کرده باشند. و یا حتی موتورهای جستجو در امر پیمایش و ایندکس کردن صفحات وب دچار اشتباه شده باشند. هنگامی که رتبه سایت شما دچار افت محسوسی می شود، احتمالا اولین اقدام شما، بررسی سئوی صفحات وب سایت تان می باشد (شاید در بخشی از سایت تان دستورالعمل های گوگل را نقض کرده باشید و یا تکنیک های keyword stuffing و cloaking را بکارگرفته باشید) البته این نکته را مد نظر داشته باشید که پس از درج مطالب جدید در سایت، ممکن است رتبه سایت دچار افت شود و این طبیعی است.
” در مورد نوسان های کوچک در رتبه سایت تان نیازی نیست نگران باشید. اما بهنگام افت شدید در Ranking سایت تان، احتیاط را رعایت کنید و بررسی های لازم را انجام دهید. اگر شما سایتی را به تازگی راه اندازی کرده اید و یا بتازگی لینک هایی را از سایت های دیگر کسب کرده اید، این نوسانات طبیعی می باشد. “
بسیاری از مدیران وب سایت، انتظار دارند وقتی از تکنیک های on-page سئو استفاده می کنند و یا لینک هایی را از سایت های دیگر کسب می کنند، رتبه آنها در نتایج موتورهای جستجو بهبود یابد. اما اینگونه نیست. قاعدتا برای سایت ها و صفحات جدید که بر سر کلمات کلیدی پرطرفدار رقابت دارند، بهبود رتبه زمانبر است. حتی کسب لینک های با ارزش و زیاد نیز نمی تواند بهبود رتبه را گارانتی کند. به یاد داشته باشید که خزنده های موتورجستجو نه تنها باید صفحات و سایت های جدید را پیمایش و شناسایی کنند، بلکه باید آنها را پردازش و بررسی کنند. بنابراین ارتقاء رتبه ای که مدیران وب سایت ها توقع دارند ممکن است پس از چند روز و یا حتی چند هفته امکان پذیر باشد.
تبریک می گوییم!
اکنون شما مقالات آموزشی اصول بهینه سازی وب سایت را فرا گرفته اید و می توانید از تکنیک هایی که یاد گرفته اید برای بهبود رتبه سایت تان نسبت به رقیبان خود استفاده کنید
شما کاربران عزیز، لطفا با ارائه نظرات و سوالات خود در زمینه مقالات آموزشی سئو و یا بهینه سازی وب سایت، ما را در نگارش هرچه بهتر این مقالات یاری کنید.
منبع: https://moz.com
دیدگاهتان را بنویسید