
تا به حال قوانین سئو را در ۲ بخش مطالعه کردید در بخش اول راجع به بک لینک ها،پیج رنک ،… اطلاعات کسب کردید . در بخش دوم راجع به nofollow کردن لینک ، متا تگ ها ، .. . صحبت کردیم و در این پست قسمت سوم سئو را برای شما بیان می کنیم.
۱۳. Sandbox : گوگل اساسا دارای یک شاخص جداگانه که Sandbox است ، می باشد که در آن تمام وبسایتهای جدید قرار دارند. هنگامی که وبسایتی در Sandbox قرار می گیرد ،آنها نمی خواهند که در نتایج جستجو معمولی قرار بگیرند. هنگامی که گوگل تایید می کند این وبسایت قانونی است ، از Sandbox خارج شده و در مسیر شاخص اصلی حرکت می کند.
۱۴. تراکم کلمات کلیدی : برای پیدا کردن تراکم کلمات کلیدی در هر صفحه تنها لازم است که شما تعداد دفعاتی که کلمات کلیدی استفاده شده اند بر تعداد کل کلمات در صفحه تقسیم کنید.تراکم کلمات کلیدی یکی از پارامترهای مهم سئو می باشد که در الگوریتم های آن نیز تاکید بسیاری بر این موضوع شده است و میتوانید از اینجا آنرا محاسبه کنید.
۱۵. Keyword Stuffing : از آنجایی که تراکم کلمات کلیدی یک فاکتور مهم در الگوریتم های جستجو می باشد ، مدیران سایتها شروع به بازی با کلمات کلیدی در وبسایت خود کردند. به این کار Keyword Stuffing می گویند . اما این روزها این روش به شما کمک نخواهد کرد و در صورت استفاده باعث ایجاد نتایج منفی برای وبسایت شما خواهد شد.
۱۶. Cloaking : این تکنیک به موتورهای جستجو و بازدیدکنندگان صفحات یکسان وب را با محتوای متفاوت نشان می دهد.هدف آن اینست که برای یک کلمه کلیدی خاص پیج رنک دریافت کنید ، و سپس با ترافیک دریافتی به انتشار و ترویج محصولات و خدمات نامربوط بپردازید.این عمل در بسیاری از موتورهای جستجو با عنوان اسپم تلقی می گردد و به ضرر شما خواهد بود.
۱۷. خزنده وب : که همچنین با نام های ربات جستجو یا عنکبوت شناخته می شود ، یک برنامه کامپیوتری است که به نمایندگی از طرف موتورهای جستجو صفحه وب را مرور می کند و تلاش برای کشف لینک ها و صفحات جدید دارد.این اولین قدم در روند indexation می باشد.
۱۸. مطالب و محتوای تکراری : معمولا مطالبی که دارای محتوای یکسان و یا محتوای بسیار شبیه به هم هستند در این حوزه قرار می گیرند. شما باید توجه کنید که در بلاگتان از مطالب تکراری استفاده نکنید چرا که برای شما سودمند نخواهد بود.
۱۹. Canonicalization :فرآیند تبدیل داده ها به شکل متعارف و استاندارد آن است که در مورد آن در این مطلب توضیحاتی دادیم. یک URL باید برای دسترسی به یک صفحه از وبسایت شما متعارف و استاندارد باشد. به عنوان مثال نسخه استاندارد از دامنه شما باید به صورت http://www.domain.com به جای http://domain.com باشد.
۲۰. Robots.txt : یک فایل است که در روت دامنه قرار می گیرد ، و برای اطلاع رسانی به روبات های جستجو در رابطه با ساختار وبسایت مورد استفاده قرار می گیرد . به عنوان مثال ، از طریق فایل Robots.txt این امکان وجود دارد که یک روبات جستجو خاص را بلاک کنید یا دسترسی آن را به فایل های مختلف در داخل وبسایت محدود کنید .
امیدواریم با مجموعه قوانین و مقررات سئو به صورت کامل آشنا شده باشید و بتوانید بهترین بهره را ببرید.