فرض کنید آپدیت هسته گوگل ارائه شده و برخی از صفحات شما آنقدرها که باید، عملکرد خوبی ندارند. ممکن است شما هیچ اشتباهی مرتکب نشده باشید. این صفحات، راهنما و دستورالعمل های گوگل را نقض نکرده اند یا دچار جریمه دستی یا الگوریتمی نشده اند. گاهی از اوقات هم کاهش عملکرد صفحات ممکن است به خاطر تغییرات الگوریتمی باشد. واقعیت این است که در به روزرسانی های هسته گوگل، چیزی که بخواهد صفحه خاص یا سایت خاصی را هدف قرار دهد وجود ندارد. این تغییرات به منظور بهبود ارزیابی محتواست. چنین تغییراتی ممکن است صفحاتی که قبلا عملکرد خوبی نداشته اند را بالاتر بیاورد. بیایید این موضوع را با یک مثال بررسی کنیم و ببینیم آپدیت هسته گوگل چگونه کار می کند. فرض کنید شما فهرستی از ۱۰۰ فیلم سینمایی برتر در سال ۲۰۱۵ را منتشر کرده اید. چند سال بعد در سال ۲۰۱۹، فهرست خود را با فیلم های سینمایی جدید به روز می کنید چون حالا فیلم هایی ارائه شده است که قبلا وجود نداشته و می توانید کاندید قرار گرفتن در این فهرست باشد. همچنین ممکن است برخی از فیلم ها را دوباره ارزیابی کنید و متوجه شوید که آن ها در حال حاضر باید جایگاه بالاتری نسبت به قبل داشته باشند. فهرست شما با گذشت زمان تغییر می کند و فیلم هایی که قبلا جایگاه بالاتری در آن داشتند ممکن است به موقعیت های دیگری هدایت شوند. درباره آپدیت های هسته گوگل هم، چنین اتفاقی رخ می دهد. بر روی محتوای خود... بیشتر بخوانید »
از سال ۲۰۰۷ تا ۲۰۱۰ یکی از روشهای مرسوم برای یافتن جایگاه بهتر در رتبهبندی گوگل، تکنیکی به نام Keyword Stuffing یا تکرار کلمه کلیدی بود. این روش، تاثیر مثبتی بر سئو وب سایت ها داشت و به ویژه در سایتهای ایرانی به وفور انجام میشد. گوگل در سالهای اخیر اعلام کرده است که این روش را مصنوعی میداند و کیفیت محتوای تولید شده با این روش را تایید نمیکند. از این رو در الگوریتم پاندا و با استفاده از هوش مصنوعی، به مقابله با این تکنیک میپردازد. اکنون این روش به عنوان اسپم شناخته میشود و اگر موتور جستجوی گوگل با چنین صفحاتی برخورد کند، آن سایت را جریمه خواهد کرد. KEYWORD STUFFING چیست؟ در تکنیک تکرار کلمات کلیدی که در گذشته وبمستران از آن استفاده میکردند، یک کلمه کلیدی بارها و بارها در متن استفاده میشد. از آنجایی که الگوریتم موتورهای جستجو در گذشته ساده بود و نوعی ضعف در سیستم رتبهبندی و نمایش سایتها به حساب میآمد، سایتهایی نظیر گوگل به کلمات کلیدی که به مقدار زیادی در متن یافت میشدند، جایگاه خاصی میدادند. این فرایند در عمل میتوانست چگالی کلمات کلیدی را در بافت متن بیشتر کند، اما مضراتی نیز داشت. برای مثال خواننده بیشتر از متن، کلمه کلیدی را میدید، بنابراین از ارزش متن کاسته میشد. در گذشته ۳ درصد متن را به کلمه کلیدی اختصاص میدادند، یعنی در هر سه خط، دو بار کلمه کلیدی تکرار میشد. اما این روش امروزه نه تنها مفید نیست، بلکه باعث ایجاد اسپم در... بیشتر بخوانید »
ریدایرکت مبحثی مهم در سئو و رتبهبندی سایتها و به معنی انتقال بازدیدکنندگان یا موتورهای جستجو به مکان یا آدرسی جدید است که به صاحبان سایتها امکان میدهد که نرمافزارها یا کاربران را به آدرس دلخواه خود هدایت کنند. از جانب کاربران، ریدایرکت زمانی اتفاق میافتد که صفحهای مشخص را درخواست میکنند؛ اما به صفحه ای دیگر هدایت میشوند. در اغلب مواقع، صاحب سایت صفحه یا مطلبی را حذف میکند و یک ریدایرکت ایجاد میکند تا کاربران و موتورهای جستجو را به صفحه مرتبط یا مشابه بفرستد. ریدایرکت تمهید بهتری است برای اینکه کاربران پیام لینک شکسته ۴۰۴ را دریافت نکنند. ریدایرکتها نقش مهمی در زندگی صاحبان سایتها، توسعهدهندگان و جستجوگرها ایفا میکنند. اگر میخواهید وبسایت خود را سالم نگه دارید، باید ریدایرکت را بر اساس استراتژی از پیش اندیشیده، انجام دهید. برای مثال، اگر یک پست یا صفحه را حذف میکنید یا محتوا را به یک URL جدید منتقل میکند، نباید ریدایرکت کردن را فراموش کنید. به طور کلی ریدایرکتها به سه دسته تقسیم میشوند : ۱- ریدایرکت ۳۰۱ که به طور دائم صفحه شما را به آدرس جدیدی منتقل میکند (برای سئو پیشنهاد میشود). در این حالت، دامنه وب سایت خود را تغییر میدهید. این redirect مهمترین کاری است که باید به منظور جلوگیری از خطای ۴۰۴ و… روی سایت انجام شود. در upgrade کردن http به https، از این نوع انتقال صفحه زیاد استفاده میشود. ۲- ریدایرکت ۳۰۲ که برای انتقال موقت صفحه است و بعد از مدتی میتوانید صفحه را به آدرس... بیشتر بخوانید »
فایل robots.txt یک فایل متنی است که وبمستران باید خودشان بسازند. این فایل به رباتهای موتورهای جستجو فرمان میدهد کدام صفحات وب را خزش کرده یا کدام صفحات را نباید خزش کنند. طبق پروتکل REP (Robots Exclusion Protocol) استانداردهایی برای ساماندهی به وضعیت خزیدن وب توسط رباتها، دسترسی به صفحات وب و ایندکس کردن آنها برای دسترسی کاربران تعیین شده است. فایل robots.txt و لینکهای فالو و نوفالو نیز بخشی از پروتکل REP هستند. بیشتر بخوانید: ثبت سایت در گوگل وبمستر – معرفی سایت به کنسول گوگل فایل Robots.txt چیست دستورات قابل پشتیبانی در فایل robots.txt به طور کلی پنج دستور مهم در فایل robots.txt وجود دارد که در ادامه با آنها آشنا خواهید شد: دستور user-agent دستور user-agent به تنهایی نمیتواند یک دستور کامل باشد، بلکه باید در کنار یکی از سه دستور بعدی استفاده شود. این دستور نوع رباتی که باید از دستورات بعدی اطاعت کند را مشخص میکند. برای مثال اگر قصد داشته باشید برای رباتهای گوگل دستوری صادر کنید، نام رباتهای گوگل (googlebot) را مینویسید. همچنین اگر دستور برای تمام رباتهاست باید در مقابل user-agent: از علامت ستاره (*) استفاده شود. دستور disallow بعد از اینکه رباتهای موردنظر مشخص شدند، وقت آن است تا برایشان دستور صادر شود. دستور disallow به معنی «اجازه ندادن» است. بنابراین طبعاً باید صفحاتی را که ربات مذکور نباید کرول کند (بخزد) را در مقابل آن نوشت. توجه داشته باشید که روت دامین نباید نوشته شود و فقط بعد از اسلش را بنویسید. نکته دیگر اینکه، چنانچه... بیشتر بخوانید »
شاید برای شما هم اتفاق افتاده است که به دنبال نزدیکترین فروشگاه، بیمارستان، مرکز تفریحی و … باشید و حتما میدانید که این نیاز بیشتر مردم دنیا بوده است از این رو موتور جستجوی گوگل پس از پنگوئن، مرغ مگس خوار و پاندا، در سال ۲۰۱۴ تصمیم گرفت تا الگوریتم کبوتر را به قلعه حیوانات خود اضافه کند. عملکرد الگوریتم کبوتر گوگل در واقع به این صورت است که وقتی مرورگرتان را باز کنید و عباراتی چون «رستورانهای نزدیک من» یا «بیمارستانهای نزدیک من» یا «مراکز تفریحی نزدیک من» را جستجو کنید، گوگل خودش نزدیکترین مکان مورد نظر را شناسایی میکند و به همراه همه مشخصات به شما ارائه خواهد داد! همانطور که میدانید موتور جستجوی گوگل بر اساس محتوا کار میکند و امروزه مکان (لوکیشن) نیز در کنار متن، صدا و تصویر به عنوان محتوا شناخته میشود و الگوریتم کبوتر گوگل نیز از این محتوا برای شناسایی نزدیکترین مکان استفاده میکند. بیشتر بخوانید: معرفی الگوریتم های گوگل | جدیدترین الگوریتم های گوگل را بشناسید الگوریتم کبوتر نحوه عملکرد الگوریتم کبوتر گوگل رتبه بندی وب سایتهای مختلف در موتور جستجوی گوگل براساس معیارهای مختلف صورت میپذیرد و به همین دلیل است که وقتی عبارتی را در گوگل جستجو میکنید برخی از سایتها را در نتایج اول گوگل بالاتر از دیگر وب سایتها مشاهده خواهید کرد. با این حال تا قبل از روی کار آمدن الگوریتم کبوتر، مکان و فاصله شما از عبارت مورد نظر به عنوان یک معیار برای رتبهبندی گوگل محسوب نمیشده است. در واقع... بیشتر بخوانید »
سوال مهمی که این جا باید به آن پاسخ دهیم این است که نحوه رتبهبندی نتایج در این موارد چگونه است؟ سال ۲۰۰۳ گوگل دنس یا رقص گوگل معرفی شد که در واقع به معنای رتبهدهی مجدد و جابهجایی رتبهها در یک بازه زمانی ۳ تا ۵ روزه است. البته این مورد جزو معدود پتنتهای ثبت شده گوگل است که این موتور جستجو در سال ۲۰۱۵ امتیاز انحصاری آن را به نام خودش زده است. در واقع در گوگل دنس یا رقص گوگل، صفحه نتایج و رتبهبندیها، براساس یک سری معیارهای مشخص مدام توسط این موتور جستجو دستخوش تغییرات میشود و به همین دلیل ممکن است امروز در صفحه دوم باشید و چند روز دیگر رتبهای در صفحه اول برای شما باشد. اما در اصل این آزمایش گوگل است تا بتواند رفتار مخاطبان را بسنجد و در نهایت جایگاه واقعی را برای شما در نظر بگیرد. جابهجایی موقتی که میان جایگاههای مختلف در صفحه SERP اتفاق میافتد به حالت رقص تشبیه شده و به همین دلیل از آن به عنوان Google Dance یاد میشود. رقص گوگل آیا رقص گوگل یکی از الگوریتم های گوگل است؟ یکی از چالشترین سوالات سالهای اخیر همین است که آیا گوگل دنس را باید یکی از الگوریتمهای معرفی شده توسط این موتور جستجو بدانیم یا خیر. سوالی که همچنان نظرات مختلفی را در پی دارد، برخی از منابع و کارشناسان حرفهای و متخصص در حوزه سئو معتقدند Google Dance ویژگیهای کامل یک الگوریتم را ندارد و نمیتوانیم چنین عنوانی را برای... بیشتر بخوانید »
آخرین دیدگاهها