فرض کنید آپدیت هسته گوگل ارائه شده و برخی از صفحات شما آنقدرها که باید، عملکرد خوبی ندارند. ممکن است شما هیچ اشتباهی مرتکب نشده باشید. این صفحات، راهنما و دستورالعمل های گوگل را نقض نکرده اند یا دچار جریمه دستی یا الگوریتمی نشده اند. گاهی از اوقات هم کاهش عملکرد صفحات ممکن است به خاطر تغییرات الگوریتمی باشد. واقعیت این است که در به روزرسانی های هسته گوگل، چیزی که بخواهد صفحه خاص یا سایت خاصی را هدف قرار دهد وجود ندارد. این تغییرات به منظور بهبود ارزیابی محتواست. چنین تغییراتی ممکن است صفحاتی که قبلا عملکرد خوبی نداشته اند را بالاتر بیاورد. بیایید این موضوع را با یک مثال بررسی کنیم و ببینیم آپدیت هسته گوگل چگونه کار می کند. فرض کنید شما فهرستی از ۱۰۰ فیلم سینمایی برتر در سال ۲۰۱۵ را منتشر کرده اید. چند سال بعد در سال ۲۰۱۹، فهرست خود را با فیلم های سینمایی جدید به روز می کنید چون حالا فیلم هایی ارائه شده است که قبلا وجود نداشته و می توانید کاندید قرار گرفتن در این فهرست باشد. همچنین ممکن است برخی از فیلم ها را دوباره ارزیابی کنید و متوجه شوید که آن ها در حال حاضر باید جایگاه بالاتری نسبت به قبل داشته باشند. فهرست شما با گذشت زمان تغییر می کند و فیلم هایی که قبلا جایگاه بالاتری در آن داشتند ممکن است به موقعیت های دیگری هدایت شوند. درباره آپدیت های هسته گوگل هم، چنین اتفاقی رخ می دهد. بر روی محتوای خود... بیشتر بخوانید »
از سال ۲۰۰۷ تا ۲۰۱۰ یکی از روشهای مرسوم برای یافتن جایگاه بهتر در رتبهبندی گوگل، تکنیکی به نام Keyword Stuffing یا تکرار کلمه کلیدی بود. این روش، تاثیر مثبتی بر سئو وب سایت ها داشت و به ویژه در سایتهای ایرانی به وفور انجام میشد. گوگل در سالهای اخیر اعلام کرده است که این روش را مصنوعی میداند و کیفیت محتوای تولید شده با این روش را تایید نمیکند. از این رو در الگوریتم پاندا و با استفاده از هوش مصنوعی، به مقابله با این تکنیک میپردازد. اکنون این روش به عنوان اسپم شناخته میشود و اگر موتور جستجوی گوگل با چنین صفحاتی برخورد کند، آن سایت را جریمه خواهد کرد. KEYWORD STUFFING چیست؟ در تکنیک تکرار کلمات کلیدی که در گذشته وبمستران از آن استفاده میکردند، یک کلمه کلیدی بارها و بارها در متن استفاده میشد. از آنجایی که الگوریتم موتورهای جستجو در گذشته ساده بود و نوعی ضعف در سیستم رتبهبندی و نمایش سایتها به حساب میآمد، سایتهایی نظیر گوگل به کلمات کلیدی که به مقدار زیادی در متن یافت میشدند، جایگاه خاصی میدادند. این فرایند در عمل میتوانست چگالی کلمات کلیدی را در بافت متن بیشتر کند، اما مضراتی نیز داشت. برای مثال خواننده بیشتر از متن، کلمه کلیدی را میدید، بنابراین از ارزش متن کاسته میشد. در گذشته ۳ درصد متن را به کلمه کلیدی اختصاص میدادند، یعنی در هر سه خط، دو بار کلمه کلیدی تکرار میشد. اما این روش امروزه نه تنها مفید نیست، بلکه باعث ایجاد اسپم در... بیشتر بخوانید »
ریدایرکت مبحثی مهم در سئو و رتبهبندی سایتها و به معنی انتقال بازدیدکنندگان یا موتورهای جستجو به مکان یا آدرسی جدید است که به صاحبان سایتها امکان میدهد که نرمافزارها یا کاربران را به آدرس دلخواه خود هدایت کنند. از جانب کاربران، ریدایرکت زمانی اتفاق میافتد که صفحهای مشخص را درخواست میکنند؛ اما به صفحه ای دیگر هدایت میشوند. در اغلب مواقع، صاحب سایت صفحه یا مطلبی را حذف میکند و یک ریدایرکت ایجاد میکند تا کاربران و موتورهای جستجو را به صفحه مرتبط یا مشابه بفرستد. ریدایرکت تمهید بهتری است برای اینکه کاربران پیام لینک شکسته ۴۰۴ را دریافت نکنند. ریدایرکتها نقش مهمی در زندگی صاحبان سایتها، توسعهدهندگان و جستجوگرها ایفا میکنند. اگر میخواهید وبسایت خود را سالم نگه دارید، باید ریدایرکت را بر اساس استراتژی از پیش اندیشیده، انجام دهید. برای مثال، اگر یک پست یا صفحه را حذف میکنید یا محتوا را به یک URL جدید منتقل میکند، نباید ریدایرکت کردن را فراموش کنید. به طور کلی ریدایرکتها به سه دسته تقسیم میشوند : ۱- ریدایرکت ۳۰۱ که به طور دائم صفحه شما را به آدرس جدیدی منتقل میکند (برای سئو پیشنهاد میشود). در این حالت، دامنه وب سایت خود را تغییر میدهید. این redirect مهمترین کاری است که باید به منظور جلوگیری از خطای ۴۰۴ و… روی سایت انجام شود. در upgrade کردن http به https، از این نوع انتقال صفحه زیاد استفاده میشود. ۲- ریدایرکت ۳۰۲ که برای انتقال موقت صفحه است و بعد از مدتی میتوانید صفحه را به آدرس... بیشتر بخوانید »
چگونه ترافیک بیشتری برای سایت مان جذب کنیم؟ ۱٫ تولید محتوا ۲٫ موضوعات تخصصی ۳٫ تبلیغات پولی ۴٫ رسانه های اجتماعی طبیعی ۵٫ تجزیه و تحلیل سایت ۶٫ مسابقه/ تخفیف و جایزه ۷٫ اینفلوئنسرها ۸٫ فهرست های ایمیلی ۹٫ تعامل و مشارکت در جوامع ۱۰٫ ارسال پست مهمان ۱۱٫ سئوی داخلی سایت ۱۲٫ کسب بک لینک های با کیفیت ۱۳٫ بازاریابی ویدئویی ۱۴٫ هدف گیری مجدد محتوا ۱۵٫ ابزارهای سئو ۱۶٫ بهینه سازی تاریخی ۱۷٫ بهینه سازی جستجوی صوتی ۱۸٫ سئوی محلی ۱۹٫ تست A/B ۲۰٫ لینک دهی داخلی ۲۱٫ سئوی فنی ۲۲٫ ایجاد جامعه ۲۳٫ پیشنهادات محتوایی ۲۴٫ پوشش رسانه ای و روابط عمومی ۲۵٫ دکمه های اشتراک در رسانه های اجتماعی ۲۶٫ بهینه سازی نرخ کلیک ۲۷٫ پست های دانش/ آکادمی تولید محتوا: بازاریابی درونگرا یا همان بازاریابی جاذبه ای بر روی جذب افراد مناسب برای کسب وکارها تمرکز دارد. یکی از بهترین روش ها برای استفاده از این نوع بازاریابی، تولید محتوا از طریق وبلاگ نویسی است. برای اینکه محتوایتان مخاطب درستی به سمت سایت جذب کند شما باید پرسونای خریدارانتان را خوب درک کنید. بعد از اینکه مخاطب را شناختید، می توانید محتوایی تولید کنید که برای او جذاب است و به سمت سایت جذبش می کند. اما چگونه می توانید پست وبلاگی بنویسید که مخاطب درستی را به سمت سایت جذب می کند؟ مراحل زیر به شما کمک می کنند این فرآیند را به شیوه بهتری انجام دهید: • پرسونای خریداران را شناسایی کنید: درباره مخاطبان خود اطلاعات بیشتری کسب کنید.... بیشتر بخوانید »
کلمه BERT از عبارت Bidirectional Encoder Representations from Transformers گرفته شده است و به یک مدل زبانی اشاره میکند. معنی لغوی این عبارت «ارائه کدگذاری شده دو مسیره از انتقالدهندهها» است. این مدل زبانی برای تشخیص معنی صحیح کلماتی که چند ترجمه دارند، در جمله به کار می رود. درک معنای کلمات در جمله همان طور که میدانید کلمه شیر دارای معانی متعددی در زبان فارسی است. قبل از آپدیت برت اگر شما عبارت «چه شیری بخوریم؟» را جستجو میکردید، ممکن بود گوگل به عبارت «بخوریم» توجهی نکند و عکسها و لینکهای مربوط به شیر باغوحش را به ما نمایش دهد. اما بعد از آپدیت برت گوگل متوجه عبارت «بخوریم» میشود و نتایجی را به ما نشان میدهد که حاوی شیر خوردنی است یا ارتباط نزدیکی به آن دارد. درک زبان محاوره از دیگر نتایج الگوریتم برت بر نتایج جستجو میتوان به توانایی درک عبارتهای محاورهای یا دارای غلط املایی و ارائه نتایج مرتبط با آن اشاره کرد. برای نمونه اگر شما عبارت محاورهای «دی ماه چه فصلی از ساله» را جستوجو کنید، دقیقاً وبسایتهایی که درباره دی ماه و زمستان مطلب دارند برای شما نمایش داده میشود و همه اینها به لطف همین الگوریتم است؛ البته گوگل هنگام انجام این جستجو، عبارتهای محاورهای که بیشترین جستوجو را دارند به شما پیشنهاد میدهد. درک غلطهای املایی بسیاری از افراد هنگامی که متن یا عبارتی را در گوگل جستوجو میکنند، اصلاً دانشی درباره آن ندارند و حتی ممکن است غلط املایی در تایپ آن عبارت نیز داشته... بیشتر بخوانید »
فایل robots.txt یک فایل متنی است که وبمستران باید خودشان بسازند. این فایل به رباتهای موتورهای جستجو فرمان میدهد کدام صفحات وب را خزش کرده یا کدام صفحات را نباید خزش کنند. طبق پروتکل REP (Robots Exclusion Protocol) استانداردهایی برای ساماندهی به وضعیت خزیدن وب توسط رباتها، دسترسی به صفحات وب و ایندکس کردن آنها برای دسترسی کاربران تعیین شده است. فایل robots.txt و لینکهای فالو و نوفالو نیز بخشی از پروتکل REP هستند. بیشتر بخوانید: ثبت سایت در گوگل وبمستر – معرفی سایت به کنسول گوگل فایل Robots.txt چیست دستورات قابل پشتیبانی در فایل robots.txt به طور کلی پنج دستور مهم در فایل robots.txt وجود دارد که در ادامه با آنها آشنا خواهید شد: دستور user-agent دستور user-agent به تنهایی نمیتواند یک دستور کامل باشد، بلکه باید در کنار یکی از سه دستور بعدی استفاده شود. این دستور نوع رباتی که باید از دستورات بعدی اطاعت کند را مشخص میکند. برای مثال اگر قصد داشته باشید برای رباتهای گوگل دستوری صادر کنید، نام رباتهای گوگل (googlebot) را مینویسید. همچنین اگر دستور برای تمام رباتهاست باید در مقابل user-agent: از علامت ستاره (*) استفاده شود. دستور disallow بعد از اینکه رباتهای موردنظر مشخص شدند، وقت آن است تا برایشان دستور صادر شود. دستور disallow به معنی «اجازه ندادن» است. بنابراین طبعاً باید صفحاتی را که ربات مذکور نباید کرول کند (بخزد) را در مقابل آن نوشت. توجه داشته باشید که روت دامین نباید نوشته شود و فقط بعد از اسلش را بنویسید. نکته دیگر اینکه، چنانچه... بیشتر بخوانید »
آخرین دیدگاهها