آشنایی با باور های غلط و اشتباهات رایج سئو
سئو چیست ؟ اشتباهات رایج سئو چیست ؟ در واقع سئو سایت همیشه به عنوان روشی که در مورد آن اطلاعات نادرست زیادی وجود دارد شناخته میشود. مرورگر گوگل با مخفی نگهداشتن بسیاری از حقیقت ها از کاربران اینترنت سعی بر این دارد که از تعداد افرادی که قصد سوء استفاده از رتبه گوگل را دارند کم و کمتر کند. صحبت های کارشناسانی از جمله John Mueller, Gary Illyes و Danny Sullivan از طریق نرم افزارهایی مانند Hangouts و توییتر و کانالهای یوتیوب و…، در جهت تلاش برای جایگزینی تصورات غلط با حقایق سئو بوده است.
10 مورد از اشتباهات رایج سئو و بهینه سازی سایت
-
گوگل محتوای تکراری را پنالتی میکند
موضوع پنالتی شدن محتوا های تکراری صحت ندارد. گوگل وب سایت هایی را که محتوای تکراری تولید میکنند را از صفحه نتایج جستجوی گوگل حذف نمیکند!موتور جستجوی گوگل این را به خوبی میداند که محتواهای تکراری قسمتی از وب است که این وب سایت ها قصد این را دارند که با تولید محتوا های تکراری دفعات بیشتری توسط کاربران در نتایج جستجوی گوگل دیده شوند و به صفحه اول گوگل برسند. بدترین موردی که یک سایت با محتوای تکراری میتواند داشته باشد این است که گوگل فقط یکی از صفحات تکراری را ایندکس کند و آن را به جای صفحه دیگر به نمایش بگذارد. متخصصین در زمینه سئو سایت میتوانند حتی به گوگل بگویند که کدامیک از صفحات را ایندکس کند که برای این امر کافی است به درستی از cononicals و همچنین نقشه سایت ، لینک های داخلی استفاده کنند.
مطلب پیشنهادی: تولید محتوا چیست ؟
-
گوگل همیشه صفحات دارای آدرس canonical را برای ایندکس انتخاب میکند
فقط به دلیل اینکه شما از تگ canonical برای مشخص کردن آدرس ترجیحی شما برای ایندکس کردن استفاده کردهاید به این معنی نیست که گوگل هم به این ویژگی صفحه احترام بگذارد و آن صفحه را برای ایندکس کردن انتخاب کند. در نسخههای جدید کنسول جستجوی گوگل میتوان گزارشهایی حاکی از نمایش سایتهایی که فاقد Rel=canonical بودهاند یافت. نمایش عبارت Submitted URL not selected as canonical در گزارش ایندکس صفحات. گوگل ممکن است صفحهای متفاوت از آنچه شما برای ایندکس شدن انتخاب کردهاید را ایندکس کند. زیرا که به نظر گوگل آن صفحه کاندیدای بهتری برای نمایش در صفحه جستجو بودهاست. در این شرایط شما ابتدا باید مطمئن شوید که آیا صفحهای که به عنوان canonical انتخاب کردهاید، آیا واقعاً صفحهای است که میخواهید توسط گوگل ایندکس شود. در این صورت باید عواملی مثل نقشه سایت و همچنین لینک های داخلی سایت خود را بررسی کند و به اطمینان برسید که به صفحات مورد نظر شما به عنوان نسخه و نمونه اصلی اشاره میکنند.
-
بروزرسانی های کیفی گوگل منجر به پنالتی شدن سایت ها میشود
درواقع پنالتی شدن الگوریتمی وجود خارجی ندارد. الگوریتم ها وسیله ای برای محاسبه هستند. جعبه بزرگی را فرض کنید که اطلاعاتی وارد و پردازش شده و نتیجه از آن خارج میشود. اطلاعات خارج شده از این الگوریتمها در واقع رتبه سایت شما خواهد بود.الگوریتمها بهصورت مداوم درحال تغییر و بروز رسانی هستند و خروجی آنها مدام تغییر میکند ولی باز هم این تغییر به معنی آن نیست که الگوریتمها برای پنالتی کردن سایتها تغییر یافتهاند.
-
گوگل سه عامل اصلی برای رتبه بندی سایت ها دارد
این باور غلط زمانی که در سال 2016 که Andrei Lipattsev اعلام کرده بود: گوگل سه عامل کلیدی بک لینک، محتوا، رنک برین RankBrain، را برای رتبه بندی در نظر میگیرد ایجاد شد.اما این جمله در ویدئو منتشر شده توسط جان مولر Mueller در Webmaster Hangout رد شد. او در آن ویدیو گفته بود که امکان تعیین مهمترین عوامل رتبهبندی ناممکن است زیرا که این عوامل با توجه به کلمات کلیدی جستجو شده و با توجه به زمان جستجوی این کلمات متغیر است.او پیشنهاد میکند که بجای تمرکز بر روی عوامل خاص در رتبهبندی سایت به بهینهسازی سایت برای ارتقاء تجربه کاربری و رسیدن به اهداف مد نظر کاربر بپردازید. بروز نگه داشتن سایت با اطلاعات مفید همواره بهترین روش توسعه سایت از نظر گوگل است.
-
سندباکس گوگل هنگام ایندکس شدن سایت های جدید یک فیلتر را اعمال میکند
بسیاری از سئو کاران سایت بر این باورند که گوگل سند باکس با اعمال یک فیلتر از ایندکس شدن سایت های جدید جلوگیری میکند تا از رتبهگیری سایت های اسپم جلوگیری کند. اما این باور توسط Mueller رد شده است و او اعلام کرده است که همچین فیلتری بر روی وب سایت های جدید وجود ندارد.هرچند که او اذعان میدارد که ممکن است چند الگوریتم به طور همزمان رفتاری بروز دهند که نتیجه آن چیزی شبیه یک سندباکس باشد، اما این الگوریتمها تنها تلاش دارند تا به سایتهایی که برای دریافت رتبه در یک کلمه کلیدی مشترک رقابت میکنند، آنهایی را انتخاب کنند که بهترین بازخورد مخاطب را به همراه خواهند داشت. سایتها ممکن است در زمانهای مختلف رتبههای بالا یا پایینی را به دست بیاورند و این رتبهها فقط در اثر رقابت با سایر سایتها ارائه میشود.
-
برای نگهداشتن Site’s Link Profile یا پروفایل لینک سایت میتوان از Disavow استفاده کرد
یکی از وظایف تاریخی سئو کاران این بوده است که لینک های بیکیفیت را با کمک ابزار Disavow حذف کنند. الگوریتم های گوگل به مرور زمان پیشرفت کرده و امروزه این الگوریتم ها به خوبی میدانند که باید بک لینک های بی کیفیت را نادیده بگیرند. بنابراین نیازی به استفاده از ابزار حذف بک لینک های بیکیفیت وجود ندارد. تنها زمانی لازم است که از disavow استفاده کنید که در بخش manual action وبمستر سایت خود پیامی مبنی بر لزوم حذف بک لینک مشاهده کنید.
-
گوگل برای همه بک لینک های گرفته شده از سایت های معتبر ارزش قائل میشود
ابتدا چند نکته در مورد بک لینک ها یادآوری میکنیم. اول اینکه اعتبار دامنهای که به شما لینک دادهاست تنها زمانی ارزش دارد که ارتباطی میان سایت شما و سایت لینک دهنده از نظر محتوا وجود داشتهباشد. موضوع دیگر این است که کاربران با دنبال کردن لینک یک موضوع باید اطلاعات بیشتری درباره آن موضوع به دست بیاورند. کیفیت لینک تنها زمانی با معنی خواهد بود که شما محتوای با ارزشی در سایت خود داشته باشید.
-
گوگل سرعت سایت را به عنوان یکی از عامل های اصلی رتبه بندی سایت در نظر میگیرد
میدانید که گوگل از سال 2010 سرعت بارگذاری صفحات سایت را به عنوان یکی از عوامل رتبه بندی سایتها در نظر میگیرد. اما موضوع اینجاست که این عامل هنوز به یکی از عوامل کلیدی تعیین رتبه در الگوریتم های گوگل تبدیل نشده است. تنها ممکن از یکی از عوامل موثر در سئو سایت باشد نه عامل اصلی!مولر Muller میگوید که در سال 2018 نسخهی بروز شده سنجش سرعت سایت ارائه خواهد شد. تا آن زمان گوگل از الگوریتم بررسی سرعت صرفاً برای تعیین سایتهای کند و سایتهایی که در محدوده سرعت بارگذاری طبیعی قرار دارند استفاده میکند. سایت DeepCrawl نشان داد که گوگل صفحاتی که برای بارگذاری خود به بیش از سه دقیقه زمان نیاز دارند را ایندکس میکند.به خاطر داشته باشید که سرعت بارگذاری پایین سایت تجربه کاربری منفی برای سایت شما رقم میزند. اگر برند مشهوری باشید این موضوع به بحثی میان کاربران در شبکههای اجتماعی تبدیل خواهد شد.
-
هزینه ربات های crawl مشکل آفرین نیست
گوگل به راحتی میتواند سایتهای کوچک و متوسط را ایندکس کند. سایتی با حدود 200 هزار صفحه توسط ربات های گوگل در یک بازدید از سایت به طور کامل ایندکس میشود. اما سایتهای بزرگتر چطور؟ سایتهای بزرگتر باید مطمئن شوند که گوگل تمام صفحات آنها را ایندکس کردهاست. یکی از راههای انجام اینکار بررسی تعداد خطاهای 404 دریافتی گوگل در نتیجه بررسی صفحات سایت است.