بررسی الگوریتم های مهم گوگل

بررسی الگوریتم های مهم گوگل از ابتدا تا به امروز

در این مقاله، می خواهیم سری به باغ وحش گوگل زده! و مروری بر مهم ترین الگوریتم های این جستجوگر تا به امروز داشته باشیم.


بدون شک نام هایی از قبیل پنگوئن، مرغ مگس خوار، کبوتر، پاندا و نام های دیگری از این قبیل در رابطه با موتور جستجوی گوگل به گوشتان خورده است. این نام ها در واقع نام الگوریتم هایی است که گوگل در آپدیت های مختلف برای موتور جستجوی خود تعریف کرده است. همانطور که می دانید موتور های جستجو همانند گوگل، امروزه دارای هوش مصنوعی بسیار بالایی برای اعتبار سنجی سایت ها و رتبه بندی آنها به هنگام جستجوی کاربران است. موتور های جستجو این هوش مصنوعی در واقع مدیون الگوریتم هایی هستند که هر چند وقت یکبار توسط کارشناسان و متخصصان شرکت های مربوطه، برای آنها تعریف می شود.

اما این الگوریتم ها چه کاربردی دارند؟

همانطور که می دانید، افزایش تعداد کاربران اینترنت و در نتیجه افزایش تعداد وب سایت ها و شبکه های مجازی، نیاز کاربران روز به روز نسبت به یک جستجوگر پیشرفته و دقیق بیشتر می کرد که بتوانند به واسطه آن مطالب و محتوا های مورد نیاز خود را هر چه سریعتر و دقیق تر در دنیای مجازی مرور کنند. این نیاز در نهایت منجر به پیشرفت روز افزون سرعت و عملکرد موتور های جستجو می شد. شرکت های فعال در این زمینه مانند گوگل، این پیشرفت ها را به واسطه الگوریتم های مختلف که برای جستجوگر خود تعریف می کردنند به دست آورند.

اهداف و ویژگی این آپدیت ها و الگوریتم ها در زمان های مختلف متفاوت بوده است اما هدف اصلی همواره بهبود تجربه کاربری مخاطبان در زمینه جستجو و مرورگری وب بوده است.

در ادامه الگوریتم های معروف گوگل را از ابتدا تا به امروز با هم مرور می کنیم و اهداف اصلی هر یک از این آپدیت ها را بیان کرده و چگونگی انجام سئو در ارتباط با آنها را مورد بررسی قرار می دهیم.

سال 2011: نسخه پایه الگوریتم پاندا

در سال 2011 گوگل برای اولین بار از یک فیلتر رتبه بندی با عنوان پاندا رونمایی کرد و در سال 2016 بود که پاندا رسما به لیست الگوریتم های این موتور جستجو اضافه شد. در این الگوریتم تمرکز اصلی بر روی کیفیت محتوا بود. به این معنا که از دید این الگوریتم وب سایت ها و بلاگ هایی که محتوا و مطالب با کیفیت، بروز، مطابق میل کاربر و غیر تکراری منتشر می کردند رتبه بهتری نسبت به سایت هایی که محتوای تکرای(کپی) و کم ارزش تولید می کردند داشتند. این الگوریتم این قابلیت را داشت که مطالب کپی، سرقت ادبی، حجم و کیفیت کلمات کلیدی و اسپم های تولید شده توسط کاربران را در وب سایت ها را تشخیص بدهد. پس از این الگوریتم دیگر مطالب بی ارزشی که صرفا با کلمات کلیدی زیاد بمباران شده بودند که در صفحه اول گوگل دیده شوند، هیچ ارزشی برای این موتور جستجو نداشتند.

برای هماهنگی وب سایت خود با این الگوریتم، می بایست محتوا های غیر تکراری تولید کنید و حجم کلمات کلیدی را متناسب با محتوا در نظر بگیرید از ایجاد کلمات کلیدی بسیار زیاد که به اصطلاح Keyword stuffing نامیده می شود پرهیز کنید.

سال 2012: معرفی الگوریتم پنگوئن

تا قبل از این الگوریتم، وب سایت هایی که لینک آنها در صفحات سایت های دیگر دیده می شد، از اعتبار بیشتری نسبت به سایت های دیگر بهره‌مند بودند. این موضوع باعث شد افرادی سوجو دست به فروش و ثبت بک لینک های بی ارزش برای بهبود رتبه گوگل بزنند. در این الگوریتم تمرکز اصلی بر روی لینک ها بود و وب سایت هایی که لینک آنها در صفحات اسپم، بی کیفیت و بی ارزش دیده می شد دیگر نسبت به سایر سایت ها از برتری خاصی بهره‌مند نمی شدند. برای هماهنگی وب سایت با این الگوریتم، سعی کنید از خرید بک لینک پرهیز کنید. برای افزایش اعتبار، لینک شما باید در وب سایت هایی با موضوع مرتبط با وب سایت شما دیده شود. از طرفی anchor text یا متنی که روی لینک قرار می گیرد نباید از کلمات کلیدی بمباران شده باشد! PBNs به سایت های خرید و فروش بک لینک گفته می شود. لینک وب سایت شما در چنین وب سایت هایی نباید دیده شود تا مورد جریمه این الگوریتم واقع نشوید.

سال 2012: الگوریتم دزدان دریایی

در حالی که در آپریل سال 212 الگریتم پنگوئن معرفی شده بود، در آگوست همان سال گوگل الگوریتم جدیدی با عنوان دزدان دریایی معرفی کرد. در این الگوریتم، تمرکز بر روی حق کپی برداری و یا به اصطلاح قانون کپی رایت بود. پس از این آپدیت، وب سایت های بزرگی که فیلم، کتاب و رسانه های لایسنس دار را به صورت رایگان و کرک شده منتشر می کردند، دیگر از اعتبار سابق برخوردار نبودند. مبنای سنجش چنین سایت هایی بیشتر بر مبنای گزارش کاربران(copyright infringement reports) است.

سال 2014: الگوریتم کبوتر

این الگوریتم که در ابتدا تنها بر جستجوی هایی که به زبان انگلیسی انجام می شد تاثیرگذار بود، به هدف ایجاد ارتباط بهتر الگوریتم های محلی با هسته موتور جستجو ایجاد شد. به این معنا که در این الگوریتم سئو محلی مورد توجه گوگل قرار گرفت. در این الگوریتم ارتباط سایت با گوگل مپ، ثبت در دایرکتوری های محلی و صفحه کسب و کار گوگل که با عنوان Google My Business شناخته می شود، موجود بهبود تجربه کاربری مخاطبان به هنگام جستجو مشاغل و کسب و کار های محلی می گردد. برای هماهنگی سایت، سعی کنید وب سایت خود را در دایرکتوری های مرتبط ثبت کنید آنرا به Google My Business معرفی کنید. توجه کنید هنگام این کار، وب سایت خود را در طبقه بندی مناسب و مرتبط قرار دهید.

سال 2015: آپدیت Mobilegeddon

این آپدیت همانطور که از نامش پیداست، سازگاری وب سایت ها با موبایل را مورد توجه قرار می دهد. در سال های اخیر آمار کاربرانی که از موبایل و تبلت به جای کامپیوتر و لپ تاپ برای مرور صفحات وب استفاده می کنند شدیدا افزایش یافته است. به دنبال آن گوگل الگوریتم جدیدی را معرفی کرد که در آن وب سایت های ریسپانسیو که با صفحه نمایش های مختلف سازگار هستند و به اصطلاح mobile friendly نامیده می شوند رتبه های بهتری از گوگل، در صفحات جستجو دریافت می کنند.

برای سازگاری با این الگوریتم، یک صفحه مخصوص موبایل از وب سایت خود تهیه کنید و پیکربندی های ظاهری(به ویژه کد های CSS) به شکلی انجام دهید که هیچ مشکلی در نسخه موبایل نسبت به نسخه دسکتاپ در آن وجود نداشته باشد.

سال 2015: الگوریتم RankBrain

بالاخره کار به توجه و نظارت مستقیم بر تجربه کاربری مخاطبان در وب سایت ها رسید. در این الگوریتم گوگل با توجه به معیار های مختلفی رفتار های کاربران در سایت های مختلف را مورد بررسی قرار می دهید و از آن برای رتبه بندی SERP سایت ها استفاده می کند. اینکه کاربر چند ثانیه در سایت باقی می ماند(Dwell Time)، به چه اندازه در آن سایت فعالیت می کند، آیا اینکه پس از رفتن به آن سایت از لیست نتایج جستجو، به عقب برمیگردد و صفحه دیگری را انتخاب می کند یا خیر، در کنار بسیاری از معیار های بررسی رفتار دیگر، رضایت نسبی کاربر از سایت را نشان داده و گوگل از آن به عنوان معیاری در جهت رتبه بندی سایت ها استفاده می کند.

برای سازگاری وب سایت خود با این الگوریتم، سرعت بارگذاری سایت را ارتقا دهید، حجم سایت و تصاویر را بهینه کنید، محتوا و مطالب با ارزش و مرتبط با موضوع تولید کنید و امکاناتی در جهت افزایش تجربه کاربری مخاطبان خود ایجاد کنید. برای مثال امکان اشتراک گذاری مطالب، یک ویژگی مناسب در این زمینه است که تجربه کاربری مخاطبان سایت را ارتقا می دهد.

سال 2016: الگوریتم موش کور

از نام این الگوریتم پیداست که به سئو محلی ارتباط دارد. درست است! در این الگوریتم نیز همانند الگوریتم کبوتر، نمایش جستجو های مرتبط با محل جستجو مورد توجه قرار گرفته است. در این آپدیت، گوگل نتایج سئو محلی را مورد بررسی و ارزیابی قرار می دهد و در نتایج سئو در مکان های مختلف تنوع ایجاد می کند. به عبارتی دیگر پس از این آپدیت گوگل کسب و کار ها و وب سایت ها را بر اساس موققعیت های جغرافیایی مانیتور می کند.

برای سازگار کردن وب سایت خود با این الگوریتم، سئو را باید به طوری انجام دهید که گوگل بتواند موقعیت جغرافیایی و محدوده فعالیت محلی شما را به درستی آنالیز کند.

سال 2018: آپدیت غیر رسمی فرد(Fred)

قبل از هر چیز باید بدانید که فرد یک الگوریتم نیست، بلکه یک آپدیت غیر رسمی و اعلام نشده در هسته موتور جستجوی گوگل است. پس از اعمال این پدیت، فعالان حوزه‌ی سئو و بهینه سازی، با نبش قبر سایت های جریمه شده به این نتیجه رسیدند که این وب سایت ها، تبلیغات محور بوده و به عبارتی دیگر حجم بسیار زیادی از تبلیغات را در خود جای داده بودند. سایت های سازگار با این آپدیت، آنهایی بودند که محتوای با کیفیت تولید می کردند و حجم تبلیغات را متناسب با بازدیدکننده و ترافیک سایت در نظر گرفته بودند.

جمع بندی

داستان الگوریتم های گوگل، سر دراز دارد و هر یک از این الگوریتم ها را باید در یک یا چند مطلب کامل و جامع بررسی کرد. در این مقاله، هدف ما معرفی کلی الگوریتم های گوگل در سال های 2010 به بعد بود و در مقالات بعدی این الگوریتم ها را زیر ذره بین برده و به شکل جزئی و دقیق مورد بررسی قرار خواهیم داد.

در پایان فراموش نکنید، امروزه سئو در نهایت به تجربه کاربری مخاطب ختم می شود و تمام تغییرات وب سایت شما باید در جهت ارتقای تجربه کاربری مخاطبان شما باشد. محتوای با ارزش تولید کنید و وب سایت خود را مخاطبان بهینه سازی کنید و نه برای موتور های جستجو. در این حالت نه تنها در آپدیت های جدید گوگل جریمه نخواهید شد، بلکه از آنها نیز سود خواهید برد.

موفق باشید…

Comments (2)

نظرتان را بنویسید

آدرس ایمیل شما منتشر نخواهد شد.*