بررسی الگوریتم های سئو گوگل | ایران لرن
آموزش رایگان دیجیتال مارکتینگ

زیر پوست الگوریتم های سئو گوگل چه می‌گذرد؟

بدون دیدگاه


تک تک کلمات و عباراتی که در موتور جستجوی گوگل (Search Engine) تایپ می‌کنیم، همزمان توسط دیتاسنتر‌ها و سوپرکامپیوتر غول‌آسای گوگل تجزیه و تحلیل می‌شوند و نتیجهٔ آنها در چشم بهم زدنی، در برابر کاربران قرار می‌گیرد. این سوپرکامپیوتر، جستجوها، درخواست‌ها یا به عبارتی کوئِری‌ (Query)‌ کاربران را از جنبه‌های مختلف بررسی و با روش‌ها و معیارهای مختلف، آنها را پردازش می‌کند. از این روش‌ها، که عملاً یک سری روتین و دستورالعمل و خط‌ مشی نرم‌افزاری هستند، به عنوان الگوریتمهای گوگل یاد می‌کنیم. این الگوریتم‌ها دائما در حال آزمون و خطا و بروز‌رسانی هستند و اگر کارایی خوبی نشان بدهند، به بدنهٔ الگوریتم اصلی گوگل یعنی Core Algorithm اضافه می‌شوند.
دانش ما از الگوریتمهای گوگل و اینکه در بطن‌ پردازنده‌های سوپرکامپیوتر این کمپانی چه می‌گذرد، امر واضح و صد در صد دقیقی نیست. اما این آشنایی، هرچقدر هم نصفه نیمه و آمیخته به حدس،‌ برای دیجیتال مارکترها، صاحبان کسب و کارهای آنلاین، تولیدکنندگان محتوا و تمام فعالان عرصهٔ تجارت آنلاین (e-Commerce) مفید است. اطلاعاتی که به ما کمک می‌کند، محتوای هوشمندانه‌تری ایجاد کنیم، استراتژی‌های بهتری بچینیم و در نهایت، رتبه‌ٔ سرچ بالاتری بدست بیاوریم. پس با این مقاله همراه باشید تا با معروف‌ترین الگوریتم‌های گوگل آشنا شده و طرزکارشان را بررسی کنیم.

الگوریتم‌های گوگل

ماجرای الگوریتمهای گوگل چیست؟

دربارهٔ الگوریتمهای گوگل، بیشمار مطلب و توضیح و تفسیر هست که صحتشان قطعی و درست نیست. بعضی از این اطلاعات از توضیحات مختصر خود گوگل برداشت شده‌اند و یکسری هم، اطلاعات درز شده و لو رفتهٔ این کمپانی هستند. حتی اسم این الگوریتم‌ها، اسامی رسمی و تأییدشده‌ نیست و اکثر آنها توسط سئوکاران (SEO) کارکشته و متخصصین دیجیتال مارکتینگ استفاده شده و رواج پیدا کرده است.

یکی از دلایل محافظه‌کاری یا دقیق‌تر بگوییم، پنهان‌کاری گوگل در توصیف الگوریتم‌ها، اختصاصی بودن فرمول و طرزکار آنهاست. بهرحال اول بودن و بر رأس هرم نشستن، پیامدهای خاص خودش را دارد و تمام رقبا قصد دارند سر از کارشان در بیاورند و سهم بیشتری از بازار بگیرند. پس بیخود نیست که گوگل، علاوه بر هزینه‌های سنگین طراحی، میلیون‌ها دلار هم برای نگهداری از این الگوریتمها صرف می‌کند و دلیلی نمی‌بیند که جزئیات و اسرار کار را در اختیار رقبا بگذارد. حتی از تعداد دقیق الگوریتمهای گوگل هم اطلاعات مستندی در دست نداریم. اما اینطور که به نظر می‌رسد، درخواست‌ها یا Query‌های کاربران، توسط بیش از ۲۰۰ الگوریتم مختلف پردازش می‌شوند.

هدف اصلی الگوریتمهای گوگل چیست؟

وظیفه‌ٔ این الگوریتم‌ها، نمایش بهترین و مرتبط‌ترین نتایج ممکن، به کاربران موتور جستجوی گوگل است. هرچه دقت این الگوریتم‌ها بالاتر باشد، به نفع کاربر بوده و در نهایت، برای گوگل و صاحب وبسایت، یک معادلهٔ برد برد ایجاد می‌شود. وقتی یک جستجو یا به اصطلاح برنامه‌نویسان یک Query انجام می‌دهیم یا ثبت می‌کنیم، نتایج آن طی یکسری محاسبات پیچیده، رتبه‌بندی و لیست می‌شوند.

صفحات و وبسایت‌هایی که در این رتبه‌بندی می‌آیند، همگی در یک لیست بلندبالا قرار دارند. لیستی تحت عنوان گوگل ایندکس (Google Index) که اطلاعات تمام سایت‌ها را به صورت دسته‌بندی شده در اختیار دارد و مثل فهرست کتاب‌های داخل کتابخانه عمل می‌کند. این فهرست همیشه در اختیار هسته‌ٔ گوگل است و وقتی از هستهٔ گوگل صحبت می‌کنیم، به مجموعهٔ تمام الگوریتمهای گوگل اشاره داریم. شناخت این الگوریتم‌ها، رفتار موتور جستجوی گوگل را برای متخصصان SEO آشکار می‌کند و شرایط تدوین یک استراتژی بهتر را برای افزایش رتبهٔ سایت فراهم می‌سازد. برای آشنایی با مفاهیم مهم سئو به سایر مطالب وبلاگ ایران‌لرن مراجعه کنید.

الگوریتم‌های گوگل 2

الگوریتم‌های هوش‌ مصنوعی

گوگل برای بهبود تجربهٔ کاربری موتور جستجو، از هوش مصنوعی استفاده می‌کند و چند الگوریتم پیچیده را به الگوریتم هسته (Core Algorithm) اضافه کرده است. این گونه از الگوریتمهای گوگل که علاوه بر هوش مصنوعی، بطور گسترده از یادگیری ماشین (Machine Learning) هم بهره می‌برند، کارشان حدس زدن است. حدس کلمات مد نظر کاربر. دو الگوریتم BERT و Brain Rank جزو این نوع الگوریتمها هستند و با تحلیل داده‌ها و ورودی‌های قبلی، عملاً کاری شبیه به فکرخوانی انجام می‌دهند!

الگوریتم Brain Rank

‌Brain Rank یکی از مهمترین الگوریتمهای گوگل است و نقش پررنگی در قدرت موتور جستجوی این کمپانی ایفا می‌کند. این الگوریتم بر اساس یادگیری ماشین طراحی شده و طبق آمار گوگل در سال ۲۰۱۵ چیزی در حدود ۱۵ درصد از کل جستجو‌های کاربران را، به سمت نتایج مرتبطتر و دقیق‌تر هدایت کرده است. بِرِین رَنک نتایج را بر اساس مفهوم مورد جستجو و ویژگی‌های زبانشناسی بررسی کرده و در نهایت، با درک منظور کاربر، نتایج را غربال می‌کند. بنابراین با الگوریتمی طرفیم، که به نوبهٔ خود یک ادیب و زبانشناس تکامل‌یافته است و نیازمان را بر اساس چیزی که تایپ می‌کنیم استنباط می‌کند.

الگوریتم برت

الگوریتم برت BERT هم یکی دیگر از الگوریتم‌های گوگل است که با هوش مصنوعی طراحی شده و در ۲۰۱۹ به الگوریتم اصلی گوگل پیوسته است. بِرت عملکردی مانند Brain Rank دارد با این تفاوت که شیوهٔ یادگیری‌ ماشین در این الگوریتم، بر اساس شبکه‌های عصبی (Neural Network) شکل گرفته است. به این معنا که الگوریتم BERT، درست مثل یک آدمیزاد نابالغ، دائماً در حال آزمون و خطا و یادگیری است.

BERT طوری طراحی شده تا عبارات، کلمات و رابطه‌ٔ میان آنها را با توجه به زبان جستجو تحلیل و بررسی کند و دقیق‌ترین نتایج را به کاربر نشان بدهد. به عبارت دیگر، هدف از طراحی این الگوریتم، درک بهتر زبان انسان و مفهوم جملات است. BERT معنا و مفهوم یک کلمه را هم به تنهایی و هم در قالب یک جمله و عبارت، درک می‌کند و عملاً، یکی از بزرگترین دستاوردهای بشر، در حوزهٔ پردازش زبان‌های طبیعی (انسانی) توسط هوش مصنوعی است.

الگوریتم برت

الگوریتم‌های جستجوی محلی یا Local Search

گونهٔ دیگری از الگوریتمهای گوگل، روی بهبود عملکرد موتور‌ جستجو، بر اساس محل جغرافیایی و زبان مورد استفاده تمرکز دارند. جستجوی کسب و کارهای اطراف، یکی از سناریوهای مرسومی است که این الگوریتم‌ها وارد عمل می‌شوند. یادمان باشد اگر خواستیم صفحات فارسی و کسب و کار‌های نزدیکمان را پیدا کنیم، بهتر است که تا جای ممکن، از نرم‌افزار‌های تغییر IP استفاده نکنیم. به این دلیل که گوگل حوالی محل سکونت کاربر را از روی IP تشخیص می‌دهد و نتایج نزدیکتر را غربال می‌کند. در ادامه با چند الگوریتم جستجوی محلی آشنا می‌شویم.

الگوریتم کبوتر

الگوریتم کبوتر (Pigeon)، نتایج جستجو را بر اساس موقعیت جغرافیایی و زبان لیست می‌کند. این الگوریتم علاوه بر نتایج جستجوی عادی، جستجو‌های مرتبط با نقشه‌ٔ Google Map را هم سر و سامان می‌دهد. یعنی اگر اسم یک رستوران را به فارسی تایپ کنیم، الگوریتم کبوتر وارد عمل می‌شود و گزینه‌هایی از داخل محدودهٔ جغرافیایی ایران به نمایش در می‌آورد. با معرفی این الگوریتم در سال ۲۰۱۴ واکنش‌های ضد و نقیض زیادی برانگیخته شد. بعضی از وب‌مستر‌ها از کاهش رتبهٔ سایتشان خبر می‌دادند و برخی دیگر، وجود این الگوریتم را مایهٔ افزایش نرخ کلیک (CTR) می‌دانستند. به هر حال هر تغییری، پیامدهای مثبت و منفی خودش را دارد و در نهایت، الگوریتم‌های گوگل هم مثل سایر نرم‌افزارها، به مدت زمانی برای آزمون و خطا و آب‌بندی بیشتر نیاز دارند.

الگوریتم کبوتر

الگوریتم ونیز

الگوریتم ونیز (Venice) هم عملکردی شبیه به الگوریتم کبوتر دارد. این الگوریتم محتوا و نتایج جستجو را بر اساس IP و فاصله‌ی فیزیکی لیست می‌کند. در واقع نتایج جستجو را بر اساس محل جغرافیایی کاربر پیدا کرده و سرویس‌ها و محصولاتی را که نزدیکترین فاصله را به کاربر دارند پیشنهاد می‌دهد. پیش از این الگوریتم، گوگل نتایج مرتبط به محل کاربر را با استفاده از Google Places و در سمت راست نتایج اصلی نشان می‌داد. قابلیتی که در حال حاضر حذف شده و امروزه، تمامی نتایج بر اساس زبان و مکان کاربر لیست می‌شوند.

الگوریتم صاریغ

صاریغ یا Possum (یک جانور پستاندار و کیسه‌دار با جثهٔ کوچک در حد گربه) هم به طور خاص برای جستجو‌های محلی طراحی شده و طرز کارش شبیه به دو الگوریتم کبوتر و ونیز است. با این تفاوت که صاریغ کسب و کار‌‌های خارج از محدوده‌ٔ فیزیکی کاربر را هم جزوی از نتایج در نظر می‌گیرد. همچنین محتوای چرند (اسپم) و تکراری را در جستجو‌های محلی کاهش می‌دهد. البته آوردن نتایج خارج از محدوده، با معیارهای خاصی همراه است و آنچنان بی حساب و کتاب هم نیست.

الگوریتم صاریغ

سایر الگوریتم‌های مورد استفادهٔ گوگل

در ادامه تعدادی از الگوریتم‌های گوگل را بررسی می‌کنیم که هر کدام کاربری متفاوتی دارند و در یک گروه‌بندی خاص قرار نمی‌گیرند. این الگوریتم‌ها، سایت‌ها را بر اساس درستی محتوا، مفهوم جستجو و محتوا و استاندارد بودن ساختار آنها رتبه‌بندی می‌کنند.

الگوریتم رقص گوگل

الگوریتم رقص گوگل، وظیفه‌ٔ جابجایی نتایج را بر اساس رتبه‌بندی برعهده دارد. یعنی اگر صفحه‌ای محتوای استاندارد و تازه داشت و از کیفیت بالاتری برخوردار بود، رتبهٔ بالاتری داشته و بیشتر در معرض دید کاربران قرار می‌گیرد. این الگوریتم کاری به محتوای جستجوی ما ندارد. تمام نتایج بر اساس استانداردهای گوگل تحلیل و بررسی می‌شوند، و سایت‌ها بر اساس رتبه‌‌ٔ گوگل لیست می‌شوند. رتبهٔ بالا در نتایج جستجوی گوگل، نیاز‌مند محتوای سالم و به اصطلاح اورجینال است. از آنطرف، چیزهایی مثل بک‌لینک‌های مخرب و اسپم و غیر استاندارد، باعث افت رتبه می‌شوند. البته این موارد، تنها بخشی از چندین و چند معیار و استانداردی است که این الگوریتم، برای رتبه‌بندی صفحات در نظر می‌گیرد.

الگوریتم مرغ مگس‌خوار

دقت و سرعت و ظرافت این الگوریتم به قدریست که نام مرغ مگس‌خوار را برازنده‌اش کرده است. الگوریتم مرغ مگس‌خوار(Hummingbird)، عبارات جستجوی کاربر (Query) یا همان کوئری‌های کاربران را با محتوای سایت و صفحه‌ مورد نظر مقایسه می‌کند. اگر محتوا از نظر معنا و مفهوم مطابقت داشت، صفحهٔ وبسایت وارد نتایج جستجو می‌شود. گوگل پیش از این الگوریتم، صرفا کلمات را با هم مقایسه می‌کرد و نتایج را بر اساس مطابقت کلمات نشان می‌داد.

اما اکنون محتوای باکیفیت و مطابق با زبان انسانی (Natural Language) از اهمیت بالاتری برخوردار شده‌ است. یعنی الگوریتم مرغ‌مگس‌‌خوار، مترادف و مفهوم طبیعی جستجو را در نظر می‌گیرد و فقط در قید تطبیق کورکورانهٔ کلمات در متن و تیتر نیست. بنابراین، برای رتبهٔ بالاتر در نتایج جستجو، توصیه می‌شود که تولید محتوا را بر اساس مفهوم و کیفیت استوار کنیم و از کلمات کلیدی، صرفا برای جذب و  هدایت کاربر استفاده نماییم. در یک کلام، روزگار چپاندن کلمات کلیدی در متن و انتظار بدست آوردن رتبهٔ بالا گذشته است.

الگوریتم مرغ مگس‌خوار

الگوریتم سرقت ادبی

گوگل با افزودن الگوریتم دزدی یا Pirate در الگوریتم اصلی، ثابت کرد که بیش از پیش هوای تولیدکنندگان محتوا را دارد. البته منظور از تولیدکننده‌ٔ محتوا در این مورد، محتویات غیرنوشتاری مثل فیلم و عکس و موسیقی است. الگوریتم Pirate طوری طراحی شده تا وبسایت‌هایی که سابقهٔ نقض قوانین کپی‌رایت را دارند و بیشمار اخطار دریافت‌ کرده‌اند، رتبه‌ٔ بسیار پایینی داشته باشند یا حتی به طور کل، از نتایج جستجو حذف شوند.

اگر کاربری در نوار جستجو، نام فیلم یا موسیقی خاصی را وارد کند، قابلیت Auto Complete گوگل، پیشنهاداتی را که با عبارات رایگان و مجانی (Free) همراه هستند را از دید کاربر پنهان می‌کند. علاوه بر این، سایت‌های دانلود مجانی و غیرقانونی هم تا جای ممکن از نتایج حذف می‌شوند. حتی اگر «دانلود مجانی» محصولی را سرچ کنیم، باز هم سایت‌هایی در بین نتایج مشاهده می‌کنیم که حق فروش قانونی آن آهنگ یا اثر خاص را در اختیار دارند و رسمی هستند.

الگوریتم موبایل‌گدون

الگوریتم Mobilegeddon در سال 2015 معرفی شد تا کاربران موبایل، جستجوی راحت‌تری را تجربه کنند. این الگوریتم فقط روی دستگاه‌های موبایل، با صفحهٔ کوچک تاثیر دارد و روی عملکرد کاربران دسکتاپ یا لپ‌تاپ بی‌تأثیر است. الگوریتم موبایل‌گدون سایت‌های Mobile Friendly یا مناسب موبایل را در جستجوی‌ کاربران موبایل به نمایش در می‌آورد و به سایت‌هایی که از استانداردهای طراحی موبایل تبعیت کرده باشند، رتبه‌ٔ بالاتری می‌دهد. بدیهیست که صفحه‌ یا وب‌پیجی که برای کامپیوتر با نمایشگر بزرگ طراحی می‌شود، لزوماً روی موبایل جواب نمی‌دهد و نارضایتی کاربران موبایل را به همراه دارد. بنابراین رتبه‌ٔ این گونه سایت‌ها در دستگاه‌های موبایل پایین می‌آید و حتی احتمال حذفشان از نتایج جستجو وجود دارد.

الگوریتم موبایل‌گدون

الگوریتم فرش‌نِس

فْرِش‌نِس (Freshness) که از نظر لغوی معنای تازگی و نو بودن را می‌دهد یکی از مهمترین الگوریتم‌های گوگل است. به لطف این الگوریتم، سایت‌هایی که محتوای تازه دارند و همیشه در حال به روز‌رسانی و فعالیت مستمر هستند، رتبهٔ بالاتری از سایرین می‌گیرند. همچنین محتوایی که به اصطلاح ترند (Trend) باشد، جزو رتبه‌های بالاتر قرار می‌گیرد. حتی اگر ترافیک کمتری نسبت به سایر صفحات داشته باشد. پس اینجاست که اهمیت محتوای تر و تازه و کار دائم روی پر و پیمان کردن مقالات وبسایت، خودش را بیشتر نشان می‌دهد.

الگوریتم مِدیک

الگوریتم مدیک (Medic) با هدف بهبود رتبهٔ سایت‌های تخصصی و مرجع و دارای محتوای مرغوب طراحی شد و به نوبهٔ خود سرو صدای زیادی در دنیای وب به پا کرد. مثلاً وبسایت‌هایی که محتوای مربوط به مسایل بهداشتی، پزشکی، حقوقی، مالی و صنعتی تولید می‌کنند، به لطف مدیک، رتبهٔ بالاتری در SERP یا صفحهٔ نتایج جستجو خواهند داشت.

این سایت‌ها باید محتوای سالم داشته باشند و خطری برای سلامت روان کاربران ایجاد نکنند و به علاوه، همیشه در حال بهبود محتوا باشند. چنین وبسایت‌هایی از دید گوگل، به عنوان Trustworthy یا قابل اطمینان شناخته می‌شوند و مورد عنایت خاصی قرار می‌گیرند. از آنطرف وبسایت‌هایی که بازخورد‌های منفی زیادی دارند توسط گوگل جریمه می‌شوند و رتبه‌ٔ آنها کاهش پیدا می‌کند. در این حالت Impression و نرخ کلیک (CTR) سایت خاطی، به طرز قابل توجهی پایین می‌آید و تمام رشته‌هایش برای بهینه‌سازی (SEO) سایت و افزایش رتبه تبدیل به پنبه می‌شود.

الگوریتم پاندا

الگوریتم پاندا (Panda) در سال 2011 و با هدف حذف محتویات بی‌ارزش از بین نتایج جستجو معرفی شد. این الگوریتم که در سال ۲۰۱۶ به الگوریتم‌های اصلی گوگل پیوست، قادر است به صورت لحظه‌ای (Real-time)، تمام سایت‌هایی را که محتوای زرد و بی‌کیفیت دارند، شناسایی و از بین نتایج حذف کند. ظهور پاندا، انقلابی در فضای وب بوجود آورد و بسیاری از سایت‌های زرد و کپی‌کار را که بابت دزدی ادبی، مورد شکایت بودند، با جریمه‌‌های سنگین مواجه کرد. سایت‌هایی که یا از ایندکس گوگل خارج شدند یا رتبه‌‌شان به شدت افت کرد. از آنطرف هم سایت‌هایی با محتوای اورجینال و استاندارد بالا رفتند و به امتیازی که سزاوارش بودند نزدیک‌تر شدند.

الگوریتم پاندا

الگوریتم Payday Loan

سایت‌هایی که محتوای اسپم و تکراری دارند و از نظر اخلاقی و یا مالی مشکوکند، توسط الگوریتم پِی دِی لُن فیلتر و جریمه می‌شوند. الگوریتم Payday Loan در زمان معرفی در 2013 غوغایی به پا کرد و حدود 30 درصد از سایت‌های مسئله‌دار را تحت تاثیر قرار داد. حتی Queryها یا جستجو‌های اسپم هم از طریق این الگوریتم فیلتر می‌شوند تا سایت‌های غیراخلاقی یا سایت‌هایی که با وام‌های پرسود و شارلاتان‌بازی‌های رایج در ارتباطند، رتبهٔ جالبی بدست نیاورند.

الگوریتم Page Layout

حتما تا به حال، وبسایت‌هایی را که یک طومار تبلیغ در بالای صفحه می‌چپانند و شما را مجبور به اسکرول می‌کنند دیده‌اید. این الگوریتم، دقیقاً چنین سایت‌هایی را هدف می‌گیرد. این قضیه که حجم زیادی از تبلیغات را زورکی در مقابل کاربر قرار بدهیم، از نظر گوگل یک نکته‌ٔ منفی است و پیامد خوبی برای رتبهٔ وبسایت ندارد. اگر دقت کرده باشید، سایت‌های دانلودی زیادی هستند که از این ترفند استفاده می‌کنند. به چنین سایت‌هایی توصیه می‌شود، تا لااقل این گونه تبلیغات را از حالت ایستا یا static به نوع پویا یا Dynamic تغییر دهند.

تبلیغات ایستا اهمیتی به کاربر نمی‌دهند و سابقهٔ جستجوهای کاربر را در نظر نمی‌گیرند. اما تبلیغات داینامیک، با توجه به اطلاعاتی که جمع‌آوری می‌شود و سلیقه‌ٔ کاربر تغییر می‌کنند و تبلیغات مرتبطتری را به کاربر نشان می‌دهند. با این الگوریتم، طراحان سایت مجبور می‌شوند صفحات بهتری طراحی کنند و در چیدمان محتوای تبلیغاتی، نفع کاربر را بیشتر در نظر بگیرند.

الگوریتم Page Layout

جمع بندی

آشنایی با الگوریتمهای گوگل، برای مدیران سایت و متخصصان SEO بسیار مهم است. چون این الگوریتم‌ها، مستقیماً روی رتبهٔ سایت تاثیر می‌گذارند و سرنوشت یک کسب و کار را تغییر می‌دهند. اصول و استانداردهایی که غفلت از آنها، می‌تواند منجر به جریمهٔ وبسایت‌، یا در موارد افراطی، حذف آن از لیست Google Index شود. لیست نشدن در نتایج جستجو یا رتبهٔ خیلی پایین هم، درست مثل اینست که برای کاربران نامرئی باشیم و هرگز هیچ وبسایتی در کار نبوده باشد! هر سال که می‌گذرد، الگوریتمهای گوگل هوشمندتر و تکامل‌یافته‌تر می‌شوند و عرصه را به سایت‌های متقلب و محتویات زرد تنگ‌تر می‌کنند. در این وانفسا، تولید محتوای سالم، اصیل، غیرتکراری و بدردبخور، بهترین و مطمئن‌ترین راهکار برای افزایش رتبهٔ وبسایت و افزایش شانس موفقیت کسب و کارهای آنلاین است.

ارسال دیدگاه
منتظردیدگاه شماهستیم

ارسال نظر