فهرست مطالب
تک تک کلمات و عباراتی که در موتور جستجوی گوگل (Search Engine) تایپ میکنیم، همزمان توسط دیتاسنترها و سوپرکامپیوتر غولآسای گوگل تجزیه و تحلیل میشوند و نتیجهٔ آنها در چشم بهم زدنی، در برابر کاربران قرار میگیرد. این سوپرکامپیوتر، جستجوها، درخواستها یا به عبارتی کوئِری (Query) کاربران را از جنبههای مختلف بررسی و با روشها و معیارهای مختلف، آنها را پردازش میکند. از این روشها، که عملاً یک سری روتین و دستورالعمل و خط مشی نرمافزاری هستند، به عنوان الگوریتمهای گوگل یاد میکنیم. این الگوریتمها دائما در حال آزمون و خطا و بروزرسانی هستند و اگر کارایی خوبی نشان بدهند، به بدنهٔ الگوریتم اصلی گوگل یعنی Core Algorithm اضافه میشوند.
دانش ما از الگوریتمهای گوگل و اینکه در بطن پردازندههای سوپرکامپیوتر این کمپانی چه میگذرد، امر واضح و صد در صد دقیقی نیست. اما این آشنایی، هرچقدر هم نصفه نیمه و آمیخته به حدس، برای دیجیتال مارکترها، صاحبان کسب و کارهای آنلاین، تولیدکنندگان محتوا و تمام فعالان عرصهٔ تجارت آنلاین (e-Commerce) مفید است. اطلاعاتی که به ما کمک میکند، محتوای هوشمندانهتری ایجاد کنیم، استراتژیهای بهتری بچینیم و در نهایت، رتبهٔ سرچ بالاتری بدست بیاوریم. پس با این مقاله همراه باشید تا با معروفترین الگوریتمهای گوگل آشنا شده و طرزکارشان را بررسی کنیم.
ماجرای الگوریتمهای گوگل چیست؟
دربارهٔ الگوریتمهای گوگل، بیشمار مطلب و توضیح و تفسیر هست که صحتشان قطعی و درست نیست. بعضی از این اطلاعات از توضیحات مختصر خود گوگل برداشت شدهاند و یکسری هم، اطلاعات درز شده و لو رفتهٔ این کمپانی هستند. حتی اسم این الگوریتمها، اسامی رسمی و تأییدشده نیست و اکثر آنها توسط سئوکاران (SEO) کارکشته و متخصصین دیجیتال مارکتینگ استفاده شده و رواج پیدا کرده است.
یکی از دلایل محافظهکاری یا دقیقتر بگوییم، پنهانکاری گوگل در توصیف الگوریتمها، اختصاصی بودن فرمول و طرزکار آنهاست. بهرحال اول بودن و بر رأس هرم نشستن، پیامدهای خاص خودش را دارد و تمام رقبا قصد دارند سر از کارشان در بیاورند و سهم بیشتری از بازار بگیرند. پس بیخود نیست که گوگل، علاوه بر هزینههای سنگین طراحی، میلیونها دلار هم برای نگهداری از این الگوریتمها صرف میکند و دلیلی نمیبیند که جزئیات و اسرار کار را در اختیار رقبا بگذارد. حتی از تعداد دقیق الگوریتمهای گوگل هم اطلاعات مستندی در دست نداریم. اما اینطور که به نظر میرسد، درخواستها یا Queryهای کاربران، توسط بیش از ۲۰۰ الگوریتم مختلف پردازش میشوند.
هدف اصلی الگوریتمهای گوگل چیست؟
وظیفهٔ این الگوریتمها، نمایش بهترین و مرتبطترین نتایج ممکن، به کاربران موتور جستجوی گوگل است. هرچه دقت این الگوریتمها بالاتر باشد، به نفع کاربر بوده و در نهایت، برای گوگل و صاحب وبسایت، یک معادلهٔ برد برد ایجاد میشود. وقتی یک جستجو یا به اصطلاح برنامهنویسان یک Query انجام میدهیم یا ثبت میکنیم، نتایج آن طی یکسری محاسبات پیچیده، رتبهبندی و لیست میشوند.
صفحات و وبسایتهایی که در این رتبهبندی میآیند، همگی در یک لیست بلندبالا قرار دارند. لیستی تحت عنوان گوگل ایندکس (Google Index) که اطلاعات تمام سایتها را به صورت دستهبندی شده در اختیار دارد و مثل فهرست کتابهای داخل کتابخانه عمل میکند. این فهرست همیشه در اختیار هستهٔ گوگل است و وقتی از هستهٔ گوگل صحبت میکنیم، به مجموعهٔ تمام الگوریتمهای گوگل اشاره داریم. شناخت این الگوریتمها، رفتار موتور جستجوی گوگل را برای متخصصان SEO آشکار میکند و شرایط تدوین یک استراتژی بهتر را برای افزایش رتبهٔ سایت فراهم میسازد. برای آشنایی با مفاهیم مهم سئو به سایر مطالب وبلاگ ایرانلرن مراجعه کنید.
الگوریتمهای هوش مصنوعی
گوگل برای بهبود تجربهٔ کاربری موتور جستجو، از هوش مصنوعی استفاده میکند و چند الگوریتم پیچیده را به الگوریتم هسته (Core Algorithm) اضافه کرده است. این گونه از الگوریتمهای گوگل که علاوه بر هوش مصنوعی، بطور گسترده از یادگیری ماشین (Machine Learning) هم بهره میبرند، کارشان حدس زدن است. حدس کلمات مد نظر کاربر. دو الگوریتم BERT و Brain Rank جزو این نوع الگوریتمها هستند و با تحلیل دادهها و ورودیهای قبلی، عملاً کاری شبیه به فکرخوانی انجام میدهند!
الگوریتم Brain Rank
Brain Rank یکی از مهمترین الگوریتمهای گوگل است و نقش پررنگی در قدرت موتور جستجوی این کمپانی ایفا میکند. این الگوریتم بر اساس یادگیری ماشین طراحی شده و طبق آمار گوگل در سال ۲۰۱۵ چیزی در حدود ۱۵ درصد از کل جستجوهای کاربران را، به سمت نتایج مرتبطتر و دقیقتر هدایت کرده است. بِرِین رَنک نتایج را بر اساس مفهوم مورد جستجو و ویژگیهای زبانشناسی بررسی کرده و در نهایت، با درک منظور کاربر، نتایج را غربال میکند. بنابراین با الگوریتمی طرفیم، که به نوبهٔ خود یک ادیب و زبانشناس تکاملیافته است و نیازمان را بر اساس چیزی که تایپ میکنیم استنباط میکند.
الگوریتم برت
الگوریتم برت BERT هم یکی دیگر از الگوریتمهای گوگل است که با هوش مصنوعی طراحی شده و در ۲۰۱۹ به الگوریتم اصلی گوگل پیوسته است. بِرت عملکردی مانند Brain Rank دارد با این تفاوت که شیوهٔ یادگیری ماشین در این الگوریتم، بر اساس شبکههای عصبی (Neural Network) شکل گرفته است. به این معنا که الگوریتم BERT، درست مثل یک آدمیزاد نابالغ، دائماً در حال آزمون و خطا و یادگیری است.
BERT طوری طراحی شده تا عبارات، کلمات و رابطهٔ میان آنها را با توجه به زبان جستجو تحلیل و بررسی کند و دقیقترین نتایج را به کاربر نشان بدهد. به عبارت دیگر، هدف از طراحی این الگوریتم، درک بهتر زبان انسان و مفهوم جملات است. BERT معنا و مفهوم یک کلمه را هم به تنهایی و هم در قالب یک جمله و عبارت، درک میکند و عملاً، یکی از بزرگترین دستاوردهای بشر، در حوزهٔ پردازش زبانهای طبیعی (انسانی) توسط هوش مصنوعی است.
الگوریتمهای جستجوی محلی یا Local Search
گونهٔ دیگری از الگوریتمهای گوگل، روی بهبود عملکرد موتور جستجو، بر اساس محل جغرافیایی و زبان مورد استفاده تمرکز دارند. جستجوی کسب و کارهای اطراف، یکی از سناریوهای مرسومی است که این الگوریتمها وارد عمل میشوند. یادمان باشد اگر خواستیم صفحات فارسی و کسب و کارهای نزدیکمان را پیدا کنیم، بهتر است که تا جای ممکن، از نرمافزارهای تغییر IP استفاده نکنیم. به این دلیل که گوگل حوالی محل سکونت کاربر را از روی IP تشخیص میدهد و نتایج نزدیکتر را غربال میکند. در ادامه با چند الگوریتم جستجوی محلی آشنا میشویم.
الگوریتم کبوتر
الگوریتم کبوتر (Pigeon)، نتایج جستجو را بر اساس موقعیت جغرافیایی و زبان لیست میکند. این الگوریتم علاوه بر نتایج جستجوی عادی، جستجوهای مرتبط با نقشهٔ Google Map را هم سر و سامان میدهد. یعنی اگر اسم یک رستوران را به فارسی تایپ کنیم، الگوریتم کبوتر وارد عمل میشود و گزینههایی از داخل محدودهٔ جغرافیایی ایران به نمایش در میآورد. با معرفی این الگوریتم در سال ۲۰۱۴ واکنشهای ضد و نقیض زیادی برانگیخته شد. بعضی از وبمسترها از کاهش رتبهٔ سایتشان خبر میدادند و برخی دیگر، وجود این الگوریتم را مایهٔ افزایش نرخ کلیک (CTR) میدانستند. به هر حال هر تغییری، پیامدهای مثبت و منفی خودش را دارد و در نهایت، الگوریتمهای گوگل هم مثل سایر نرمافزارها، به مدت زمانی برای آزمون و خطا و آببندی بیشتر نیاز دارند.
الگوریتم ونیز
الگوریتم ونیز (Venice) هم عملکردی شبیه به الگوریتم کبوتر دارد. این الگوریتم محتوا و نتایج جستجو را بر اساس IP و فاصلهی فیزیکی لیست میکند. در واقع نتایج جستجو را بر اساس محل جغرافیایی کاربر پیدا کرده و سرویسها و محصولاتی را که نزدیکترین فاصله را به کاربر دارند پیشنهاد میدهد. پیش از این الگوریتم، گوگل نتایج مرتبط به محل کاربر را با استفاده از Google Places و در سمت راست نتایج اصلی نشان میداد. قابلیتی که در حال حاضر حذف شده و امروزه، تمامی نتایج بر اساس زبان و مکان کاربر لیست میشوند.
الگوریتم صاریغ
صاریغ یا Possum (یک جانور پستاندار و کیسهدار با جثهٔ کوچک در حد گربه) هم به طور خاص برای جستجوهای محلی طراحی شده و طرز کارش شبیه به دو الگوریتم کبوتر و ونیز است. با این تفاوت که صاریغ کسب و کارهای خارج از محدودهٔ فیزیکی کاربر را هم جزوی از نتایج در نظر میگیرد. همچنین محتوای چرند (اسپم) و تکراری را در جستجوهای محلی کاهش میدهد. البته آوردن نتایج خارج از محدوده، با معیارهای خاصی همراه است و آنچنان بی حساب و کتاب هم نیست.
سایر الگوریتمهای مورد استفادهٔ گوگل
در ادامه تعدادی از الگوریتمهای گوگل را بررسی میکنیم که هر کدام کاربری متفاوتی دارند و در یک گروهبندی خاص قرار نمیگیرند. این الگوریتمها، سایتها را بر اساس درستی محتوا، مفهوم جستجو و محتوا و استاندارد بودن ساختار آنها رتبهبندی میکنند.
الگوریتم رقص گوگل
الگوریتم رقص گوگل، وظیفهٔ جابجایی نتایج را بر اساس رتبهبندی برعهده دارد. یعنی اگر صفحهای محتوای استاندارد و تازه داشت و از کیفیت بالاتری برخوردار بود، رتبهٔ بالاتری داشته و بیشتر در معرض دید کاربران قرار میگیرد. این الگوریتم کاری به محتوای جستجوی ما ندارد. تمام نتایج بر اساس استانداردهای گوگل تحلیل و بررسی میشوند، و سایتها بر اساس رتبهٔ گوگل لیست میشوند. رتبهٔ بالا در نتایج جستجوی گوگل، نیازمند محتوای سالم و به اصطلاح اورجینال است. از آنطرف، چیزهایی مثل بکلینکهای مخرب و اسپم و غیر استاندارد، باعث افت رتبه میشوند. البته این موارد، تنها بخشی از چندین و چند معیار و استانداردی است که این الگوریتم، برای رتبهبندی صفحات در نظر میگیرد.
الگوریتم مرغ مگسخوار
دقت و سرعت و ظرافت این الگوریتم به قدریست که نام مرغ مگسخوار را برازندهاش کرده است. الگوریتم مرغ مگسخوار(Hummingbird)، عبارات جستجوی کاربر (Query) یا همان کوئریهای کاربران را با محتوای سایت و صفحه مورد نظر مقایسه میکند. اگر محتوا از نظر معنا و مفهوم مطابقت داشت، صفحهٔ وبسایت وارد نتایج جستجو میشود. گوگل پیش از این الگوریتم، صرفا کلمات را با هم مقایسه میکرد و نتایج را بر اساس مطابقت کلمات نشان میداد.
اما اکنون محتوای باکیفیت و مطابق با زبان انسانی (Natural Language) از اهمیت بالاتری برخوردار شده است. یعنی الگوریتم مرغمگسخوار، مترادف و مفهوم طبیعی جستجو را در نظر میگیرد و فقط در قید تطبیق کورکورانهٔ کلمات در متن و تیتر نیست. بنابراین، برای رتبهٔ بالاتر در نتایج جستجو، توصیه میشود که تولید محتوا را بر اساس مفهوم و کیفیت استوار کنیم و از کلمات کلیدی، صرفا برای جذب و هدایت کاربر استفاده نماییم. در یک کلام، روزگار چپاندن کلمات کلیدی در متن و انتظار بدست آوردن رتبهٔ بالا گذشته است.
الگوریتم سرقت ادبی
گوگل با افزودن الگوریتم دزدی یا Pirate در الگوریتم اصلی، ثابت کرد که بیش از پیش هوای تولیدکنندگان محتوا را دارد. البته منظور از تولیدکنندهٔ محتوا در این مورد، محتویات غیرنوشتاری مثل فیلم و عکس و موسیقی است. الگوریتم Pirate طوری طراحی شده تا وبسایتهایی که سابقهٔ نقض قوانین کپیرایت را دارند و بیشمار اخطار دریافت کردهاند، رتبهٔ بسیار پایینی داشته باشند یا حتی به طور کل، از نتایج جستجو حذف شوند.
اگر کاربری در نوار جستجو، نام فیلم یا موسیقی خاصی را وارد کند، قابلیت Auto Complete گوگل، پیشنهاداتی را که با عبارات رایگان و مجانی (Free) همراه هستند را از دید کاربر پنهان میکند. علاوه بر این، سایتهای دانلود مجانی و غیرقانونی هم تا جای ممکن از نتایج حذف میشوند. حتی اگر «دانلود مجانی» محصولی را سرچ کنیم، باز هم سایتهایی در بین نتایج مشاهده میکنیم که حق فروش قانونی آن آهنگ یا اثر خاص را در اختیار دارند و رسمی هستند.
الگوریتم موبایلگدون
الگوریتم Mobilegeddon در سال 2015 معرفی شد تا کاربران موبایل، جستجوی راحتتری را تجربه کنند. این الگوریتم فقط روی دستگاههای موبایل، با صفحهٔ کوچک تاثیر دارد و روی عملکرد کاربران دسکتاپ یا لپتاپ بیتأثیر است. الگوریتم موبایلگدون سایتهای Mobile Friendly یا مناسب موبایل را در جستجوی کاربران موبایل به نمایش در میآورد و به سایتهایی که از استانداردهای طراحی موبایل تبعیت کرده باشند، رتبهٔ بالاتری میدهد. بدیهیست که صفحه یا وبپیجی که برای کامپیوتر با نمایشگر بزرگ طراحی میشود، لزوماً روی موبایل جواب نمیدهد و نارضایتی کاربران موبایل را به همراه دارد. بنابراین رتبهٔ این گونه سایتها در دستگاههای موبایل پایین میآید و حتی احتمال حذفشان از نتایج جستجو وجود دارد.
الگوریتم فرشنِس
فْرِشنِس (Freshness) که از نظر لغوی معنای تازگی و نو بودن را میدهد یکی از مهمترین الگوریتمهای گوگل است. به لطف این الگوریتم، سایتهایی که محتوای تازه دارند و همیشه در حال به روزرسانی و فعالیت مستمر هستند، رتبهٔ بالاتری از سایرین میگیرند. همچنین محتوایی که به اصطلاح ترند (Trend) باشد، جزو رتبههای بالاتر قرار میگیرد. حتی اگر ترافیک کمتری نسبت به سایر صفحات داشته باشد. پس اینجاست که اهمیت محتوای تر و تازه و کار دائم روی پر و پیمان کردن مقالات وبسایت، خودش را بیشتر نشان میدهد.
الگوریتم مِدیک
الگوریتم مدیک (Medic) با هدف بهبود رتبهٔ سایتهای تخصصی و مرجع و دارای محتوای مرغوب طراحی شد و به نوبهٔ خود سرو صدای زیادی در دنیای وب به پا کرد. مثلاً وبسایتهایی که محتوای مربوط به مسایل بهداشتی، پزشکی، حقوقی، مالی و صنعتی تولید میکنند، به لطف مدیک، رتبهٔ بالاتری در SERP یا صفحهٔ نتایج جستجو خواهند داشت.
این سایتها باید محتوای سالم داشته باشند و خطری برای سلامت روان کاربران ایجاد نکنند و به علاوه، همیشه در حال بهبود محتوا باشند. چنین وبسایتهایی از دید گوگل، به عنوان Trustworthy یا قابل اطمینان شناخته میشوند و مورد عنایت خاصی قرار میگیرند. از آنطرف وبسایتهایی که بازخوردهای منفی زیادی دارند توسط گوگل جریمه میشوند و رتبهٔ آنها کاهش پیدا میکند. در این حالت Impression و نرخ کلیک (CTR) سایت خاطی، به طرز قابل توجهی پایین میآید و تمام رشتههایش برای بهینهسازی (SEO) سایت و افزایش رتبه تبدیل به پنبه میشود.
الگوریتم پاندا
الگوریتم پاندا (Panda) در سال 2011 و با هدف حذف محتویات بیارزش از بین نتایج جستجو معرفی شد. این الگوریتم که در سال ۲۰۱۶ به الگوریتمهای اصلی گوگل پیوست، قادر است به صورت لحظهای (Real-time)، تمام سایتهایی را که محتوای زرد و بیکیفیت دارند، شناسایی و از بین نتایج حذف کند. ظهور پاندا، انقلابی در فضای وب بوجود آورد و بسیاری از سایتهای زرد و کپیکار را که بابت دزدی ادبی، مورد شکایت بودند، با جریمههای سنگین مواجه کرد. سایتهایی که یا از ایندکس گوگل خارج شدند یا رتبهشان به شدت افت کرد. از آنطرف هم سایتهایی با محتوای اورجینال و استاندارد بالا رفتند و به امتیازی که سزاوارش بودند نزدیکتر شدند.
الگوریتم Payday Loan
سایتهایی که محتوای اسپم و تکراری دارند و از نظر اخلاقی و یا مالی مشکوکند، توسط الگوریتم پِی دِی لُن فیلتر و جریمه میشوند. الگوریتم Payday Loan در زمان معرفی در 2013 غوغایی به پا کرد و حدود 30 درصد از سایتهای مسئلهدار را تحت تاثیر قرار داد. حتی Queryها یا جستجوهای اسپم هم از طریق این الگوریتم فیلتر میشوند تا سایتهای غیراخلاقی یا سایتهایی که با وامهای پرسود و شارلاتانبازیهای رایج در ارتباطند، رتبهٔ جالبی بدست نیاورند.
الگوریتم Page Layout
حتما تا به حال، وبسایتهایی را که یک طومار تبلیغ در بالای صفحه میچپانند و شما را مجبور به اسکرول میکنند دیدهاید. این الگوریتم، دقیقاً چنین سایتهایی را هدف میگیرد. این قضیه که حجم زیادی از تبلیغات را زورکی در مقابل کاربر قرار بدهیم، از نظر گوگل یک نکتهٔ منفی است و پیامد خوبی برای رتبهٔ وبسایت ندارد. اگر دقت کرده باشید، سایتهای دانلودی زیادی هستند که از این ترفند استفاده میکنند. به چنین سایتهایی توصیه میشود، تا لااقل این گونه تبلیغات را از حالت ایستا یا static به نوع پویا یا Dynamic تغییر دهند.
تبلیغات ایستا اهمیتی به کاربر نمیدهند و سابقهٔ جستجوهای کاربر را در نظر نمیگیرند. اما تبلیغات داینامیک، با توجه به اطلاعاتی که جمعآوری میشود و سلیقهٔ کاربر تغییر میکنند و تبلیغات مرتبطتری را به کاربر نشان میدهند. با این الگوریتم، طراحان سایت مجبور میشوند صفحات بهتری طراحی کنند و در چیدمان محتوای تبلیغاتی، نفع کاربر را بیشتر در نظر بگیرند.
جمع بندی
آشنایی با الگوریتمهای گوگل، برای مدیران سایت و متخصصان SEO بسیار مهم است. چون این الگوریتمها، مستقیماً روی رتبهٔ سایت تاثیر میگذارند و سرنوشت یک کسب و کار را تغییر میدهند. اصول و استانداردهایی که غفلت از آنها، میتواند منجر به جریمهٔ وبسایت، یا در موارد افراطی، حذف آن از لیست Google Index شود. لیست نشدن در نتایج جستجو یا رتبهٔ خیلی پایین هم، درست مثل اینست که برای کاربران نامرئی باشیم و هرگز هیچ وبسایتی در کار نبوده باشد! هر سال که میگذرد، الگوریتمهای گوگل هوشمندتر و تکاملیافتهتر میشوند و عرصه را به سایتهای متقلب و محتویات زرد تنگتر میکنند. در این وانفسا، تولید محتوای سالم، اصیل، غیرتکراری و بدردبخور، بهترین و مطمئنترین راهکار برای افزایش رتبهٔ وبسایت و افزایش شانس موفقیت کسب و کارهای آنلاین است.