نحوه کار کردن گوگل
موتورهای جستجوگر ابزار پاسخگویی به جستجوی اطلاعات از سمت کاربران، در وب هستند. علت اصلی بوحود آمدن این ابزار، کشف، درک و سازماندهی محتوای موجود در وب در راستای نمایش مفیدترین و دقیق ترین نتایج جستجو به کاربران است. گوگل به عنوان یکی از معروف ترین موتورهای جستجوگر در جهان شناخته شده است. این موتور جستجوگر قدرتمند، از مکانیزم ویژه ی خود در راستای درک اطلاعات درخواستی کاربران و پاسخ به آن ها استفاده میکند. موتورهای جستجوگر گوگل، روزانه میلیارد ها کوئری(درخواست اطلاعات از دیتابیس) را با استفاده از الگوریتم ویژه ی خود پردازش میکنند تا بهترین و مفید ترین نتیجه ی ممکن برای جستجوی اطلاعات از سمت کاربر را تامین کنند.
حال سوال اصلی که در این زمینه مطرح میشود این است که با وجود حجم بسیار سنگین مطالب موجود در وب، این موتور های جستجو قدرتمند چگونه فرآیند فیلتر اطلاعات در راستای نمایش بهترین و مفیدترین نتیجه به کاربر را انجام میدهند؟ در پاسخ باید گفت که گوگل این فرآیند را طی مراحل معدودی انجام میدهد. موتور های جستجوگر گوگل با استفاده از الگوریتم خاص خود تمام اطلاعات موجود در پلتفرم خود را مورد کاوش قرار میدهند و با استفاده از سه گام اصلی ، بهترین نتیجه ی ممکن برای جستجوی اطلاعات را در اختیار کاربر قرار میدهند:
گام نخست: crawling یا استفاده از خزنده ها
وب مانند یک کتابخانه ی بسیار گسترده است که سیستم مرکزی ثبت کتاب های موجود ، در آن وجود ندارد.نه تنها گوگل، بلکه هیچ یک از موتور های جستجوگر موجود در وب، دارای بخش مرکزی جهت ثبت url های جدید ایجاد شده یا تغییرات در صفحات با url های قدیمی نیستند. این مسئله به این معناست که گوگل به طور اتوماتیک از به وجود آمدن صفحاتی با url های جدید و یا تغییرات صفحات با url های قدیمی باخبر نمیشود . اینجاست که اهمیت به کارگیری خزنده ها توسط گوگل آشکار میشود. هنگامی که یک سایت به تازگی ایجاد شده باشد و یا تغییری در یک سایت ایجاد شده باشد، ربات های خزنده ی گوگل که به عنکبوت نیز معروفند، جهت ارزیابی محتوا ، وارد سایت میشوند و با کاوش در صفحات و سایت مپ ، تمام تغییرات ایجاد شده را آنالیز و ثبت میکنند. این ربات ها وظیفه دارند تا موضوع صفحات و زمینه ی اطلاعات سایت را استخراج کنند. تمام اطلاعات موجود در صفحات، اعم از لینک ها، تصاویر، ویدئو ها ، فایل های صوتی ، فایل های pdf و غیره توسط خزنده ها مورد تحلیل و بررسی قرار میگیرند. در واقع ، خزنده های گوگل کد های html, css,js صفحات سایت را رندر (render) میکنند یک نسخه از آن را در یک دیتابیس بسیار گسترده ذخیره و ثبت میکنند. توضیح این دیتابیس و کاربرد آن موضوع گام بعدی است.
گوگل معمولا سایت ها را توسط دو دسته از ربات ها مورد کاوش قرار میدهند: ربات های دسکتاپ (Googlebot Desktop) و ربات های موبایل (Googlebot Smartphone ) . لذا انطباق سایت با ابعاد تلفن های هوشمند یا به عبارت دیگر، رسپانسیو (responsive) بودن صفحات سایت، امتیاز مثبتی در فرآیند خزش ربات های گوگل محسوب میشود. گرفتن و عدم قرار گرفتن سایت تحت خزش و نیز تعداد دفعات خزش صفحات، با استفاده از ابزاری به نام Google search console tools که گوگل در اختیار مدیران وب سایت ها قرار میدهد، میسر است.
گام دوم : ایندکس کردن صفحات(index)
همانطور که در گام قبل اشاره شد، ربات های خزنده ی گوگل پس از تحلیل و بررسی محتوای سایت جدید و یا تغییرات جدید در سایت، اعم از مطالب، تصاویر، فایل ها و غیره ، تمام این اطلاعات مربوط به سایت را به همراه url های سایت را در یک دیتابیس بسیار بزرگ به نام caffeine ذخیره میکند که این عمل را ایندکس کردن نام دارد. حجم و گستردگی بسیار قابل توجه اطلاعات موجود در این دیتابیس، امکان ارائه ی بهترین نتیجه ی جستجو اطلاعات را برای کاربران گوگل فراهم میکند. قابل ذکر است که اگر بنا بر دلیلی، صفحه ای از سایت شما توسط گوگل ایندکس نشود، در واقع محتوای این صفحه در ارائه ی نتایج جستجو به کاربر، کاملا پوچ و بی اثر خواهد شد. میتوان از ابزار Google search engine tool در جهت اطلاع از صفحات ایندکس شده ی سایت ، استفاده کرد. در واقع برای اینکه محتوای سایت شما بتواند به عنوان نتیجه ی جستجوی کاربران در گوگل به نمایش گذاشته شود، باید urlهای صفحات سایت شما توسط گوگل ایندکس شده باشد. درست مانند فهرست یک کتابخانه که فهرستی از کتاب های موجود و نیز اطلاعاتی درباره ی هر کدام از کتاب ها در شامل میشود، لیست های ایندکس گوگل ، فهرستی از صفحات سایت هایی است که گوگل آن ها را میشناسد.
گام سوم : رنکیگ ( ranking )
با توجه به حجم بالای صفحات وب موجود در گوگل، یافتن مفیدترین اطلاعات مورد نظر بدون یک الویت بندی و رتبه دهی مناسب، غیر ممکن به نظر میرسد. سیستم های رنکیگ گوگل به نحوی طراحی شده اند که بتوانند از بین میلیاردها صفحه ی وب، مرتبط ترین و کارآمدترین را با توجه به شرایط کاربر جستجوگر بیابند و در کسری از ثانیه به کاربر نمایش دهند. گوگل همواره جهت حصول اطمینان دارا بودن کیفیت و استانداردهای بالا ، علاوه بر تست سیستم های رنکینگ خود به صورت لایو، از هزاران تستر آموزش دیده کیفیت موتور جستجوگر در سراسر دنیا استفاده میکند.
زمانی که یک کاربر عبارتی را در گوگل سرچ میکند، موتور های قدرتمند جستجوگر ، در دیتابیس گسترده گوگل به دنبال صفحات مرتبطی که ایندکس شده اند میگردند تا بهترین نتیجه ی ممکن را در اختیار کاربر قرار دهند. سیستم های رنکیگ از یک سری الگوریتم تشکیل شده اند تا مفید ترین و مرتبط ترین نتیجه ی ممکن را به کاربر نمایش دهند. عوامل مختلفی من جمله موقعیت مکانی، زبان، دستگاه مورد استفاده و غیره جهت تعیین الویت نمایش اطلاعات به کاربران توسط گوگل در نظر گرفته میشود. به همین دلیل است که نتیجه ی حاصل از جستجوی عبارت “نزدیک ترین رستوران به من” توسط گوگل در یک شهر با شهر دیگر متفاوت است .نتایج حاصل از جستجوی عبارت “چگونه کیک بپزیم ” با ” how to bake a cake “با وجود معنای یکسان ولی به دلیل زبان غیریکسان، با هم متفاوت است. قابل ذکر است که میزان تاثیرگذاری عوامل مختلف بر رنکینگ، با توجه به اصلیت موضوع تحت جستجو، متفاوت است. به عنوان مثال، جدید بودن محتوای منتشر شده در صفحه ی وب ، در نمایش نتایج مربوط به اخبار روز، نسبت به معنای یک واژه در لغت نامه، به مراتب تاثیر بیشتری دارد.
نتیجه گیری
برای اینکه یک سایت در پاسخ یک فرآیند جستجوی اطلاعات از سمت کاربر در صفحه ی جستجوی گوگل نمایش داده شود، در گام اول الزامی است که محتوای این سایت برای موتورهای جستجوگر گوگل قابل رویت باشد. با انتشار هر سایت جدید در وب و یا ویرایش و تغییر صفحات موجود در وب، گوگل با استفاده از ربات های خزنده ی خود این تغییرات و یا سایت های جدید را مورد کاوش، تجزیه و تحلیل قرار میدهد. سپس طی فرآیند ایندکس، تمام اطلاعات حاصل از عملکرد خزنده ها را در دیتابیس گوگل ثبت میکند. این اطلاعات بر اساس الگوریتم دقیق و پیچیده ی گوگل رتبه بندی میشوند و سپس با هر جستجو اطلاعات توسط کاربران گوگل، با توجه به عوامل مختلف من جمله زبان ، موقعیت زمانی و مکانی ، اصلیت و ماهیت موضوع تحت جستجو و… بهترین و مفیدترین نتایج ممکن در دسترس کاربر قرار میگیرد.
بدون دیدگاه