درک عملکرد موتورهای جستجوگر
موتورهای جستجو در سطح اینترنت حرکت می کنند و تمامی اطلاعاتی را که در سطح اینترنت قرار داده شده است را جمعآوری و دسته بندی کرده و در نهایت در مواقع نیاز در کسری از ثانیه از این اطلاعات برای نمایش اطلاعات مورد نیاز شما استفاده میکنند.
برای ایجاد درک عمیقتر در مورد این موضوع با بررسی موتور جستجوی معروف گوگل جلو میرویم.
بطور کلی موتورهای جستجو دو کار انجام می دهند:
1- فهرستبندی اطلاعات: شرکت گوگل اطلاعات بیش از 30 تریلیون صفحه وب را ذخیره کرده است.
2- ارائه اطلاعات جمعآوری شده: با استفاده از الگوریتمهای ویژه و سیستمهایی با هوش مصنوعی با قابلیت یادگیری اطلاعات مورد نیاز شما را دریافت، پردازش و در نهایت بهترین نتیجهها را به شما ارائه می دهد
گشتن و فهرستبندی اطلاعات
سوالی که بسیار از افراد آن را در ذهن دارد این است که چگونه شرکت گوگل اطلاعات بیش از 30 تریلیون صفحه وب را بررسی و ذخیره کرده است؟
در طی 18 سال اخیر شرکت گوگل با استفاده از نرمافزاری به نام خزنده در حال بررسی و ذخیرهسازی یکی یکی تمامی صفحات موجود در وب میباشد. این نرمافزار کار خود را با فهرستی از منابع که توسط یک انسان به آن داده میشود شروع کرده است و این پروسه از ابتدا تا به امروز ادامه دارد و ربات خزنده شرکت گوگل، لینکها و محتواهای موجود در هر صفحه را بررسی میکند و پس از ذخیره سازی اطلاعات به سراغ صفحه بعدی میرود.
هر یک از موتورهای جستجو از یک ربات ویژه استفاده میکنند که هر یک نام ویژه خود را دارند. شرکت گوگل GoogleBot، موتور جستجوی بینگ BingBot و شرکت یاهو از Slurp استفاده میکند.
زمانی که ربات وارد یک صفحه میشود تمامی اطلاعات موجود در آن را بررسی میکند. این اطلاعات شامل کدهای HTML، محتوا و لینکهای متصل به صفحه مورد نظر میشود.
هرچه این ربات بیشتر به جلو میرود لینکهای بیشتری را کشف میکند به جلو میرود. در تصویر زیر نمونهای بسیار ساده از نحوه خزش یک ربات در یک مسیر یه مرحلهای مشاهده میکنید.
در تصویر بالا ربات گوگل باید 427 صفحه را بررسی کنید و این بررسی تنها به اینجا ختم نمیشود و تا زمانی که تمامی صفحات که لینک آنها به هر یک از این 427 صفحه متصل شده است بررسی نشوند این پروسه برای سایت مثال ما به پایان نمیرسد. در این پروسه ربات بسیاری از لینکها را چندین و چند با رتبهبندی روباتها برای تجارت رتبهبندی روباتها برای تجارت مرور میکند. برای مثال لینکهای موجود در هدر و فوتر سایک که در تمامی صفحات باید موجود باشند. برای جلوگیری از بررسی مجدد هر یک از این لینکها روبات ارتباط بین دو صفحهای که بر اساس این لینکها به وجود میآید را بدون بررسی مجدد ثبت میکند و به سراغ صفحه بعدی میرود.
تمامی این اطلاعات جمعآوری شده در دیتاسنترهای عظیمی که در ویدئو زیر میتوانید یکی از آنها را مشاهده کنید ذخیره میشوند.
ذخیره سازی اطلاعات بررسی شده بصورت تصادفی و نامنظم نیست و تمامی این اطلاعات بصورت موضوعی و در کنار اطلاعات مشابه خودشان ذخیره سازی میشوند تا زمانی که الگوریتم درخواست پیدا کردن اطلاعات درخواستی را دارد دقت و سرعت پیدا کردن و نمایش اطلاعات بالاتر رود.
ارائه اطلاعات برای نمایش در نتایج یک جستجو
زمانی نوبت به استفاده از اطلاعات جمعآوری شده میرسد، اصل موضوع چیز چندان پیچیدهای نیست اما این موضوع زمانی پیچیده میشود که میزان دقت نمایش اطلاعات اهمیت پیدا کند و با توجه به اینکه این موضوع بسیار مهم است و شاخص اصلی مقایسه موتورهای جستجو است این موضوع بسیار پیچیده میشود.
میزان کیفیت نمایش اطلاعات درخواستی بسته به الگریتمهائی دارد که هر یک از موتورهای جستجو برای خود یک الگوریتم ویژه را بر اساس اطلاعات جمعآوری شده آماری و فنی از کاربران و بسیاری از منابع دیگر میسازند. بر این اساس هر یک از این موتورهای جستجو فاکتورهای ویژهای را در ساختارهای یک وب سایت در نظر میگیرند و بر این اساس به هر صفحه امتیاز ویژهای را اختصاص میدهند که بر اساس این امتیاز الویت نمایش صفحات در هر یک از موتورهای جستجو مشخص میشود. برای مثال آخرین الویتهای شرکت گوگل برای بررسی و رتبه بندی وبسایتها شامل: محتوا، لینکها و RankBrain است.
موتورهای جستجو با ترکیب هزاران سیگنال موجود در سطح وب بهترین نتایج را برای شما انتخاب میکنند و نمایش میدهند.
رتبهبندی روباتها برای تجارت
ویدئوی جدیدی که توسط شرکت "بوستون داینامیکس" منتشر شده است، رقص گروهی هفت سگ رباتیک این شرکت را با موزیک گروه بیتیاس نشان میدهد.
به گزارش ثریا شرکت "بوستون داینامیکس"(Boston Dynamics)، ویدئویی باورنکردنی را از گروهی از سگهای رباتیک موسوم به "اسپات"(Spot) منتشر کرده است که حرکات رقص بسیار چشمگیری را انجام میدهند.
در این ویدئو، هفت ربات اسپات را میتوان در حال اجرای یک برنامه رقص با موزیک موفق "اجازه رقص"(Permission to Dance) گروه کیپاپ "بیتیاس"(BTS) مشاهده کرد.
در ابتدا دیده میشود که یک سگ رباتیک با حرکت دادن بازوی خود همراه با کلمات، بخشهای انفرادی موزیک را میخواند و بقیه رباتها در پسزمینه گام برمیدارند. هنگامی که خواندن گروه آغاز میشود، رباتها مجموعهای از حرکات هماهنگ را در شکلهای مختلف آغاز میکنند؛ گویی که خود گروه بیتیاس هستند. در پایان این ویدئوی جدید، هفت ربات اسپات از هم جدا شدند و گامهای خود را هماهنگ کردند.
حتی تصویری از ربات "اطلس"(Atlas) وجود دارد که میپرد و هماهنگ با موزیک دست میزند. اطلس، یک ربات انساننمای دوپا با قد شش فوت است که توسط این شرکت مستقر در بوستون ساخته شده است.
یکی از کاربران یوتیوب اظهار داشت که رباتها صادقانه میتوانند در مسابقه "استعدادهای درخشان بریتانیا"(Britain's Got Talent') برنده شوند. کاربر دیگری به شوخی گفت: بوستون داینامیکس کمکم به یک شرکت سرگرمی تبدیل میشود این نخستین باری نیست که سگهای رباتیک، حرکاتی را با موسیقی این گروه کرهای نشان میدهند.
بوستون داینامیکس سال گذشته نیز ویدئویی را از رقص هفت ربات اسپات با آهنگ "IONIQ: I’m On It" گروه بیتیاس منتشر کرد.
"اریک وایتمن"(Eric Whitman)، متخصص رباتیک رتبهبندی روباتها برای تجارت شرکت بوستون داینامیکس، در یک پست وبلاگی نوشت: چالشهای زیادی پیرامون جذب طراح رقص ما که به برخورد با رقصندگان انسان عادت دارد، در نرمافزار ما وجود داشت. باید از پیش روی همه چیز کار میشد. رباتها از این جهت که بسیار تکرار پذیر هستند، نسبت به انسانها برتری دارند اما آنها این عیب را دارند که باید تمام جزئیات را به آنها بگویید و اصلا بداهه کار نمیکنند.
به گفته بوستون داینامیکس، استفاده از ربات اسپات برای رقص در واقع یک هدف را دنبال میکند و آن هدف، به کار گرفتن طراحی مکانیکی و الگوریتمهای ربات در نرمافزار است.
این سگ رباتیک در حال حاضر به صورت تجاری در دسترس است و ۷۵۰۰۰ دلار قیمت دارد.
اسپات را میتوان برای طیف گستردهای از کاربردهای سنگین، از جمله بازرسی محل آزمایش پرتاب موشک استفاده کرد که پیشتر در تاسیسات اسپیس ایکس نشان داده است.
همچنین، این رباتها در ارتش فرانسه به کار گرفته شدهاند و به پرسنل مدرسه نظامی کمک میکنند تا سناریوهای آموزشی را کامل کنند. همچنین، این رباتها در "سازمان آتشنشانی نیویورک" (FDNY) نیز برای کمک به ماموریتهای جستجو و نجات به کار گرفته شدهاند.
ربات تکست یا robots.txt چیست و چگونه بسازیم؟
فایل robots.txt یک فایل متنی است که تعیین میکند کدام بخش هایی از یک دامنه می تواند باشد خزید توسط WebCrawler قرار و قطعات نمی تواند باشد.
علاوه بر این، فایل robots.txt می تواند شامل پیوندی به نقشه سایت XML باشد. با robots.txt، فایل های فردی در یک فهرست، فهرست های کامل، زیر شاخه ها یا کل دامنه ها را می توان از خزیدن حذف کرد.
داده robots-txt در ریشه دامنه ذخیره می شود. این اولین سندی است که یک ربات هنگام بازدید از یک وب سایت به آن دسترسی پیدا می کند. ربات های بزرگترین موتورهای جستجو مانند گوگل و بینگ دستورالعمل ها را دنبال می کنند.
در غیر این صورت هیچ تضمینی وجود ندارد که یک ربات به الزامات robots.txt پایبند باشد.
فهرست عناوین ربات تکست
زمینه ربات تکست
Robots.txt به کنترل خزیدن روبات های موتور جستجو کمک می کند.
علاوه بر این، روبات ها. فایل txt میتواند حاوی یک مرجع به نقشه سایت XML باشد تا خزندهها را در مورد ساختار URL یک وبسایت مطلع کند. صفحات فرعی منفرد نیز می توانند با استفاده از برچسب متا تگ روبات ها و به عنوان مثال مقدار noindex از فهرست بندی حذف شوند .
ساختار پروتکل ROBOTS.TXT
به اصطلاح "پروتکل استاندارد حذف روبات" در سال 1994 منتشر شد. این پروتکل بیان می کند که ربات های موتور جستجو (همچنین: عامل کاربر) ابتدا به دنبال فایلی به نام "robots.txt" می گردند و دستورالعمل های آن را قبل از شروع فهرست بندی می خوانند.
بنابراین یک فایل robots.txt باید در دایرکتوری ریشه دامنه با این نام فایل با حروف کوچک ثبت شود، زیرا خواندن robots-txt به حروف کوچک حساس است. همین امر در مورد دایرکتوری هایی که robots.txt در آنها ذکر شده است نیز صدق می کند.
با این حال، باید توجه داشت که همه خزندهها به این قوانین پایبند نیستند، بنابراین robots.txt هیچ گونه حفاظت دسترسی ارائه نمیکند. تعدادی از موتورهای جستجو هنوز صفحات مسدود شده را فهرست می کنند و این صفحات را بدون متن توضیحات در نتایج موتور جستجو نشان می دهند.
این امر به ویژه در مورد صفحاتی که به طور گسترده پیوند دارند رخ می دهد. با بک لینک از سایر وب سایت ها، ربات متوجه یک وب سایت بدون جهت از robots.txt می شود. با این حال، مهم ترین موتورهای جستجو مانند گوگل ، یاهو و بینگ با robots.txt مطابقت دارند.
ایجاد و کنترل robots.txt
ساخت robots.txt با ویرایشگر متن آسان است، زیرا می توان آن را در قالب Plaintext ذخیره کرد و خواند. علاوه بر این، میتوانید ابزارهای رایگان را به صورت آنلاین پیدا کنید که مهمترین اطلاعات را برای robots.txt جستجو میکنند و فایل را بهطور خودکار ایجاد میکنند
. Robots.txt حتی می تواند با کنسول جستجوی Google ایجاد و آزمایش شود .
هر فایل از دو بلوک تشکیل شده است. ابتدا، سازنده مشخص میکند که دستورالعملها برای کدام عامل (ها) کاربر باید اعمال شوند. به دنبال آن یک بلوک با مقدمه "عدم اجازه" وجود دارد، پس از آن می توان صفحاتی را که از فهرست بندی حذف می شوند فهرست کرد.
به صورت اختیاری، بلوک دوم میتواند شامل دستورالعمل «اجازه» باشد تا از طریق بلوک سوم «عدم اجازه» تکمیل شود تا دستورالعملها را مشخص کند.
قبل از روبات ها txt در دایرکتوری ریشه وب سایت آپلود می شود، فایل همیشه باید از نظر صحت بررسی شود.
حتی کوچکترین خطاها در نحو می تواند باعث شود که User Agent پیش فرض ها را نادیده بگیرد و صفحاتی را که نباید در فهرست موتور جستجو ظاهر شوند بخزد. برای بررسی اینکه آیا ربات ها. فایل txt همانطور که باید کار می کند، تجزیه و تحلیل را می توان در کنسول جستجوی گوگل در زیر "وضعیت" -> "URL های مسدود شده" انجام داد. [1] در منطقه "خزیدن"، یک روبات. تستر txt در دسترس است.
حذف صفحات از فهرست با robots
ساده ترین ساختار robots.txt به شرح زیر است:
User-agent: Googlebot
Disallow:
این کد به Googlebot اجازه می دهد تا تمام صفحات را بخزد. برعکس این، یعنی ممنوع کردن وب خزنده ها برای خزیدن کل حضور آنلاین، به این صورت است:
User-agent: Googlebot
Disallow: /
در خط "کاربر-عامل" کاربر، عوامل کاربری را که دستورالعمل ها برای آنها معتبر است، ثبت می کند. به عنوان مثال ورودی های زیر را می توان ایجاد کرد:
Googlebot ( موتور جستجوی گوگل )
Googlebot-Image (جستجوی تصویر در گوگل)
Adsbot-Google (Google AdWords)
Slurp (یاهو)
bingbot (بینگ)
اگر باید به چندین عامل کاربر خطاب شود، هر ربات یک خط مخصوص به خود را دریافت می کند. مروری بر تمام دستورات و پارامترهای رایج برای robots.txt. را می توان در mindshape.de یافت.
پیوند به XML-Sitemap را می توان به صورت زیر پیاده سازی کرد:
نقشه سایت: http://www.domain.de/sitemap.xml
از Robots.txt با حروف عام استفاده کنید
پروتکل حذف ربات ها عبارات منظم (کارت های عام) را به دقیق ترین معنای مجاز نمی داند. اما اپراتورهای بزرگ موتورهای جستجو از عبارات خاصی مانند * و $ پشتیبانی می کنند.
این بدان معناست که عبارات منظم معمولاً فقط با دستور Disallow برای حذف فایلها، فهرستها یا وبسایتها استفاده میشوند.
کاراکتر * به عنوان یک مکان نگهدار برای هر رشته ای که از آن پیروی می کند عمل می کند. خزندهها وبسایتهایی را که حاوی این رشته هستند فهرستبندی نمیکنند، مشروط رتبهبندی روباتها برای تجارت رتبهبندی روباتها برای تجارت بر اینکه از نحو حروف عام پشتیبانی کنند. برای عامل کاربر، این بدان معنی است که این دستورالعمل برای همه خزنده ها - حتی بدون تعیین رشته کاراکتر - اعمال می شود. یک مثال:
User-agent: *
Disallow: *autos
این دستورالعمل تمام وب سایت های حاوی رشته «autos» را فهرست نمی کند.
این اغلب برای پارامترهایی مانند شناسه جلسه (به عنوان مثال، با Disallow: *sid) یا پارامترهای URL (به عنوان مثال، با Disallow: /*؟) استفاده می شود تا به اصطلاح URL های بدون خزیدن را حذف کند.
کاراکتر $ به عنوان یک مکان نگهدار برای یک قانون فیلتر استفاده می شود که در انتهای یک رشته اعمال می شود. خزنده محتوایی را که به این رشته کاراکتر ختم می شود فهرست نمی کند. یک مثال:
User-agent: *
Disallow: *.autos$
. به طور مشابه، این می تواند به فرمت های مختلف فایل منتقل شود
: به عنوان مثال
.pdf (با Disallow: /*. pdf$)،. xls (با Disallow: /*. xls$) یا سایر فرمتهای فایل مانند تصاویر، فایلهای برنامه یا فایلهای گزارش را میتوان برای جلوگیری از نمایه شدن آنها توسط موتورهای جستجو انتخاب کرد. مجدداً، دستورالعمل به رفتار همه خزندهها (user-agent: *) اشاره میکند که از حروف عام پشتیبانی میکنند.
مثال robots.txt
# robots.txt for http://www.example.com/
User-agent: UniversalRobot/1.0
User-agent: my-robot
Disallow: /sources/dtd/
User-agent: *
Disallow: /nonsense/
Disallow: /temp/
Disallow: /newsticker.shtml
robots و ارتباط با سئو
روبات ها txt یک صفحه تأثیر قابل توجهی در بهینه سازی موتورهای جستجو دارد . با صفحات حذف شده توسط روبات ها. txt، یک وبسایت معمولاً نمیتواند رتبهبندی کند یا با یک متن مکاننما در SERP ظاهر شود . بنابراین محدودیت بیش از حد عامل های کاربر می تواند باعث ایجاد معایبی در رتبه بندی شود .
نشانگذاری دستورالعملها که خیلی باز است میتواند منجر به صفحاتی شود که حاوی محتوای تکراری هستند یا بر مناطق حساس مانند ورود تأثیر میگذارند. هنگام ایجاد ربات ها فایل txt، دقت با توجه به نحو ضروری است. مورد دوم در مورد استفاده از حروف عام نیز صدق می کند، به همین دلیل است که آزمایش در کنسول جستجوی گوگل منطقی است.
با این حال، مهم است که دستورات در روبات. txt از نمایه سازی جلوگیری نمی کند. در این حالت، مدیران وبسایتها باید به جای آن از متا تگ Noindex استفاده کنند و با مشخص کردن آنها در هدر، صفحات جداگانه را از ایندکس شدن حذف کنند.
روبات ها فایل txt مهمترین راه برای مدیران وب سایت برای کنترل رفتار خزنده های موتورهای جستجو است. اگر خطا در اینجا رخ دهد، وب سایت ها می توانند در دسترس نباشند، زیرا URL ها به هیچ وجه خزیده نمی شوند و بنابراین نمی توانند در فهرست موتورهای جستجو ظاهر شوند. این سوال که کدام صفحات باید ایندکس شوند و کدام صفحات تاثیری غیرمستقیم بر نحوه مشاهده یا حتی ثبت وب سایت ها توسط موتورهای جستجو دارد.
در اصل، استفاده صحیح از یک ربات. txt هیچ تاثیر مثبت یا منفی بر رتبه واقعی یک وب سایت در SERP ها ندارد.
بلکه برای کنترل کار Googlebots و استفاده بهینه از Crawl Budget استفاده می شود. استفاده صحیح از فایل تضمین می کند که تمام قسمت های مهم دامنه خزیده شده و در نتیجه محتوای به روز توسط گوگل ایندکس می شود.
آمار و اطلاعات ربات تکست یا robots.txt چیست و چگونه بسازیم؟
اشتراک گذاری
مقالات مربوطه
فایل مخصوص سیستم متناسب با بسته انتخابی را از طریق گزینه "rank.zip" یا "alexa.zip" دانلود و.
بسته به پیچیدگی و مدرن بودن مهارت های SEO شخصی شما ، رنک برین ممکن است رتبهبندی روباتها برای تجارت نشان دهنده یک تغییر جزئی.
در مقاله قبلی زیر 155 فاکتور مهم گوگل را برایتان گردآوری کردیم فاکتورهای رتبه بندی گوگل لیست.
قبل از اینکه الکسای آمازون به عنوان دستیار صوتی غول تجارت الکترونیک شناخته شود، این نام سایت رتبه.
بازاریابی اینترنتی اخیراً آنقدر رتبهبندی روباتها برای تجارت تکامل یافته است که کل فرآیند کار را تغییر داده است. مشاور.
اعلام نتایج رده بندی تیمهای مسابقات روباتیک خوارزمی در روز 25 آذر
رئیس کمیته تخصصی مسابقات ملی روباتیک خوارزمی با بیان اینکه مسابقات در 12 لیگ برگزار شد، گفت: این مسابقات تا فردا 11 آبان ماه ادامه دارد و نتایج نفرات برتر هر لیگ در پایان مسابقات اعلام می شود اما نتایج رتبه بندی تیمها در 25 آذر اعلام می شود.
دکتر زرین تاج برنایی در گفتگو با خبرنگار مهر افزود: این دوره از مسابقات ملی روباتیک خوارزمی شامل لیگهای روبات شبیه ساز فوتبالیست دو بعدی و سه بعدی، شبیه ساز امداد، روباتهای امدادگر واقعی، مین یاب دستی و اتوماتیک، روباتهای انسان نما، روباتهای فوتبالیست سایز کوچک و میکروماوس می شود.
وی با اشاره به لیگهای جدید در این دوره از مسابقات افزود: در این دوره از رقابتها چهار لیگ عاملهای هوشمند در تجارت الکترونیک (TAC)، روبات جراح، شبیه ساز جنگ و روباتهای متحرک هوایی، دریایی و زمینی به مجموع لیگهای قبلی اضافه شدند.
برنایی با تاکید بر اینکه در این رقابتها 360 تیم ثبت نام کردند، اظهار داشت: پس از بررسی مستندات شرکت کنندگان 217 تیم برای شرکت در این مسابقه انتخاب شدند.
رئیس کمیته تخصصی مسابقات ملی روباتیک خوارزمی با بیان اینکه رقابتهای روباتیک توسط دو کمیته علمی و اجرایی داوری می شود، ادامه داد: نتایج نهایی این رقابتها بر اساس رای داوران کمیته ها اعلام می شود. 50 درصد نمره از طریق مستندات ارائه شده از سوی تیمها شامل سابقه حضور در رقابتهای قبلی، سوابق تحصیلی، مقالات ارائه شده در زمینه طراحی و ساخت روباتها، کاربردی شدن روبات طراحی شده در بخش صنعت و همچنین جذب بودجه از بخش صنعت برای طراحی و ساخت روبات اختصاص داده می شود. 50 درصد بقیه شامل نحوه حضور آنها در زمین است.
وی با بیان اینکه این مسابقات از دوم آبان ماه آغاز شده است و تا 11 آبان ماه ادامه داد، خاطرنشان کرد: در پایان این دوره از مسابقات نفرات اول تا سوم هر لیگ معرفی می شود ولی نتایج رده بندی تیمها پس از بررسی مستندات ارائه شده به هیئت داوران و اعلام می شود.
برنایی اضافه کرد: نتایج نهایی این دوره از رقابتها در روز 25 آذر ماه همزمان با برگزاری جشنواره خوارزمی اعلام می شود.
الکسا چیست؟ آیا رتبه الکسا همیشه مهم است؟
توضیح: این درس در مورد سایت الکسا متعلق به شرکت آمازون است که سرویس رتبه بندی سایتها را انجام میدهد. سیستم دستیار هوشمند الکسا که آن هم متعلق به آمازون است و در دستگاه تشخیص صوتی آمازون اکو مورد استفاده قرار میگیرد، با این درس ارتباطی ندارد.
تمایل به رتبه بندی همیشه در میان ما انسانها وجود داشته است.
بخشی از این تمایل به رتبه بندی، در میل ذاتی ما به رقابت ریشه دارد و بخشی دیگر هم، استفاده از رتبه بندی برای مقایسه و تشخیص قویترها و ضعیفترهاست.
فضای آنلاین هم، مجموعه ابزارهای گستردهای را در اختیار فعالان دیجیتال قرار داده تا بتوانند به شیوههای متفاوت، در رتبه بندیها شرکت کرده و خود را با دیگران مقایسه کنند.
یکی از این ابزارهای رتبه بندی، سرویسی است که توسط سایت الکسا متعلق به شرکت آمازون ارائه میشود.
شاید شما هم افراد زیادی را دیده باشید که در مورد رنک الکسا (Alexa Rank) یا رتبه الکسای سایت خود صحبت میکنند و آن را به عنوان یکی از شاخص های عملکردی خود در نظر میگیرند.
به همین علت این درس را به معرفی سرویس رتبه بندی الکسا و بحثهای مرتبط با رنکینگ سایت دادهایم.
اگر با رتبهبندی روباتها برای تجارت الکسا و مفهوم رتبه الکسا آشنا هستید، میتوانید مستقیم به سراغ روش های کاهش رتبه الکسا بروید.
تاریخچه شرکت الکسا
سرویسی که ما امروز به اسم الکسا یا الکسا رنکینک میشناسیم توسط شرکت الکسا اینترنت عرضه میشود. این شرکت در سال ۱۹۹۶ با هدف ارزیابی و سنجش ترافیک اطلاعات در فضای وب و آرشیو کردن صفحات وب تشکیل شد.
آمازون شرکت الکسا اینترنت را سه سال بعد در سال ۱۹۹۹ خریداری کرد و تاکنون، مالکیت شرکت الکسا اینترنت و طبیعتاً سرویس رتبه بندی الکسا را در اختیار داشته است.
اگر با سایت و رتبه الکسا آشنایی ندارید پیشنهاد میکنیم ابتدا به http://www.alexa.com سر بزنید و آدرس یک سایت را در آن تایپ کنید تا بتوانید رتبه سایت در الکسا را ببینید و سپس به مطالعهی درس ادامه دهید.
عدد کوچکتر به معنای رتبهی بهتر است و همانطور که میتوانید حدس بزنید رتبهی سایتهای گوگل و فیس بوک تک رقمی است.
به عنوان نمونه الکسا سایت دیوار (divar.ir) را در اینجا میبینید:
عددی که در سمت چپ بالای تصویر نمایش داده شده (۳۶۳) رنک الکسای سایت دیوار در روز مورد بررسی است. این عدد نشان میدهد که دیوار در میان کل سایتهای جهان، رتبه ۳۶۳ را کسب کرده است.
عدد سمت چپ پایین تصویر، رتبه سایت دیوار در میان سایتهای ایرانی را نشان میدهد (۸).
طبیعتاً سایتها به کاهش رتبه الکسا علاقه دارند و بر این اساس، میتوان گفت وضع دیوار در دورهی ۹۰ روزهی مورد بررسی خوب بوده است. چون رتبهی آن از ۴۰۲ به ۳۶۳ کاهش پیدا کرده است. (البته الکسا نمودار را برعکس قرارداد رایج ترسیم میکند. بنابراین کاهش رتبه را به وسیلهی بالا رفتن منحنی نمایش میدهد).
رتبه الکسا چه چیزی را نشان میدهد؟
الکسا در سایت خود اعلام کرده که رتبه وبسایتها را بر اساس تعداد بازدیدکنندگان و متوسط تعداد صفحاتی که هر نفر در سایت بازدید کرده محاسبه میکند.
البته در گزارش الکسا پارامترهای دیگری مانند نرخ بانس و متوسط مدت زمان حضور کاربران در سایت هم ارائه میشود، اما این پارامترها در محاسبهی رتبه سایتها مورد استفاده قرار نمیگیرند.
جدای از اعلام رسمی الکسا، ما در متمم هم با بررسی چند صد مورد از سایتهای برتر کشور به این نتیجه رسیدیم که ضریب همبستگی بین مدت زمان حضور در سایت و نرخ بانس با رتبه سایتها نزدیک به صفر است.
[ درس مرتبط: نرخ بانس چیست؟ ]
[ تحقیق در مورد الکسا: بررسی چهارصد سایت برتر کشور ]
الکسا چگونه رتبه سایتها را محاسبه میکند؟
دوست عزیز. دسترسی کامل مجموعه درسهای سواد دیجیتال برای اعضای ویژهی متمم در نظر گرفته شده است.
تعداد درسها: ۷۱ عدد
دانشجویان این درس: ۵۹۲۶ نفر
تمرینهای ثبتشده: ۳۳۳۲ مورد
البته با عضویت ویژه، به مجموعه درسهای بسیار بیشتری به شرح زیر دسترسی پیدا میکنید:
البته اگر به تسلط بر تکنولوژی و سواد دیجیتال علاقه دارید، احتمالاً مطالعهی مباحث زیر برایتان در اولویت خواهد بود:
دوره MBA (پیگیری منظم مجموعه درسها)
اگر با فضای متمم آشنا نیستید و دوست دارید دربارهی متمم بیشتر بدانید، میتوانید نظرات دوستان متممی را دربارهی متمم بخوانید و ببینید متمم برایتان مناسب است یا نه. این افراد کسانی هستند که برای مدت طولانی با متمم همراه بوده و آن را به خوبی میشناسند:
اگر منظور کسی که این سوال را میپرسد، رابطه رتبهی الکسا با ترافیک کلی ناشی از موتورهای جستجو باشد، اگر چه به سادگی نمیتوان چنین رابطهای را تعریف کرد یا توضیح داد اما به عنوان یک جواب سطحی (که الزاماً قابل اتکا یا دفاع نیست) میتوانیم بگوییم: قاعدتاً اگر سئوی سایت شما بهتر شود، ترافیک سایت شما افزایش خواهد یافت و این مسئله باعث میشود رتبهی شما در الکسا هم بهتر شود؛ اما عکس این مسئله الزاماً صحیح نیست. اتفاقاً ترافیک بیشتر میتواند موجب خراب شدن رتبهی شما در برخی کلمات کلیدی شود. خصوصاً اگر کسانی که به صفحهی مورد نظر شما سر میزنند، رفتارهایی نشان دهند که موتورهای جستجو آنها را به رضایت بازدیدکننده تفسیر نکنند.
برای کاهش رتبه الکسا چه تکنیکهایی وجود دارد؟
همانطور که گفتیم، کاهش رتبه سایت در الکسا در سه حالت ممکن است برای شما مهم باشد:
- اینکه در مقایسه با رقبا ادعا کنید مخاطب بیشتری دارید (حداقل عامهی مردم را قانع میکند)
- اینکه در برخورد اول وقتی کسی با سایت شما آشنا میشود، آن را معتبرتر فرض کند (البته دیر یا زود، برداشت واقعیتری پیدا خواهد کرد)
- اینکه بخواهید در سایت خود فضای تبلیغاتی در نظر بگیرید و به دیگران بفروشید (که یکی از مهمترین معیارها، رنک الکسا خواهد بود)
احتمالاً میدانید که کسب و کارهای متعددی در ایران وجود دارند که در ازاء دریافت مبلغ مشخصی، روشهایی را برای کاهش سریع رتبه الکسا روی سایت شما اجرا میکنند (از جمله استفاده از روباتها؛ استفاده از کدهای Injectشده داخل اپلیکیشنها و …).
این روشها واقعاً سریع عمل میکنند، اما معمولاً به همان سرعتی که کاهش رتبه از این طریق به عمل میآید، بازگشت رتبه به سطح قبلی هم در انتظارتان خواهد بود (مگر اینکه دائماً هزینهای را به آنها پرداخت کنید و بعداً از محل فریبدادن دیگران با رتبهی صوری، هزینهی انجام شده را جبران کنید).
اما به فرض که یکی از انگیزههای سهگانهی گفتهشده در شما قوی است و میخواهید از روشهای سادهتر برای کاهش رتبه الکسا استفاده کنید، پیشنهاد میکنیم راهکارهای زیر را مد نظر قرار دهید:
اگر سایت شرکتی دارید، بخشی از آن را به وبلاگ اختصاص دهید. وبلاگ ضمن اینکه مخاطبان فعلی شما را به مراجعهی مکرر به سایت ترغیب میکند، ترافیک ورودی سئو شما را هم افزایش خواهد داد (سه منشاء اصلی ترافیک سایت چیست؟)
به فکر بکلینک داشتن از سایتهای خوب و قوی باشید. لینک داشتن از سایتهای دیگر، اگر چه در حال حاضر بر خلاف گذشته تأثیر چندانی روی سئو ندارد، اما ترافیک ورودی میتواند در بهبود رتبه الکسا سایت شما موثر باشد (اگر نمیدانید چرا اهمیت لینک از سایتهای دیگر کم شده، میتوانید تاریخچه سئو را بخوانید).
مطالب سریالی بنویسید. مطالب سریالی خواننده را تشویق میکنند که تعداد صفحات بیشتری را بخواند و Page View (به عنوان یکی از عوامل کلیدی در رتبه الکسا) بهتر شود.
برای لینک سازی داخلی وقت بگذارید. لینکسازی داخلی عمق کلیک را افزایش میدهد و مستقیماً روی الکسا تأثیر میگذارد. با خودتان قرار بگذارید که هر مطلبی که منتشر میکنید، حداقل از ۳ یا ۴ مطلب دیگر در سایت خودتان لینک داشته باشد و علاوه بر آن، مخاطب را حداقل به ۲ یا ۳ مطلب دیگر از خودتان ارجاع دهد (عددها مهم نیستند؛ مهم تعریف یک استاندارد برای لینک های ورودی و خروجی و وفادار ماندن به آن است).
به بهینه سازی سایت برای موتورهای جستجو (سئو) اهمیت بدهید. بر خلاف الکسا که نمیتواند روی سئو تأثیر چندانی بگذارد، سئو با افزایش ترافیک ورودی روی الکسا تأثیر میگذارد.
اگر در شبکه های اجتماعی فعال هستید، مطالب خود را پس از انتشار در آنجا معرفی کنید. ترافیک شبکه های اجتماعی به کاهش رتبه الکسا کمک میکند. اما به خاطر داشته باشید که اصول استراتژی محتوا و بازاریابی محتوا را رعایت کنید. بازنشر دقیقاً یک مطلب در چند رسانهی مختلف، یک استراتژی قوی نیست. بلکه باید بخشهایی از مطلب، یا جملات کلیدی مطلب را منتشر کرده و سپس به مطلب کامل لینک دهید. کسی که پست شما را در اینستاگرام، تلگرام یا توییتر میخواند و به سایت شما نمیآید، باز هم باید چیزی به دست آورده باشد.
دیدگاه شما