Bing قدرتمندتر میشه! ابزار وبمستر آپدیت میشه و به کمکت میاد!

blue-bing-robot-tools

خبر خوب برای کسایی که با سئو (بهینه سازی سایت برای موتورهای جستجو) سروکله میزنن!

مایکروسافت یه سری آپدیت باحال برای ابزار وبمستر Bing (Bing Webmaster Tools) منتشر کرده که به بهتر دیده شدن سایتتون توی موتور جستجوی Bing و بقیه جاها کمک زیادی میکنه.

این آپدیتا شامل دو تا گزارش جدید هستن:

  • گزارش (Bing IndexNow Insights): این گزارش به شما نشون میده که آدرس های اینترنتی (URL) که با  IndexNow ثبت کردید، چطور دارن کار میکنن و فراتر از اون، اطلاعات بیشتری هم بهتون میده.
  • گزارش “بالاترین بینش های سئو” (Top SEO Insights): این گزارش مهم ترین مشکلات سئوی سایتتون رو بهتون نشون میده و بهتون کمک میکنه تا اونها رو برطرف کنید.

خلاصه اینکه، این آپدیتای جدید بهتون کمک میکنن تا سایتتون رو بهتر توی نتایج جستجو بالا بیارید و راحت تر دیده بشید.

یه نکته جالب دیگه: تعداد آدرس های اینترنتی ثبت شده با “IndexNaw” به 2.5 میلیارد تا رسیده که نسبت به 6 ماه پیش، دو برابر شده! همچنین، 17 درصد از کلیک های روی نتایج جستجوی وب، مربوط به آدرس هایی هست که با “ایندکس ناو” ثبت شدن. این یعنی “ایندکس ناو” داره به یه ابزار قدرتمند برای دیده شدن توی نتایج جستجو تبدیل میشه.

گزارش های IndexNow Insights: اطلاعات مفیدتر برای دیده شدن بهتر سایت شما

ابزار جدید “بینگ ایندکس ناو اینسایتس” (Bing IndexNow Insights) به گفته فابريس كانل، مدیر محصول ارشد مایکروسافت، “با ارائه بینش های کاربردی در مورد آدرس های اینترنتی (URL) ثبت شده با ایندکس ناو، به بهبود دیده شدن و رتبه بندی آنها کمک می کند.” این گزارش علاوه بر معیارهای کلی، گزارش های دقیق تری هم در اختیار شما قرار می دهد.

گزارش قبلی، فقط URL های ثبت شده در 24 ساعت گذشته را نشان می داد. اما گزارش جدید، تعداد URL ها را به همراه روند تغییرات و اطلاعات کاربردی بیشتری نمایش می دهد. همچنین، این گزارش URL هایی را که از طریق خزیدن (crawling) یا روش های دیگر و نه با ایندکس ناو کشف شده اند نیز به شما نشان می دهد.

IndexNow-Top-Insights

یه عالمه قابلیت باحال برگشته! بیایید ببینیم چیا توش گیرمون میاد:

  • دردسرهای URL های خزیده و وضعیت URL های ثبت شده رو بفهم: دیگه نگران این نباشی که چرا یه URL خاص ایندکس نشده! این گزارش بهت میگه چه مشکلاتی ممکنه وجود داشته باشه.
  • تعداد URL های ثبت شده، خزیده شده و ایندکس شده رو ببین: حالا میتونی دقیقاً ببینی چندتا URL رو ثبت کردی، چندتا خزیده شدن و چندتا هم ایندکس شدن. دیگه لازم نیست حدس بزنی!
  • آخرین 1000 URL ثبت شده رو چک کن: ببین کدوم URL ها تازه ثبت شدن، کی ایندکس شدن و آیا با تاخیر ثبت شدن یا نه. با این اطلاعات میتونی بهتر برنامه ریزی کنی.
  • ببین URL ها از کجا ثبت شدن: فرقی نمیکنه URL ها رو با کلودفلر، وردپرس، خودت دستی یا هر روش دیگه ای ثبت کرده باشی، این گزارش بهت نشون میده.
  • لینک های مهمی که جا مونده رو پیدا کن: این بخش بهت نشون میده کدوم لینک های جدید که کشف شدن دارن کلیک میخورن ولی تو ایندکس ناو نبودن. با این اطلاعات میتونی جلوی این مشکل رو بگیری.
  • اطلاعات دقیق درباره خطاهای URL ها: اگه URL ای ایندکس نشده، این گزارش بهت میگه مشکل از چی بوده، مثلا کیفیت محتوا، ربات های مسدود کننده، خزیده نشدن، ایندکس شدن یا لینک های خراب.
  • برای URL های ایندکس نشده عمیق تر بررسی کن: میتونی برای هر URL غیر ایندکس شده، نمونه URL ها، زمان ثبت و راه حل های رفع مشکل رو ببینی. دیگه لازم نیست دنبال سوزن تو انبار کاه بگردی!
  • روند ایندکس شدن رو برای تحلیل و گزارش بیشتر، صادر کن: اگه میخوای اطلاعات رو با بقیه به اشتراک بذاری یا بیشتر تحلیل کنی، میتونی روند ایندکس شدن رو به صورت خروجی بگیری.

گزارش برترين بينش های سئو (Top SEO Insights)

یه گزارش جدید دیگه هم به ابزار وبمستر Bing اضافه شده به اسم “برترين بينش های سئو” (Top SEO Insights). این گزارش یه لیست مرتب و اولویت بندی شده از مهم ترین مشکلات سئوی سایت شما رو به نمایش میذاره که توسط Bing شناسایی شده.

مایکروسافت میگه: “برترین بینش ها مجموعه ای از توصیه های شخصی سازی شده و اولویت بندی شده رو ارائه میده که به وبمسترها اجازه میده تا مهم ترین کارها برای بهینه سازی وب سایت رو شناسایی و روی اونها تمرکز کنن.” این بخش به شما کمک میکنه تا مشکلات کیفیت محتوا، نحوه بهبود پوشش ایندکس شدن، ردیابی پیشرفت و تاثیرگذاری، یا بهینه سازی داده های ساختاریافته و بک لینک ها رو حل کنین.

با این آپدیت های جدید، دیگه نگران دیده شدن سایتتون توی نتایج جستجو نباشین! Bing اینجاست تا بهتون کمک کنه!

top-insights

در اینجا یک اسکرین شات از گزارش تمرین با جزئیات بیشتر آمده است:​

TopInsights2

ابزار وبمستر Bing یه شکل جدید شده!

  • قبلا یه بخش جداگانه به اسم “سئو” (SEO) تو این ابزار بود. حالا دیگه اون بخش رو برداشتن و همه چی رو مستقیم تو صفحه اصلی لیست کردن. خلاصه اینکه دیگه دنبال بخش “سئو” نگردین!
  • یه سری تغییرات دیگه هم دادن که خیلیم جزئی هستن. مثلا اگه شما از قابلیت “ثبت آدرس اینترنتی (URL) تو بینگ” استفاده نمی کنید، گزینه مربوط به اون تو لیست اصلی نمایش داده نمیشه. اینجوری صفحه اصلی خلوت تر و مرتب تر میشه.

با این تغییرات، دسترسی به بخش های مهم راحت تر شده و دیگه لازم نیست تو بخش های مختلف دنبال گزینه مورد نظرتون بگردین.

bwt-nav-bar

چرا باید از IndexNow استفاده کنیم؟

اگه هنوز از “ایندکس ناو” (IndexNow) استفاده نمی کنید، بهتره یه کم تحقیق کنید و ببینید چطوری میتونید ازش روی سایتتون استفاده کنید. اگه از “کلودفلر” (Cloudflare) استفاده می کنید، فقط کافیه یه دکمه رو روشن کنید، به همین سادگی! تازه خیلی از سیستم های مدیریت محتوا (CMS) هم به طور پیش فرض از “ایندکس ناو” پشتیبانی می کنن.

همچنین، یادتون نره ابزارهای جدیدی که به “ابزار وبمستر بینگ” (Bing Webmaster Tools) اضافه شدن رو هم چک کنید.

ایندکس ناو چیه؟

“ایندکس ناو” یه راهی برای صاحبان سایت هاست که بتونن به سرعت موتورهای جستجو رو از تغییرات جدید محتوای سایتشون مطلع کنن. “ایندکس ناو” یه جور سیستم اطلاع رسانی ساده است که به موتورهای جستجو اطلاع میده که یه آدرس اینترنتی (URL) و محتوای اون اضافه شده، تغییر کرده یا حذف شده. اینطوری موتورهای جستجو میتونن به سرعت این تغییرات رو تو نتایج جستجو اعمال کنن. “اشتراک گذاری مشترک ایندکس ناو” از ماه ژانویه 2022 به طور کامل فعال شده.

چطوری کار می کنه؟

این سیستم خیلی راحته، فقط کافیه یه کلید (key) روی سرورتون درست کنید و بعد اون آدرس اینترنتی (URL) رو به موتور جستجو بفرستید تا به “ایندکس ناو” خبر بدین که تغییری اتفاق افتاده. مراحلش به این صورته:

  1. با استفاده از ابزار آنلاین تولید کلید، یه کلید که با این سیستم سازگار باشه، درست کنید.
  2. این کلید رو تو یه فایل متنی با اسم همون کلید، تو ریشه (root) سایتتون قرار بدین.
  3. از زمانی که آدرس های اینترنتی (URL) اضافه، تغییر یا حذف شدن، شروع کنید به ارسال اونها. میتونید هر بار یه URL یا یه مجموعه URL رو با هم ارسال کنید.
  4. فرستادن یه URL به سادگی فرستادن یه درخواست ساده HTTP هست که شامل URL تغییر یافته و کلید شما میشه.

اینم نمونه هایی از آدرس های اینترنتی (URL) برای فرستادن URL به “ایندکس ناو”:

منابع

نظرات کاربران

نظرات کاربران

دیدگاه خود را اینجا قرار دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست محتوا

فهرست محتوا

مقالات مرتبط

هوش مصنوعی و خطاهای واقعی: پادکست گوگل زنگ خطر را به صدا درآورد توی یه قسمت جدید از پادکست “Search Off The Record” گوگل، اعضای تیم با یه ابزار به اسم “جمینی” کار کردن تا ببینن میشه ازش برای ساختن محتواهای سئو استفاده کرد. اما تو آزمایششون به یه مشکل برخوردن. اگه از این ابزارهای هوش مصنوعی الکی استفاده کنیم و خوب چکششون نکنیم، ممکنه اطلاعات غلط تولید بشه. تو این بحث، لیزی ساسمن، گری ایلیز و جان مولر هر کدوم نوبتی از جمینی استفاده کردن تا نمونه پست برای شبکه های اجتماعی درباره مفهوم های سئوی فنی بنویسن. تو تحلیل خروجی جمینی، ایلیز یه محدودیت مشترک بین همه ابزارهای هوش مصنوعی رو هایلایت کرد: “مشکل بزرگ من با تقریبا همه هوش مصنوعی های تولید کننده محتوا، درستی اطلاعاته. هرچیزی رو که اونا تحویلت میدن باید چک کنی. این منو میترسونه که الان بخوایم یه چیزی رو بدون بررسی بخونیم و شاید یه چیزی بگیم که اصلا درست نباشه.” مشاوره سئو منسوخ لو رفت این نگرانی از یه توییتی که با هوش مصنوعی ساخته شده بود، نشأت گرفت. تو اون توییت پیشنهاد میداد که از rel=”prev/next” برای بخش بندی صفحات (pagination) استفاده بشه – این تکنیکی هست که گوگل دیگه قبولش نداره. جمینی پیشنهاد داد که این توییت رو منتشر کنن: “بخش بندی صفحات (pagination) سردرد محتوای تکراری رو براتون ایجاد کرده؟ از rel=prev, rel=next استفاده کنید تا گوگل رو توی دنباله محتواهاتون راهنمایی کنید. #سئوفنی، #جستجویگوگل” ساسمن سریع فهمید که این یه توصیه منسوخ شده است. مولر هم تایید کرد که rel=prev و rel=next هنوز پشتیبانی نمیشه: “ایلیز ادامه داد که دیگه این روش کاربردی نداره. میشه ازش استفاده کرد ولی گوگل اصلا بهش توجهی نمیکنه.” قبلا تو پادکست، ساسمن هشدار داده بود که اطلاعات قدیمی ممکنه باعث اشتباه بشه. ساسمن گفت: “اگه یه افسانه یا یه طرز فکری قدیمی راجع به یه موضوع تو اینترنت زیاد بچرخه، ممکنه امروز تو تمرینمون هم مطرح بشه.” و دقیقا همین اتفاق افتاد. زمان زیادی طول نکشید که به یه اطلاعات قدیمی برخوردن. نظارت انسانی همچنان حیاتیه در حالی که تیم ارتباطات جستجوی گوگل، پتانسیل محتواهای تولید شده با هوش مصنوعی رو دیدن، بحث‌شون روی لزوم بررسی صحت اطلاعات توسط انسان تاکید کرد. نگرانی‌های ایلیز نشون دهنده‌ی مبحث گسترده‌ترِ به‌کارگیری مسئولانه‌ی هوش مصنوعیئه. برای جلوگیری از پخش اطلاعات غلط، نظارت انسانی لازمه با اینکه استفاده از هوش مصنوعی برای تولید محتوا داره زیاد میشه، یادتون باشه خروجی‌شون رو بدون تایید کارشناسای اون موضوع، کورکورانه قبول نکنید. چرا مهمه؟ همونطور که تیم خود گوگل نشون داد، درسته که ابزارهای هوش مصنوعی میتونن تو ساختن و آنالیز محتوا کمک کنن، ولی لازمه که با یه دیده‌ی شک منطقی بهشون نگاه کنیم. اینکه بدون فکر از هوش مصنوعی برای تولید محتوا استفاده کنید، ممکنه باعث بشه اطلاعات قدیمی یا غلط منتشر کنید که روی سئو و اعتبار شما تاثیر منفی بذاره.

مردم از هوش مصنوعی تو جستجو راضی‌تر شدن و گوگل امسال می‌خوادش رو بیشتر آپدیت کنه غول فناوری گوگل با استفاده از قابلیت‌های هوش مصنوعی تولیدکننده متن خودش، به “میلیاردها پرس و جو” پاسخ داده و قصد داره “نوع پرس و جوهایی که می‌تونه به کاربراش ارائه بده” رو حتی بیشتر گسترش بده. این صحبت‌های مدیرعامل الفابت/گوگل، ساندار پیچای، در کنفرانس درآمدزایی سه‌ماهه اول ۲۰۲۴ الفابت مطرح شد. بر اساس گفته‌های پیچای، «بررسی‌های هوش مصنوعی» که گوگل اواخر مارس برای تعداد کمی از پرس و جوها در آمریکا و اوایل آوریل برای انگلستان معرفی کرد، باعث افزایش استفاده از جستجو هم شده: «بر اساس آزمایش‌هامون، خوشحالیم که می‌بینیم استفاده از جستجو بین افرادی که از بررسی‌های هوش مصنوعی جدید استفاده می‌کنن، در حال افزایشه و رضایت کاربر از نتایج هم بیشتر شده.» بعداً در بخش پرسش و پاسخ، چندین بار از پیچای در مورد رفتار جستجو و تعامل کاربر در SGE سوال شد. به طور کلی، سالهاست که دیده ایم وقتی یک قابلیت در بخش نتایج طبیعی (ارگانیک) گوگل خوب کار می‌کند، به دنبال آن درآمدزایی هم اتفاق می‌افتد. پس به طور معمول، روندهایی که می‌بینیم به خوبی به بخش‌های دیگر هم منتقل می‌شوند. به طور کلی، فکر می‌کنم با هوش مصنوعی تولیدکننده در جستجو و با توجه به بازدیدهای هوش مصنوعی ما، فکر می‌کنم دامنه‌ی پرسش‌هایی که می‌توانیم به کاربران پاسخ دهیم را گسترش دهیم.می‌توانیم به سوالات پیچیده‌تری و همچنین به طور کلی به سوالات بیشتری پاسخ دهیم. به نظر می‌رسد همه اینها در تمام بخش‌ها تاثیرگذار باشند. خب، واضح است که هنوز اوایل راه هستیم و قرار است محتاطانه عمل کنیم و تجربه کاربری را در اولویت قرار دهیم، اما نسبت به معنای این تغییر خوشبین هستیم.افزایش تعامل را می‌بینیم، اما به نظر من این چیزی است که با گذشت زمان بیشتر خودش را نشان می‌دهد. اما اگر بخواهیم الان به عقب برگردیم، سال گذشته سوالات زیادی وجود داشت، و ما همیشه مطمئن و راحت بودیم که می‌توانیم تجربه کاربری را بهبود ببخشیم.مردم سوال می‌کنند که آیا پاسخ دادن به این نوع سوالات هزینه زیادی دارد یا نه، و ما کاملا مطمئن هستیم که می‌توانیم هزینه پاسخگویی به این پرسش‌ها را مدیریت کنیم. مردم نگران تاخیر بودند. وقتی به پیشرفتی که در زمینه تاخیر و کارایی داشته‌ایم نگاه می‌کنم، احساس راحتی می‌کنیم.سوالاتی در مورد درآمدزایی وجود دارد. و بر اساس تست‌هایی که تا به حال انجام داده‌ایم، من راحت و مطمئن هستم که می‌توانیم این انتقال درآمدزایی را هم به خوبی مدیریت کنیم. این موضوع با گذشت زمان خودش را نشان می‌دهد، اما احساس می‌کنم که در موقعیت خوبی قرار داریم. گوگل به آرامی داره به سمت یه موتور جستجوی “تولیدکننده” (جنریتیو) حرکت می‌کنه. ولی من فکر نمی‌کنم باعث بشه کاربرها راضی‌تر باشن، چون محصولات فعلیشون مثل “مروری با هوش مصنوعی” و “تجربه‌ی جستجوی با هوش مصنوعی” (SGE) اصلا جالب نیستن. اما خب، من یه کاربر معمولی گوگل نیستم – اینم یه جلسه‌ی گزارش مالی بود که توش پیچای استاد اینه که با یه عالمه حرف، هیچی نگه! به نظر میاد SGE قراره تو سال ۲۰۲۴ پیشرفت کنه. تو بخش پرسش و پاسخ، از پیچای پرسیدن که هوش مصنوعی تولیدکننده تا حالا برای چه نوع جستجوهایی بهتر کار کرده. پیچای هم یه جواب کلی داد: “تو SGE و جستجو … داریم تاییدیه‌های اولیه‌ی فرضیه‌مون رو می‌بینیم که این کار باعث می‌شه دنیای جستجوها گسترش پیدا کنه. جایی که ما می‌تونیم ترکیبی از جواب‌های واقعی با لینک به منابع و دیدگاه‌های مختلف رو به کاربر ارائه بدیم. همه‌ی اینا به یه روش نوآورانه انجام می‌شه. ما هم داریم مروری با هوش مصنوعی رو تو آمریکا و انگلیس راه اندازی می‌کنیم که بیشتر روی سوالات پیچیده تمرکز داره، جایی که فکر می‌کنیم SGE به طور واضح تجربه رو بهتر می‌کنه.” “ما تا حالا میلیاردها جستجو رو پوشش دادیم و به نظر می‌رسه تو همه دسته‌بندی‌ها جواب می‌ده. اما هنوز داریم تست می‌کنیم … ما تو این زمینه‌ها بر اساس معیارها حرکت می‌کنیم … ولی خوش‌بینم که این واضحا تجربه کاربری رو بهتر می‌کنه، کاربرا بهمون می‌گن و تو معیارهامون هم می‌بینیمش، و ما امسال به پیشرفت دادن‌ش ادامه می‌دیم.” بعدشم یه سوال دیگه پرسیدن که هوش مصنوعی چطور حجم جستجو یا موارد استفاده از گوگل رو تغییر می‌ده. پیچای هم با یه جواب کلی که راجع به مسیر مثبت و عمیق گوگل حرف می‌زنه، جواب نداد: “ما این لحظه رو برای جستجو یه فرصت مثبت می‌بینیم. فکر می‌کنم بهمون اجازه می‌ده محصولمون رو به شکل عمیقی متحول کنیم. جستجو یه تجربه‌ی منحصر به فرده. مردم میان و می‌تونن، چه بخوان جواب سوالاشون رو پیدا کنن، چه بخوان بیشتر کشف کنن، یا بخوان دیدگاه‌های مختلف رو از سراسر وب ببینن و بتونن تو کل گستره‌ی چیزی که دنبالش هستن این کار رو انجام بدن. فکر می‌کنم این همون نوآوری‌ای هست که لازمه تا همچنان بتونیم این کار رو انجام بدیم، چیزیه که خیلی وقته روش کار می‌کنیم.” “پس احساس می‌کنم با توجه به مسیر نوآوری‌ای که روش هستیم، تو موقعیت فوق‌العاده‌ای قرار داریم. و در کل، این لحظه رو یه فرصت مثبت می‌بینم.”

گوگل تو یه پادکست رسمی (Google Office Hours) درباره خطاهای ۴۰۴ (صفحه پیدا نشد) صحبت می‌کنه تو این پادکست، یه نفر سوال پرسیده بود که آیا خطاهای ۴۰۴ که از منابع خارجی میان (یعنی خود سایت اونا این خطا رو درست نکرده) باعث افت رتبه‌شون شده یا نه. خطاهای ۴۰۴ تقلبی که از بیرون میان! احتمالا دلایل زیادی برای خطاهای ۴۰۴ که توسط ربات‌ها ایجاد می‌شن وجود داره. یه دلیل این خطاها می‌تونه این باشه که این ربات‌های خودکار دنبال فایل‌ها یا پوشه‌هایی هستن که معمولا تو افزونه‌ها یا قالب‌های آسیب‌پذیر پیدا می‌شه. اگه بتونی آدرس آی‌پی و نوع مرورگر رباتی که باعث خطای ۴۰۴ می‌شه رو چک کنی، می‌تونه بهت سرنخ بده که آیا این خطاها واقعا از ربات‌های خودکار هستن یا نه. اگه آدرس آی‌پی نشون بده که از یه شرکت هاستینگ یا یه جای تو روسیه یا چین میاد، احتمالا کار یه هکرِ. همچنین، اگه نوع مرورگر یه نسخه قدیمی از کروم یا فایرفاکس باشه، باز هم احتمالا کار یه ربات هکره. البته این فقط یه دلیله، دلایل دیگه‌ای هم ممکنه وجود داشته باشه. گوگل به سوال جواب میده کسی که سوال پرسیده بود، یه افت رتبه رو با خطاهای ۴۰۴ مرتبط کرده بود. سوال به این شکل بود: “اینکه URL های تقلبی ۴۰۴ از یه منبع خارجی به سایتم میان، می‌تونه باعث افت رتبه بشه؟ چطور می‌تونم این مشکل رو حل کنم؟” پاسخ گوگل گاری ایلیز از گوگل جواب داد: “اگه گوگل‌بات بره سراغ یه ۴۰۴ تقلبی و اونو بخزه (crawl کنه)، نمی‌شه منطقی گفت که این باعث افت رتبه شده. اینکه تو یه سایتی چند تا ۴۰۴ وجود داشته باشه عادیه و لازم نیست حتما درستشون کنی. حالا اگه تو نرم‌افزار تحلیلت دیدی که تعداد زیادی کاربر واقعی هم دارن از اون لینک‌های ۴۰۴ میان، من خودم ترجیح می‌دم اونارو به یه روش‌هایی تغییر بدم، مثلا بهشون یه محتوای مرتبط نشون بدم.” افت رتبه و خطاهای ۴۰۴ (صفحه پیدا نشد) گاری گفت که ۴۰۴ ها عادی هستن و احتمالش خیلی کمِه که باعث افت رتبه تو نتایج جستجو بشن. درسته که خطاهای ۴۰۴ یه اتفاق رایج هستن. معمولا مشکلی نیست و تو اکثر مواقع لازم نیست کاری بکنی. 404 هایی که کاربرای واقعی درست می‌کنن! حالا یه حالت دیگه هم هست که خطای ۴۰۴ رو خود کاربرها درست می‌کنن. مثلا شاید یه نفر از یه جایی یه لینکی رو دنبال کرده باشه که دیگه وجود نداره و به صفحه “صفحه پیدا نشد” برسه. تشخیص این مورد راحته. کافیه چک کنی ببینی آدرسی که کاربر سعی کرده بره بهش، شباهت زیادی به یه آدرس درست تو سایت داره یا نه. اگه شباهت داشت، احتمالا کاربر یه غلط تو نوشتن آدرس داشته. راه حل اینه که یه “مسیرنما” (redirect) درست کنی که کاربر رو از اون آدرس غلط به آدرس درست هدایت کنه. افت رتبه چطور؟ یه چیزی که گاری اصلا بهش اشاره نکرد ولی لازمه بگیم اینه که یه احتمال ضعیف وجود داره که شاید یه ربات واقعا یه آسیب‌پذیری رو پیدا کرده باشه. شاید این ۴۰۴ ها به خاطر یه اسکنری باشن که دنبال اینجور مشکلات می‌گرده و نهایتا یه آسیب‌پذیری رو پیدا کرده. یه راه برای چک کردن این موضوع استفاده از یه برنامه به اسم phpMyAdmin هستش. با این برنامه می‌تونی بری تو بخش “کاربران” تو جداول پایگاه داده‌ت رو نگاه کنی و ببینی یه کاربر ناشناس وجود داره یا نه. یه راه دیگه، اگه سایته با وردپرس ساخته شده، استفاده از یه افزونه امنیتیه. اینجوری می‌تونی کل سایت رو اسکن کنی و ببینی یه قالب یا افزونه آسیب‌پذیر توش استفاده می‌شه یا نه. یه افزونه اسکن رایگان به اسم Jetpack Protect هستش که توسط توسعه‌دهنده‌های Automattic ساخته شده. این افزونه خودش مشکل رو حل نمی‌کنه ولی اگه یه آسیب‌پذیری تو قالب یا افزونه پیدا کنه بهت هشدار می‌ده. نسخه پولی و حرفه‌ای این افزونه هم هست که امکانات بیشتری داره. Sucuri و Wordfence هم دو تا افزونه امنیتی دیگه برای وردپرس هستن که کارهای مختلفی انجام می‌دن و هر دو نسخه رایگان و حرفه‌ای دارن. حالا اگه اینجوری نبود، افت رتبه کاملا تصادفی بوده و دلیل اصلی یه چیز دیگه‌ست.

گوگل یاهو ژاپن رو اذیت می‌کرد که نتونه تو تبلیغات هدفمند تو موتور جستجو باهاش رقابت کنه گوگل ظاهرا از ۲۰۱۵ تا ۲۰۲۲ نمی ذاشته یاهو ژاپن به یه تکنولوژی مهم دسترسی پیدا کنه که بتونه از تبلیغات تو گوشی پول دربیاره! طبق گفته های کمیسیون تجارت عادلانه ژاپن (FTC)، ظاهرا گوگل از سال ۲۰۱۵ تا ۲۰۲۲ کاری می کرده که یاهو ژاپن نتونه به یه تکنولوژی مهم برای تبلیغات هدفمند تو گوشی های موبایل دسترسی داشته باشه. این کمیسیون به گوگل گیر داده و گفته این کارا رو تموم کنه. بعد از اون، گوگل به بلومبرگ گفته که دسترسی به این تکنولوژی که با کلمات کلیدی سر و کار داره رو برای یاهو ژاپن آزاد می کنه. هر کاری که باعث بشه تبلیغ دهنده ها نتونن انتخاب درستی داشته باشن یا به تکنولوژی های لازم برای هدفمند کردن تبلیغات دسترسی نداشته باشن، باعث میشه هزینه تبلیغات بره بالا. این اولین باریه که کمیسیون تجارت عادلانه ژاپن (FTC) به طور رسمی علیه شرکت الفبیت (شرکت مادر گوگل) وارد عمل می‌شه، ولی فعلا هیچ جریمه‌ای براشون در نظر نگرفته. این کمیسیون همچنان به دقت کارهای گوگل رو زیر نظر می‌گیره و می‌تونه هر موقع که لازم باشه دوباره پرونده رو باز کنه. اونا همچنین دارن روی این موضوع که آیا شرکت الفبیت روی تولید کننده‌های گوشی‌های هوشمند تو ژاپن نفوذ داره و باعث می‌شه اولویت با سرویس‌های جستجوی گوگل باشه، تحقیق می‌کنن. این کار باعث می‌شه بیشتر روی کارهای این غول تکنولوژی زوم بشه. تو آمریکا هم هنوز منتظر حکم دادگاه آنتی‌تراست (ضد انحصار) علیه گوگل هستیم. بخشی از این دادگاه درباره این بود که آیا گوگل از ابزارهای تبلیغاتی جستجوی خودش برای اینکه از رقیب‌هاش جلو بیفته استفاده کرده یا نه.

درخواست مشاوره رایگان

آقای سئو در هر زمینه ای مشاوره میده!

آخرین مقالات

هنگامی که شما وب سایتی را می سازید، اسمی را برای ثبت دامنه آن باید معین کنید که به سایت شما اشاره کند.

تنظیم DNS Record در Cpanel یکی از کارهایی که به عنوان یک سئوکار یا حتی ادمین سایت باید از آن اطلاع داشته باشیم تنظیم رکوردهای DNS (Domain Name Server) و

SPF Record چیست ؟ سیستم نام دامنه DNS دارای رکوردهای مختلفی است که رکورد SPF یکی از آنهاست. هدف از ایجاد این رکورد این است که ایمیل‌های اسپم کاهش یابد. در

فایروال یا دیوار آتش ترافیک یک شبکه را کنترل و از دسترسی غیر مجاز به شبکه جلوگیری می‌کند. همه سیستم‌ها به فایروال مجهز هستند تا شبکه را از دسترسی‌های غیر

اشتراک گذاری

توجه: شما مجاز به کپی محتوا یا مشاهده سورس نیستید!!