تاثیر کد وضعیت 503 بر سئو

تاثیر کد وضعیت 503 بر سئو

گوگل میگه قطعی‌های کوتاه‌مدت 503 مشکلی نداره، ولی اگه سایتت زیاد از دسترس خارج بشه، ممکنه ربات‌های گوگل نتونن صفحه‌ات رو ببینن.

کاربرایی که انتظار دارن سایت همیشه بالا باشه، ممکنه از دیدن کد وضعیت 503 ناراحت بشن.

البته، قطعی‌های کوتاه‌مدت اصلا مشکل ندارن.

تو جلسه‌ی ماه آوریل بخش سئوی گوگل، یه سوال در مورد تاثیر کد وضعیت 503 “سرویس در دسترس نیست” مطرح شد. گری ایلیِس، تحلیلگر باسابقه‌ی گوگل، موضع موتور جستجو رو روشن کرد.

گوگل در مورد قطعی‌های کوتاه‌مدت سایت خیالتون رو راحت می‌کنه:

گری ایلیِس از گوگل میگه: “اگه برای مدت طولانی (بیشتر از یه زمان مشخص) کد وضعیت 503 رو نشون بدی، ممکنه ربات‌های گوگل کمتر بیان سراغ سایتت.”

خبر خوب اینکه 10-15 دقیقه قطعی هر از گاهی اصلا طولانی نیست و مشکلی پیش نمیاد.

بالا بودن سایت مهمه، ولی نه همیشه

اینکه سایت هیچ‌وقت از دسترس خارج نشه (100% بالا باشه) ایده‌آله، ولی برای اینکه تو نتایج جستجو گوگل رتبه‌ی خوبی داشته باشی، الزامی نیست.

هر سایتی ممکنه برای تعمیر و به‌روزرسانی یا مشکلات فنی یهو از دسترس خارج بشه.

مهم اینه که این قطعی‌ها کوتاه و کم‌تعداد باشن. تو این صورت، تاثیر زیادی روی کراولینگ و ایندکس‌ شدن سایتت ندارن. حالا مدت طولانی برای قطعی دقیقا مشخص نشده، ولی گوگل گفته که 10-15 دقیقه چند بار تو هفته مشکلی نداره.

قبلا گوگل گفته بود که اگه یه سایتی چند روز پشت سر هم بالا نیاد، صفحه‌‌اش رو از نتایج جستجو حذف می‌کنه.

برای آپدیت برنامه‌ریزی کنید

اگه سایتی قراره برای مدت طولانی از دسترس خارج بشه، خیلی مهمه که از قبل برنامه‌ریزی و استراتژی داشته باشه.

یه‌سری تکنیک‌هایی هست که میشه ازشون استفاده کرد تا وقتی سایت داره بروز میشه یا داره تغییرات اساسی می‌کنه، مشکلات و قطعی‌ها کمتر به چشم کاربر بیاد. مثلا میشه از یه سایت شبیه‌ساز استفاده کرد یا تغییرات رو به مرور و مرحله به مرحله اعمال کرد.

به گفته‌ی آقای ایلیش: «اگه همه چی رو اصولی انجام بدین، یعنی سایت همیشه قابل دسترسی باشه و قطعی‌ها خیلی کوتاه باشن، تغییر تنظیمات نباید تأثیر منفی روی رتبه‌ی صفحات شما تو نتایج جستجوی گوگل داشته باشه.»

درسته که ایده‌آل اینه که سایت هیچ‌وقت از دسترس خارج نشه تا کاربر اذیت نشه، ولی گوگل می‌تونه قطعی‌های کوتاه رو تحمل کنه بدون اینکه رتبه‌ی سایت رو تو نتایج جستجو پایین بیاره.

چرا این مهمه؟

این صحبت‌های گوگل درباره کد وضعیت 503 کوتاه، خیال خیلی از مدیران سایت رو راحت می‌کنه. میدونین که قطعی سایت میتونه روی سئو و دیده شدن تو نتایج گوگل تاثیر منفی بذاره.

خب، خیلی از سایت‌ها به‌صورت مرتب، مثلا هر هفته یا ماه، آپدیت میشن. این آپدیت‌ها نیاز به یه کم قطعی دارن. این قطعی‌ها میتونه برای انتشار محتوای جدید، آپدیت محصولات، وصله‌های امنیتی و مرتب کردن کلی سایت باشه.

بعضی وقت‌ها هم ممکنه قطعی‌های ناخواسته‌ای پیش بیاد، مثلا مشکلات سرور و … .

مهم اینه که اگه این قطعی‌ها موقتی هستن و سریع برطرف میشن، لازم نیست نگران افت رتبه و دیده نشدن تو نتایج گوگل باشین.

چطور به دردتون میخوره؟

اینکه بدونین گوگل تا چه حد کد وضعیت 503 رو تحمل می‌کنه، برای مدیران سایت، توسعه‌دهنده‌ها و متخصصان سئو که با سایت‌ها سروکار دارن، خیلی مفیده.

چندتا نکته مهم:

  • برای به‌روزرسانی‌ها برنامه‌ریزی کنید و قطعی رو کم کنید، ولی برای زمان‌های کوتاه نمایش دادن ارور 503 خودتون رو ناراحت نکنید.
  • آنالیتیک و نظرات کاربران رو زیر نظر داشته باشید تا مطمئن بشید قطعی‌ها روی کاربران تأثیر خیلی بدی نمی‌گذاره.
  • برای سلامت کلی وبسایت، در دسترس بودن (uptime) و رفع سریع خطاها تا جای ممکن اولویت داشته باشند.
  • برای به‌روزرسانی‌های مهم که نیاز به قطعی طولانی‌تر دارن، روش‌هایی مثل انتشار مرحله‌ای رو بررسی کنید تا خطاها رو کم کنید.
  • با داشتن انتظارات منطقی که گوگل تعیین کرده، وبسایت‌ها می‌تونن تصمیمات آگاهانه‌ای در مورد متعادل کردن قطعی‌ها با اولویت‌های سئو بگیرند.

منابع محتوا

نظرات کاربران

نظرات کاربران

دیدگاه خود را اینجا قرار دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست محتوا

فهرست محتوا

مقالات مرتبط

هوش مصنوعی و خطاهای واقعی: پادکست گوگل زنگ خطر را به صدا درآورد توی یه قسمت جدید از پادکست “Search Off The Record” گوگل، اعضای تیم با یه ابزار به اسم “جمینی” کار کردن تا ببینن میشه ازش برای ساختن محتواهای سئو استفاده کرد. اما تو آزمایششون به یه مشکل برخوردن. اگه از این ابزارهای هوش مصنوعی الکی استفاده کنیم و خوب چکششون نکنیم، ممکنه اطلاعات غلط تولید بشه. تو این بحث، لیزی ساسمن، گری ایلیز و جان مولر هر کدوم نوبتی از جمینی استفاده کردن تا نمونه پست برای شبکه های اجتماعی درباره مفهوم های سئوی فنی بنویسن. تو تحلیل خروجی جمینی، ایلیز یه محدودیت مشترک بین همه ابزارهای هوش مصنوعی رو هایلایت کرد: “مشکل بزرگ من با تقریبا همه هوش مصنوعی های تولید کننده محتوا، درستی اطلاعاته. هرچیزی رو که اونا تحویلت میدن باید چک کنی. این منو میترسونه که الان بخوایم یه چیزی رو بدون بررسی بخونیم و شاید یه چیزی بگیم که اصلا درست نباشه.” مشاوره سئو منسوخ لو رفت این نگرانی از یه توییتی که با هوش مصنوعی ساخته شده بود، نشأت گرفت. تو اون توییت پیشنهاد میداد که از rel=”prev/next” برای بخش بندی صفحات (pagination) استفاده بشه – این تکنیکی هست که گوگل دیگه قبولش نداره. جمینی پیشنهاد داد که این توییت رو منتشر کنن: “بخش بندی صفحات (pagination) سردرد محتوای تکراری رو براتون ایجاد کرده؟ از rel=prev, rel=next استفاده کنید تا گوگل رو توی دنباله محتواهاتون راهنمایی کنید. #سئوفنی، #جستجویگوگل” ساسمن سریع فهمید که این یه توصیه منسوخ شده است. مولر هم تایید کرد که rel=prev و rel=next هنوز پشتیبانی نمیشه: “ایلیز ادامه داد که دیگه این روش کاربردی نداره. میشه ازش استفاده کرد ولی گوگل اصلا بهش توجهی نمیکنه.” قبلا تو پادکست، ساسمن هشدار داده بود که اطلاعات قدیمی ممکنه باعث اشتباه بشه. ساسمن گفت: “اگه یه افسانه یا یه طرز فکری قدیمی راجع به یه موضوع تو اینترنت زیاد بچرخه، ممکنه امروز تو تمرینمون هم مطرح بشه.” و دقیقا همین اتفاق افتاد. زمان زیادی طول نکشید که به یه اطلاعات قدیمی برخوردن. نظارت انسانی همچنان حیاتیه در حالی که تیم ارتباطات جستجوی گوگل، پتانسیل محتواهای تولید شده با هوش مصنوعی رو دیدن، بحث‌شون روی لزوم بررسی صحت اطلاعات توسط انسان تاکید کرد. نگرانی‌های ایلیز نشون دهنده‌ی مبحث گسترده‌ترِ به‌کارگیری مسئولانه‌ی هوش مصنوعیئه. برای جلوگیری از پخش اطلاعات غلط، نظارت انسانی لازمه با اینکه استفاده از هوش مصنوعی برای تولید محتوا داره زیاد میشه، یادتون باشه خروجی‌شون رو بدون تایید کارشناسای اون موضوع، کورکورانه قبول نکنید. چرا مهمه؟ همونطور که تیم خود گوگل نشون داد، درسته که ابزارهای هوش مصنوعی میتونن تو ساختن و آنالیز محتوا کمک کنن، ولی لازمه که با یه دیده‌ی شک منطقی بهشون نگاه کنیم. اینکه بدون فکر از هوش مصنوعی برای تولید محتوا استفاده کنید، ممکنه باعث بشه اطلاعات قدیمی یا غلط منتشر کنید که روی سئو و اعتبار شما تاثیر منفی بذاره.

گوگل تو یه پادکست رسمی (Google Office Hours) درباره خطاهای ۴۰۴ (صفحه پیدا نشد) صحبت می‌کنه تو این پادکست، یه نفر سوال پرسیده بود که آیا خطاهای ۴۰۴ که از منابع خارجی میان (یعنی خود سایت اونا این خطا رو درست نکرده) باعث افت رتبه‌شون شده یا نه. خطاهای ۴۰۴ تقلبی که از بیرون میان! احتمالا دلایل زیادی برای خطاهای ۴۰۴ که توسط ربات‌ها ایجاد می‌شن وجود داره. یه دلیل این خطاها می‌تونه این باشه که این ربات‌های خودکار دنبال فایل‌ها یا پوشه‌هایی هستن که معمولا تو افزونه‌ها یا قالب‌های آسیب‌پذیر پیدا می‌شه. اگه بتونی آدرس آی‌پی و نوع مرورگر رباتی که باعث خطای ۴۰۴ می‌شه رو چک کنی، می‌تونه بهت سرنخ بده که آیا این خطاها واقعا از ربات‌های خودکار هستن یا نه. اگه آدرس آی‌پی نشون بده که از یه شرکت هاستینگ یا یه جای تو روسیه یا چین میاد، احتمالا کار یه هکرِ. همچنین، اگه نوع مرورگر یه نسخه قدیمی از کروم یا فایرفاکس باشه، باز هم احتمالا کار یه ربات هکره. البته این فقط یه دلیله، دلایل دیگه‌ای هم ممکنه وجود داشته باشه. گوگل به سوال جواب میده کسی که سوال پرسیده بود، یه افت رتبه رو با خطاهای ۴۰۴ مرتبط کرده بود. سوال به این شکل بود: “اینکه URL های تقلبی ۴۰۴ از یه منبع خارجی به سایتم میان، می‌تونه باعث افت رتبه بشه؟ چطور می‌تونم این مشکل رو حل کنم؟” پاسخ گوگل گاری ایلیز از گوگل جواب داد: “اگه گوگل‌بات بره سراغ یه ۴۰۴ تقلبی و اونو بخزه (crawl کنه)، نمی‌شه منطقی گفت که این باعث افت رتبه شده. اینکه تو یه سایتی چند تا ۴۰۴ وجود داشته باشه عادیه و لازم نیست حتما درستشون کنی. حالا اگه تو نرم‌افزار تحلیلت دیدی که تعداد زیادی کاربر واقعی هم دارن از اون لینک‌های ۴۰۴ میان، من خودم ترجیح می‌دم اونارو به یه روش‌هایی تغییر بدم، مثلا بهشون یه محتوای مرتبط نشون بدم.” افت رتبه و خطاهای ۴۰۴ (صفحه پیدا نشد) گاری گفت که ۴۰۴ ها عادی هستن و احتمالش خیلی کمِه که باعث افت رتبه تو نتایج جستجو بشن. درسته که خطاهای ۴۰۴ یه اتفاق رایج هستن. معمولا مشکلی نیست و تو اکثر مواقع لازم نیست کاری بکنی. 404 هایی که کاربرای واقعی درست می‌کنن! حالا یه حالت دیگه هم هست که خطای ۴۰۴ رو خود کاربرها درست می‌کنن. مثلا شاید یه نفر از یه جایی یه لینکی رو دنبال کرده باشه که دیگه وجود نداره و به صفحه “صفحه پیدا نشد” برسه. تشخیص این مورد راحته. کافیه چک کنی ببینی آدرسی که کاربر سعی کرده بره بهش، شباهت زیادی به یه آدرس درست تو سایت داره یا نه. اگه شباهت داشت، احتمالا کاربر یه غلط تو نوشتن آدرس داشته. راه حل اینه که یه “مسیرنما” (redirect) درست کنی که کاربر رو از اون آدرس غلط به آدرس درست هدایت کنه. افت رتبه چطور؟ یه چیزی که گاری اصلا بهش اشاره نکرد ولی لازمه بگیم اینه که یه احتمال ضعیف وجود داره که شاید یه ربات واقعا یه آسیب‌پذیری رو پیدا کرده باشه. شاید این ۴۰۴ ها به خاطر یه اسکنری باشن که دنبال اینجور مشکلات می‌گرده و نهایتا یه آسیب‌پذیری رو پیدا کرده. یه راه برای چک کردن این موضوع استفاده از یه برنامه به اسم phpMyAdmin هستش. با این برنامه می‌تونی بری تو بخش “کاربران” تو جداول پایگاه داده‌ت رو نگاه کنی و ببینی یه کاربر ناشناس وجود داره یا نه. یه راه دیگه، اگه سایته با وردپرس ساخته شده، استفاده از یه افزونه امنیتیه. اینجوری می‌تونی کل سایت رو اسکن کنی و ببینی یه قالب یا افزونه آسیب‌پذیر توش استفاده می‌شه یا نه. یه افزونه اسکن رایگان به اسم Jetpack Protect هستش که توسط توسعه‌دهنده‌های Automattic ساخته شده. این افزونه خودش مشکل رو حل نمی‌کنه ولی اگه یه آسیب‌پذیری تو قالب یا افزونه پیدا کنه بهت هشدار می‌ده. نسخه پولی و حرفه‌ای این افزونه هم هست که امکانات بیشتری داره. Sucuri و Wordfence هم دو تا افزونه امنیتی دیگه برای وردپرس هستن که کارهای مختلفی انجام می‌دن و هر دو نسخه رایگان و حرفه‌ای دارن. حالا اگه اینجوری نبود، افت رتبه کاملا تصادفی بوده و دلیل اصلی یه چیز دیگه‌ست.

گزارش آسیب پذیری وردپرس ۲۰۲۴ توسط اسکنر امنیتی وردپرس WPScan منتشر شده، این گزارش به ترندهای آسیب پذیری وردپرس اشاره میکنه و پیشنهاد می‌کنه که ناشرهای وبسایت (و متخصصان سئو)

وردپرس یه افزونه رسمی به اسم “Speculative Loading” منتشر کرده که از یه تکنولوژی جدید به همین نام استفاده می‌کنه تا بتونه صفحات سایتت رو خیلی سریعتر بارگذاری کنه. وردپرس یه پلاگین رسمی جدید زده که از یه تکنولوژی باحال به اسم “بارگذاری حدسی” پشتیبانی می‌کنه. این تکنولوژی باعث میشه سایتتون سریع‌تر باز بشه و کاربرها بهتر بتونن تو سایت بچرخن. بارگذاری حدسی بذار ساده‌اش کنم. رندر شدن یعنی کل صفحه وب ساخته بشه تا روی صفحه نمایش داده بشه. مثلا وقتی مرورگر شما کدهای اچ تی املی، عکس‌ها و بقیه چیزایی که لازمه رو دانلود می‌کنه و همه رو کنار هم قرار میده تا صفحه رو بهت نشون بده، این همون رندر شدن میشه. حالا “پیش-رندر شدن” یعنی این کار (ساختن صفحه) رو تو پشت صحنه انجام بدیم، قبل از اینکه کاربر حتی کلیک کرده باشه. این پلاگین چیکار میکنه؟ این پلاگین به مرورگر این اجازه رو میده که کل صفحه بعدی که کاربر ممکنه بره توش رو بصورت پیش‌فرض (تو بک‌گراند) آماده کنه. اینکارو با حدس زدن صفحه بعدی که کاربر ممکنه بره توش، بر اساس جایی که روشون موس رو نگه میداره انجام میده. کروم (مرورگر گوگل) یه تنظیم داره که فقط صفحاتی رو پیش‌فرض آماده میکنه که احتمال اینکه کاربر بهشون بره حداقل ۸۰ درصد باشه. تو صفحه راهنمای رسمی کروم برای پیش‌فرض آماده کردن صفحه اینطور توضیح داده شده: “صفحات فقط باید زمانی بصورت پیش‌فرض آماده بشن که احتمال اینکه کاربر اون صفحه رو باز کنه زیاد باشه. به همین دلیله که گزینه‌های پیش‌فرض آماده کردن صفحه تو نوار آدرس کروم فقط زمانی فعال میشن که این احتمال خیلی زیاد باشه (بیشتر از ۸۰ درصد مواقع).” یه نکته‌ی دیگه هم تو همون صفحه راهنما برای توسعه‌دهنده‌ها ذکر شده که اونم اینه که پیش‌فرض آماده کردن صفحه ممکنه به خاطر تنظیمات کاربر، میزان استفاده از حافظه و شرایط دیگه (جزئیات بیشتر در مورد اینکه آنالیتیکس چطوری با پیش‌فرض آماده کردن صفحه کار میکنه رو پایین‌تر توضیح میدیم) اتفاق نیفته. این قابلیت بارگذاری حدسی یه مشکلی رو حل می‌کنه که راه‌حل‌های قبلی نمی‌تونستن حلش کنن. چون راه‌حل‌های قبلی فقط منابعی مثل جاوا اسکریپت و سی‌اس‌اس رو پیش‌فرض (تو بک‌گراند) آماده می‌کردن، نه کل صفحه رو. تو اعلامیه رسمی وردپرس اینجوری توضیح داده شده: معرفی API قوانین بارگذاری حدسی این API جدید یه راه‌حل برای مشکلات بالا ارائه میده. این قابلیت به ما اجازه میده تا با استفاده از کد JSON، قوانینی رو تعریف کنیم که بر اساس رفتار کاربر (مثلا هاور کردن روی لینک‌ها)، بصورت پویا (لحظه‌ای) آدرس‌های صفحات خاص رو پیش‌فرض آماده کنه یا منابعشون رو دانلود کنه. به عبارت دیگه، این قابلیت به ما اجازه می‌ده URLها رو قبل از اینکه کاربر روشون کلیک کنه، بصورت حدسی آماده کنیم. این API رو میشه برای مثال برای این استفاده کرد که هر لینکی که کاربر روشون موس رو نگه میداره، کل صفحش بصورت پیش‌فرض آماده بشه. صفحه رسمی وردپرس در مورد این قابلیت جدید بیشتر توضیح میده: “این قابلیت بارگذاری حدسی یه API جدید تحت وب هستش… این قابلیت به ما این امکان رو میده که قوانینی رو با فرمت JSON تعریف کنیم تا بر اساس رفتار کاربر (مثل هاور کردن روی لینک‌ها) بصورت پویا آدرس‌های صفحات خاص رو پیش‌فرض آماده کنه یا منابع‌شون رو دانلود کنه. به عبارت دیگه، این قابلیت بهمون اجازه میده تا URLها رو قبل از اینکه کاربر روشون کلیک کنه، حدسی آماده کنیم. مثلا میشه از این API برای این استفاده کرد که هر لینکی که کاربر روشون موس رو نگه میداره، کل صفحش بصورت پیش‌فرض آماده بشه. همچنین، با این قابلیت بارگذاری حدسی، “پیش‌فرض آماده کردن” واقعا به معنای آماده کردن کل صفحه، حتی با اجرای کدهای جاوااسکریپت، هستش. این کار میتونه باعث بشه وقتی کاربر روی لینک کلیک میکنه، صفحه تقریبا به صورت آنی (خیلی سریع) لود بشه چون احتمالا کل صفحه از قبل آماده شده. البته این فقط یکی از حالت‌های قابل تنظيمه. این پلاگین جدید وردپرس از این قابلیت بارگذاری حدسی پشتیبانی میکنه. تو صفحات توسعه‌دهندگان موزیلا، که یه منبع عالی برای درک فنی HTML هستش، این قابلیت به این صورت توضیح داده شده:” پلاگین آزمایشگاهی عملکرد (Performance Lab Plugin) این پلاگین جدید توسط تیم رسمی عملکرد وردپرس ساخته شده. این تیم هر چند وقت یه بار پلاگین‌های جدیدی رو منتشر می‌کنه تا کاربرها بتونن اونها رو تست کنن و بعدا شاید این قابلیت‌ها به هسته اصلی وردپرس اضافه بشه. پس این یه فرصت عالیه که بتونین جزو اولین نفرایی باشین که تکنولوژی‌های جدید مربوط به عملکرد رو امتحان می‌کنین. این پلاگین جدید وردپرس به صورت پیش‌فرض تنظیم شده که تمام صفحات، نوشته‌ها و صفحات آرشیو رو که همشون با هم بهشون میگیم “صفحات فرونت‌اند وردپرس”، بصورت پیش‌فرض آماده کنه. اینکه این قابلیت چطور کار می‌کنه رو میشه تو تنظیمات پلاگین دقیق‌تر کنترلش کرد: سازگاری با مرورگرها این قابلیت بارگذاری حدسی از کروم ۱۰۸ به بعد پشتیبانی میشه. اما خب، برای اینکه بتونین از تمام قابلیت‌های این پلاگین جدید استفاده کنین، لازمه که مرورگر شما کروم ۱۲۱ یا بالاتر باشه. کروم ۱۲۱ اوایل سال ۲۰۲۴ منتشر شد. تو مرورگرهایی که از این قابلیت پشتیبانی نمی‌کنن، این پلاگین کلا نادیده گرفته میشه و هیچ تأثیری روی کاربر نداره. پلاگین جدید بارگذاری حدسی وردپرس رو امتحان کنید! این پلاگین توسط تیم اصلی عملکرد هسته وردپرس ساخته شده. چطور آنالیتیکس با بارگذاری حدسی کار میکنه؟ یه توسعه‌دهنده وردپرس تو بخش نظرات سوال کرده بود که چطور آنالیتیکس (احتمالا منظور Google Analytics) با بارگذاری حدسی کار می‌کنه و یه نفر دیگه هم جواب داده که این به عهده‌ی توسعه‌دهنده‌ی آنالیتیکس هستش که بارگذاری حدسی رو تشخیص بده و اون رو به عنوان بازدید یا لود صفحه حساب نکنه. خوشبختانه هم گوگل آنالیتیکس و هم تگ‌های تبلیغاتی گوگل (GPT) هر دو می‌تونن از پس بارگذاری حدسی بر بیان. تو صفحه راهنمای توسعه‌دهنده‌های کروم یه توضیحی در مورد این موضوع که آنالیتیکس چطور با بارگذاری حدسی کار می‌کنه، وجود داره: “از سپتامبر ۲۰۲۳ به صورت پیش‌فرض، گوگل آنالیتیکس بارگذاری حدسی رو مدیریت می‌کنه و اون رو تا زمان فعال شدن به تعویق می‌اندازه. تگ‌های تبلیغاتی گوگل (GPT) هم از نوامبر ۲۰۲۳ یه تغییر مشابه اعمال کردن و نمایش تبلیغات رو تا زمان […]

درخواست مشاوره رایگان

آقای سئو در هر زمینه ای مشاوره میده!

آخرین مقالات

هوش مصنوعی و خطاهای واقعی: پادکست گوگل زنگ خطر را به صدا درآورد توی یه قسمت جدید از پادکست “Search Off The Record” گوگل، اعضای تیم با یه ابزار به اسم “جمینی” کار کردن تا ببینن میشه ازش برای ساختن محتواهای سئو استفاده کرد. اما تو آزمایششون به یه مشکل برخوردن. اگه از این ابزارهای هوش مصنوعی الکی استفاده کنیم و خوب چکششون نکنیم، ممکنه اطلاعات غلط تولید بشه. تو این بحث، لیزی ساسمن، گری ایلیز و جان مولر هر کدوم نوبتی از جمینی استفاده کردن تا نمونه پست برای شبکه های اجتماعی درباره مفهوم های سئوی فنی بنویسن. تو تحلیل خروجی جمینی، ایلیز یه محدودیت مشترک بین همه ابزارهای هوش مصنوعی رو هایلایت کرد: “مشکل بزرگ من با تقریبا همه هوش مصنوعی های تولید کننده محتوا، درستی اطلاعاته. هرچیزی رو که اونا تحویلت میدن باید چک کنی. این منو میترسونه که الان بخوایم یه چیزی رو بدون بررسی بخونیم و شاید یه چیزی بگیم که اصلا درست نباشه.” مشاوره سئو منسوخ لو رفت این نگرانی از یه توییتی که با هوش مصنوعی ساخته شده بود، نشأت گرفت. تو اون توییت پیشنهاد میداد که از rel=”prev/next” برای بخش بندی صفحات (pagination) استفاده بشه – این تکنیکی هست که گوگل دیگه قبولش نداره. جمینی پیشنهاد داد که این توییت رو منتشر کنن: “بخش بندی صفحات (pagination) سردرد محتوای تکراری رو براتون ایجاد کرده؟ از rel=prev, rel=next استفاده کنید تا گوگل رو توی دنباله محتواهاتون راهنمایی کنید. #سئوفنی، #جستجویگوگل” ساسمن سریع فهمید که این یه توصیه منسوخ شده است. مولر هم تایید کرد که rel=prev و rel=next هنوز پشتیبانی نمیشه: “ایلیز ادامه داد که دیگه این روش کاربردی نداره. میشه ازش استفاده کرد ولی گوگل اصلا بهش توجهی نمیکنه.” قبلا تو پادکست، ساسمن هشدار داده بود که اطلاعات قدیمی ممکنه باعث اشتباه بشه. ساسمن گفت: “اگه یه افسانه یا یه طرز فکری قدیمی راجع به یه موضوع تو اینترنت زیاد بچرخه، ممکنه امروز تو تمرینمون هم مطرح بشه.” و دقیقا همین اتفاق افتاد. زمان زیادی طول نکشید که به یه اطلاعات قدیمی برخوردن. نظارت انسانی همچنان حیاتیه در حالی که تیم ارتباطات جستجوی گوگل، پتانسیل محتواهای تولید شده با هوش مصنوعی رو دیدن، بحث‌شون روی لزوم بررسی صحت اطلاعات توسط انسان تاکید کرد. نگرانی‌های ایلیز نشون دهنده‌ی مبحث گسترده‌ترِ به‌کارگیری مسئولانه‌ی هوش مصنوعیئه. برای جلوگیری از پخش اطلاعات غلط، نظارت انسانی لازمه با اینکه استفاده از هوش مصنوعی برای تولید محتوا داره زیاد میشه، یادتون باشه خروجی‌شون رو بدون تایید کارشناسای اون موضوع، کورکورانه قبول نکنید. چرا مهمه؟ همونطور که تیم خود گوگل نشون داد، درسته که ابزارهای هوش مصنوعی میتونن تو ساختن و آنالیز محتوا کمک کنن، ولی لازمه که با یه دیده‌ی شک منطقی بهشون نگاه کنیم. اینکه بدون فکر از هوش مصنوعی برای تولید محتوا استفاده کنید، ممکنه باعث بشه اطلاعات قدیمی یا غلط منتشر کنید که روی سئو و اعتبار شما تاثیر منفی بذاره.

مردم از هوش مصنوعی تو جستجو راضی‌تر شدن و گوگل امسال می‌خوادش رو بیشتر آپدیت کنه غول فناوری گوگل با استفاده از قابلیت‌های هوش مصنوعی تولیدکننده متن خودش، به “میلیاردها پرس و جو” پاسخ داده و قصد داره “نوع پرس و جوهایی که می‌تونه به کاربراش ارائه بده” رو حتی بیشتر گسترش بده. این صحبت‌های مدیرعامل الفابت/گوگل، ساندار پیچای، در کنفرانس درآمدزایی سه‌ماهه اول ۲۰۲۴ الفابت مطرح شد. بر اساس گفته‌های پیچای، «بررسی‌های هوش مصنوعی» که گوگل اواخر مارس برای تعداد کمی از پرس و جوها در آمریکا و اوایل آوریل برای انگلستان معرفی کرد، باعث افزایش استفاده از جستجو هم شده: «بر اساس آزمایش‌هامون، خوشحالیم که می‌بینیم استفاده از جستجو بین افرادی که از بررسی‌های هوش مصنوعی جدید استفاده می‌کنن، در حال افزایشه و رضایت کاربر از نتایج هم بیشتر شده.» بعداً در بخش پرسش و پاسخ، چندین بار از پیچای در مورد رفتار جستجو و تعامل کاربر در SGE سوال شد. به طور کلی، سالهاست که دیده ایم وقتی یک قابلیت در بخش نتایج طبیعی (ارگانیک) گوگل خوب کار می‌کند، به دنبال آن درآمدزایی هم اتفاق می‌افتد. پس به طور معمول، روندهایی که می‌بینیم به خوبی به بخش‌های دیگر هم منتقل می‌شوند. به طور کلی، فکر می‌کنم با هوش مصنوعی تولیدکننده در جستجو و با توجه به بازدیدهای هوش مصنوعی ما، فکر می‌کنم دامنه‌ی پرسش‌هایی که می‌توانیم به کاربران پاسخ دهیم را گسترش دهیم.می‌توانیم به سوالات پیچیده‌تری و همچنین به طور کلی به سوالات بیشتری پاسخ دهیم. به نظر می‌رسد همه اینها در تمام بخش‌ها تاثیرگذار باشند. خب، واضح است که هنوز اوایل راه هستیم و قرار است محتاطانه عمل کنیم و تجربه کاربری را در اولویت قرار دهیم، اما نسبت به معنای این تغییر خوشبین هستیم.افزایش تعامل را می‌بینیم، اما به نظر من این چیزی است که با گذشت زمان بیشتر خودش را نشان می‌دهد. اما اگر بخواهیم الان به عقب برگردیم، سال گذشته سوالات زیادی وجود داشت، و ما همیشه مطمئن و راحت بودیم که می‌توانیم تجربه کاربری را بهبود ببخشیم.مردم سوال می‌کنند که آیا پاسخ دادن به این نوع سوالات هزینه زیادی دارد یا نه، و ما کاملا مطمئن هستیم که می‌توانیم هزینه پاسخگویی به این پرسش‌ها را مدیریت کنیم. مردم نگران تاخیر بودند. وقتی به پیشرفتی که در زمینه تاخیر و کارایی داشته‌ایم نگاه می‌کنم، احساس راحتی می‌کنیم.سوالاتی در مورد درآمدزایی وجود دارد. و بر اساس تست‌هایی که تا به حال انجام داده‌ایم، من راحت و مطمئن هستم که می‌توانیم این انتقال درآمدزایی را هم به خوبی مدیریت کنیم. این موضوع با گذشت زمان خودش را نشان می‌دهد، اما احساس می‌کنم که در موقعیت خوبی قرار داریم. گوگل به آرامی داره به سمت یه موتور جستجوی “تولیدکننده” (جنریتیو) حرکت می‌کنه. ولی من فکر نمی‌کنم باعث بشه کاربرها راضی‌تر باشن، چون محصولات فعلیشون مثل “مروری با هوش مصنوعی” و “تجربه‌ی جستجوی با هوش مصنوعی” (SGE) اصلا جالب نیستن. اما خب، من یه کاربر معمولی گوگل نیستم – اینم یه جلسه‌ی گزارش مالی بود که توش پیچای استاد اینه که با یه عالمه حرف، هیچی نگه! به نظر میاد SGE قراره تو سال ۲۰۲۴ پیشرفت کنه. تو بخش پرسش و پاسخ، از پیچای پرسیدن که هوش مصنوعی تولیدکننده تا حالا برای چه نوع جستجوهایی بهتر کار کرده. پیچای هم یه جواب کلی داد: “تو SGE و جستجو … داریم تاییدیه‌های اولیه‌ی فرضیه‌مون رو می‌بینیم که این کار باعث می‌شه دنیای جستجوها گسترش پیدا کنه. جایی که ما می‌تونیم ترکیبی از جواب‌های واقعی با لینک به منابع و دیدگاه‌های مختلف رو به کاربر ارائه بدیم. همه‌ی اینا به یه روش نوآورانه انجام می‌شه. ما هم داریم مروری با هوش مصنوعی رو تو آمریکا و انگلیس راه اندازی می‌کنیم که بیشتر روی سوالات پیچیده تمرکز داره، جایی که فکر می‌کنیم SGE به طور واضح تجربه رو بهتر می‌کنه.” “ما تا حالا میلیاردها جستجو رو پوشش دادیم و به نظر می‌رسه تو همه دسته‌بندی‌ها جواب می‌ده. اما هنوز داریم تست می‌کنیم … ما تو این زمینه‌ها بر اساس معیارها حرکت می‌کنیم … ولی خوش‌بینم که این واضحا تجربه کاربری رو بهتر می‌کنه، کاربرا بهمون می‌گن و تو معیارهامون هم می‌بینیمش، و ما امسال به پیشرفت دادن‌ش ادامه می‌دیم.” بعدشم یه سوال دیگه پرسیدن که هوش مصنوعی چطور حجم جستجو یا موارد استفاده از گوگل رو تغییر می‌ده. پیچای هم با یه جواب کلی که راجع به مسیر مثبت و عمیق گوگل حرف می‌زنه، جواب نداد: “ما این لحظه رو برای جستجو یه فرصت مثبت می‌بینیم. فکر می‌کنم بهمون اجازه می‌ده محصولمون رو به شکل عمیقی متحول کنیم. جستجو یه تجربه‌ی منحصر به فرده. مردم میان و می‌تونن، چه بخوان جواب سوالاشون رو پیدا کنن، چه بخوان بیشتر کشف کنن، یا بخوان دیدگاه‌های مختلف رو از سراسر وب ببینن و بتونن تو کل گستره‌ی چیزی که دنبالش هستن این کار رو انجام بدن. فکر می‌کنم این همون نوآوری‌ای هست که لازمه تا همچنان بتونیم این کار رو انجام بدیم، چیزیه که خیلی وقته روش کار می‌کنیم.” “پس احساس می‌کنم با توجه به مسیر نوآوری‌ای که روش هستیم، تو موقعیت فوق‌العاده‌ای قرار داریم. و در کل، این لحظه رو یه فرصت مثبت می‌بینم.”

گوگل تو یه پادکست رسمی (Google Office Hours) درباره خطاهای ۴۰۴ (صفحه پیدا نشد) صحبت می‌کنه تو این پادکست، یه نفر سوال پرسیده بود که آیا خطاهای ۴۰۴ که از منابع خارجی میان (یعنی خود سایت اونا این خطا رو درست نکرده) باعث افت رتبه‌شون شده یا نه. خطاهای ۴۰۴ تقلبی که از بیرون میان! احتمالا دلایل زیادی برای خطاهای ۴۰۴ که توسط ربات‌ها ایجاد می‌شن وجود داره. یه دلیل این خطاها می‌تونه این باشه که این ربات‌های خودکار دنبال فایل‌ها یا پوشه‌هایی هستن که معمولا تو افزونه‌ها یا قالب‌های آسیب‌پذیر پیدا می‌شه. اگه بتونی آدرس آی‌پی و نوع مرورگر رباتی که باعث خطای ۴۰۴ می‌شه رو چک کنی، می‌تونه بهت سرنخ بده که آیا این خطاها واقعا از ربات‌های خودکار هستن یا نه. اگه آدرس آی‌پی نشون بده که از یه شرکت هاستینگ یا یه جای تو روسیه یا چین میاد، احتمالا کار یه هکرِ. همچنین، اگه نوع مرورگر یه نسخه قدیمی از کروم یا فایرفاکس باشه، باز هم احتمالا کار یه ربات هکره. البته این فقط یه دلیله، دلایل دیگه‌ای هم ممکنه وجود داشته باشه. گوگل به سوال جواب میده کسی که سوال پرسیده بود، یه افت رتبه رو با خطاهای ۴۰۴ مرتبط کرده بود. سوال به این شکل بود: “اینکه URL های تقلبی ۴۰۴ از یه منبع خارجی به سایتم میان، می‌تونه باعث افت رتبه بشه؟ چطور می‌تونم این مشکل رو حل کنم؟” پاسخ گوگل گاری ایلیز از گوگل جواب داد: “اگه گوگل‌بات بره سراغ یه ۴۰۴ تقلبی و اونو بخزه (crawl کنه)، نمی‌شه منطقی گفت که این باعث افت رتبه شده. اینکه تو یه سایتی چند تا ۴۰۴ وجود داشته باشه عادیه و لازم نیست حتما درستشون کنی. حالا اگه تو نرم‌افزار تحلیلت دیدی که تعداد زیادی کاربر واقعی هم دارن از اون لینک‌های ۴۰۴ میان، من خودم ترجیح می‌دم اونارو به یه روش‌هایی تغییر بدم، مثلا بهشون یه محتوای مرتبط نشون بدم.” افت رتبه و خطاهای ۴۰۴ (صفحه پیدا نشد) گاری گفت که ۴۰۴ ها عادی هستن و احتمالش خیلی کمِه که باعث افت رتبه تو نتایج جستجو بشن. درسته که خطاهای ۴۰۴ یه اتفاق رایج هستن. معمولا مشکلی نیست و تو اکثر مواقع لازم نیست کاری بکنی. 404 هایی که کاربرای واقعی درست می‌کنن! حالا یه حالت دیگه هم هست که خطای ۴۰۴ رو خود کاربرها درست می‌کنن. مثلا شاید یه نفر از یه جایی یه لینکی رو دنبال کرده باشه که دیگه وجود نداره و به صفحه “صفحه پیدا نشد” برسه. تشخیص این مورد راحته. کافیه چک کنی ببینی آدرسی که کاربر سعی کرده بره بهش، شباهت زیادی به یه آدرس درست تو سایت داره یا نه. اگه شباهت داشت، احتمالا کاربر یه غلط تو نوشتن آدرس داشته. راه حل اینه که یه “مسیرنما” (redirect) درست کنی که کاربر رو از اون آدرس غلط به آدرس درست هدایت کنه. افت رتبه چطور؟ یه چیزی که گاری اصلا بهش اشاره نکرد ولی لازمه بگیم اینه که یه احتمال ضعیف وجود داره که شاید یه ربات واقعا یه آسیب‌پذیری رو پیدا کرده باشه. شاید این ۴۰۴ ها به خاطر یه اسکنری باشن که دنبال اینجور مشکلات می‌گرده و نهایتا یه آسیب‌پذیری رو پیدا کرده. یه راه برای چک کردن این موضوع استفاده از یه برنامه به اسم phpMyAdmin هستش. با این برنامه می‌تونی بری تو بخش “کاربران” تو جداول پایگاه داده‌ت رو نگاه کنی و ببینی یه کاربر ناشناس وجود داره یا نه. یه راه دیگه، اگه سایته با وردپرس ساخته شده، استفاده از یه افزونه امنیتیه. اینجوری می‌تونی کل سایت رو اسکن کنی و ببینی یه قالب یا افزونه آسیب‌پذیر توش استفاده می‌شه یا نه. یه افزونه اسکن رایگان به اسم Jetpack Protect هستش که توسط توسعه‌دهنده‌های Automattic ساخته شده. این افزونه خودش مشکل رو حل نمی‌کنه ولی اگه یه آسیب‌پذیری تو قالب یا افزونه پیدا کنه بهت هشدار می‌ده. نسخه پولی و حرفه‌ای این افزونه هم هست که امکانات بیشتری داره. Sucuri و Wordfence هم دو تا افزونه امنیتی دیگه برای وردپرس هستن که کارهای مختلفی انجام می‌دن و هر دو نسخه رایگان و حرفه‌ای دارن. حالا اگه اینجوری نبود، افت رتبه کاملا تصادفی بوده و دلیل اصلی یه چیز دیگه‌ست.

گوگل یاهو ژاپن رو اذیت می‌کرد که نتونه تو تبلیغات هدفمند تو موتور جستجو باهاش رقابت کنه گوگل ظاهرا از ۲۰۱۵ تا ۲۰۲۲ نمی ذاشته یاهو ژاپن به یه تکنولوژی مهم دسترسی پیدا کنه که بتونه از تبلیغات تو گوشی پول دربیاره! طبق گفته های کمیسیون تجارت عادلانه ژاپن (FTC)، ظاهرا گوگل از سال ۲۰۱۵ تا ۲۰۲۲ کاری می کرده که یاهو ژاپن نتونه به یه تکنولوژی مهم برای تبلیغات هدفمند تو گوشی های موبایل دسترسی داشته باشه. این کمیسیون به گوگل گیر داده و گفته این کارا رو تموم کنه. بعد از اون، گوگل به بلومبرگ گفته که دسترسی به این تکنولوژی که با کلمات کلیدی سر و کار داره رو برای یاهو ژاپن آزاد می کنه. هر کاری که باعث بشه تبلیغ دهنده ها نتونن انتخاب درستی داشته باشن یا به تکنولوژی های لازم برای هدفمند کردن تبلیغات دسترسی نداشته باشن، باعث میشه هزینه تبلیغات بره بالا. این اولین باریه که کمیسیون تجارت عادلانه ژاپن (FTC) به طور رسمی علیه شرکت الفبیت (شرکت مادر گوگل) وارد عمل می‌شه، ولی فعلا هیچ جریمه‌ای براشون در نظر نگرفته. این کمیسیون همچنان به دقت کارهای گوگل رو زیر نظر می‌گیره و می‌تونه هر موقع که لازم باشه دوباره پرونده رو باز کنه. اونا همچنین دارن روی این موضوع که آیا شرکت الفبیت روی تولید کننده‌های گوشی‌های هوشمند تو ژاپن نفوذ داره و باعث می‌شه اولویت با سرویس‌های جستجوی گوگل باشه، تحقیق می‌کنن. این کار باعث می‌شه بیشتر روی کارهای این غول تکنولوژی زوم بشه. تو آمریکا هم هنوز منتظر حکم دادگاه آنتی‌تراست (ضد انحصار) علیه گوگل هستیم. بخشی از این دادگاه درباره این بود که آیا گوگل از ابزارهای تبلیغاتی جستجوی خودش برای اینکه از رقیب‌هاش جلو بیفته استفاده کرده یا نه.

اشتراک گذاری

توجه: شما مجاز به کپی محتوا یا مشاهده سورس نیستید!!