IP Spoofing چیست ؟ چگونه از آن جلوگیری کنیم؟ {دید سئویی}

IP Spoofing (1)

فایروال یا دیوار آتش ترافیک یک شبکه را کنترل و از دسترسی غیر مجاز به شبکه جلوگیری می‌کند. همه سیستم‌ها به فایروال مجهز هستند تا شبکه را از دسترسی‌های غیر مجاز دور نگه دارند. 

آدرس‌های IP توسط فایروال رصد می‌شود و ترافیکی که امن باشد به شبکه وارد خواهد شد.  با این حال هکرها تلاش می‌کنند تا با استفاده از برخی از تکنیک‌ها هویت خودشان را جعل کرده و خود را فرد مجازی به شبکه معرفی کنند و به اطلاعات شبکه دسترسی پیدا کنند. 

جعل آدرس IP یا IP Spoofing یکی از روش‌هایی است که هکرها از آن استفاده می‌کنند تا با تغییر آدرس IP، خودشان را ترافیک مجاز به شبکه معرفی کنند.

جعل کردن آدرس با نام‌های دیگری با نام IP Address Forgery و Host File Hijack نیز شناخته می‌شود. در روش IP spoofing، هکر آدرسش را تغییر می‌دهد و آدرس مجاز را به فایروال ارسال می‌کند.

هر بسته اطلاعاتی که در شبکه رد و بدل می‌شود دارای یک header است که شامل اطلاعات مختلفی از آدرس IP مبدا، مقصد و … است. 

در روش جعل آدرس،‌ هکرها آدرس آ‌ی‌پی که در شبکه مجاز است را پیدا می‌کنند و آن را در قسمت آدرس IP مبدا بسته‌ای که می‌خواهند تغییر دهند، قرار می‌دهند. در واقع آنها با تغییر اطلاعات header می‌توانند بسته مورد نظر خود را به شبکه مجاز معرفی کنند و آن را از فایروال شبکه عبور دهند.

چطور IP spoofing اتفاق می‌افتد و هکرها به آدرس‌های مجاز دسترسی پیدا می‌کنند؟

هکرها کاربران را هنگام اتصال به وب سرور مقصد، به سمت صفحه‌های جعلی در مرورگرشان هدایت می‌کنند و از این طریق به آدرس آنها دسترسی پیدا کرده و برای جعل آدرس از آن استفاده می‌نمایند. اگر چه هدف اصلی از هدایت کاربر، دزدیدن آدرس IP اوست اما می‌توان در موارد دیگری نیز از این آدرس استفاده کرد. 

مثلا هکر می‌تواند library یک وب سایت را جعل و خودش را به جای آن سرویس معرفی کند. زمانی که کاربر آدرس سایت را وارد کند به صفحه‌ای مورد نظر هکر هدایت می‌شود. با ورود کاربر به صفحه مورد نظر هکر، اطلاعات و منابع شبکه کاربر به راحتی می‌تواند مورد تهاجم و دسترسی هکر قرار بگیرند.

البته دسترسی تا این حد معمولا کمتر پیش می‌آید و این روش اغلب برای اینکه هکرها روی سرورهای هدف دسترسی غیر مجاز داشته باشند مورد استفاده قرار می‌گیرد.

شبکه اینترنت شبکه‌ای مبتنی بر packet switching است یعنی اطلاعات در قالب بسته در شبکه تبادل می‌شوند. یک بسته از زمانی که از مبدا ارسال می‌شود تا وقتی که به مقصد برسد، ممکن است مورد تهاجم و جعل قرار بگیرد. ابزاری به نام hping در لینوکس کالی وجود دارد که می‌توان با استفاده از آن تست IP spoofing را انجام داد

				
					Hping2 www.seosir.co –a 8.8.8.8
				
			

در کد بالا ما از طریق آدرس DNS سرور گوگل که به صورت 8.8.8.8 جعل شده، یک درخواست برای ارتباط با سرور seosir ارسال کردیم. 

اگر ipهای دیگری به سرور مورد نظر دسترسی نداشته باشند اما آدرس IP وارد شده به این سرور دسترسی داشته باشد، اطلاعات بیشتری درباره سرور مقصد به ما ارسال می‌شود.

آموزش های مرتبط

  • تنظیم رکورد DNS در پنل دایرکت ادمین
  • DNS چیست ؟
  • IP Spoofing چیست ؟
  • SPF Record چیست ؟
  • تغییر سطح دسترسی پوشه در Capnel
  • تغییر سطح دسترسی پوشه در Direct Admin

منابع محتوا

نظرات کاربران

نظرات کاربران

دیدگاه خود را اینجا قرار دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست محتوا

فهرست محتوا

مقالات مرتبط

سئو SEO برای PDF خیلی مختصر و مفید! عیناً شبیه یک صفحه سایت باید یک فایل PDF را سئو کنیم. فقط کافیه موارد زیر را رعایت کنیم: یه اسم سئویی

مدیریت ساختار URL دیگه به اون سادگی قدیم نیست! بعد از آپدیت پنگوئن [Penguin Update – آپدین الگوریتم گوگل که بر روی مبارزه با اسپم تمرکز دارد] دیگه رسوندن صفحات

قتی نوبت به بهبود سئوی وب‌سایت شما می‌رسه، درک و به حداکثر رسوندن اثربخشی متا توضیحات، باید یکی از مهم‌ترین موارد تو لیست کارهای شما باشه. توضیحات استراتژیک و بافکر، مستقیماً روی کلیک‌های شما تو موتورهای جستجو تأثیر می‌ذاره و این یعنی ترافیک ارگانیک بیشتر تو سایت شما و رتبه‌های بالاتر تو کل نتایج. به زبان ساده، اگر ویترین مغازه رو اونجوری که مشتری دوست داری بچینی و دیزانیش کنی مسلماً تعداد مشتری بیشتری به مغازت سر میزنند! با بیشترین تعداد کاراکتر در بین تمام انواع اصلی تگ‌های متا، متا توضیحات یه فضای منحصر به فرد هستن که به وب‌سایت شما اجازه می‌دن تا خودشون رو متمایز کنن. نوشتن متا توضیحات بهینه‌سازی‌شده برای سئو، در مورد دقت و تاکتیک‌هاست، که برای صفحات موبایل حتی مهم‌تر می‌شه. وقتی به این نکته توجه کنین که بیش از نیمی از کل بازدیدهای وب‌سایت‌های دنیا از طریق دستگاه‌های موبایل انجام می‌شه، یادگیری شیوه‌های سئویی که مخصوص صفحات موبایل هستن، حیاتی می‌شه. تو این مقاله، هر چیزی که لازمه بدونین رو در مورد متا توضیحات یاد خواهید گرفت، اینکه چه طولایی باید داشته باشن (با در نظر گرفتن پلتفرم‌های مختلف و دستگاه‌ها) و مهم‌تر از همه، چطوری اون‌ها رو بنویسین تا محتوای شما جذاب و رقابتی باشه.   متا دیسکریپشن (Meta Description) چیست؟ به طور خلاصه، یه متا دیسکریپشن (که تگ متا دیسکریپشن هم نامیده می‌شه) یه ویژگیه که صفحه‌ی شما رو خلاصه می‌کنه. این یه توضیح کوتاهه که هم موتورهای جستجو و هم کاربرها می‌تونن ازش برای پیش‌نمایش محتوای صفحه قبل از باز شدن اون صفحه استفاده کنن. می‌تونین به این شکل به خاطر بسپارینش – «متا» تو متا دیسکریپشن به چیزی اشاره می‌کنه که به خودش مربوطه، و این دقیقاً همون چیزیه که هست: اطلاعاتی در مورد اطلاعات صفحه‌ی شما. قابل ذکره که متا دیسکریپشن‌ها اغلب با اسنیپت‌های SERP اشتباه گرفته می‌شن.  در واقع، در بعضی موارد، ممکنه واقعاً به نظر یکسان برسن. اما یه متا دیسکریپشن تو کد HTML، تو بخش «هدر Header» صفحه‌ی وب، به همراه تگ عنوان قرار می‌گیره و توسط سازنده‌ی صفحه کنترل می‌شه.  اسنیپت SERP چیزیه که به عنوان توضیح صفحه‌ی وب برای جستجوگر نمایش داده می‌شه. چون موتورهایی مثل گوگل فرآیند SERP رو به صورت خودکار انجام می‌دن، گاهی اوقات اسنیپت، متا دیسکریپشن تعیین‌شده نیست (گوگل می‌تونه اسنیپت‌ها رو بر اساس جستجو تولید کنه).  اما این همیشه اتفاق نمی‌افته، بنابراین تقویت مهارت‌های نوشتن متا دیسکریپشن، برای بهترین شیوه‌های سئو همچنان مهمه. متا دیسکریپشن‌ها هم تو صفحه‌ی وب واقعی شما ظاهر نمی‌شن، و فقط تو کد منبع وجود دارن. علاوه بر اینکه چیزیه که باید زیر URL صفحه نمایش داده بشه، همچنین می‌تونه متنی باشه که به دنبال صفحه‌ی شما، وقتی به اشتراک گذاشته می‌شه، می‌اد. تو کد HTML، یه چیزی شبیه این به نظر می‌رسه: تگ عنوان یا Meta title چیست | 5 نکته طلایی در نوشتن سئوی عنوان | آقای سئو که در عمل به این صورت نمایش داده می‌شود: خب، همه‌ی اینا واقعاً به چه معناست؟ درسته که متا دیسکریپشن‌ها به طور مستقیم تو الگوریتم‌های رتبه‌بندی استفاده نمی‌شن، اما اساساً اولین برداشتی هستن که کسی تو یه SERP از صفحه‌ی شما داره. این به دو دلیل خاص مهمه: اولین مورد در مورد جذابیت هستش تو یه لیست بلند از نتایج جستجو، متا دیسکریپشن نقش مهمی رو ایفا می‌کنه که چرا کسی می‌خواد صفحه‌ی شما رو نسبت به صفحه‌ی بالا یا پایین اون ببینه. این یه فرصته تا ثابت کنین که صفحه‌ی شما بهترین و مرتبط‌ترین اطلاعات رو داره.  این به این معنیه که بهینه‌سازی خوب فقط در مورد کلمات کلیدی هدف نیست (به زودی در موردش بیشتر صحبت می‌شه)، بلکه در مورد خلاقیت هم هست. می‌تونین متا دیسکریپشن‌های خودتون رو به‌عنوان یه extension (الحاقیه) از متن تبلیغاتیتون در نظر بگیرین، پس اون رو جذاب، دعوت‌کننده و مفید بنویسین.  تو حوزه‌ی موبایل، این موضوع دو برابر اهمیت داره، چون کاربرها به دنبال پاسخ‌های سریع و آموزنده هستن و برای اسکرول کردن بیش از چند نتیجه‌ی جستجو وقت نمی‌ذارن. دومین مورد در مورد نرخ کلیکه دقیقاً به همین دلیله که دومین نکته‌ای که باید به خاطر بسپارین اینه که سایت‌هایی مثل گوگل از نرخ کلیک (CTR) برای رتبه‌بندی نتایجی که فکر می‌کنن برای جستجوگر مفیدتر هستن، استفاده می‌کنن. بنابراین هر چه بازدید از صفحه بیشتر داشته باشین، صفحه‌ی شما تو SERP بالاتر می‌ره و این باعث می‌شه متا دیسکریپشن‌ها به یه بخش کلیدی از شیوه‌های سئوی شما تبدیل بشه. طول ایده‌آل برای متا دیسکریپشن طول توصیه‌شده‌ی متا دیسکریپشن ۱۲0 تا ۱۵۸ کاراکتره. گوگل محدودیت کاراکتر برای متا دیسکریپشن رو ۹۲۰ پیکسل، که تقریباً معادل ۱۵۰ تا ۱۵۸ کاراکتره، تعریف می‌کنه. هر دوی Bing و Yahoo! محدودیت ۹۸۰ پیکسلی دارن، که تا ۱۶۸ کاراکتر می‌شه. بیشتر SERPها تو دستگاه‌های موبایل فقط ۶۸۰ پیکسل، یعنی ۱۲۰ کاراکتر، نمایش می‌دن.   اینکه متا دیسکریپشن‌ها کجا قرار دارن و چطور دیده می‌شن، باعث می‌شه که طول‌شون نقش مهمی تو اثربخشی‌شون داشته باشه. وقتی صحبت از طول ایده‌آل برای یه متا دیسکریپشن می‌شه، چند تا جواب مختلف می‌شنوین. دلیلش اینه که محدودیت کاراکتر برای متا دیسکریپشن نه تنها تو طول زمان تغییر کرده، بلکه بین موتورهای جستجوی مختلف هم فرق داره، می‌تونه هم بر اساس تعداد کاراکتر و هم اندازه‌ی پیکسل محاسبه بشه و اغلب تو دستگاه‌های موبایل کوتاه می‌شه. هدف نهایی اینه که چیزی بنویسین که به طور کامل نمایش داده بشه و ارزش یه پیام کامل و عمیق رو ارائه بده که باعث افزایش کلیک بشه. این‌ها رایج‌ترین و به طور کلی پذیرفته‌شده‌ترین طول‌هایی هستن که لازمه بدونین: در نهایت، بهترین شیوه‌ی سئو برای طول متا دیسکریپشن اینه که به خاطر داشته باشین که گاهی اوقات، کم بهتر از زیاده. البته، نوشتن یه متن خیلی کوتاه باعث می‌شه که توضیحتون اون توجه ویژه‌ای که لایقشه رو جلب نکنه و خطر این رو داره که بی‌اطلاع یا خیلی مبهم به نظر برسه.  برای اینکه بهترین حالت رو پیدا کنین، می‌خواین یه اسنیپت (قطعه کد) ایجاد کنین که سر اصل مطلب بره، با مهم‌ترین و هدفمندترین اطلاعات تو ۱۲۰ کاراکتر اول. به این ترتیب، مهم نیست کاربرها از کجا به سایت شما می‌رسن، بهترین فرصت رو برای تشویق‌شون به کلیک دارین. چطور یه متا دیسکریپشن بنویسیم؟ اثربخشی یه متا دیسکریپشن به […]

خیلی ساده و راحت و با یه چشم بهم زدنی می تونیم لینک های ایندکس شده سایتمون در گوگل رو که نباید ایندکس میشده رو حذف کنیم.

درخواست مشاوره رایگان

آقای سئو در هر زمینه ای مشاوره میده!

آخرین مقالات

هوش مصنوعی و خطاهای واقعی: پادکست گوگل زنگ خطر را به صدا درآورد توی یه قسمت جدید از پادکست “Search Off The Record” گوگل، اعضای تیم با یه ابزار به اسم “جمینی” کار کردن تا ببینن میشه ازش برای ساختن محتواهای سئو استفاده کرد. اما تو آزمایششون به یه مشکل برخوردن. اگه از این ابزارهای هوش مصنوعی الکی استفاده کنیم و خوب چکششون نکنیم، ممکنه اطلاعات غلط تولید بشه. تو این بحث، لیزی ساسمن، گری ایلیز و جان مولر هر کدوم نوبتی از جمینی استفاده کردن تا نمونه پست برای شبکه های اجتماعی درباره مفهوم های سئوی فنی بنویسن. تو تحلیل خروجی جمینی، ایلیز یه محدودیت مشترک بین همه ابزارهای هوش مصنوعی رو هایلایت کرد: “مشکل بزرگ من با تقریبا همه هوش مصنوعی های تولید کننده محتوا، درستی اطلاعاته. هرچیزی رو که اونا تحویلت میدن باید چک کنی. این منو میترسونه که الان بخوایم یه چیزی رو بدون بررسی بخونیم و شاید یه چیزی بگیم که اصلا درست نباشه.” مشاوره سئو منسوخ لو رفت این نگرانی از یه توییتی که با هوش مصنوعی ساخته شده بود، نشأت گرفت. تو اون توییت پیشنهاد میداد که از rel=”prev/next” برای بخش بندی صفحات (pagination) استفاده بشه – این تکنیکی هست که گوگل دیگه قبولش نداره. جمینی پیشنهاد داد که این توییت رو منتشر کنن: “بخش بندی صفحات (pagination) سردرد محتوای تکراری رو براتون ایجاد کرده؟ از rel=prev, rel=next استفاده کنید تا گوگل رو توی دنباله محتواهاتون راهنمایی کنید. #سئوفنی، #جستجویگوگل” ساسمن سریع فهمید که این یه توصیه منسوخ شده است. مولر هم تایید کرد که rel=prev و rel=next هنوز پشتیبانی نمیشه: “ایلیز ادامه داد که دیگه این روش کاربردی نداره. میشه ازش استفاده کرد ولی گوگل اصلا بهش توجهی نمیکنه.” قبلا تو پادکست، ساسمن هشدار داده بود که اطلاعات قدیمی ممکنه باعث اشتباه بشه. ساسمن گفت: “اگه یه افسانه یا یه طرز فکری قدیمی راجع به یه موضوع تو اینترنت زیاد بچرخه، ممکنه امروز تو تمرینمون هم مطرح بشه.” و دقیقا همین اتفاق افتاد. زمان زیادی طول نکشید که به یه اطلاعات قدیمی برخوردن. نظارت انسانی همچنان حیاتیه در حالی که تیم ارتباطات جستجوی گوگل، پتانسیل محتواهای تولید شده با هوش مصنوعی رو دیدن، بحث‌شون روی لزوم بررسی صحت اطلاعات توسط انسان تاکید کرد. نگرانی‌های ایلیز نشون دهنده‌ی مبحث گسترده‌ترِ به‌کارگیری مسئولانه‌ی هوش مصنوعیئه. برای جلوگیری از پخش اطلاعات غلط، نظارت انسانی لازمه با اینکه استفاده از هوش مصنوعی برای تولید محتوا داره زیاد میشه، یادتون باشه خروجی‌شون رو بدون تایید کارشناسای اون موضوع، کورکورانه قبول نکنید. چرا مهمه؟ همونطور که تیم خود گوگل نشون داد، درسته که ابزارهای هوش مصنوعی میتونن تو ساختن و آنالیز محتوا کمک کنن، ولی لازمه که با یه دیده‌ی شک منطقی بهشون نگاه کنیم. اینکه بدون فکر از هوش مصنوعی برای تولید محتوا استفاده کنید، ممکنه باعث بشه اطلاعات قدیمی یا غلط منتشر کنید که روی سئو و اعتبار شما تاثیر منفی بذاره.

مردم از هوش مصنوعی تو جستجو راضی‌تر شدن و گوگل امسال می‌خوادش رو بیشتر آپدیت کنه غول فناوری گوگل با استفاده از قابلیت‌های هوش مصنوعی تولیدکننده متن خودش، به “میلیاردها پرس و جو” پاسخ داده و قصد داره “نوع پرس و جوهایی که می‌تونه به کاربراش ارائه بده” رو حتی بیشتر گسترش بده. این صحبت‌های مدیرعامل الفابت/گوگل، ساندار پیچای، در کنفرانس درآمدزایی سه‌ماهه اول ۲۰۲۴ الفابت مطرح شد. بر اساس گفته‌های پیچای، «بررسی‌های هوش مصنوعی» که گوگل اواخر مارس برای تعداد کمی از پرس و جوها در آمریکا و اوایل آوریل برای انگلستان معرفی کرد، باعث افزایش استفاده از جستجو هم شده: «بر اساس آزمایش‌هامون، خوشحالیم که می‌بینیم استفاده از جستجو بین افرادی که از بررسی‌های هوش مصنوعی جدید استفاده می‌کنن، در حال افزایشه و رضایت کاربر از نتایج هم بیشتر شده.» بعداً در بخش پرسش و پاسخ، چندین بار از پیچای در مورد رفتار جستجو و تعامل کاربر در SGE سوال شد. به طور کلی، سالهاست که دیده ایم وقتی یک قابلیت در بخش نتایج طبیعی (ارگانیک) گوگل خوب کار می‌کند، به دنبال آن درآمدزایی هم اتفاق می‌افتد. پس به طور معمول، روندهایی که می‌بینیم به خوبی به بخش‌های دیگر هم منتقل می‌شوند. به طور کلی، فکر می‌کنم با هوش مصنوعی تولیدکننده در جستجو و با توجه به بازدیدهای هوش مصنوعی ما، فکر می‌کنم دامنه‌ی پرسش‌هایی که می‌توانیم به کاربران پاسخ دهیم را گسترش دهیم.می‌توانیم به سوالات پیچیده‌تری و همچنین به طور کلی به سوالات بیشتری پاسخ دهیم. به نظر می‌رسد همه اینها در تمام بخش‌ها تاثیرگذار باشند. خب، واضح است که هنوز اوایل راه هستیم و قرار است محتاطانه عمل کنیم و تجربه کاربری را در اولویت قرار دهیم، اما نسبت به معنای این تغییر خوشبین هستیم.افزایش تعامل را می‌بینیم، اما به نظر من این چیزی است که با گذشت زمان بیشتر خودش را نشان می‌دهد. اما اگر بخواهیم الان به عقب برگردیم، سال گذشته سوالات زیادی وجود داشت، و ما همیشه مطمئن و راحت بودیم که می‌توانیم تجربه کاربری را بهبود ببخشیم.مردم سوال می‌کنند که آیا پاسخ دادن به این نوع سوالات هزینه زیادی دارد یا نه، و ما کاملا مطمئن هستیم که می‌توانیم هزینه پاسخگویی به این پرسش‌ها را مدیریت کنیم. مردم نگران تاخیر بودند. وقتی به پیشرفتی که در زمینه تاخیر و کارایی داشته‌ایم نگاه می‌کنم، احساس راحتی می‌کنیم.سوالاتی در مورد درآمدزایی وجود دارد. و بر اساس تست‌هایی که تا به حال انجام داده‌ایم، من راحت و مطمئن هستم که می‌توانیم این انتقال درآمدزایی را هم به خوبی مدیریت کنیم. این موضوع با گذشت زمان خودش را نشان می‌دهد، اما احساس می‌کنم که در موقعیت خوبی قرار داریم. گوگل به آرامی داره به سمت یه موتور جستجوی “تولیدکننده” (جنریتیو) حرکت می‌کنه. ولی من فکر نمی‌کنم باعث بشه کاربرها راضی‌تر باشن، چون محصولات فعلیشون مثل “مروری با هوش مصنوعی” و “تجربه‌ی جستجوی با هوش مصنوعی” (SGE) اصلا جالب نیستن. اما خب، من یه کاربر معمولی گوگل نیستم – اینم یه جلسه‌ی گزارش مالی بود که توش پیچای استاد اینه که با یه عالمه حرف، هیچی نگه! به نظر میاد SGE قراره تو سال ۲۰۲۴ پیشرفت کنه. تو بخش پرسش و پاسخ، از پیچای پرسیدن که هوش مصنوعی تولیدکننده تا حالا برای چه نوع جستجوهایی بهتر کار کرده. پیچای هم یه جواب کلی داد: “تو SGE و جستجو … داریم تاییدیه‌های اولیه‌ی فرضیه‌مون رو می‌بینیم که این کار باعث می‌شه دنیای جستجوها گسترش پیدا کنه. جایی که ما می‌تونیم ترکیبی از جواب‌های واقعی با لینک به منابع و دیدگاه‌های مختلف رو به کاربر ارائه بدیم. همه‌ی اینا به یه روش نوآورانه انجام می‌شه. ما هم داریم مروری با هوش مصنوعی رو تو آمریکا و انگلیس راه اندازی می‌کنیم که بیشتر روی سوالات پیچیده تمرکز داره، جایی که فکر می‌کنیم SGE به طور واضح تجربه رو بهتر می‌کنه.” “ما تا حالا میلیاردها جستجو رو پوشش دادیم و به نظر می‌رسه تو همه دسته‌بندی‌ها جواب می‌ده. اما هنوز داریم تست می‌کنیم … ما تو این زمینه‌ها بر اساس معیارها حرکت می‌کنیم … ولی خوش‌بینم که این واضحا تجربه کاربری رو بهتر می‌کنه، کاربرا بهمون می‌گن و تو معیارهامون هم می‌بینیمش، و ما امسال به پیشرفت دادن‌ش ادامه می‌دیم.” بعدشم یه سوال دیگه پرسیدن که هوش مصنوعی چطور حجم جستجو یا موارد استفاده از گوگل رو تغییر می‌ده. پیچای هم با یه جواب کلی که راجع به مسیر مثبت و عمیق گوگل حرف می‌زنه، جواب نداد: “ما این لحظه رو برای جستجو یه فرصت مثبت می‌بینیم. فکر می‌کنم بهمون اجازه می‌ده محصولمون رو به شکل عمیقی متحول کنیم. جستجو یه تجربه‌ی منحصر به فرده. مردم میان و می‌تونن، چه بخوان جواب سوالاشون رو پیدا کنن، چه بخوان بیشتر کشف کنن، یا بخوان دیدگاه‌های مختلف رو از سراسر وب ببینن و بتونن تو کل گستره‌ی چیزی که دنبالش هستن این کار رو انجام بدن. فکر می‌کنم این همون نوآوری‌ای هست که لازمه تا همچنان بتونیم این کار رو انجام بدیم، چیزیه که خیلی وقته روش کار می‌کنیم.” “پس احساس می‌کنم با توجه به مسیر نوآوری‌ای که روش هستیم، تو موقعیت فوق‌العاده‌ای قرار داریم. و در کل، این لحظه رو یه فرصت مثبت می‌بینم.”

گوگل تو یه پادکست رسمی (Google Office Hours) درباره خطاهای ۴۰۴ (صفحه پیدا نشد) صحبت می‌کنه تو این پادکست، یه نفر سوال پرسیده بود که آیا خطاهای ۴۰۴ که از منابع خارجی میان (یعنی خود سایت اونا این خطا رو درست نکرده) باعث افت رتبه‌شون شده یا نه. خطاهای ۴۰۴ تقلبی که از بیرون میان! احتمالا دلایل زیادی برای خطاهای ۴۰۴ که توسط ربات‌ها ایجاد می‌شن وجود داره. یه دلیل این خطاها می‌تونه این باشه که این ربات‌های خودکار دنبال فایل‌ها یا پوشه‌هایی هستن که معمولا تو افزونه‌ها یا قالب‌های آسیب‌پذیر پیدا می‌شه. اگه بتونی آدرس آی‌پی و نوع مرورگر رباتی که باعث خطای ۴۰۴ می‌شه رو چک کنی، می‌تونه بهت سرنخ بده که آیا این خطاها واقعا از ربات‌های خودکار هستن یا نه. اگه آدرس آی‌پی نشون بده که از یه شرکت هاستینگ یا یه جای تو روسیه یا چین میاد، احتمالا کار یه هکرِ. همچنین، اگه نوع مرورگر یه نسخه قدیمی از کروم یا فایرفاکس باشه، باز هم احتمالا کار یه ربات هکره. البته این فقط یه دلیله، دلایل دیگه‌ای هم ممکنه وجود داشته باشه. گوگل به سوال جواب میده کسی که سوال پرسیده بود، یه افت رتبه رو با خطاهای ۴۰۴ مرتبط کرده بود. سوال به این شکل بود: “اینکه URL های تقلبی ۴۰۴ از یه منبع خارجی به سایتم میان، می‌تونه باعث افت رتبه بشه؟ چطور می‌تونم این مشکل رو حل کنم؟” پاسخ گوگل گاری ایلیز از گوگل جواب داد: “اگه گوگل‌بات بره سراغ یه ۴۰۴ تقلبی و اونو بخزه (crawl کنه)، نمی‌شه منطقی گفت که این باعث افت رتبه شده. اینکه تو یه سایتی چند تا ۴۰۴ وجود داشته باشه عادیه و لازم نیست حتما درستشون کنی. حالا اگه تو نرم‌افزار تحلیلت دیدی که تعداد زیادی کاربر واقعی هم دارن از اون لینک‌های ۴۰۴ میان، من خودم ترجیح می‌دم اونارو به یه روش‌هایی تغییر بدم، مثلا بهشون یه محتوای مرتبط نشون بدم.” افت رتبه و خطاهای ۴۰۴ (صفحه پیدا نشد) گاری گفت که ۴۰۴ ها عادی هستن و احتمالش خیلی کمِه که باعث افت رتبه تو نتایج جستجو بشن. درسته که خطاهای ۴۰۴ یه اتفاق رایج هستن. معمولا مشکلی نیست و تو اکثر مواقع لازم نیست کاری بکنی. 404 هایی که کاربرای واقعی درست می‌کنن! حالا یه حالت دیگه هم هست که خطای ۴۰۴ رو خود کاربرها درست می‌کنن. مثلا شاید یه نفر از یه جایی یه لینکی رو دنبال کرده باشه که دیگه وجود نداره و به صفحه “صفحه پیدا نشد” برسه. تشخیص این مورد راحته. کافیه چک کنی ببینی آدرسی که کاربر سعی کرده بره بهش، شباهت زیادی به یه آدرس درست تو سایت داره یا نه. اگه شباهت داشت، احتمالا کاربر یه غلط تو نوشتن آدرس داشته. راه حل اینه که یه “مسیرنما” (redirect) درست کنی که کاربر رو از اون آدرس غلط به آدرس درست هدایت کنه. افت رتبه چطور؟ یه چیزی که گاری اصلا بهش اشاره نکرد ولی لازمه بگیم اینه که یه احتمال ضعیف وجود داره که شاید یه ربات واقعا یه آسیب‌پذیری رو پیدا کرده باشه. شاید این ۴۰۴ ها به خاطر یه اسکنری باشن که دنبال اینجور مشکلات می‌گرده و نهایتا یه آسیب‌پذیری رو پیدا کرده. یه راه برای چک کردن این موضوع استفاده از یه برنامه به اسم phpMyAdmin هستش. با این برنامه می‌تونی بری تو بخش “کاربران” تو جداول پایگاه داده‌ت رو نگاه کنی و ببینی یه کاربر ناشناس وجود داره یا نه. یه راه دیگه، اگه سایته با وردپرس ساخته شده، استفاده از یه افزونه امنیتیه. اینجوری می‌تونی کل سایت رو اسکن کنی و ببینی یه قالب یا افزونه آسیب‌پذیر توش استفاده می‌شه یا نه. یه افزونه اسکن رایگان به اسم Jetpack Protect هستش که توسط توسعه‌دهنده‌های Automattic ساخته شده. این افزونه خودش مشکل رو حل نمی‌کنه ولی اگه یه آسیب‌پذیری تو قالب یا افزونه پیدا کنه بهت هشدار می‌ده. نسخه پولی و حرفه‌ای این افزونه هم هست که امکانات بیشتری داره. Sucuri و Wordfence هم دو تا افزونه امنیتی دیگه برای وردپرس هستن که کارهای مختلفی انجام می‌دن و هر دو نسخه رایگان و حرفه‌ای دارن. حالا اگه اینجوری نبود، افت رتبه کاملا تصادفی بوده و دلیل اصلی یه چیز دیگه‌ست.

گوگل یاهو ژاپن رو اذیت می‌کرد که نتونه تو تبلیغات هدفمند تو موتور جستجو باهاش رقابت کنه گوگل ظاهرا از ۲۰۱۵ تا ۲۰۲۲ نمی ذاشته یاهو ژاپن به یه تکنولوژی مهم دسترسی پیدا کنه که بتونه از تبلیغات تو گوشی پول دربیاره! طبق گفته های کمیسیون تجارت عادلانه ژاپن (FTC)، ظاهرا گوگل از سال ۲۰۱۵ تا ۲۰۲۲ کاری می کرده که یاهو ژاپن نتونه به یه تکنولوژی مهم برای تبلیغات هدفمند تو گوشی های موبایل دسترسی داشته باشه. این کمیسیون به گوگل گیر داده و گفته این کارا رو تموم کنه. بعد از اون، گوگل به بلومبرگ گفته که دسترسی به این تکنولوژی که با کلمات کلیدی سر و کار داره رو برای یاهو ژاپن آزاد می کنه. هر کاری که باعث بشه تبلیغ دهنده ها نتونن انتخاب درستی داشته باشن یا به تکنولوژی های لازم برای هدفمند کردن تبلیغات دسترسی نداشته باشن، باعث میشه هزینه تبلیغات بره بالا. این اولین باریه که کمیسیون تجارت عادلانه ژاپن (FTC) به طور رسمی علیه شرکت الفبیت (شرکت مادر گوگل) وارد عمل می‌شه، ولی فعلا هیچ جریمه‌ای براشون در نظر نگرفته. این کمیسیون همچنان به دقت کارهای گوگل رو زیر نظر می‌گیره و می‌تونه هر موقع که لازم باشه دوباره پرونده رو باز کنه. اونا همچنین دارن روی این موضوع که آیا شرکت الفبیت روی تولید کننده‌های گوشی‌های هوشمند تو ژاپن نفوذ داره و باعث می‌شه اولویت با سرویس‌های جستجوی گوگل باشه، تحقیق می‌کنن. این کار باعث می‌شه بیشتر روی کارهای این غول تکنولوژی زوم بشه. تو آمریکا هم هنوز منتظر حکم دادگاه آنتی‌تراست (ضد انحصار) علیه گوگل هستیم. بخشی از این دادگاه درباره این بود که آیا گوگل از ابزارهای تبلیغاتی جستجوی خودش برای اینکه از رقیب‌هاش جلو بیفته استفاده کرده یا نه.

اشتراک گذاری

توجه: شما مجاز به کپی محتوا یا مشاهده سورس نیستید!!