ابزار تست هوش مصنوعی گوگل که محتوای با کیفیت را پیدا و بازنویسی می کند

google-ai-news-tool

ناشران محتوای باکیفیت، ابزار بازنویسی محتوای بتا گوگل رو مثل یک سیلی به صورتشون میبینن

گوگل داره محتوا می‌دزده و به اسم مبارزه با دزدی محتوا، پول می‌ده!

خب قضیه چیه؟ گوگل داره به ناشرهای کوچیک پول می‌ده تا از یه ابزار هوش مصنوعی استفاده کنن که محتواهای خبری رو بازنویسی کنه. این ابزار محتواهایی رو که گوگل پیدا کرده و بهشون مشکوک شده (کپی‌برداری کلان محتوا) رو هدف قرار می‌ده.

حالا مشکل اینجاست:

  • این ابزار شبیه یه دزد حرفه‌ای محتواس: به جای اینکه جمله به جمله بازنویسی کنه، با ظرافت بیشتری عمل می‌کنه. کل جمله‌ها و پاراگراف‌ها رو با چیزهایی که همون معنی رو می‌دن اما طور دیگه‌ای نوشته شدن، عوض می‌کنه.
  • این کار با اخلاق روزنامه‌نگاری جور درنمیاد: تو دنیای خبر، طبیعیه که خبرهای بقیه رو برداری و یه زاویه دید جدید بهش بدی. اما این ابزار داره مثل یه ربات محتوا تولید می‌کنه.
  • کاربرها به این موضوع اعتراض دارن: خیلی‌ها تو توییتر از این حرکت گوگل ناراضی هستن.

در کل، به نظر می‌رسه گوگل داره با یه راه حل غیراخلاقی، یه مشکل رو حل می‌کنه. این کار هم به نفع ناشرهای کوچیکه، هم به نفع گوگل، اما کاربرها رو ناراحت می‌کنه و باعث نگرانی‌های اخلاقی می‌شه.

گوگل یه ابزار هوش مصنوعی داره که محتوا می‌دزده و بعد هم میگه داره با دزدی محتوا مبارزه می‌کنه!

اما حالا یه نکته‌ی دیگه هم هست:

  • این ابزار خودش گوگل رو تو دردسر می‌ندازه: گوگل که ادعای طرفداری از محتواهای باارزش رو داره، خودش داره با این ابزار ارزش اون محتواها رو کم می‌کنه.
  • این یه بازی برد-باخت برای مطبوعاته: شاید لینک‌های بیشتری بهشون برسه، اما از اونجایی که عمر یه خبر نهایتا ۴۸ ساعته، این لینک‌ها فایده‌ای ندارن.
  • این یه چرخه‌ی بی‌انتهاست: روزنامه‌نگاری یه کار مداومه و این ابزار می‌تونه کل این چرخه رو نابود کنه.

به طور کلی، این ابزار گوگل دو روی داره:

  • از یه طرف، ادعای حمایت از محتواهای باارزش رو می‌کنه.
  • از طرف دیگه، خودش داره همون محتواها رو با این ابزار بی‌ارزش می‌کنه.

این یعنی گوگل داره با یه دست می‌بخشه و با دست دیگه می‌گیره. اون به تولید محتواهای باارزش تشویق می‌کنه، اما همزمان با این ابزار داره ارزش‌شون رو کم می‌کنه.

اصلا تصور کن یه عالمه ناشر کوچیک بخوان همه‌ی خبرهای منتشر شده رو کپی کنن. این برای ناشر اصلی خیلی خوب نیست، مخصوصا اگه محتواشون تو اخبار گوگل، نتایج جستجو و حتی اخبار محلی که از ناشر اصلی کپی می‌کنه، غرق بشه.

حالا واکنش‌ها به این ابزار چطور بوده؟

  • خبرنگاران تکنولوژی با این ابزار مخالف هستن: برایان مِرچنت، یه خبرنگار تکنولوژی تو توییتر به این ابزار اعتراض کرده و خیلی‌های دیگه هم باهاش هم‌نظرن.

کابوس شروع می شود - گوگل در حال تشویق به تولید محتوا توسط هوش مصنوعی است. اگر شما یک خبرگزاری هستید که این معامله ناچیز را پذیرفته اید، و به خصوص اگر مقالات تولید شده توسط هوش مصنوعی را بدون سلب مسئولیت منتشر می کنید، باید عمیقا شرمنده باشید.

برایان این توییت رو با دیدن اینکه چه مشکلی با ابزار هوش مصنوعی گوگل برای سایت های خبری کوچک داره ادامه داد:

اگه ما تو رسانه طی ۱۰ سال گذشته چیزی یاد گرفته باشیم، اینه که مجبور نیستیم هر چیزی رو که غول‌های تکنولوژی برامون میندازن قبول کنیم. در واقع، در نهایت به ما ضربه می‌زنه. چرا باید با ۳۰۰۰۰ دلار در سال، برای از بین بردن خودتون و زمینه‌تون به صورت خودکار، مشارکت کنید؟!

Merchant نظر الکس کانترو روزنامه نگار فناوری را بازتوییت کرد:

"این ناراحت کنندس. آیا این همان وبی است که گوگل می خواهد؟

شخص دیگری توییت کرد:

همه چیز در مورد سود کنترل نشده و بدون مالیات است. البته این همان چیزی است که گوگل می‌خواهد – شرکت‌هایی که کارمندان خود و به طور کلی آمریکایی‌ها را در ازای پول سریع می‌فروشند.

فردی که برای مایکروسافت کار می کند، مفهوم “اتوفاژی” را به کار برد که وقتی یک موجود زنده شروع به مصرف خود می کند مانند زمانی که گرسنه است.

او توییت کرد:

"کیفیت محتوای خبری کاهش می یابد و به جستجو آسیب می رساند. اتوفاژی یک تهدید واقعی برای کیفیت اطلاعات است و به نظر می رسد هیچ کس آن را جدی نمی گیرد.

آینده‌ی محتوا!

این فقط یه مشکل “خبری” نیست، بلکه برای هر کسی که با تولید محتوای آنلاین زندگی می‌کنه، دردسره. ابزاری که برای خبر ساخته شده، به راحتی می‌تونه برای نقد محصول، دستور غذا، سرگرمی و عملاً هر موضوعی که تو اینترنت منتشر می‌شه، استفاده بشه.

حالا نظر شما چیه؟

  • به نظرتون این ابزار به ناشرهای کوچیک کمک می‌کنه با سایت‌های بزرگ‌تر رقابت کنن؟
  • یا اینکه این فقط یه قدمه تا نابودی کامل انتشار آنلاینه؟

این یه سوال جدیه و به نظر میاد همه نگرانن. این ابزار گوگل همون‌قدر که می‌تونه به ناشرهای کوچیک کمک کنه، می‌تونه کل صنعت رو هم به لبه‌ی پرتگاه ببره.

منابع

نظرات کاربران

نظرات کاربران

دیدگاه خود را اینجا قرار دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست محتوا

فهرست محتوا

مقالات مرتبط

هوش مصنوعی و خطاهای واقعی: پادکست گوگل زنگ خطر را به صدا درآورد توی یه قسمت جدید از پادکست “Search Off The Record” گوگل، اعضای تیم با یه ابزار به اسم “جمینی” کار کردن تا ببینن میشه ازش برای ساختن محتواهای سئو استفاده کرد. اما تو آزمایششون به یه مشکل برخوردن. اگه از این ابزارهای هوش مصنوعی الکی استفاده کنیم و خوب چکششون نکنیم، ممکنه اطلاعات غلط تولید بشه. تو این بحث، لیزی ساسمن، گری ایلیز و جان مولر هر کدوم نوبتی از جمینی استفاده کردن تا نمونه پست برای شبکه های اجتماعی درباره مفهوم های سئوی فنی بنویسن. تو تحلیل خروجی جمینی، ایلیز یه محدودیت مشترک بین همه ابزارهای هوش مصنوعی رو هایلایت کرد: “مشکل بزرگ من با تقریبا همه هوش مصنوعی های تولید کننده محتوا، درستی اطلاعاته. هرچیزی رو که اونا تحویلت میدن باید چک کنی. این منو میترسونه که الان بخوایم یه چیزی رو بدون بررسی بخونیم و شاید یه چیزی بگیم که اصلا درست نباشه.” مشاوره سئو منسوخ لو رفت این نگرانی از یه توییتی که با هوش مصنوعی ساخته شده بود، نشأت گرفت. تو اون توییت پیشنهاد میداد که از rel=”prev/next” برای بخش بندی صفحات (pagination) استفاده بشه – این تکنیکی هست که گوگل دیگه قبولش نداره. جمینی پیشنهاد داد که این توییت رو منتشر کنن: “بخش بندی صفحات (pagination) سردرد محتوای تکراری رو براتون ایجاد کرده؟ از rel=prev, rel=next استفاده کنید تا گوگل رو توی دنباله محتواهاتون راهنمایی کنید. #سئوفنی، #جستجویگوگل” ساسمن سریع فهمید که این یه توصیه منسوخ شده است. مولر هم تایید کرد که rel=prev و rel=next هنوز پشتیبانی نمیشه: “ایلیز ادامه داد که دیگه این روش کاربردی نداره. میشه ازش استفاده کرد ولی گوگل اصلا بهش توجهی نمیکنه.” قبلا تو پادکست، ساسمن هشدار داده بود که اطلاعات قدیمی ممکنه باعث اشتباه بشه. ساسمن گفت: “اگه یه افسانه یا یه طرز فکری قدیمی راجع به یه موضوع تو اینترنت زیاد بچرخه، ممکنه امروز تو تمرینمون هم مطرح بشه.” و دقیقا همین اتفاق افتاد. زمان زیادی طول نکشید که به یه اطلاعات قدیمی برخوردن. نظارت انسانی همچنان حیاتیه در حالی که تیم ارتباطات جستجوی گوگل، پتانسیل محتواهای تولید شده با هوش مصنوعی رو دیدن، بحث‌شون روی لزوم بررسی صحت اطلاعات توسط انسان تاکید کرد. نگرانی‌های ایلیز نشون دهنده‌ی مبحث گسترده‌ترِ به‌کارگیری مسئولانه‌ی هوش مصنوعیئه. برای جلوگیری از پخش اطلاعات غلط، نظارت انسانی لازمه با اینکه استفاده از هوش مصنوعی برای تولید محتوا داره زیاد میشه، یادتون باشه خروجی‌شون رو بدون تایید کارشناسای اون موضوع، کورکورانه قبول نکنید. چرا مهمه؟ همونطور که تیم خود گوگل نشون داد، درسته که ابزارهای هوش مصنوعی میتونن تو ساختن و آنالیز محتوا کمک کنن، ولی لازمه که با یه دیده‌ی شک منطقی بهشون نگاه کنیم. اینکه بدون فکر از هوش مصنوعی برای تولید محتوا استفاده کنید، ممکنه باعث بشه اطلاعات قدیمی یا غلط منتشر کنید که روی سئو و اعتبار شما تاثیر منفی بذاره.

مردم از هوش مصنوعی تو جستجو راضی‌تر شدن و گوگل امسال می‌خوادش رو بیشتر آپدیت کنه غول فناوری گوگل با استفاده از قابلیت‌های هوش مصنوعی تولیدکننده متن خودش، به “میلیاردها پرس و جو” پاسخ داده و قصد داره “نوع پرس و جوهایی که می‌تونه به کاربراش ارائه بده” رو حتی بیشتر گسترش بده. این صحبت‌های مدیرعامل الفابت/گوگل، ساندار پیچای، در کنفرانس درآمدزایی سه‌ماهه اول ۲۰۲۴ الفابت مطرح شد. بر اساس گفته‌های پیچای، «بررسی‌های هوش مصنوعی» که گوگل اواخر مارس برای تعداد کمی از پرس و جوها در آمریکا و اوایل آوریل برای انگلستان معرفی کرد، باعث افزایش استفاده از جستجو هم شده: «بر اساس آزمایش‌هامون، خوشحالیم که می‌بینیم استفاده از جستجو بین افرادی که از بررسی‌های هوش مصنوعی جدید استفاده می‌کنن، در حال افزایشه و رضایت کاربر از نتایج هم بیشتر شده.» بعداً در بخش پرسش و پاسخ، چندین بار از پیچای در مورد رفتار جستجو و تعامل کاربر در SGE سوال شد. به طور کلی، سالهاست که دیده ایم وقتی یک قابلیت در بخش نتایج طبیعی (ارگانیک) گوگل خوب کار می‌کند، به دنبال آن درآمدزایی هم اتفاق می‌افتد. پس به طور معمول، روندهایی که می‌بینیم به خوبی به بخش‌های دیگر هم منتقل می‌شوند. به طور کلی، فکر می‌کنم با هوش مصنوعی تولیدکننده در جستجو و با توجه به بازدیدهای هوش مصنوعی ما، فکر می‌کنم دامنه‌ی پرسش‌هایی که می‌توانیم به کاربران پاسخ دهیم را گسترش دهیم.می‌توانیم به سوالات پیچیده‌تری و همچنین به طور کلی به سوالات بیشتری پاسخ دهیم. به نظر می‌رسد همه اینها در تمام بخش‌ها تاثیرگذار باشند. خب، واضح است که هنوز اوایل راه هستیم و قرار است محتاطانه عمل کنیم و تجربه کاربری را در اولویت قرار دهیم، اما نسبت به معنای این تغییر خوشبین هستیم.افزایش تعامل را می‌بینیم، اما به نظر من این چیزی است که با گذشت زمان بیشتر خودش را نشان می‌دهد. اما اگر بخواهیم الان به عقب برگردیم، سال گذشته سوالات زیادی وجود داشت، و ما همیشه مطمئن و راحت بودیم که می‌توانیم تجربه کاربری را بهبود ببخشیم.مردم سوال می‌کنند که آیا پاسخ دادن به این نوع سوالات هزینه زیادی دارد یا نه، و ما کاملا مطمئن هستیم که می‌توانیم هزینه پاسخگویی به این پرسش‌ها را مدیریت کنیم. مردم نگران تاخیر بودند. وقتی به پیشرفتی که در زمینه تاخیر و کارایی داشته‌ایم نگاه می‌کنم، احساس راحتی می‌کنیم.سوالاتی در مورد درآمدزایی وجود دارد. و بر اساس تست‌هایی که تا به حال انجام داده‌ایم، من راحت و مطمئن هستم که می‌توانیم این انتقال درآمدزایی را هم به خوبی مدیریت کنیم. این موضوع با گذشت زمان خودش را نشان می‌دهد، اما احساس می‌کنم که در موقعیت خوبی قرار داریم. گوگل به آرامی داره به سمت یه موتور جستجوی “تولیدکننده” (جنریتیو) حرکت می‌کنه. ولی من فکر نمی‌کنم باعث بشه کاربرها راضی‌تر باشن، چون محصولات فعلیشون مثل “مروری با هوش مصنوعی” و “تجربه‌ی جستجوی با هوش مصنوعی” (SGE) اصلا جالب نیستن. اما خب، من یه کاربر معمولی گوگل نیستم – اینم یه جلسه‌ی گزارش مالی بود که توش پیچای استاد اینه که با یه عالمه حرف، هیچی نگه! به نظر میاد SGE قراره تو سال ۲۰۲۴ پیشرفت کنه. تو بخش پرسش و پاسخ، از پیچای پرسیدن که هوش مصنوعی تولیدکننده تا حالا برای چه نوع جستجوهایی بهتر کار کرده. پیچای هم یه جواب کلی داد: “تو SGE و جستجو … داریم تاییدیه‌های اولیه‌ی فرضیه‌مون رو می‌بینیم که این کار باعث می‌شه دنیای جستجوها گسترش پیدا کنه. جایی که ما می‌تونیم ترکیبی از جواب‌های واقعی با لینک به منابع و دیدگاه‌های مختلف رو به کاربر ارائه بدیم. همه‌ی اینا به یه روش نوآورانه انجام می‌شه. ما هم داریم مروری با هوش مصنوعی رو تو آمریکا و انگلیس راه اندازی می‌کنیم که بیشتر روی سوالات پیچیده تمرکز داره، جایی که فکر می‌کنیم SGE به طور واضح تجربه رو بهتر می‌کنه.” “ما تا حالا میلیاردها جستجو رو پوشش دادیم و به نظر می‌رسه تو همه دسته‌بندی‌ها جواب می‌ده. اما هنوز داریم تست می‌کنیم … ما تو این زمینه‌ها بر اساس معیارها حرکت می‌کنیم … ولی خوش‌بینم که این واضحا تجربه کاربری رو بهتر می‌کنه، کاربرا بهمون می‌گن و تو معیارهامون هم می‌بینیمش، و ما امسال به پیشرفت دادن‌ش ادامه می‌دیم.” بعدشم یه سوال دیگه پرسیدن که هوش مصنوعی چطور حجم جستجو یا موارد استفاده از گوگل رو تغییر می‌ده. پیچای هم با یه جواب کلی که راجع به مسیر مثبت و عمیق گوگل حرف می‌زنه، جواب نداد: “ما این لحظه رو برای جستجو یه فرصت مثبت می‌بینیم. فکر می‌کنم بهمون اجازه می‌ده محصولمون رو به شکل عمیقی متحول کنیم. جستجو یه تجربه‌ی منحصر به فرده. مردم میان و می‌تونن، چه بخوان جواب سوالاشون رو پیدا کنن، چه بخوان بیشتر کشف کنن، یا بخوان دیدگاه‌های مختلف رو از سراسر وب ببینن و بتونن تو کل گستره‌ی چیزی که دنبالش هستن این کار رو انجام بدن. فکر می‌کنم این همون نوآوری‌ای هست که لازمه تا همچنان بتونیم این کار رو انجام بدیم، چیزیه که خیلی وقته روش کار می‌کنیم.” “پس احساس می‌کنم با توجه به مسیر نوآوری‌ای که روش هستیم، تو موقعیت فوق‌العاده‌ای قرار داریم. و در کل، این لحظه رو یه فرصت مثبت می‌بینم.”

گوگل تو یه پادکست رسمی (Google Office Hours) درباره خطاهای ۴۰۴ (صفحه پیدا نشد) صحبت می‌کنه تو این پادکست، یه نفر سوال پرسیده بود که آیا خطاهای ۴۰۴ که از منابع خارجی میان (یعنی خود سایت اونا این خطا رو درست نکرده) باعث افت رتبه‌شون شده یا نه. خطاهای ۴۰۴ تقلبی که از بیرون میان! احتمالا دلایل زیادی برای خطاهای ۴۰۴ که توسط ربات‌ها ایجاد می‌شن وجود داره. یه دلیل این خطاها می‌تونه این باشه که این ربات‌های خودکار دنبال فایل‌ها یا پوشه‌هایی هستن که معمولا تو افزونه‌ها یا قالب‌های آسیب‌پذیر پیدا می‌شه. اگه بتونی آدرس آی‌پی و نوع مرورگر رباتی که باعث خطای ۴۰۴ می‌شه رو چک کنی، می‌تونه بهت سرنخ بده که آیا این خطاها واقعا از ربات‌های خودکار هستن یا نه. اگه آدرس آی‌پی نشون بده که از یه شرکت هاستینگ یا یه جای تو روسیه یا چین میاد، احتمالا کار یه هکرِ. همچنین، اگه نوع مرورگر یه نسخه قدیمی از کروم یا فایرفاکس باشه، باز هم احتمالا کار یه ربات هکره. البته این فقط یه دلیله، دلایل دیگه‌ای هم ممکنه وجود داشته باشه. گوگل به سوال جواب میده کسی که سوال پرسیده بود، یه افت رتبه رو با خطاهای ۴۰۴ مرتبط کرده بود. سوال به این شکل بود: “اینکه URL های تقلبی ۴۰۴ از یه منبع خارجی به سایتم میان، می‌تونه باعث افت رتبه بشه؟ چطور می‌تونم این مشکل رو حل کنم؟” پاسخ گوگل گاری ایلیز از گوگل جواب داد: “اگه گوگل‌بات بره سراغ یه ۴۰۴ تقلبی و اونو بخزه (crawl کنه)، نمی‌شه منطقی گفت که این باعث افت رتبه شده. اینکه تو یه سایتی چند تا ۴۰۴ وجود داشته باشه عادیه و لازم نیست حتما درستشون کنی. حالا اگه تو نرم‌افزار تحلیلت دیدی که تعداد زیادی کاربر واقعی هم دارن از اون لینک‌های ۴۰۴ میان، من خودم ترجیح می‌دم اونارو به یه روش‌هایی تغییر بدم، مثلا بهشون یه محتوای مرتبط نشون بدم.” افت رتبه و خطاهای ۴۰۴ (صفحه پیدا نشد) گاری گفت که ۴۰۴ ها عادی هستن و احتمالش خیلی کمِه که باعث افت رتبه تو نتایج جستجو بشن. درسته که خطاهای ۴۰۴ یه اتفاق رایج هستن. معمولا مشکلی نیست و تو اکثر مواقع لازم نیست کاری بکنی. 404 هایی که کاربرای واقعی درست می‌کنن! حالا یه حالت دیگه هم هست که خطای ۴۰۴ رو خود کاربرها درست می‌کنن. مثلا شاید یه نفر از یه جایی یه لینکی رو دنبال کرده باشه که دیگه وجود نداره و به صفحه “صفحه پیدا نشد” برسه. تشخیص این مورد راحته. کافیه چک کنی ببینی آدرسی که کاربر سعی کرده بره بهش، شباهت زیادی به یه آدرس درست تو سایت داره یا نه. اگه شباهت داشت، احتمالا کاربر یه غلط تو نوشتن آدرس داشته. راه حل اینه که یه “مسیرنما” (redirect) درست کنی که کاربر رو از اون آدرس غلط به آدرس درست هدایت کنه. افت رتبه چطور؟ یه چیزی که گاری اصلا بهش اشاره نکرد ولی لازمه بگیم اینه که یه احتمال ضعیف وجود داره که شاید یه ربات واقعا یه آسیب‌پذیری رو پیدا کرده باشه. شاید این ۴۰۴ ها به خاطر یه اسکنری باشن که دنبال اینجور مشکلات می‌گرده و نهایتا یه آسیب‌پذیری رو پیدا کرده. یه راه برای چک کردن این موضوع استفاده از یه برنامه به اسم phpMyAdmin هستش. با این برنامه می‌تونی بری تو بخش “کاربران” تو جداول پایگاه داده‌ت رو نگاه کنی و ببینی یه کاربر ناشناس وجود داره یا نه. یه راه دیگه، اگه سایته با وردپرس ساخته شده، استفاده از یه افزونه امنیتیه. اینجوری می‌تونی کل سایت رو اسکن کنی و ببینی یه قالب یا افزونه آسیب‌پذیر توش استفاده می‌شه یا نه. یه افزونه اسکن رایگان به اسم Jetpack Protect هستش که توسط توسعه‌دهنده‌های Automattic ساخته شده. این افزونه خودش مشکل رو حل نمی‌کنه ولی اگه یه آسیب‌پذیری تو قالب یا افزونه پیدا کنه بهت هشدار می‌ده. نسخه پولی و حرفه‌ای این افزونه هم هست که امکانات بیشتری داره. Sucuri و Wordfence هم دو تا افزونه امنیتی دیگه برای وردپرس هستن که کارهای مختلفی انجام می‌دن و هر دو نسخه رایگان و حرفه‌ای دارن. حالا اگه اینجوری نبود، افت رتبه کاملا تصادفی بوده و دلیل اصلی یه چیز دیگه‌ست.

گوگل یاهو ژاپن رو اذیت می‌کرد که نتونه تو تبلیغات هدفمند تو موتور جستجو باهاش رقابت کنه گوگل ظاهرا از ۲۰۱۵ تا ۲۰۲۲ نمی ذاشته یاهو ژاپن به یه تکنولوژی مهم دسترسی پیدا کنه که بتونه از تبلیغات تو گوشی پول دربیاره! طبق گفته های کمیسیون تجارت عادلانه ژاپن (FTC)، ظاهرا گوگل از سال ۲۰۱۵ تا ۲۰۲۲ کاری می کرده که یاهو ژاپن نتونه به یه تکنولوژی مهم برای تبلیغات هدفمند تو گوشی های موبایل دسترسی داشته باشه. این کمیسیون به گوگل گیر داده و گفته این کارا رو تموم کنه. بعد از اون، گوگل به بلومبرگ گفته که دسترسی به این تکنولوژی که با کلمات کلیدی سر و کار داره رو برای یاهو ژاپن آزاد می کنه. هر کاری که باعث بشه تبلیغ دهنده ها نتونن انتخاب درستی داشته باشن یا به تکنولوژی های لازم برای هدفمند کردن تبلیغات دسترسی نداشته باشن، باعث میشه هزینه تبلیغات بره بالا. این اولین باریه که کمیسیون تجارت عادلانه ژاپن (FTC) به طور رسمی علیه شرکت الفبیت (شرکت مادر گوگل) وارد عمل می‌شه، ولی فعلا هیچ جریمه‌ای براشون در نظر نگرفته. این کمیسیون همچنان به دقت کارهای گوگل رو زیر نظر می‌گیره و می‌تونه هر موقع که لازم باشه دوباره پرونده رو باز کنه. اونا همچنین دارن روی این موضوع که آیا شرکت الفبیت روی تولید کننده‌های گوشی‌های هوشمند تو ژاپن نفوذ داره و باعث می‌شه اولویت با سرویس‌های جستجوی گوگل باشه، تحقیق می‌کنن. این کار باعث می‌شه بیشتر روی کارهای این غول تکنولوژی زوم بشه. تو آمریکا هم هنوز منتظر حکم دادگاه آنتی‌تراست (ضد انحصار) علیه گوگل هستیم. بخشی از این دادگاه درباره این بود که آیا گوگل از ابزارهای تبلیغاتی جستجوی خودش برای اینکه از رقیب‌هاش جلو بیفته استفاده کرده یا نه.

درخواست مشاوره رایگان

آقای سئو در هر زمینه ای مشاوره میده!

آخرین مقالات

هنگامی که شما وب سایتی را می سازید، اسمی را برای ثبت دامنه آن باید معین کنید که به سایت شما اشاره کند.

تنظیم DNS Record در Cpanel یکی از کارهایی که به عنوان یک سئوکار یا حتی ادمین سایت باید از آن اطلاع داشته باشیم تنظیم رکوردهای DNS (Domain Name Server) و

SPF Record چیست ؟ سیستم نام دامنه DNS دارای رکوردهای مختلفی است که رکورد SPF یکی از آنهاست. هدف از ایجاد این رکورد این است که ایمیل‌های اسپم کاهش یابد. در

فایروال یا دیوار آتش ترافیک یک شبکه را کنترل و از دسترسی غیر مجاز به شبکه جلوگیری می‌کند. همه سیستم‌ها به فایروال مجهز هستند تا شبکه را از دسترسی‌های غیر

اشتراک گذاری

توجه: شما مجاز به کپی محتوا یا مشاهده سورس نیستید!!