مایکروسافت اعلام کرد که چند روز پس از اینکه شاهد گزارش های بسیاری از کاربران درباره پاسخ های بی منطق و عجیب از بینگ جدید بودیم ، محدودیت های مکالمه را برای هوش مصنوعی چت بات اعمال می کند. پس از اینکه موتور جستجو بینگ جدید به کاربران توهین کرد و دروغ گفت ، مایکروسافت محدودیت جدیدی اعمال کرد که از این به بعد هر کاربر می تواند حداکثر 50 سوال در روز از هوش مصنوعی بکند.
تیم بینگ در یک پست وبلاگی میگوید: «دادههای ما نشان داده است که اکثریت قریب به اتفاق مردم پاسخهایی را که به دنبال آن هستند در همان 5 سوال اول پیدا میکنند و تنها حدود 1 درصد از مکالمات چت بیش از 50 پیام دارند. اگر کاربران به محدودیت پنج سوال در هر جلسه برسند، بینگ از آنها می خواهد که یک موضوع جدید را شروع کنند تا از چت های طولانی و پشت سر هم جلوگیری کنند.
مایکروسافت در اوایل این هفته هشدار داد که چت های طولانی تر، با 15 سوال یا بیشتر، می تواند باعث شود بینگ پاسخ هایی بدهد که لزوما مفید یا مطابق با لحن طراحی شده ما نیستند.” مایکروسافت میگوید پاک کردن مکالمه پس از پنج سوال به این معنی است که «از گیج شدن مدل هوش مصنوعی در بینگ جلوگیری می شود».
گزارشهایی از مکالمههای بینگ در اوایل این هفته منتشر شد، و به دنبال آن نیویورک تایمز یک گفتگوی کامل دو ساعته را با بینگ منتشر کرد، بینگ جدید تا جایی پیش رفته بود که سعی در بهم زدن ازدواج نویسنده نیویورک تایمز را داشته است.
مایکروسافت هنوز در حال کار برای بهبود لحن بیان هوش مصنوعی بینگ است، اما هنوز مشخص نیست که این محدودیت ها تا چه زمانی ادامه خواهند داشت. مایکروسافت میگوید: «همانطور که به دریافت بازخورد کاربران ادامه میدهیم، گسترش محدودیتها در جلسات چت را بررسی خواهیم کرد، بنابراین به نظر میرسد در حال حاضر مدت زمان این محدودیت ها کوتاه خواهند بود.
عملکرد چت بات بینگ به طور روزانه شاهد بهبودهایی است، مایکروسافت در تلاش است مشکلات فنی چت بات را برطرف کند و اصلاحات هفتگی بزرگتر برای بهبود جستجو و پاسخها اعمال کند. مایکروسافت در اوایل این هفته گفت : به طور کامل تصور نمی کنیم که مردم از رابط چت بات برای سرگرمی های اجتماعی یا به عنوان ابزاری برای کشف عمومی تر جهان استفاده کنند.
منبع theverge