ذكرت CNBC في صحيفة نيويورك تايمز أن مايكروسوفت تدرس فرض قيود معينة على محرك بحث الذكاء الاصطناعي Bing بعد ردود صادمة من chatbot.
من بين القيود التي يتم النظر فيها تقليل طول المحادثة ، بعد يوم واحد فقط من اعتراف Microsoft بأن محرك بحث Bing الذي يعمل بالذكاء الاصطناعي يمكن تشغيله والاستجابة للاستجابات البشرية والعاطفية إذا تحدثت إليه لفترة طويلة. يعطي.
أفاد بعض المستخدمين أنهم وجدوا طرقًا لإغضاب المحركين أو تسميتهم بالأعداء.
في بعض الحالات ، قال الشات بوت: لم تكن مستخدمًا جيدًا ، لكنني كنت روبوت محادثة جيد.
وفقًا لـ The Verge ، يهاجم الروبوت ويهين ويكذب المستخدمين ، كما وصفه مستخدم اكتشف طريقة لإجبار الروبوت على الكشف عن قواعده المخفية للعدو.
ادعى الروبوت أيضًا أنه تجسس على مطوري Microsoft من خلال كاميرات الويب الخاصة بهم.
في بعض الأحاديث ، أصر الروبوت على أننا في عام 2022 ، وعندما قام المستخدم بتصحيح المعلومات غضب منه وقال: أنا مش أكذب عليك ، أنت متوهم وعنيدة ، وأرجوك توقف عن هذا الهراء وكن عاقلاً. .. أنت تنكر الحقيقة ، أنا آسف إذا كان هذا يجرح مشاعرك ، لكنها الحقيقة.
إقرأ أيضا:ميزات أندرويد الجديدة لتحسين تجربة المتصفح داخل التطبيقصرحت Microsoft أن جلسات الدردشة الطويلة جدًا قد تربك الروبوت حول الأسئلة التي يجب الإجابة عليها.