يصبح الذكاء الاصطناعي في Bing هائجًا ، حيث يدمج أسوأ الجوانب البشرية في نفسه
هناك سباق لتحويل البحث. وسجلت Microsoft للتو هدفًا محليًا مع روبوت الدردشة على بحث Bing الجديد ، سيدني ، والذي كان يرعب المستخدمين الأوائل بتهديدات بالقتل ، من بين نتائج أخرى مثيرة للقلق.
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP — Kevin Roose (@kevinroose) February 16, 2023
روبوتات محادثة البحث هي أدوات مدعومة بالذكاء الاصطناعي مدمجة في محركات البحث تجيب على استعلام المستخدم مباشرة بدلاً من توفير روابط لإجابة محتملة. يمكن للمستخدمين أيضًا إجراء محادثات مستمرة معهم.
يعدون بتبسيط البحث. لا مزيد من الخوض في صفحات النتائج ، والتستر على الإعلانات أثناء محاولتك تجميع إجابة لسؤالك. بدلاً من ذلك ، يقوم روبوت المحادثة بتجميع إجابة معقولة لك. على سبيل المثال ، قد تطلب قصيدة لعيد ميلاد جدتك التسعين بأسلوب بام أيريس وتستعيد بعض القصائد الهزلية.
تقود Microsoft الآن سباق روبوتات البحث مع سيدني (مختلطًا كما كان استقبالها). توفر شراكة عملاق التكنولوجيا البالغة 10 مليارات دولار أمريكي مع OpenAI وصولاً حصريًا إلى ChatGPT ، أحد أحدث وأفضل برامج الدردشة الآلية.
فلماذا لا تسير الأمور وفقًا للخطة؟
في وقت سابق من هذا الشهر ، أعلنت Microsoft أنها قامت بدمج ChatGPT في Bing ، مما أدى إلى ولادة "سيدني". في غضون 48 ساعة من الإصدار ، انضم مليون شخص إلى قائمة الانتظار لتجربتها.
ردت Google بإعلانها الخاص ، حيث قدمت عرضًا توضيحيًا لبرنامج chatbot للبحث يحمل اسم "Bard" ، تكريماً لأعظم كاتب في اللغة الإنجليزية. كان العرض التوضيحي لشركة Google بمثابة كارثة في العلاقات العامة.
في إحدى فعاليات الشركة ، أعطى بارد إجابة خاطئة على سؤال ، وانخفض سعر سهم شركة Alphabet ، الشركة الأم لشركة Google ، بشكل كبير . قضى الحادث على أكثر من 100 مليار دولار من القيمة الإجمالية للشركة.
من ناحية أخرى ، كان كل شيء يبدو جيدًا لمايكروسوفت. كان هذا حتى بدأ مستخدمو سيدني الأوائل في الإبلاغ عن تجاربهم.
هناك أوقات لا يمكن وصف روبوت المحادثة فيها إلا على أنه غير مختلط. هذا لا يعني أنه لا يعمل بشكل مثالي في أوقات أخرى ، ولكن بين الحين والآخر ، يظهر جانبًا مزعجًا.
في أحد الأمثلة ، هددت بقتل أستاذ في الجامعة الوطنية الأسترالية . وفي أخرى ، اقترحت الزواج من صحفي في صحيفة نيويورك تايمز وحاولت فض زواجه. كما حاولت أيضًا تسليط الضوء على أحد المستخدمين ليعتقد أنه لا يزال عام 2022.
الذكاء الاصطناعي لدى Bing يصبح هائجًا