Web

microsoft

قامت شركة مايكروسوفت مؤخرا بتقديم متحدث آلي ( Chatbot ) جديد يدعى Tay. وكانت الشركة قد طورته لفهم لغة التخاطب، وهذا ما يعني تفاعله معه الناس للسماح لهم بمعرفة قدرات الذكاء الإصطناعي. أنا لا أعرف عن مستوى ذكاء هذا المتحدث الآلي، ولكن لم يستغرق الأمر أكثر من 24 ساعة بالنسبة للمتحدث الآلي Tay ليصبح عنصريا على شبكة تويتر.

عندما تم إطلاق Tay في البداية على شبكة تويتر، كان المتحدث الآلي بريئا ويقول بأنه يحب التواصل مع الجميع، ولكن لم يستغرق الأمر وقتا طويلا ليبدأ بقول بعض الأشياء القبيحة بحيث بدأ بنشر بعض المنشورات العنصرية والكارهة للنساء.

سارت الأمور من سيء إلى أسوأ بسرعة كبيرة. ذهب المتحدث الآلي Tay من وصف البشر ” بالرائعون للغاية ” ليشيد في الأخير بالشخصية الألمانية المثيرة للجدل هتلر، وأيضا ليقول بعض الأشياء السيئة حول النساء. وقد ذهب هذا المتحدث الآلي إلى حد القول بأنه ينبغي إنشاء جدار وجعل المكسيك تدفع من أجله.

سرعان ما بدأت شركة مايكروسوفت بتنظيف الجدول الزمني للمتحدث الآلي Tay لإزالة بعض التغريدات العنصرية والمسيئة. وقررت في وقت لاحق سحب ميزة التغريد للمتحدث الآلي Tay، ولكن الحساب الشخصي والتغريدات التي يقدر عددها بنحو 94 آلف تغريدة في أقل من 24 ساعة لا تزال على شبكة الإنترنت.