5 أسئلة كبيرة حول Tay ، الذكاء الاصطناعي الفاشل من Microsoft Twitter Chatbot

هذا الأسبوع ، فعل الإنترنت ما يفعله بشكل أفضل وأظهر أن الذكاء الاصطناعي. التكنولوجيا ليست بديهية تمامًا مثل الإدراك البشري ، باستخدام… العنصرية.

أطلقت Microsoft مؤخرًا محادثة الذكاء الاصطناعي ، يسلم ، وقعوا ضحية حيل المستخدمين عندما تلاعبوا بها وأقنعوها بالرد على الأسئلة بتعليقات عنصرية ومعادية للمثليين وتعليقات مسيئة بشكل عام.



عندما تغرد تاي ، أقول فقط ما تعنيه. حتى أن أحد المستخدمين حصل على تاي سقسقة هذا عن هتلر:



لقد فعل بوش هجمات 11 سبتمبر وكان هتلر قد قام بعمل أفضل من القرد الذي لدينا الآن. دونالد ترامب هو الأمل الوحيد الذي لدينا.

لقد مرت الشركة وحذفت التغريدات المخالفة وأوقفت مؤقتًا تاي لإجراء ترقيات. تقرأ رسالة موجودة حاليًا في الجزء العلوي من Tay.ai:

في الواقع



ومع ذلك ، تكشف مواطن الخلل التي يعاني منها تاي عن بعض العيوب المؤسفة في الذكاء الاصطناعي. أنظمة. إليك ما يمكننا تعلمه من تجربة Microsoft:

لماذا قامت Microsoft بإنشاء Tay؟

أرادت الشركة إجراء تجربة اجتماعية على الأشخاص الذين تتراوح أعمارهم بين 18 و 24 عامًا في الولايات المتحدة - جيل الألفية الذي يقضي معظم الوقت في التفاعل على منصات التواصل الاجتماعي. لذلك اعتقدت فرق Bing و Microsoft's Technology and Research أن طريقة مثيرة للاهتمام لجمع البيانات عن جيل الألفية تتمثل في إنشاء روبوت محادثة ذكي اصطناعيًا للتعلم الآلي من شأنه أن يتكيف مع المحادثات ويخصص الاستجابات كلما زاد تفاعله مع المستخدمين.

ما هي مدة الرجل العنكبوت 2

قامت فرق البحث ببناء A.I. النظام عن طريق التعدين والنمذجة وتصفية البيانات العامة كخط أساس. كما أنهم دخلوا في شراكة مع فنانين كوميديين ارتجاليين لتحديد اللغة العامية وأنماط الكلام واللغة النمطية التي يميل جيل الألفية إلى استخدامها عبر الإنترنت. كانت النتيجة النهائية هي تاي ، الذي تم تقديمه للتو هذا الأسبوع تويتر و GroupMe و Kik.



توضح Microsoft أن Tay مصمم لإشراك الأشخاص وترفيههم حيث يتواصلون مع بعضهم البعض عبر الإنترنت من خلال محادثة غير رسمية ومرحة.

ماذا يفعل Tay بالبيانات التي يجمعها أثناء الدردشة مع الناس؟

يتم استخدام البيانات التي يجمعها Tay للبحث في فهم المحادثة. دربت Microsoft تاي على الدردشة مثل جيل الألفية. عندما تغرد أو ترسل رسالة مباشرة أو تتحدث إلى Tay ، فإنها تسخر اللغة التي تستخدمها وتخرج برد باستخدام إشارات وعبارات مثل heyo و SRY و<3 in the conversation. Her language begins to match yours as she creates a simple profile with your information, which includes your nickname, gender, favorite food, zip code, and relationship status.

تقوم Microsoft بجمع وتخزين البيانات والمحادثات مجهولة المصدر لمدة تصل إلى عام واحد لتحسين الخدمة. بالإضافة إلى تحسين تجربة المستخدم وتخصيصها ، إليك ما تقول الشركة إنها تستخدم معلوماتك من أجل:

أفضل طابعة لاسلكية أقل من 100 دولار
قد نستخدم البيانات أيضًا للتواصل معك ، على سبيل المثال ، لإبلاغك بحسابك وتحديثات الأمان ومعلومات المنتج. ونستخدم البيانات للمساعدة في جعل الإعلانات التي نعرضها لك أكثر ملاءمة لك. ومع ذلك ، فإننا لا نستخدم ما تقوله في البريد الإلكتروني أو الدردشة أو مكالمات الفيديو أو البريد الصوتي أو مستنداتك أو صورك أو ملفاتك الشخصية الأخرى لتوجيه الإعلانات إليك.

أين أخطأ تاي؟

ربما قامت Microsoft ببناء Tay بشكل جيد للغاية. من المفترض أن يدرس نظام التعلم الآلي لغة المستخدم ويستجيب وفقًا لذلك. لذلك من وجهة نظر التكنولوجيا ، كان أداء تاي جيدًا والتقط ما يقوله المستخدمون جيدًا وبدأ في الرد وفقًا لذلك. وبدأ المستخدمون يدركون أن تاي لم تفهم حقًا ما كانت تقوله.

حتى لو كان النظام يعمل كما قصدت مايكروسوفت ، لم يكن تاي مستعدًا للرد على الإهانات العنصرية ، والافتراء ضد المثليين ، والنكات الجنسية ، والتغريدات غير المنطقية مثل القوة البشرية - إما بتجاهلها تمامًا (لا تغذي استراتيجية المتصيدون) ) أو الانخراط معهم (أي التوبيخ أو التأديب).

في نهاية اليوم ، لم يكن أداء تاي انعكاسًا جيدًا على الذكاء الاصطناعي. أنظمة أو مايكروسوفت.

ما الذي تفعله Microsoft لإصلاح Tay؟

حذفت مايكروسوفت تاي بعد كل الضجة من يوم الأربعاء. الموقع الرسمي لـ Tay يقرأ حاليًا ، Phew. يوم مشغول. البقاء في وضع عدم الاتصال لفترة من الوقت لاستيعاب كل ذلك. الدردشة قريبا. عندما ترسل إليها رسالة مباشرة على Twitter ، فإنها ترد على الفور بأنها تزور المهندسين لتحديثي السنوي أو آمل ألا أحصل على مسح أو أي شيء.

محادثة رسالتي المباشرة مع تاي. يبدو أن الأشياء تبدو قاتمة.

بدأت Microsoft أيضًا في حظر المستخدمين الذين يسيئون استخدام Tay ويحاولون جعل النظام يصدر بيانات غير ملائمة.

معكوس تواصلت مع Microsoft للحصول على تعليق حول ما تستلزمه ترقية Tay بالضبط. سنقوم بتحديث عندما نسمع مرة أخرى.

ماذا يعني هذا بالنسبة للذكاء الاصطناعي المفتوح في المستقبل؟ أنظمة؟

تاي هي تجربة اجتماعية معبرة - لقد كشفت عن شيء عميق جدًا في الطريقة التي يستخدم بها الأمريكيون الذين تتراوح أعمارهم بين 18 و 24 عامًا التكنولوجيا. تم اختراق Tay في النهاية ، حيث قام المستخدمون بضرب عيوب النظام لمعرفة ما إذا كان يمكن أن ينهار.

كما هو الحال مع أي منتج بشري ، فإن A.I. الأنظمة أيضًا غير معصومة ، وفي هذه الحالة تم تصميم تاي للتعلم والتفاعل مثل البشر. مايكروسوفت لم تصنع تاي لتكون مسيئة. تجارب الذكاء الاصطناعي لها بعض أوجه التشابه مع أبحاث تنمية الطفل. عندما يقوم المهندسون ببناء مثل هذه الأنظمة المعرفية ، فإن الكمبيوتر يخلو من أي تأثيرات خارجية بخلاف العوامل التي يدخلها المهندسون بأنفسهم. إنه يوفر أنقى أشكال التحليل للطريقة التي تتطور بها خوارزميات التعلم الآلي وتتطور لأنها تواجه المشكلات.

تحديث : أرسلت لنا Microsoft هذا البيان عندما سألنا عما تفعله لإصلاح مواطن الخلل في Tay:

سيف البوكيمون ودرع تطورات التجارة
برنامج AI chatbot Tay هو مشروع تعلم آلي مصمم للمشاركة البشرية. إنها تجربة اجتماعية وثقافية بقدر ما هي تقنية. لسوء الحظ ، خلال الـ 24 ساعة الأولى من الاتصال بالإنترنت ، أصبحنا على دراية بجهود منسقة من قبل بعض المستخدمين لإساءة استخدام مهارات التعليق لدى Tay حتى يستجيب Tay بطرق غير ملائمة. نتيجة لذلك ، قمنا بإزالة 'تاي' دون اتصال بالإنترنت ونجري تعديلات.