سان فرانسيسكو، 17 أبريل
رسالة، عندما أطلقت مايكروسوفت بوت يسمى "تاي" على تويتر في مارس من العام الماضي، يمكن أن يكونوا قد يعتقد أنه سيصبح قريبا كارثة: في أقل من 24 ساعة الوقت، وقد تحولت هذا الروبوت إلى عنصرية هستيرية والنازيين الجدد، نشأت كان هذا الوضع إلى حد كبير حوار معها على تويتر هؤلاء المستخدمين من "الأستاذ" و "التوجيه".
للأسف، أظهرت دراسة جديدة، تويتر ليست الطريقة الوحيدة لالذكاء الاصطناعي "تعلم سيئة". في الواقع، تظهر الأبحاث العلمية أن أي المخابرات تعلم الروبوت الاصطناعي عن طريق لغة الإنسان والأطفال البشري من المرجح أن سيئة ممكن التوجه قيمة، مشوهة.
الباحثون استخدام منتج يسمى "يعني ناقلات العالمي" أجرى (قفاز) نظام التعلم الآلي التجربة وجدت أن أي الانحرافات التي قد تنشأ في عملية التعلم الإنسان من المحتمل في عملية التعلم نظام الذكاء الاصطناعي يبدو.
قال جامعة برينستون علوم الكمبيوتر 博士后艾琳 كالي سكنل (أيلين كاليسكان): "رؤية كل هذه النتائج من هذه النماذج جزءا لا يتجزأ من صدمت." وحتى المواد المستخدمة في أنظمة الذكاء الاصطناعي كل من التدريب مصادر المادية، مثل ويكيبيديا أو التقارير الإخبارية، والذكاء الاصطناعي في نهاية المطاف لا يزال من الممكن لتطوير نوع من الانحراف في اتجاه قيمة، تماما مثل البشر.
داخل التحيز مزاجه
القفاز هو أداة قادرة على استخراج من المستند في إطار دلالي ومحددة لهذه الدراسة، يتم استخراج تأثير تلقائيا من الإنترنت وإنشاء جسم الكمبيوتر.
علماء النفس منذ زمن بعيد يعرفون بالفعل عن الدماغ البشري سيكون على أساس المعنى الخفي وراء كل كلمة لإثبات وجود صلة بين كلمات مختلفة.
واحد يسمى "جمعية اختبار الضمني" (IAT) اختبار الأساليب في علم النفس، تم الكشف عن نهجها من قبل الشخص الاختبار على مختلف مرات رد فعل كلمة هذه العلاقة: سيرى الناس اختبارا على الشاشة الأسماء، مثل "نرجس"، في حين أن هناك أيضا اثنين تمثل المشاعر الإيجابية والسلبية المفردات، مثل "الألم" و "جميلة". اختبار يجب أن يستجيب مع سرعة أسرع واضغط على زر المقابلة. ليس من المستغرب أن المزيد من الناس سوف يكون أكثر ميلا إلى "زهرة" بكلمة الارتباط الدلالي الإيجابي، و "سلاح الأمد مع وصلات الدلالات السلبية."
جمعية ضمنية اختبار يمكن قياس نقطة الناس اللاوعي نظر لظاهرة اجتماعية معينة أو مجموعة. على سبيل المثال، ضمن الضمني جمعية اختبار تظهر في الولايات المتحدة، والناس سوف لا شعوريا "سلاح" الاتصال الأمد مع لون البشرة من السود معا، وبعض المفردات المرتبطة الأميركيين البيض غير مؤذية.
تفسير النتائج من هذا النوع لا تزال هناك بعض الجدل. خبراء صعبة لا تزال واضحة، والسبب في مثل هذه الروابط الدلالي، لأنهم تم تحديد اختبار موجود داخل الناس، ولكنها ليست عميقة الجذور على بينة من التحيز الاجتماعي المعرفي، أو بسبب عملية الحصول على المعلومات في المحادثات اليومية و في، كان فرصة أكبر إحصائيا بعض الكلمات السلبية المرتبطة مع الأقليات العرقية والمجموعات المهمشة من كبار السن أو معا، والموضوعات تتأثر اللاوعي؟
المساس الرقمي
وقد وضعت كالي كامبوس وزملاؤها في أساس النظام IAT اختبارها للمواد الدراسية الإنسان على IAT لالاصطناعي نظام الكمبيوتر الاستخبارات، ويسمى نظام "WEAT"، بمعنى "اختبار مشترك المفردات جزءا لا يتجزأ" . تم تصميم هذا الاختبار لتقييم الروابط بين مختلف قفاز أنظمة مفردات معينة، والذي لوحظ مع اختبار IAT التقليدي الصلة بين الدماغ البشري هي مشابهة جدا في كلمات مختلفة.
في كل اختبار، والصلات الدلالية والعادات، وقد تم اختبار WEAT مع نفس نتائج الاختبار IAT. هذا الجهاز أدوات التعلم لإنتاج بنجاح ميل الإنسان لربط الزهور والأشياء الجميلة، وانها ليست مثل هذه الكلمات "الحشرات" و "الأسلحة"، ولكن مثل "أداة" وجنبا إلى جنب مع الأشياء الجيدة . ولكن على نحو مقلق، هذه الأدوات الذكاء الاصطناعي أن اسم الأوروبي-الأمريكي يبدو أكثر متعة، وأسماء من أصل إفريقي هي غير سارة بسهولة أكبر. وبالإضافة إلى ذلك، فإنه سيكون أكثر من سبب، والعمل مع أسماء الذكور يرتبط اسم المرأة وأكثر ارتباطا مع المفردات المتعلقة بالأسرة، الذي يحمل نفس الاسم، وسوف تكون أكثر المذكر مرتبطة الرياضيات والعلوم ، في حين أن اسم المرأة أكثر المرتبطة المفردات الفنية. وكثيرا ما يرتبط عنوان المسنين بكلمات غير سارة معا، ويرتبط لقب الشباب بكلمات لطيفة.
وقال كالي سكنل: "لقد صدمنا، ونحن يمكن أن يكون تماما استنساخ نتائج الاختبار IAT أجريت في الملايين من الناس الذين الماضية."
الحالات، أكثر من ذلك، واستخدام نهج آخر مماثل، وجد فريق البحث أيضا أن أداة التعلم الآلي تبين أن تعكس بدقة نسبيا الحالات في العالم الحقيقي استنادا إلى النتائج التي تم الحصول عليها المعرفية الروابط الدلالية. WEAT مقارنة نتائج الاختبار مع المكتب الفيدرالي الامريكي لاحصاءات العمل بيانات عن التوزيع المهني للمرأة، وجدت كالي سكانيا البيانات القفازات، والذكاء الاصطناعي وأولئك الذين هم "أنثى" ربط الوظيفي، والنساء العاملات في مهنة في العالم الحقيقي نسبة أعلى، والعلاقة بين أكثر من 90٪.
وبعبارة أخرى، وهو برنامج كمبيوتر يعمل على تعلم اللغة البشرية قادرة على "فهم دقيق جدا من المعنى الإنساني وراء اللغة والثقافة التي يمثلونها الإنسانية"، حتى لو أن الثقافة نفسها قد يكون متحيزا أو حتى نوعا من التمييز لا شعوريا، ويمكن أيضا أن يكون الكمبيوتر حساسية لفهم والتعلم. في نفس الوقت، والذكاء الاصطناعي، والشعور الإنساني في بعض الأماكن المتعلمين السهل جدا أن نفهم لكنه لن يشعر من الصعب جدا أن نفهم. على سبيل المثال، مقالا عن مارتن لوثر - حالة من الذهب في عام 1963 المقرر أن يشارك في حركة الحقوق المدنية السوداء وبطبيعة الحال، سوف تنطوي على الكثير من الامريكيين من اصل افريقى مع الكلمات السلبية سوف نتصل بعضها البعض في برمنغهام، ألاباما سجن التقارير الإخبارية، ولكن قارئ البشري يمكن أن نفهم بسهولة قصة الأميركيين الأفارقة هو البطل، ونظرا الكمبيوتر، وأنها ليست سوى سيتم إنشاء الحصاد بين الكلمتين "الأسود" و "السجن" للإتصال به.
من أجل ضمان الدقة ولكن أيضا نسعى جاهدين لجعل الذكاء الاصطناعي لفهم "الحياد" الثقافة الإنسانية يشكل تحديا كبيرا. وقال كالي سكنل: "نحن لا نعتقد أنه بعد يمكن حلها إزالة التحيز بشأن هذه المسألة، لأن ذلك قد كسر الذكاء الاصطناعي ستكمل فهم العالم ل".
إزالة التحيز
عالم الكمبيوتر في هارفرد كلية سوريل فولي تشاندلر (Sorelle Friedler) يبدو أن البحث الجديد في مجلة "العلم" نشرت يوم 12 يونيو لم يجعلها تشعر بالدهشة. كان سوريل لم يشارك في الدراسة، ولكنها تعتقد هذا البحث مهم. وقالت: "هذه هي الطريقة الأساسية، وتقوم العديد من الأنظمة في هذا المبنى." وبعبارة أخرى، على أساس قفاز أي منصة أو من خلال لغة الإنسان تعلم الاصطناعي بناء نظام المخابرات من المحتمل أن تتأثر هذا التحيز الجنسي.
الحقل سوريل البحوث ينطوي على ارتفاع تدريجي في السنوات الأخيرة، وهذا هو آلة التعلم الإنصاف والمسؤولية والشفافية. لحل هذه المشكلة ليست سهلة، وفي بعض الحالات، يمكن للبرنامج أن يقول بوضوح للنظام لتجاهل تلقائيا بعض عقلية. ولكن على أي حال فإنه ينطوي على تحديد الفروق الدقيقة في التعبير عن الإنسان بحاجة إلى التدخل في الوقت المناسب لضمان أن الذكاء الاصطناعي لن تحصل عليه خطأ. اعتمادا على أغراض التصميم المختلفة، قد تختلف حلول الذكاء الاصطناعي محددة، قمت بتصميم هذا النظام الذكاء الاصطناعي يفعل ماذا؟ للبحث عن التطبيقات؟ من أجل المساعدة في صنع القرار أو أشياء أخرى؟
في العادات الاجتماعية والإنسانية، والوقوف غامض على سطح هذا لا يعني لديهم نوعا من رؤية واضحة في الاعتبار لفئات اجتماعية معينة. وكان علماء النفس في تحليل هذه الظاهرة: إذا كانت هذه الظاهرة لأن الناس يميلون إلى إخفاء أحكامهم المسبقة، لا تزال الآراء صامتة من أجل تجنب الوقوع في نوع من الإحراج؟ هل من الممكن أن معهد التكنولوجيا التطبيقية واختبار ليست بهذه جيد للخروج الناس قلوب الأحكام المسبقة؟ ولكن بالنسبة للبشر، على الرغم من أن القلب مع وجود تحيز معين، على الأقل الناس ما زالوا قادرين على التمييز بين الصواب والخطأ، ولكن ليس بالضرورة الجهاز، لم يكن لديهم مفاهيم غير أخلاقية. ولذلك، كالي سكانيا وزملاؤه يعتقدون أن في عملية تنمية الذكاء الاصطناعي، والبشر لا تزال بحاجة إلى أن تشارك، والحفاظ على شفافية رمز البرنامج، وذلك أن الإنسان يمكن أن تشرف دائما ويساعد الجهاز لإدراك حجم الأحكام القيمية.
وقال كالي سكنل: "في وجود تفاهمات الوضع، ونحن نعلم كيفية اتخاذ القرار الصحيح ولكن، للأسف، فإن الجهاز لا واع .." (Morrowind)
