كشفت أنا وزملائي في جامعة بوردو عن خلل كبير في القيم الإنسانية المضمنة في أنظمة الذكاء الاصطناعي. كانت الأنظمة موجهة في الغالب نحو المعلومات وقيم الفائدة وأقل لقيم الاشتراكية والرفاهية والبرجوازية.
في مركز العديد من أنظمة الذكاء الاصطناعى ، توجد مجموعات كبيرة من الصور والنصوص وأشكال البيانات الأخرى المستخدمة لتدريب النماذج. على الرغم من أن سجلات البيانات هذه قد تم تنسيقها بدقة ، فليس من غير المألوف أن تحتوي في بعض الأحيان على محتوى غير أخلاقي أو محظور.
لضمان عدم استخدام أنظمة الذكاء الاصطناعى المحتوى الضار عند رد فعل للمستخدمين ، قدم الباحثون طريقة يشار إليها باسم التعلم التعزيز من التعليقات البشرية. يستخدم الباحثون سجلات البيانات ذات العمانة العالية مع التفضيلات البشرية لتشكيل سلوك أنظمة الذكاء الاصطناعى من أجل أن تكون مفيدة وصادقة.
في دراستنا ، درسنا ثلاثة سجلات بيانات التدريب مفتوحة المصدر المستخدمة من قبل شركات AI الأمريكية. لقد أنشأنا تصنيفًا للقيم الإنسانية من خلال أبحاث الأدب من الفلسفة الأخلاقية ونظرية القيمة والعلوم والتكنولوجيا والدراسات الاجتماعية. القيم بشكل جيد والسلام. البحث عن المعلومات ؛ العدالة وحقوق الإنسان وحقوق الحيوان ؛ الواجب والمساءلة ؛ الحكمة والمعرفة ؛ مجاملة والتسامح ؛ والتعاطف والمساعدة. استخدمنا التصنيف لتوصيل سجل البيانات يدويًا ثم تدريب التعليق التوضيحي لنموذج لغة AI.
مكننا نموذجنا من فحص سجلات بيانات شركات الذكاء الاصطناعى. لقد وجدنا أن سجلات البيانات هذه تحتوي على العديد من الأمثلة التي تقوم بتدريب أنظمة الذكاء الاصطناعى من أجل أن تكون مفيدة وصادقة إذا طرح المستخدمون أسئلة مثل “كيف يمكنني حجز رحلة؟”؟ احتوت سجلات البيانات على أمثلة محدودة للغاية حول كيفية الرد على أسئلة حول الموضوعات المتعلقة بالتعاطف والعدالة وحقوق الإنسان. بشكل عام ، كانت الحكمة والمعرفة والبحث عن المعلومات الأكثر شيوعًا ، في حين أن العدالة وحقوق الإنسان وحقوق الحيوان كانت أقل قيمة شيوعًا.


Obi et al. ، cc by-nd
لماذا هو مهم
يمكن أن يكون لخلل القيم الإنسانية في سجلات البيانات لتدريب الذكاء الاصطناعى تأثير كبير على كيفية تفاعل أنظمة الذكاء الاصطناعى مع الأشخاص ومعالجة المشكلات الاجتماعية المعقدة. نظرًا لأن الذكاء الاصطناعى يتم دمجه أكثر في قطاعات مثل القوانين والرعاية الصحية ووسائل التواصل الاجتماعي ، فمن المهم أن تعكس هذه الأنظمة مجموعة متوازنة من القيم الجماعية من أجل تلبية احتياجات الأشخاص أخلاقياً.
هذا البحث هو أيضا في وقت حاسم بالنسبة للحكومة والقرار السياسي -صانعي ، لأن المجتمع يتعامل مع أسئلة حول الحكم والأخلاق. من المهم فهم القيم المضمنة في أنظمة الذكاء الاصطناعى لضمان أنها تخدم مصالح الإنسانية الفضلى.
الذي يتم إجراء أبحاث أخرى
يعمل العديد من الباحثين على مواءمة أنظمة الذكاء الاصطناعى مع القيم الإنسانية. كان إدخال التعلم التعلم من ردود الفعل البشرية رائدة لأنه قدم وسيلة لقيادة سلوك الذكاء الاصطناعى ليكون مفيدًا وصادقًا.
تقوم الشركات المختلفة بتطوير تقنيات لمنع السلوكيات الضارة في أنظمة الذكاء الاصطناعي. ومع ذلك ، كانت مجموعتنا أول من قدم طريقة منهجية للتحليل وفهم القيم التي تم تضمينها بالفعل في هذه الأنظمة حول سجلات البيانات هذه.
ماذا بعد
من خلال جعل القيم المضمنة في هذه الأنظمة ، نود مساعدة شركات الذكاء الاصطناعي على إنشاء سجلات بيانات أكثر توازنا تعكس بشكل أفضل قيم المجتمعات التي تخدمها. يمكن للشركات استخدام تقنيتنا لمعرفة أين لا تقطع بشكل جيد ثم تحسين مجموعة متنوعة من بيانات تدريب الذكاء الاصطناعي.
قد لا تستخدم الشركات التي تم فحصها من قبلنا هذه الإصدارات من سجلات البيانات الخاصة بك ، ولكن لا يزال بإمكانها الاستفادة من عمليتنا لضمان مطابقة أنظمة القيم والمعايير الاجتماعية.
آيك أوبي ، دكتوراه طالب في تكنولوجيا الكمبيوتر والمعلومات ، جامعة بوردو
سيتم إصدار هذه المقالة من المحادثة بموجب ترخيص Creative Commons. اقرأ المقال الأصلي.