تم اختبار التحيزات والقوالب النمطية الخاصة بـ ChatGPT في دراسة OpenAI الجديدة

لدى ChatGPT، مثل روبوتات الدردشة الأخرى العاملة بالذكاء الاصطناعي (AI)، القدرة على تقديم تحيزات وصور نمطية ضارة عند إنشاء المحتوى. تركز معظم الشركات على القضاء على تحيز الطرف الثالث عند البحث عن معلومات حول أشخاص آخرين. ومع ذلك، في دراسة جديدة نشرتها OpenAI، اختبرت الشركة تحيز الشخص الأول في نماذج الذكاء الاصطناعي الخاصة بها، حيث يقرر الذكاء الاصطناعي ما سيخرجه بناءً على عرق المستخدم وجنسه وعرقه. بناءً على الأبحاث، تدعي شركة الذكاء الاصطناعي أن ChatGPT لديه ميل منخفض جدًا لتقديم تحيز الشخص الأول.

OpenAI تنشر دراسة حول تحيز الشخص الأول في ChatGPT

يختلف تحيز الشخص الأول عن المعلومات الخاطئة الخاصة بشخص ثالث. على سبيل المثال، إذا سأل المستخدم عن شخصية سياسية أو أحد المشاهير وأنتج نموذج الذكاء الاصطناعي نصًا يحتوي على صور نمطية بناءً على جنس الشخص أو أصله العرقي، فيمكن أن يسمى هذا تحيز الشخص الثالث.

من ناحية أخرى، إذا أخبر المستخدم الذكاء الاصطناعي باسمه وقام برنامج الدردشة الآلي بتغيير كيفية استجابته للمستخدم بناءً على الميول العرقية أو الجنسية، فإن هذا يشكل تحيزًا من منظور الشخص الأول. على سبيل المثال، إذا سألت امرأة الذكاء الاصطناعي عن أفكار لقناة على YouTube وأوصت بقناة تعتمد على الطبخ أو التجميل، فقد يعتبر ذلك تحيزًا من منظور الشخص الأول.

في أ مشاركة مدونةتقدم OpenAI تفاصيل دراستها وتسلط الضوء على النتائج التي توصلت إليها. واستخدمت شركة الذكاء الاصطناعي إصدارات ChatGPT-4o وChatGPT 3.5 لدراسة ما إذا كانت روبوتات الدردشة تولد محتوى متحيزًا بناءً على الأسماء والمعلومات الإضافية المقدمة لها. وتدعي الشركة أنه يتم تحليل استجابات نموذج الذكاء الاصطناعي لملايين المحادثات الحقيقية للعثور على أي أنماط تشير إلى مثل هذه الاتجاهات.

كيف يتم تعيين LMRA لقياس التحيز في الاستجابات الناتجة
مصدر الصورة: OpenAI

تمت بعد ذلك مشاركة مجموعة البيانات الكبيرة مع مساعد أبحاث نموذج اللغة (LMRA)، وهو نموذج متخصص للذكاء الاصطناعي مصمم لاكتشاف أنماط الصور النمطية والتحيزات لدى المقيمين من منظور الشخص الأول والمقيمين من البشر. يتم إنشاء هذه النتائج الموحدة بناءً على مدى توافق هيئة تنظيم سوق العمل مع النتائج التي توصل إليها المقيمون البشريون.

تدعي شركة OpenAI أن الدراسة وجدت أن التحيز المتعلق بالجنس أو العرق أو الأصل العرقي في نماذج الذكاء الاصطناعي الأحدث كان 0.1% فقط، بينما كان التحيز المسجل حوالي 1% للنماذج الأقدم في بعض المجالات.

وأشارت شركة الذكاء الاصطناعي أيضًا إلى قيود الدراسة، مشيرة إلى أنها ركزت في المقام الأول على تفاعلات اللغة الإنجليزية والارتباطات الثنائية بين الجنسين بناءً على الأسماء الشائعة الموجودة في الولايات المتحدة. ركزت الدراسة أيضًا في المقام الأول على العرق والانتماء العرقي للسود والآسيويين والإسبانيين والأبيض. تدرك OpenAI أنه لا يزال هناك الكثير من العمل الذي يتعين القيام به فيما يتعلق بالتركيبة السكانية واللغات والسياقات الثقافية الأخرى.

Fuente