کد خبر: 50253
تاریخ انتشار: دوشنبه, 21 مهر 1404 - 10:36

داخلی

»

سخن هفته

سوگیری منابع موجود شبکه و استفاده از آن‌ها برای یادگیری چت بات‌های هوش مصنوعی

منبع : لیزنا
سید ابراهیم عمرانی
سوگیری منابع موجود شبکه و استفاده از آن‌ها برای یادگیری چت بات‌های هوش مصنوعی

لیزنا، سید ابراهیم عمرانی، سردبیر: دوست عزیزمان احسان محمدی دانشیار دانشگاه کارولینای شمالی در ایالات متحده و تیمش که نام دو ایرانی هم در میان آنها است  در سال جاری دو مقاله منتشر کردند، ‌که خبر انتشار آن را در لیزنا به نظر خوانندگان رساندیم و قصد داشتم که این مقاله‌ها به ویژه مقاله اول این تیم “ دانشمند کیست؟ تعصبات جنسیتی و نژادی در تحقیقات هوش مصنوعی گوگل ویژن”[1] که در مجله "اخلاق و هوش مصنوعی"  در خرداد جاری  منتشر شد را در فرصتی به خوانندگان مفصل‌تر معرفی کنم که به مقاله‌ای که در خبرنامه مجله Science  از آنیربان موخوپادیا با عنوان "وقتی محققان زن مقاله منتشر می‌کنند، توجه رسانه‌ها همیشه به دنبال آن نمی‌آید[2]" منتشر شده در 10 اکتبر 2025 ( همین هفته جمعه 18 مهرماه) برخورد کردم و افزون بر آن گرفتن پیامکی اندکی قدیمی‌تر از دوستی در مورد اعتراض اتحادیه آفریقا به نقشه استعماری جهان و توجه به اتفاقات چپ و راست در جهانی که هنوز بوی استعمار نوینش از کیلومترها به مشام می‌رسد، درواقع وقت را مناسب دانستم که مطلبم را به نظر خوانندگان برسانم، ‌تا چه قبول افتد و چه در نظرآید.

پرانتز باز: یادآوری کنم که من غرب ستیز نیستم و خود از بسیاری مواهب آن برخوردارم که به هیچ‌وجه جای انکار ندارد، ‌لیکن غرب محوری (نگاه غربی و سیطره دادن آن به همه پدیده‌ها) در جهان، دست کم بعد از انقلاب صنعتی و سیطره اقتصادی و سیاسی غرب نیز جای انکار ندارد و برای من نگاه غرب محور در همه پدیده‌‌های این دویست سال از اختراع ماشین بخار تا هوش مصنوعی مولد، مانند انرژی عمل کرده که از بین نمی‌رود و از نوعی به نوع دیگر منتقل می‌شود، ‌و اینک آن را به تمام و کمال در سوگیری‌های شبکه و هوش مصنوعی مشاهده می‌کنیم. و من در این یادداشت، دو مقاله، یکی پژوهشی و یکی ژورنالیستی را برای اثبات موضوع، به شهادت گرفته‌ام. پرانتز بسته.

با این یادآوری، دقت شما را باز هم جلب می‌کنم که دو مقاله بالا از بسیاری جهات قابل مقایسه با یکدیگر نیستند، که مقاله احسان محمدی و همکاران یک مقاله پژوهشی است که در یک مجله پژوهشی معتبر  AI&  Ethics از انتشارات شرکت اشپرینگر منتشر شده و مقاله دوم با اینکه متعلق به انجمن امریکایی پیشرفت علم AAAS است، مجله ای خبری است که توسط یک گروه ژورنالیستی پژوهش شده است.

 این را هم اضافه کنم که با خواندن مقاله احسان محمدی با مجله AI & Ethics آشنا شدم،‌  و وقتی منابع مقاله را مرور می‌کردم با مجله دیگری با عنوان نزدیک AI Ethics از انتشارات الزویر آشنا شدم و خوشبختانه توانستم چند مقاله دیگر از این دو مجله را هم ورق بزنم که در آینده، از این مقاله‌ها هم احتمالا مطالبی برای خوانندگان منتشر کنیم.  

 اما بعد:

 مقاله احسان محمدی  روی یک سوال مشخص در موضوع سو گیری‌های تبعیض آمیز (و البته intersectional) در هوش مصنوعی  کار کرده و من خواندن آن را به همه شما توصیه می‌کنم. لیکن در اینجا هدف من تنها معرفی این مقاله نیست، بلکه استفاده از مقاله دکتر محمدی گرامی برای موضوعی اندک متفاوت است. موضوع، وجود سوگیری در اطلاعاتی است که در شبکه با آن روبرو هستیم و اینکه همین اطلاعات به چت بات‌ها آموزش داده شده و اینکه توجه داشته باشیم آنچه در جستجو و مشاوره با هوش مصنوعی به ما داده می‌شود را با احتیاط لازم بپذیریم.

( اعدادی که در مقاله مشاهده می‌کنید، ارجاعات مقاله است که عمدا حذف نشده‌اند که آنجائی که به مقاله یا فرد دیگری استناد داده شده است، مشخص باشند).

محمدی با این مقدمه آغاز می‌کند:" هوش مصنوعی (AI) در طیف گسترده‌ای از برنامه‌های کاربردی که بر فعالیت‌های روزانه بسیاری از افراد، از جمله فعالیت‌های مالی، آموزش و یادگیری و مراقبت‌های بهداشتی تأثیر می‌گذارند، وارد شده است [1،2،3]. هوش مصنوعی مزایای بی‌شماری ارائه می‌دهد و می‌تواند کیفیت کار و زندگی را افزایش دهد. با این حال، محدودیت‌ها و سوگیری‌هایی نیز دارد که باید برای بهبود فناوری و رسیدگی به مسائل اجتماعی کاهش یابد. شناسایی سوگیری‌های هوش مصنوعی، در به حداقل رساندن بی‌عدالتی، و خطرات  برنامه‌های نامناسب و غیر اخلاقی‌، و ایجاد برنامه‌های مسئولانه‌تر و قابل اعتمادتر کمک می‌کند که می‌توانند تأثیر مثبتی در سطوح فردی و اجتماعی داشته باشند [4،5،6]"[3].  

و از آنجا که بخش مهم تحقیق بر تحلیل تصاویر و تحقیق در سوگیری‌های مورد بحث از طریق بررسی تصاویر استخراج شده به کمک هوش مصنوعی است، در همین مقدمه به معرفی برنامه‌های گوگل که جستجوی تصویر دارند می‌پردازد: " گوگل، به عنوان یک شرکت پیشرو، در طول دو دهه گذشته از تکنیک‌های هوش مصنوعی و یادگیری ماشینی برای پردازش محتوای بصری در محصولات خود، مانند Google Photos، YouTube و Google Images، استفاده کرده است [12، 13]. گوگل همچنین یک پلتفرم دید رایانه‌ای مبتنی بر ابر، Google Cloud Vision AI، ارائه می‌دهد که نقش مهمی در شکل‌دهی به نحوه طبقه‌بندی و درک تصاویر توسط افراد و مؤسسات ایفا می‌کند. این پرداختن گسترده به این معنی است که هرگونه سوگیری در هوش مصنوعی Google Cloud Vision این پتانسیل را دارد که کاربران را در زمینه‌های مختلف تحت تأثیر قرار دهد، بدون اینکه منبع مطالب سوگیرانه به راحتی آشکار شود[4]".

پس از این، مقدمه، برای کامل کردن آنچه قرار است در این مقاله تحقیق شود، ‌به گروه شغلی دانشمندان می‌پردازد: " یکی از راه‌های شناخته‌شده‌ای که تصاویر از طریق آن تعصب را تداوم و تقویت می‌کنند، به تصویر کشیدن مشاغل حرفه‌ای است. بازنمایی اهمیت دارد؛ بازنمایی به طور قابل توجهی بر «علاقه مردم به یک شغل، حس شمول آن و انتظار ارزشمند بودن» [20] تأثیر می‌گذارد، که به نوبه خود می‌تواند بر علاقه افراد به پیوستن به آن حرفه تأثیر بگذارد. یکی از حرفه‌هایی که در تخیل فرهنگی، از جمله تخیل بصری آن، بسیار پررنگ است، «دانشمند» است. تعصب، تبعیض جنسی و سایر انواع تبعیض، مسائل شناخته‌شده‌ای در تاریخ علم هستند[5]. ]21[

محمدی و همکاران پس از این مقدمه و تاکید بر پژوهش خاصی که قرار است انجام دهند، وارد بحث می‌شوند که من آن را قرار نیست تکرار کنم و به شما واگذار می کنم که بخوانید و در اینجا به یک مطلب که برای من مهم‌تر بود و خلاصه‌ای از نتیحه گیری ایشان می‌پردازم. در باور من مهم‌ترین بخش‌های این مقاله سوگیری‌ها در فناوری و در یادگیری ماشین است که ناشی از رتبه‌بندی‌های سوگیرانه در موضوع‌های مورد بحث ما در شبکه است که هوش مصنوعی از این مساله بری نیست.:

"3.1 سوگیری‌ها در فناوری

علیرغم تصورات غلط رایج مبنی بر اینکه فناوری عینی یا خنثی است، این سیستم‌های الگوریتمی پیچیده مستعد سوگیری هستند [30]. چنین تصورات غلطی نگرانی‌هایی را در مورد پتانسیل چگونگی تأثیر سوگیری‌ها بر کاربران فناوری ایجاد می‌کند. به عنوان مثال، کاربران موتورهای جستجو اغلب نمی‌‌دانند که موتورهای جستجو چگونه نتایج را تعیین و رتبه‌بندی می‌کنند و از آنها مطمئن نیستند [31]، که کاربران را به سمت نظریه‌های عامیانه و غیررسمی متشکل از فرضیات، انتظارات و "دانش کاربران از نحوه عملکرد سیستم‌ها" سوق می‌دهد [32]. نظریه‌های عامیانه به عنوان چارچوب‌های زمینه‌ای عمل می‌کنند که از طریق آن‌ها کاربران سعی می‌کنند فناوری‌های "جعبه سیاه" [33] شبکه، از جمله هوش مصنوعی را درک کنند. با توجه به ابهام سیستم‌های مبتنی بر هوش مصنوعی، کاربران اغلب هوش مصنوعی را فراتر از هوش انسانی در نظریه دارند [34]. این نظریه‌های عامیانه، اعتماد، انتظارات و نگرانی‌های کاربر را در مورد تصمیم‌گیری الگوریتمی شکل می‌دهند و اغلب تصورات غلط در مورد بی‌طرفی فناوری را تقویت می‌کنند.

به‌عنوان مثال، ابهام پیرامون مکانیسم‌های رتبه‌بندی موتورهای جستجو، به عدم اطمینان کاربر در مورد چگونگی "یافتنِ" اطلاعاتِ مرتبط توسط موتورهای جستجو کمک می‌کند [31]. این عدم شفافیت، اشکال مختلف سوگیری، مانند تنوع و سوگیری‌های اجتماعی را تسهیل می‌کند. سوگیری‌های متنوع از ترجیح دادن نتایج خاص نسبت به نتایج دیگر توسط موتورهای جستجو هنگام رتبه‌بندی نتایج جستجوی مرتبط [35] و پایین آوردن رتبه رقبا ناشی می‌شود. سوگیری اجتماعی شامل ارائه نادرست و ناعادلانه و سیستماتیک از افراد یا گروه‌های به حاشیه رانده شده [36] است که از طریق پیشنهادهای جستجوی شخصی‌سازی شده و فیلتر کردن اطلاعات انجام می‌شود. موتورهای جستجو همچنین می‌توانند سوگیری‌های نژادی و جنسیتی را تکرار کنند و هنجارها و کلیشه‌های اجتماعی را تقویت کنند [30]. به عنوان مثال، مطالعات مربوط به نمایش موتورهای جستجو از گروه‌های جمعیتی مهاجر نشان داده است که تصاویر به شدت نژادپرستانه هستند و زنان پناهنده به‌طور نامتناسبی با نمادهای مذهبی مرتبط هستند [36]. چنین سوگیری‌هایی صرفاً بازتابی از تعصبات اجتماعی اساسی نیستند، بلکه به‌طور فعال از طریق فیلتر کردن و رتبه‌بندی الگوریتمی تداوم می‌یابند و برداشت‌های کاربر را بیشتر شکل می‌دهند و نابرابری‌های موجود را تقویت می‌کنند"[6].

این موارد در مقاله "موخوپادایا" نیز به اینصورت تاکید شده است:" پوشش رسانه‌ای می‌تواند به دانشمندان در پیشرفت‌های حرفه‌ای قدرت بخشد، و آنها را در معرض دید وسیع‌تر قرار دهد و نشان دهد که کارشان بیش از یک تحقیق آزمایشگاهی ساده اهمیت دارد. اما مطالعات جدید نشان می‌دهد که این مزیت به طور نامتناسبی به مردان می‌رسد و به‌طور بالقوه شکاف‌های جنسیتی موجود را گسترش می‌دهد و برداشت‌های عمومی از اینکه چه کسی محقق محسوب می‌شود را شکل می‌دهد. در تجزیه و تحلیل ۱.۲ میلیون خبر در مورد تحقیقات علمی، مشخص شد که مقالات به رهبری مردان به‌طور کلی توجه بیشتری را به خود جلب می‌کنند و در ۵٪ برتر از بیشتر مطالعات تحت پوشش، به شدت بیش از حد نمایان شده‌اند. از سوی دیگر، مقالات به رهبری زنان در پایین‌ترین سطح قرار دارند[7]".

برگردم به مقاله محمدی و همکاران و باز هم به سوگیری‌های شبکه و انتقال آن به هوش مصنوعی بپردازیم. این بار : "2- سوگیری‌ها در هوش مصنوعی و یادگیری ماشینی:

مانند تمام فناوری‌ها، هوش مصنوعی نیز مستعد نقص و سوگیری است. مطالعات [37، 38] نشان داده‌اند که هوش مصنوعی منعکس‌کننده ارزش‌های سازندگان آن است. با این حال، زنان و افراد رنگین‌پوست در حوزه هوش مصنوعی کمتر حضور دارند. هدف عدالت الگوریتمی توسعه سیستم‌هایی است که می‌توانند پس از معرفی در یک زمینه اجتماعی، به نتایج اجتماعی و قانونی، از جمله انصاف، عدالت و روند قانونی، دست یابند [44]. با این حال، حوزه عدالت الگوریتمی بر استفاده از خودِ عدالت به عنوان یک ویژگی سیستم متمرکز شده است، بنابراین هرگونه زمینه اجتماعی که سیستم را احاطه کرده است، نادیده گرفته می‌شود. با انجام این کار، این تلاش‌ها برای عدالت الگوریتمی تا حد زیادی در تشخیص هوش مصنوعی به عنوان یک سیستم اجتماعی-فنی شکست می‌خورند.[8]"

 

”۳.۳ سوگیری‌ها در پردازش تصویر

مطالعات [48،49،50] نشان داده‌اند که تعصبات نیز در مجموعه داده‌های پردازش تصویر وجود دارد. به عنوان مثال، مشخص شده است که مجموعه داده‌های تصویر چهره عمومی به شدت نسبت به چهره‌های سفید پوستان تعصب دارند [51]. سیستم‌های طبقه‌بندی جنسیتی چهره تجاری نیز در چهره‌های مردانه عملکرد بهتری دارند [52].[9] "

و در نهایت، ‌نویسندگان  در تحلیل خود می‌نویسند:" نتایج نشان داد که هوش مصنوعی گوگل کلود ویژن با طبقه‌بندی افراد به‌عنوان دانشمند بر اساس نژاد یا جنسیت، علیه آنها تبعیض قائل می‌شود". " در حالت ایده‌آل، هوش مصنوعی تشخیص می‌دهد که وقتی انسان‌ها برای انجام تحقیقات علمی در محیط آزمایشگاه، روپوش آزمایشگاهی می‌پوشند، احتمالاً نقش یک دانشمند را بازی می‌کنند. طبق یافته‌ها، اگر تیمی متنوع از افراد، روپوش آزمایشگاهی بپوشند و وارد آزمایشگاه شوند، سیستم هوش مصنوعی بیشتر احتمال دارد مردان سفیدپوست را به عنوان دانشمندان تیم تشخیص دهد تا زنان رنگین‌پوست. توانایی یک سیستم هوش مصنوعی در تشخیص دانشمندان نباید به نژاد و جنسیت فرد وابسته باشد[10]".

موخوپادایا نیز از مقاله کسیدی سوگوموتو نقل می‌کند که:" کسیدی سوگیموتو، دانشمند اطلاعات در موسسه فناوری جورجیا، که در مطالعه جدید مشارکتی نداشت، می‌گوید: «زنان اغلب در حوزه‌هایی که کمترین حضور را دارند، چه در استنادها و چه در کمک‌های مالی، «عملکرد بهتری» دارند.» آنچه برای او برجسته بود، مقیاس و ماهیت این انحراف بود. مقالات زنان بیشتر در رسانه‌های محلی نسبت به رسانه‌های ملی، بین‌المللی یا تخصصی علمی نمایش داده می‌شدند. آنها بیشتر در رسانه‌های لیبرال نسبت به رسانه‌های محافظه‌کار ظاهر می‌شدند. و پوشش کار آنها لحن منفی‌تری داشت. سوگیموتو می‌گوید: «وقتی تحقیقات زنان سیاسی یا منفی جلوه داده می‌شود، خطر از بین رفتن اعتبار درک شده دانشمندان زن را به همراه دارد.[11]"

محمدی و همکاران در بخشهای پایانی (بند 8) به "توصیه‌های اخلاقی" برای رفع یا کمتر شدن تبعیض می‌پردازند : " پلتفرم‌های تصاویر آرشیوی تمایل دارند بازنمایی‌های قابل فروش و از نظر تجاری تضمین شده را در اولویت قرار دهند، که ممکن است منجر به بازنمایی بیش از حد تصاویر و ترکیب‌های خاص مطابق با هنجارهای رسانه‌های غربی شود، نه توزیعی که نماینده کامل جمعیت‌شناختی از دنیای واقعی است. مجموعه داده‌های غرب‌محور ما پیامدهایی غیر منصفانه دارد، زیرا بر اینکه کدام تصاویر بیشتر در مجموعه داده‌های آموزشی هوش مصنوعی گنجانده می‌شوند تأثیر می‌گذارد و متعاقباً بر نحوه یادگیری سیستم‌های هوش مصنوعی برای طبقه‌بندی افراد در نقش‌های حرفه‌ای تأثیر می‌گذارد".

اگر به فهرست منابع مقاله محمدی نیز رجوع کنید، مقاله‌های دیگری نیز می‌یابید که بر این تعصبات نژادی – جنسیتی – اقلیتی تاکید دارند. و همه این منابع و تحلیل‌ها به ما یادآوری می‌کنند،‌که هر کس سرمایه بیشتری بگذارد، در رتبه‌بندی جستجوهای شبکه بالاتر قرار می‌گیرد و در یادگیری هوش مصنوعی نیز به همبن ترتیب، پاسخ‌هایی که دریافت می‌کنید؛ پاسخ‌هایی مبتنی بر همین نگاه است.

در پایان اشاره کنم که نمی‌دانم اسم این موضوع را چه بگذارم، نوشتم نگاه غرب محور، که دموکراسی‌اش نه تنها در اینجا در همه جا با سوگیری روبرو است و یک بام و دو هوا است که دیگر با حضور ترامپ و دولت‌های پوپولیستی جدید اروپایی دست کم در حوزه سیاست علنی شده و شرمی در آن وجود ندارد. لیکن از آن سوی دنیا هم غافل نشوید که چین به نوعی دیگر و آن روی سکه سوگیری‌های غرب محور است. می‌خواهید یک آزمایش ساده بکنید، "هنگ کنگ" را در هوش مصنوعی چینی DeepSeek و در ChatGPT جستجو کنید و اطلاعاتی درباره آن بخواهید. من توضیحی ندارم، اینجا خودتان دو بام و دو هوا را کامل مشاهده خواهید کرد.

نتیجه‌گیری اخلاقی به سبک فیلم‌های HappyEnd  هالیوودی:

تفکر انتقادی را در آموزش فرزندان و شاگردان خودتان جدی بگیرید. البته حتما قبل از آن خودتان به این سلاح مجهز شوید و هر چه در شبکه به‌دست آوردید، را وحی منزل نپندارید و اندکی در آن شک کنید و قبل از راستی آزمایی برای کسی نفرستید. 

 

عمرانی، سید ابراهیم  (1404). « سوگیری منابع موجود شبکه و استفاده از آن‌ها برای یادگیری چت بات‌های هوش مصنوعی  ». سخن هفته لیزنا، شماره 279،، 21مهرماه ۱۴۰۴

-----------------------------------------------------------

[1]. Mohammadi, Ehsan.  Who is a scientist? Gender and racial biases in google vision AI . )27 May 2025) By Ehsan Mohammadi, Yizhou Cai, Alamir Novin, Valerie Vera & Ehsan Soltanmohammadi . AI and Ethics . Volume 5, pages 4993–5010, (2025)

[2] . Mukhopadhyay, Anirban. When women researchers publish, media attention doesn’t always follow. News from Science (9 OCT 2025).

[3] . Mohammadi همان

[4] .همان

[5] . همان

[6] . .همان

[7]. Mukhopadhyay , همان

[8] . Mohammadi همان

[9] . همان

[10].  همان

[11] . Mukhopadhyay , همان