داخلی
»سخن هفته
سوگیری منابع موجود شبکه و استفاده از آنها برای یادگیری چت باتهای هوش مصنوعی
لیزنا، سید ابراهیم عمرانی، سردبیر: دوست عزیزمان احسان محمدی دانشیار دانشگاه کارولینای شمالی در ایالات متحده و تیمش که نام دو ایرانی هم در میان آنها است در سال جاری دو مقاله منتشر کردند، که خبر انتشار آن را در لیزنا به نظر خوانندگان رساندیم و قصد داشتم که این مقالهها به ویژه مقاله اول این تیم “ دانشمند کیست؟ تعصبات جنسیتی و نژادی در تحقیقات هوش مصنوعی گوگل ویژن”[1] که در مجله "اخلاق و هوش مصنوعی" در خرداد جاری منتشر شد را در فرصتی به خوانندگان مفصلتر معرفی کنم که به مقالهای که در خبرنامه مجله Science از آنیربان موخوپادیا با عنوان "وقتی محققان زن مقاله منتشر میکنند، توجه رسانهها همیشه به دنبال آن نمیآید[2]" منتشر شده در 10 اکتبر 2025 ( همین هفته جمعه 18 مهرماه) برخورد کردم و افزون بر آن گرفتن پیامکی اندکی قدیمیتر از دوستی در مورد اعتراض اتحادیه آفریقا به نقشه استعماری جهان و توجه به اتفاقات چپ و راست در جهانی که هنوز بوی استعمار نوینش از کیلومترها به مشام میرسد، درواقع وقت را مناسب دانستم که مطلبم را به نظر خوانندگان برسانم، تا چه قبول افتد و چه در نظرآید.
پرانتز باز: یادآوری کنم که من غرب ستیز نیستم و خود از بسیاری مواهب آن برخوردارم که به هیچوجه جای انکار ندارد، لیکن غرب محوری (نگاه غربی و سیطره دادن آن به همه پدیدهها) در جهان، دست کم بعد از انقلاب صنعتی و سیطره اقتصادی و سیاسی غرب نیز جای انکار ندارد و برای من نگاه غرب محور در همه پدیدههای این دویست سال از اختراع ماشین بخار تا هوش مصنوعی مولد، مانند انرژی عمل کرده که از بین نمیرود و از نوعی به نوع دیگر منتقل میشود، و اینک آن را به تمام و کمال در سوگیریهای شبکه و هوش مصنوعی مشاهده میکنیم. و من در این یادداشت، دو مقاله، یکی پژوهشی و یکی ژورنالیستی را برای اثبات موضوع، به شهادت گرفتهام. پرانتز بسته.
با این یادآوری، دقت شما را باز هم جلب میکنم که دو مقاله بالا از بسیاری جهات قابل مقایسه با یکدیگر نیستند، که مقاله احسان محمدی و همکاران یک مقاله پژوهشی است که در یک مجله پژوهشی معتبر AI& Ethics از انتشارات شرکت اشپرینگر منتشر شده و مقاله دوم با اینکه متعلق به انجمن امریکایی پیشرفت علم AAAS است، مجله ای خبری است که توسط یک گروه ژورنالیستی پژوهش شده است.
این را هم اضافه کنم که با خواندن مقاله احسان محمدی با مجله AI & Ethics آشنا شدم، و وقتی منابع مقاله را مرور میکردم با مجله دیگری با عنوان نزدیک AI Ethics از انتشارات الزویر آشنا شدم و خوشبختانه توانستم چند مقاله دیگر از این دو مجله را هم ورق بزنم که در آینده، از این مقالهها هم احتمالا مطالبی برای خوانندگان منتشر کنیم.
اما بعد:
مقاله احسان محمدی روی یک سوال مشخص در موضوع سو گیریهای تبعیض آمیز (و البته intersectional) در هوش مصنوعی کار کرده و من خواندن آن را به همه شما توصیه میکنم. لیکن در اینجا هدف من تنها معرفی این مقاله نیست، بلکه استفاده از مقاله دکتر محمدی گرامی برای موضوعی اندک متفاوت است. موضوع، وجود سوگیری در اطلاعاتی است که در شبکه با آن روبرو هستیم و اینکه همین اطلاعات به چت باتها آموزش داده شده و اینکه توجه داشته باشیم آنچه در جستجو و مشاوره با هوش مصنوعی به ما داده میشود را با احتیاط لازم بپذیریم.
( اعدادی که در مقاله مشاهده میکنید، ارجاعات مقاله است که عمدا حذف نشدهاند که آنجائی که به مقاله یا فرد دیگری استناد داده شده است، مشخص باشند).
محمدی با این مقدمه آغاز میکند:" هوش مصنوعی (AI) در طیف گستردهای از برنامههای کاربردی که بر فعالیتهای روزانه بسیاری از افراد، از جمله فعالیتهای مالی، آموزش و یادگیری و مراقبتهای بهداشتی تأثیر میگذارند، وارد شده است [1،2،3]. هوش مصنوعی مزایای بیشماری ارائه میدهد و میتواند کیفیت کار و زندگی را افزایش دهد. با این حال، محدودیتها و سوگیریهایی نیز دارد که باید برای بهبود فناوری و رسیدگی به مسائل اجتماعی کاهش یابد. شناسایی سوگیریهای هوش مصنوعی، در به حداقل رساندن بیعدالتی، و خطرات برنامههای نامناسب و غیر اخلاقی، و ایجاد برنامههای مسئولانهتر و قابل اعتمادتر کمک میکند که میتوانند تأثیر مثبتی در سطوح فردی و اجتماعی داشته باشند [4،5،6]"[3].
و از آنجا که بخش مهم تحقیق بر تحلیل تصاویر و تحقیق در سوگیریهای مورد بحث از طریق بررسی تصاویر استخراج شده به کمک هوش مصنوعی است، در همین مقدمه به معرفی برنامههای گوگل که جستجوی تصویر دارند میپردازد: " گوگل، به عنوان یک شرکت پیشرو، در طول دو دهه گذشته از تکنیکهای هوش مصنوعی و یادگیری ماشینی برای پردازش محتوای بصری در محصولات خود، مانند Google Photos، YouTube و Google Images، استفاده کرده است [12، 13]. گوگل همچنین یک پلتفرم دید رایانهای مبتنی بر ابر، Google Cloud Vision AI، ارائه میدهد که نقش مهمی در شکلدهی به نحوه طبقهبندی و درک تصاویر توسط افراد و مؤسسات ایفا میکند. این پرداختن گسترده به این معنی است که هرگونه سوگیری در هوش مصنوعی Google Cloud Vision این پتانسیل را دارد که کاربران را در زمینههای مختلف تحت تأثیر قرار دهد، بدون اینکه منبع مطالب سوگیرانه به راحتی آشکار شود[4]".
پس از این، مقدمه، برای کامل کردن آنچه قرار است در این مقاله تحقیق شود، به گروه شغلی دانشمندان میپردازد: " یکی از راههای شناختهشدهای که تصاویر از طریق آن تعصب را تداوم و تقویت میکنند، به تصویر کشیدن مشاغل حرفهای است. بازنمایی اهمیت دارد؛ بازنمایی به طور قابل توجهی بر «علاقه مردم به یک شغل، حس شمول آن و انتظار ارزشمند بودن» [20] تأثیر میگذارد، که به نوبه خود میتواند بر علاقه افراد به پیوستن به آن حرفه تأثیر بگذارد. یکی از حرفههایی که در تخیل فرهنگی، از جمله تخیل بصری آن، بسیار پررنگ است، «دانشمند» است. تعصب، تبعیض جنسی و سایر انواع تبعیض، مسائل شناختهشدهای در تاریخ علم هستند[5]. ]21[
محمدی و همکاران پس از این مقدمه و تاکید بر پژوهش خاصی که قرار است انجام دهند، وارد بحث میشوند که من آن را قرار نیست تکرار کنم و به شما واگذار می کنم که بخوانید و در اینجا به یک مطلب که برای من مهمتر بود و خلاصهای از نتیحه گیری ایشان میپردازم. در باور من مهمترین بخشهای این مقاله سوگیریها در فناوری و در یادگیری ماشین است که ناشی از رتبهبندیهای سوگیرانه در موضوعهای مورد بحث ما در شبکه است که هوش مصنوعی از این مساله بری نیست.:
"3.1 سوگیریها در فناوری
علیرغم تصورات غلط رایج مبنی بر اینکه فناوری عینی یا خنثی است، این سیستمهای الگوریتمی پیچیده مستعد سوگیری هستند [30]. چنین تصورات غلطی نگرانیهایی را در مورد پتانسیل چگونگی تأثیر سوگیریها بر کاربران فناوری ایجاد میکند. به عنوان مثال، کاربران موتورهای جستجو اغلب نمیدانند که موتورهای جستجو چگونه نتایج را تعیین و رتبهبندی میکنند و از آنها مطمئن نیستند [31]، که کاربران را به سمت نظریههای عامیانه و غیررسمی متشکل از فرضیات، انتظارات و "دانش کاربران از نحوه عملکرد سیستمها" سوق میدهد [32]. نظریههای عامیانه به عنوان چارچوبهای زمینهای عمل میکنند که از طریق آنها کاربران سعی میکنند فناوریهای "جعبه سیاه" [33] شبکه، از جمله هوش مصنوعی را درک کنند. با توجه به ابهام سیستمهای مبتنی بر هوش مصنوعی، کاربران اغلب هوش مصنوعی را فراتر از هوش انسانی در نظریه دارند [34]. این نظریههای عامیانه، اعتماد، انتظارات و نگرانیهای کاربر را در مورد تصمیمگیری الگوریتمی شکل میدهند و اغلب تصورات غلط در مورد بیطرفی فناوری را تقویت میکنند.
بهعنوان مثال، ابهام پیرامون مکانیسمهای رتبهبندی موتورهای جستجو، به عدم اطمینان کاربر در مورد چگونگی "یافتنِ" اطلاعاتِ مرتبط توسط موتورهای جستجو کمک میکند [31]. این عدم شفافیت، اشکال مختلف سوگیری، مانند تنوع و سوگیریهای اجتماعی را تسهیل میکند. سوگیریهای متنوع از ترجیح دادن نتایج خاص نسبت به نتایج دیگر توسط موتورهای جستجو هنگام رتبهبندی نتایج جستجوی مرتبط [35] و پایین آوردن رتبه رقبا ناشی میشود. سوگیری اجتماعی شامل ارائه نادرست و ناعادلانه و سیستماتیک از افراد یا گروههای به حاشیه رانده شده [36] است که از طریق پیشنهادهای جستجوی شخصیسازی شده و فیلتر کردن اطلاعات انجام میشود. موتورهای جستجو همچنین میتوانند سوگیریهای نژادی و جنسیتی را تکرار کنند و هنجارها و کلیشههای اجتماعی را تقویت کنند [30]. به عنوان مثال، مطالعات مربوط به نمایش موتورهای جستجو از گروههای جمعیتی مهاجر نشان داده است که تصاویر به شدت نژادپرستانه هستند و زنان پناهنده بهطور نامتناسبی با نمادهای مذهبی مرتبط هستند [36]. چنین سوگیریهایی صرفاً بازتابی از تعصبات اجتماعی اساسی نیستند، بلکه بهطور فعال از طریق فیلتر کردن و رتبهبندی الگوریتمی تداوم مییابند و برداشتهای کاربر را بیشتر شکل میدهند و نابرابریهای موجود را تقویت میکنند"[6].
این موارد در مقاله "موخوپادایا" نیز به اینصورت تاکید شده است:" پوشش رسانهای میتواند به دانشمندان در پیشرفتهای حرفهای قدرت بخشد، و آنها را در معرض دید وسیعتر قرار دهد و نشان دهد که کارشان بیش از یک تحقیق آزمایشگاهی ساده اهمیت دارد. اما مطالعات جدید نشان میدهد که این مزیت به طور نامتناسبی به مردان میرسد و بهطور بالقوه شکافهای جنسیتی موجود را گسترش میدهد و برداشتهای عمومی از اینکه چه کسی محقق محسوب میشود را شکل میدهد. در تجزیه و تحلیل ۱.۲ میلیون خبر در مورد تحقیقات علمی، مشخص شد که مقالات به رهبری مردان بهطور کلی توجه بیشتری را به خود جلب میکنند و در ۵٪ برتر از بیشتر مطالعات تحت پوشش، به شدت بیش از حد نمایان شدهاند. از سوی دیگر، مقالات به رهبری زنان در پایینترین سطح قرار دارند[7]".
برگردم به مقاله محمدی و همکاران و باز هم به سوگیریهای شبکه و انتقال آن به هوش مصنوعی بپردازیم. این بار : "2- سوگیریها در هوش مصنوعی و یادگیری ماشینی:
مانند تمام فناوریها، هوش مصنوعی نیز مستعد نقص و سوگیری است. مطالعات [37، 38] نشان دادهاند که هوش مصنوعی منعکسکننده ارزشهای سازندگان آن است. با این حال، زنان و افراد رنگینپوست در حوزه هوش مصنوعی کمتر حضور دارند. هدف عدالت الگوریتمی توسعه سیستمهایی است که میتوانند پس از معرفی در یک زمینه اجتماعی، به نتایج اجتماعی و قانونی، از جمله انصاف، عدالت و روند قانونی، دست یابند [44]. با این حال، حوزه عدالت الگوریتمی بر استفاده از خودِ عدالت به عنوان یک ویژگی سیستم متمرکز شده است، بنابراین هرگونه زمینه اجتماعی که سیستم را احاطه کرده است، نادیده گرفته میشود. با انجام این کار، این تلاشها برای عدالت الگوریتمی تا حد زیادی در تشخیص هوش مصنوعی به عنوان یک سیستم اجتماعی-فنی شکست میخورند.[8]"
”۳.۳ سوگیریها در پردازش تصویر
مطالعات [48،49،50] نشان دادهاند که تعصبات نیز در مجموعه دادههای پردازش تصویر وجود دارد. به عنوان مثال، مشخص شده است که مجموعه دادههای تصویر چهره عمومی به شدت نسبت به چهرههای سفید پوستان تعصب دارند [51]. سیستمهای طبقهبندی جنسیتی چهره تجاری نیز در چهرههای مردانه عملکرد بهتری دارند [52].[9] "
و در نهایت، نویسندگان در تحلیل خود مینویسند:" نتایج نشان داد که هوش مصنوعی گوگل کلود ویژن با طبقهبندی افراد بهعنوان دانشمند بر اساس نژاد یا جنسیت، علیه آنها تبعیض قائل میشود". " در حالت ایدهآل، هوش مصنوعی تشخیص میدهد که وقتی انسانها برای انجام تحقیقات علمی در محیط آزمایشگاه، روپوش آزمایشگاهی میپوشند، احتمالاً نقش یک دانشمند را بازی میکنند. طبق یافتهها، اگر تیمی متنوع از افراد، روپوش آزمایشگاهی بپوشند و وارد آزمایشگاه شوند، سیستم هوش مصنوعی بیشتر احتمال دارد مردان سفیدپوست را به عنوان دانشمندان تیم تشخیص دهد تا زنان رنگینپوست. توانایی یک سیستم هوش مصنوعی در تشخیص دانشمندان نباید به نژاد و جنسیت فرد وابسته باشد[10]".
موخوپادایا نیز از مقاله کسیدی سوگوموتو نقل میکند که:" کسیدی سوگیموتو، دانشمند اطلاعات در موسسه فناوری جورجیا، که در مطالعه جدید مشارکتی نداشت، میگوید: «زنان اغلب در حوزههایی که کمترین حضور را دارند، چه در استنادها و چه در کمکهای مالی، «عملکرد بهتری» دارند.» آنچه برای او برجسته بود، مقیاس و ماهیت این انحراف بود. مقالات زنان بیشتر در رسانههای محلی نسبت به رسانههای ملی، بینالمللی یا تخصصی علمی نمایش داده میشدند. آنها بیشتر در رسانههای لیبرال نسبت به رسانههای محافظهکار ظاهر میشدند. و پوشش کار آنها لحن منفیتری داشت. سوگیموتو میگوید: «وقتی تحقیقات زنان سیاسی یا منفی جلوه داده میشود، خطر از بین رفتن اعتبار درک شده دانشمندان زن را به همراه دارد.[11]"
محمدی و همکاران در بخشهای پایانی (بند 8) به "توصیههای اخلاقی" برای رفع یا کمتر شدن تبعیض میپردازند : " پلتفرمهای تصاویر آرشیوی تمایل دارند بازنماییهای قابل فروش و از نظر تجاری تضمین شده را در اولویت قرار دهند، که ممکن است منجر به بازنمایی بیش از حد تصاویر و ترکیبهای خاص مطابق با هنجارهای رسانههای غربی شود، نه توزیعی که نماینده کامل جمعیتشناختی از دنیای واقعی است. مجموعه دادههای غربمحور ما پیامدهایی غیر منصفانه دارد، زیرا بر اینکه کدام تصاویر بیشتر در مجموعه دادههای آموزشی هوش مصنوعی گنجانده میشوند تأثیر میگذارد و متعاقباً بر نحوه یادگیری سیستمهای هوش مصنوعی برای طبقهبندی افراد در نقشهای حرفهای تأثیر میگذارد".
اگر به فهرست منابع مقاله محمدی نیز رجوع کنید، مقالههای دیگری نیز مییابید که بر این تعصبات نژادی – جنسیتی – اقلیتی تاکید دارند. و همه این منابع و تحلیلها به ما یادآوری میکنند،که هر کس سرمایه بیشتری بگذارد، در رتبهبندی جستجوهای شبکه بالاتر قرار میگیرد و در یادگیری هوش مصنوعی نیز به همبن ترتیب، پاسخهایی که دریافت میکنید؛ پاسخهایی مبتنی بر همین نگاه است.
در پایان اشاره کنم که نمیدانم اسم این موضوع را چه بگذارم، نوشتم نگاه غرب محور، که دموکراسیاش نه تنها در اینجا در همه جا با سوگیری روبرو است و یک بام و دو هوا است که دیگر با حضور ترامپ و دولتهای پوپولیستی جدید اروپایی دست کم در حوزه سیاست علنی شده و شرمی در آن وجود ندارد. لیکن از آن سوی دنیا هم غافل نشوید که چین به نوعی دیگر و آن روی سکه سوگیریهای غرب محور است. میخواهید یک آزمایش ساده بکنید، "هنگ کنگ" را در هوش مصنوعی چینی DeepSeek و در ChatGPT جستجو کنید و اطلاعاتی درباره آن بخواهید. من توضیحی ندارم، اینجا خودتان دو بام و دو هوا را کامل مشاهده خواهید کرد.
نتیجهگیری اخلاقی به سبک فیلمهای HappyEnd هالیوودی:
تفکر انتقادی را در آموزش فرزندان و شاگردان خودتان جدی بگیرید. البته حتما قبل از آن خودتان به این سلاح مجهز شوید و هر چه در شبکه بهدست آوردید، را وحی منزل نپندارید و اندکی در آن شک کنید و قبل از راستی آزمایی برای کسی نفرستید.
عمرانی، سید ابراهیم (1404). « سوگیری منابع موجود شبکه و استفاده از آنها برای یادگیری چت باتهای هوش مصنوعی ». سخن هفته لیزنا، شماره 279،، 21مهرماه ۱۴۰۴
-----------------------------------------------------------
[1]. Mohammadi, Ehsan. Who is a scientist? Gender and racial biases in google vision AI . )27 May 2025) By Ehsan Mohammadi, Yizhou Cai, Alamir Novin, Valerie Vera & Ehsan Soltanmohammadi . AI and Ethics . Volume 5, pages 4993–5010, (2025)
[2] . Mukhopadhyay, Anirban. When women researchers publish, media attention doesn’t always follow. News from Science (9 OCT 2025).
[3] . Mohammadi همان
[4] .همان
[5] . همان
[6] . .همان
[7]. Mukhopadhyay , همان
[8] . Mohammadi همان
[9] . همان
[10]. همان
[11] . Mukhopadhyay , همان
۱. از توهین به افراد، قومیتها و نژادها خودداری کرده و از تمسخر دیگران بپرهیزید و از اتهامزنی به دیگران خودداری نمائید.
۲.از آنجا که پیامها با نام شما منتشر خواهد شد، بهتر است با ارسال نام واقعی و ایمیل خود لیزنا را در شکل دهی بهتر بحث یاری نمایید.
۳. از به کار بردن نام افراد (حقیقی یا حقوقی)، سازمانها، نهادهای عمومی و خصوصی خودداری فرمائید.
۴. از ارسال پیام های تکراری که دیگر مخاطبان آن را ارسال کرده اند خودداری نمائید.
۵. حتی الامکان از ارسال مطالب با زبانی غیر از فارسی خودداری نمائید.