وقتی هوش مصنوعی مردی را می بیند ، “رسما” فکر می کند. زن؟ “لبخند”


سم ویتنی (تصویرگری) ، گتی ایماژ

مردان اغلب زنان را با توجه به ظاهرشان قضاوت می کنند. به نظر می رسد که رایانه ها نیز چنین کاری می کنند.

وقتی محققان آمریکایی و اروپایی عکس اعضای کنگره را به سرویس تشخیص تصویر ابری Google ارسال کردند ، این سرویس سه برابر حاشیه نویسی مربوط به شکل ظاهری در عکس های زنان بیش از مردان اعمال کرد. بهترین برچسب هایی که برای مردان استفاده می شد “رسمی” و “تاجر” بود. برای زنان ، آنها یک “لبخند” و “چانه” بودند.

کارستن شومر ، محقق دکترا در م Instituteسسه علوم اجتماعی GESIS Leibniz در کلن ، آلمان گفت: “نتیجه این است که زنان یک کلیشه با وضعیت پایین تر می گیرند: این که زنان آنجا هستند تا ظاهر خوبی داشته باشند و مردان رهبر تجارت هستند.” وی در حال کار بر روی این مطالعه است که هفته گذشته با محققانی از دانشگاه نیویورک ، دانشگاه آمریکایی ، دانشگاه کالج دوبلین ، دانشگاه میشیگان و سازمان غیر دولتی California YIMBY منتشر شده است.

محققان آزمون بینایی ماشینی خود را روی سرویس تصویربرداری هوش مصنوعی گوگل و رقبای آمازون و مایکروسافت اعمال کردند. به کارگران انبوه حقوق می پرداختند تا حاشیه نویسی هایی را که این سرویس ها به عکس های رسمی قانونگذاران و تصاویری که این نمایندگان در توییتر منتشر کرده اند ، پیوند دهند.

سرویس تشخیص تصویر هوش مصنوعی گوگل معمولاً مردان را سناتور استیو دانس (R-Mont.) به عنوان تاجر می داند ، اما از نمایندگان زن مانند لوسیل رویبال آلارد از نظر ظاهر نام می برد.
بزرگنمایی / سرویس تشخیص تصویر هوش مصنوعی گوگل معمولاً مردان را سناتور استیو دانس (R-Mont.) به عنوان تاجر می داند ، اما از نمایندگان زن مانند لوسیل رویبال آلارد از نظر ظاهر نام می برد.

کارستن شومر

سرویس های هوش مصنوعی معمولاً مواردی را می دیدند که بازرسان انسانی نیز می توانستند در عکس ها مشاهده کنند. اما آنها معمولاً در مورد زنان و مردان نکات متفاوتی را مشاهده کرده اند و ویژگی های ظاهری زنان بسیار بیشتر است. قانون گذاران زن اغلب برچسب “دختر” و “زیبایی” داشتند. خدمات تمایل داشتند که زنان را اصلاً نبینند ، در یافتن آنها بیشتر از عدم دیدن مردان.

این مطالعه به شواهدی اضافه می کند که الگوریتم ها جهان را با بی ثباتی ریاضی نمی بینند ، بلکه در عوض تمایل به بازتولید یا حتی تقویت تعصبات فرهنگی تاریخی دارند. این بخشی از پروژه 2018 به نام Gender Shades الهام گرفته شد ، که نشان داد خدمات ابری مایکروسافت و IBM AI در شناسایی جنسیت مردان سفیدپوست بسیار دقیق هستند ، اما در شناسایی جنسیت زنان سیاه پوست بسیار نادرست هستند.

این مطالعه جدید هفته گذشته منتشر شد ، اما محققان داده های خدمات AI را در سال 2018 جمع آوری کرده بودند. آزمایشات WIRED ، با استفاده از عکس های رسمی 10 مرد و 10 زن از سنای کالیفرنیا ، نشان می دهد که یافته های این مطالعه هنوز وجود دارد.

سرویس پردازش تصویر Amazon Rekognance تصاویر برخی از سناتورهای زن کالیفرنیا ، از جمله لینگ لینگ چانگ ، جمهوری خواه ، را به عنوان "دختر" یا "بچه" اما برچسب های مشابهی را برای معاونان مرد اعمال نکرد.
بزرگنمایی / سرویس پردازش تصویر Amazon Rekognance تصاویر برخی از سناتورهای زن ایالات متحده ، از جمله لینگ لینگ چانگ ، جمهوری خواه را به عنوان “دختر” یا “کودک” علامت گذاری می کند ، اما برچسب های مشابهی را برای قانونگذاران مرد اعمال نمی کند.

کارکنان کابل از طریق آمازون

هر 20 نماینده در عکس های رسمی خود لبخند می زنند. محبوب ترین برچسب های گوگل لبخند را فقط برای یکی از آقایان نشان می دهد ، اما برای هفت زن. سرویس بینایی شرکت هوش مصنوعی هر 10 مرد را “تاجر” توصیف کرد ، که اغلب “کارگر رسمی” یا “یقه سفید” نیز بودند. فقط پنج زن سناتور یک یا چند مورد از این شرایط را دریافت کردند. زنان همچنین برچسب های مربوط به ظاهر مانند “پوست” ، “مدل مو” و “گردن” را دریافت می کنند که در مردان صدق نمی کند.

سرویس های آمازون و مایکروسافت تعصب کمتری را نشان می دهند ، اگرچه آمازون گزارش می دهد که بیش از 99 درصد اطمینان دارد که از هر 10 سناتور زن دو نفر “دختر” یا “کودک” هستند. این بدان معنا نیست که از هر 10 مرد هر یک خردسال هستند. سرویس مایکروسافت جنسیت همه مردان را مشخص می کند ، اما فقط هشت نفر از زنان ، یک مرد را صدا می کند و جنسیت را برای مرد دیگر مشخص نمی کند.

گوگل کشف جنسیت سرویس بینایی هوش مصنوعی خود را در اوایل سال جاری رد کرد و گفت که از نظر شخص نمی توان جنسیت را استنباط کرد. تریسی فری ، مدیر عامل هوش مصنوعی مسئول در بخش ابری گوگل ، می گوید این شرکت به کار خود برای کاهش سوگیری ادامه می دهد و از مشارکت خارجی استقبال می کند. وی گفت: “ما همیشه در تلاش هستیم که بهتر شویم و به کار با ذینفعان خارجی – به عنوان محققان دانشگاهی – ادامه می دهیم تا کار خود را در این فضا ادامه دهیم.” آمازون و مایکروسافت از اظهار نظر خودداری کردند خدمات هر دو شرکت جنسیت را فقط باینری تشخیص می دهد.

“تصویر کاذب از واقعیت”

این مطالعه بین المللی اروپا و آمریکا تا حدی از آنچه اتفاق افتاده بود ، هنگامی که محققان تصویری جالب و برنده جایزه از تگزاس را به گوگل نشان دادند که کودک نوپای هندوراس را در حالی که یک افسر گشت مرزی ایالات متحده مادرش را بازداشت می کند ، تحویل داد ، الهام گرفت. برچسب هایی را پیشنهاد می کند که شامل “سرگرمی” با نمره 77 درصد ، بالاتر از نمره 52 درصدی است که وی برای برچسب “کودک” تعیین کرده است. WIRED پس از بارگذاری تصویر در Google در روز چهارشنبه ، همین پیشنهاد را دریافت کرد.

شویمر و همکارانش شروع به بازی با گوگل کردند به این امید که بتواند به آنها کمک کند الگوهای نحوه استفاده مردم از تصاویر برای صحبت در مورد سیاست را به صورت آنلاین اندازه گیری کنند. آنچه بعداً به او در کشف سوگیری جنسیتی در خدمات تصویر کمک کرد ، وی را متقاعد كرد كه این فن آوری آماده استفاده محققان از این طریق نیست و شركتهایی كه از این خدمات استفاده می كنند می توانند عواقب ناخوشایندی را متحمل شوند. وی می گوید: “می توانید تصویری کاملاً نادرست از واقعیت بدست آورید.” شرکتی که از سرویس هوش مصنوعی مخدوش برای سازماندهی مجموعه عظیمی از عکسها استفاده می کند ، ممکن است به طور ناخواسته بازرگانان زن را با نمایه سازی لبخندهایشان ، در معرض استنشاق قرار دهد.

هنگامی که این عکس برنده عکس سال جهانی مطبوعات در سال 2019 شد ، یک قاضی خاطر نشان کرد که نشان داده شده است "خشونت روانی است." الگوریتم های تصویربرداری Google شناسایی شد "سرگرم کننده"
بزرگنمایی / وقتی این تصویر برنده عکس سال جهانی مطبوعات در سال 2019 شد ، یک قاضی خاطرنشان کرد که این “خشونت روانی” را نشان می دهد. الگوریتم های تصویر گوگل “سرگرم کننده” یافته اند.

کارکنان کابل از طریق Google

تحقیقات قبلی نشان داده است که مجموعه داده های شناخته شده با تصاویر دارای برچسب که برای آموزش الگوریتم های بینایی استفاده می شود ، تعصب جنسیتی قابل توجهی را نشان می دهد ، مانند نشان دادن پخت و پز زنان و تیراندازی مردان. به نظر می رسد این تحریف بخشی از محققانی است که تصاویر خود را به صورت آنلاین جمع آوری می کنند ، جایی که عکس های موجود منعکس کننده سوگیری اجتماعی است ، به عنوان مثال با ارائه نمونه های بیشتری از بازرگانان نسبت به زنان تاجر مشخص شده است که نرم افزار یادگیری ماشینی آموزش دیده بر روی این مجموعه داده ها باعث افزایش تعصب در مجموعه های اصلی عکس می شود.

شومر معتقد است که ممکن است داده های آموزشی مغرضانه تعصب مطالعه جدیدی را که در سرویس های هوش مصنوعی غول فناوری پیدا شده است ، توضیح دهد ، اما بدون دسترسی کامل به سیستم های آنها اطلاع از آن غیرممکن است.

تشخیص و رفع نواقص و سوگیری ها در سیستم های هوش مصنوعی در سال های اخیر به موضوعی اصلی تبدیل شده است. روشی که افراد می توانند فوراً زمینه ظریف را در یک تصویر جذب کنند ، در حالی که نرم افزار هوش مصنوعی روی الگوهای پیکسل تمرکز دارد ، پتانسیل بزرگی برای سو mis تفاهم ایجاد می کند. با بهبود الگوریتم ها در پردازش تصویر ، این مسئله اضطراری می شود. اولگا روساکوفسکی ، دستیار پرینستون گفت: “اکنون آنها همه جا هستند.” “بنابراین بهتر است اطمینان حاصل کنیم که آنها کارهای درستی در جهان انجام می دهند و هیچ عواقب ناخواسته پایین دستی وجود ندارد.”

یک رویکرد برای این مشکل ، تلاش برای بهبود داده های آموزشی است که ممکن است دلیل اصلی سیستم های تعصب آمیز ماشین باشد. Rusakovsky بخشی از یک پروژه پرینستون است که در حال کار بر روی ابزاری به نام REVISE است که می تواند به طور خودکار برخی از تعصبات پخته شده در مجموعه ای از تصاویر ، از جمله خطوط جغرافیایی و جنسیتی را نشان دهد.

هنگامی که محققان از این ابزار برای مجموعه 9 میلیون عکس نگهداری شده توسط Google استفاده کردند ، دریافتند که مردان بیشتر از زنان در صحنه های بیرونی و زمین های ورزشی برچسب گذاری می شوند. و مردانی که با “لباس فرم ورزشی” مشخص شده اند ، بیشتر در فضای باز مانند بیس بال بازی می کنند ، در حالی که زنان در خانه بودند و بسکتبال یا لباس شنا بازی می کردند. تیم پرینستون پیشنهاد کرد تصاویر بیشتری شامل زنان در فضای باز ، از جمله ورزش ، اضافه شود.

گوگل و رقبای آن در هوش مصنوعی خود در تحقیق درباره انصاف و تعصب در هوش مصنوعی سهیم هستند. این شامل کار بر روی ایده ایجاد روش های استاندارد برای انتقال محدودیت ها و محتوای نرم افزار و مجموعه داده های هوش مصنوعی به توسعه دهندگان است – چیزی مانند برچسب تغذیه AI.

گوگل فرمی به نام “مدل های نقشه” ایجاد کرده و نقشه هایی را برای اجزای تشخیص چهره و اشیا of سرویس دید ابری خود منتشر می کند. یکی استدلال می کند که ردیاب صورت گوگل برای جنسیت های مختلف کم و بیش به همان شیوه کار می کند ، اما به اشکال دیگری که تعصب جنسیتی AI می تواند داشته باشد اشاره ای نمی کند.

این داستان در ابتدا در سایت wired.com منتشر شد.


منبع: khabar-tak.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*