گوگل پس از جلوگیری از کاغذ رو به عقب ، با بهترین محقق هوش مصنوعی کار می کند


بزرگنمایی / Timnit Gebru ، دانشمند سابق هوش مصنوعی گوگل ، در روز 3 نمایشگاه TechCrunch Disrupt SF 2018 در مرکز Moscone در 7 سپتامبر 2018 در سانفرانسیسکو ، کالیفرنیا ، روی صحنه صحبت کرد.

کیمبرلی وایت گتی ایماژ

روز پنجشنبه ، گوگل تلاش کرد تا عواقب ترک یک محقق برجسته هوش مصنوعی را محدود کند ، زیرا این گروه اینترنتی مانع انتشار مقاله ای در مورد یک موضوع مهم اخلاق هوش مصنوعی شد.

تیمیت گبرو ، رئیس رئیس اخلاق هوش مصنوعی گوگل ، در توییتر خود گفت که پس از رد روزنامه اخراج شده است.

جف دین ، ​​رئیس هوش مصنوعی گوگل ، روز پنجشنبه در یک ایمیل داخلی به کارمندان خود از این تصمیم دفاع کرد و گفت روزنامه “به نوار انتشار ما پاسخ نداد.” وی همچنین ترک دکتر گبرو را به عنوان استعفا در پاسخ به عدم پذیرش گوگل برای موافقت با شرایط نامشخصی که وی برای ماندن در این شرکت تعیین کرده بود ، توصیف کرد.

این جنجال تهدید کرده است که با تحقیقات داخلی در مورد هوش مصنوعی که می تواند به تجارت آن آسیب برساند ، و همچنین مشکلات دیرینه این شرکت در تلاش برای ایجاد تنوع در نیروی کار ، فعالیت گوگل را روشن کند.

قبل از عزیمت ، گبرو در نامه ای به همکارانش شکایت کرد که گوگل در برابر ادعاهای این شرکت مبنی بر اینکه می خواهد نسبت زنان در صفوف خود را افزایش دهد ، “پاسخگویی صفر” ندارد. در نامه الکترونیکی که برای اولین بار در Platformer منتشر شد ، همچنین تصمیم برای مسدود کردن مقاله وی به عنوان بخشی از روند “خاموش کردن صداهای حاشیه ای” توصیف شده است.

یک نفر که از نزدیک با Gebru همکاری می کرد گفت که در گذشته مدیریت گوگل به دلیل فعالیت آن در ایجاد تنوع بیشتر تنش هایی داشته است. این مرد افزود ، اما دلیل فوری عزیمت وی ​​تصمیم این شرکت بود که اجازه انتشار مقاله علمی را نمی دهد که وی با همکاری هم نویسنده است.

این مقاله تعصبات بالقوه را در مدلهای زبان در مقیاس بزرگ ، یکی از داغترین زمینه های جدید تحقیقات زبان طبیعی بررسی می کند. سیستم هایی مانند OpenAI’s GPA-3 و سیستم خود گوگل ، Bert ، سعی می کنند کلمه بعدی را در هر عبارت یا جمله پیش بینی کنند ، روشی که برای ایجاد تایپ خودکار به طرز شگفت انگیزی کارآمد استفاده می شود و Google برای درک بهتر پیچیده سوالات جستجو

مدل های زبان در مورد مقادیر زیادی از متن که معمولاً از اینترنت گرفته می شود ، آموزش می بینند و این هشدارهایی را به وجود می آورد که ممکن است تعصبات نژادی و سایر تعصبات موجود در مطالب اولیه آموزشی را بدست آورند.

امیلی بندر ، استاد زبانشناسی محاسبات در دانشگاه واشنگتن که نویسنده مشترک این مقاله است ، گفت: “از خارج ، به نظر می رسد شخصی از گوگل به نفع منافع آنها است.”

“آزادی علمی بسیار مهم است – وقتی خطرات وجود دارد [research] در مکانهایی اتفاق می افتد که [don’t] این آزادی آکادمیک را داشته باشید “، به شرکتها یا دولتها قدرت” بستن “تحقیقاتی را که آنها تأیید نمی کنند ، می دهد ، وی افزود.

بندر گفت که نویسندگان امیدوارند مقاله را با تحقیقات جدیدتر به موقع برای تصویب در کنفرانسی که قبلاً در آن ارائه شده است ، به روز کنند. اما وی افزود با توجه به پیشرفت سریع کار در چنین زمینه هایی ، معمولاً جایگزین کردن چنین کارهایی با تحقیقات جدیدتر انجام می شود. “هیچ مقاله ای در ادبیات تحقیق کامل نیست.”

جولین کورنبیزه ، محقق سابق هوش مصنوعی در DeepMind ، یک گروه هوش مصنوعی مستقر در لندن و متعلق به والدین گوگل ، آلفابت ، گفت که این اختلاف “نشان می دهد خطرات تحقیقات هوش مصنوعی و یادگیری ماشین در دست افراد کمی متمرکز شده است.” بازیگران قدرتمند صنعتی زیرا اجازه سانسور در زمینه تصمیم گیری درباره انتشار یا عدم انتشار را می دهد. “

وی افزود که گبرو “بسیار با استعداد است – ما در این زمینه به محققانی از کالیبر او ، بدون فیلتر نیاز داریم.” گبرو بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.

دین گفت این مقاله که با سه محقق Google دیگر و همچنین همکاران خارجی آن نوشته شده است ، “تحقیقات اخیر را برای کاهش خطر سوگیری در نظر نگرفته است.” وی افزود که این مقاله “در مورد تأثیر مدل های بزرگ بر محیط زیست صحبت می کند ، اما تحقیقات بیشتر را که نشان دهنده کارایی بسیار بیشتری است ، نادیده می گیرد.”

© 2020 فایننشال تایمز گیم کلیه حقوق محفوظ است به هیچ وجه توزیع مجدد ، کپی یا اصلاح نشود.


منبع: khabar-tak.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*