متنی از این برنامه مبتنی بر هوش مصنوعی می تواند دولت را گمراه کند


متنی از این برنامه مبتنی بر هوش مصنوعی می تواند دولت را گمراه کند

النا لیسی گتی ایماژ

در اکتبر 2019 ، آیداهو پیشنهاد تغییر برنامه Medicaid خود را داد. این ایالت نیاز به تأیید دولت فدرال داشت ، که از طریق Medicaid.gov درخواست بازخورد عمومی کرد.

تقریباً 1000 نظر دریافت شد. اما نیمی از آنها مربوط به شهروندان نگران یا حتی ترول های اینترنتی نیستند. آنها توسط هوش مصنوعی تولید می شوند. و یک مطالعه نشان داد که مردم نمی توانند نظرات واقعی را از نظرات جعلی بیان کنند.

این پروژه کار ماکس ویس ، دانشجوی پزشکی باهوش فنی در دانشگاه هاروارد بود ، اما در آن زمان توجه زیادی به او نشد. اکنون که سیستم های زبان هوش مصنوعی به سرعت در حال پیشرفت هستند ، برخی می گویند دولت و شرکت های اینترنتی برای جلوگیری از دستکاری متن های جعلی عمیق و سایر تداخل های هدایت شده توسط هوش مصنوعی ، نیاز به بازنگری در روش مورد نظر خود و بررسی بازخورد دارند.

لاتانیا سوئینی ، استاد دانشکده هاروارد کندی که به ویس در مورد چگونگی رفتار توصیه کرد ، گفت: “سهولت ایجاد ربات در تولید و ارسال متن مربوط به تقلید از گفتار انسان در وب سایت های دولتی تعجب آور است و واقعاً مهم است.” آزمایش اخلاقی

سوینی می گوید این مشکلات فراتر از خدمات دولتی است ، اما ضروری است آژانس های دولتی راه حلی پیدا کنند. وی گفت: “هوش مصنوعی می تواند گفتار افراد واقعی را غرق کند.” “وب سایت های دولتی باید تغییر کنند.”

مراکز خدمات مدیکر و مدیکاید گفتند که آنها در پاسخ به نظرسنجی ویس ، پادمان های جدیدی را به سیستم نظرات عمومی اضافه کرده اند ، اگرچه آنها از بحث در مورد جزئیات خودداری کردند. ویس می گوید که از طرف دولت خدمات عمومی ایالات متحده با وی تماس گرفته شده است که در حال تهیه نسخه جدیدی از وب سایت دولت فدرال برای انتشار مقررات و نظرات در مورد راه های محافظت بهتر در برابر اظهارات دروغ است.

سیستم های دولتی پیش از این موضوع مبارزات خودکار برای تأثیرگذاری بوده اند. در سال 2017 ، محققان دریافتند که بیش از یک میلیون نظر ارسال شده به کمیسیون ارتباطات فدرال در مورد برنامه های لغو قوانین بی طرفی خالص به طور خودکار ایجاد شده است ، با عباراتی کپی و در پیام های مختلف جایگذاری شده است.

“کمی دیدم که چیزی بیش از یک دکمه ارسال مانع از تبدیل شدن نظر شما به بخشی از سوابق عمومی نیست ، کمی شوکه شدم.”

پروژه ویس تهدید جدی تری را برجسته می کند. طی چند سال گذشته پیشرفت چشمگیری در کاربرد هوش مصنوعی در زبان وجود داشته است. وقتی الگوریتم های قدرتمند یادگیری ماشین از مقدار زیادی داده یادگیری – به صورت کتاب و متن حذف شده از وب – تغذیه می کنند ، می توانند برنامه هایی ایجاد کنند که قادر به تولید متن جذاب هستند. علاوه بر برنامه های کاربردی بیشمار مفید ، این احتمال را ایجاد می کند که هرگونه پیام ، نظر و ارسال اینترنتی می تواند به راحتی و به طرز محسوسی جعل شود.

سوینی می گوید: “با پیشرفت تکنولوژی ، سایتهای گفتار انسانی دستکاری می شوند بدون اینکه انسان بفهمد این اتفاق افتاده است. “ویس در تابستان 2019 برای یک سازمان مصرف کننده مراقبت های بهداشتی کار می کرد که در مورد روند بازخورد عمومی مورد نیاز برای تغییر Medicaid اطلاعات کسب کرد. ویس که می داند این نظرات عمومی تلاش های قبلی برای تغییر برنامه های دولت Medicaid را متزلزل کرده است ، به دنبال ابزاری است که بتواند به صورت خودکار نظرات ایجاد کند.

وی گفت: “وقتی چیزی بیش از یک دکمه ارسال که مانع از نظر شما برای تبدیل شدن به نظر شما شد ، کمی شوکه شدم.”

ویس برنامه GPT-2 را کشف کرد ، برنامه ای که اوایل همان سال توسط OpenAI ، یک شرکت هوش مصنوعی در سانفرانسیسکو آغاز شد و متوجه شد که می تواند نظرات غلطی را برای شبیه سازی افکار عمومی ایجاد کند. ویس گفت: “من همچنین از آسان بودن تصفیه GPT-2 برای تف دادن واقعاً نظرات شوكه شدم.” “این در تعدادی از جبهه ها نسبتاً نگران کننده است.”

ویس علاوه بر ابزار تولید نظر ، نرم افزاری را برای ارسال خودکار نظرات ایجاد کرده است. وی همچنین آزمایشی را انجام داد که در آن از داوطلبان خواسته شد بین نظرات تولید شده توسط هوش مصنوعی و نظرات نوشته شده توسط انسان تفاوت قائل شوند. داوطلبان بهتر از حدس تصادفی عمل نکردند.

ویس پس از ارسال نظرات ، این امر را به مراکز مدیکر و خدمات پزشکی اطلاع داد. او چند کاراکتر اضافه کرده بود تا تشخیص هرگونه نظر غلط را آسان کند. با این حال ، او می گوید ، بازخورد هوش مصنوعی برای چندین ماه آنلاین است.

GPT-3

OpenAI ژوئن گذشته نسخه توانمندتری از برنامه تولید متن خود به نام GPT-3 را منتشر کرد. تاکنون فقط در دسترس تعداد کمی از محققان و شرکت های هوش مصنوعی بوده است ، برخی افراد برنامه های مفیدی مانند برنامه هایی را ایجاد می کنند که پیام های ایمیل را از نقاط تولید می کنند. هنگامی که GPT-3 منتشر شد ، OpenAI در یک مقاله تحقیقاتی گفت که هیچ نشانه ای از سو mal استفاده از GPT-2 مشاهده نمی کند ، اگرچه از تحقیقات ویس مطلع بود.

OpenAI و محققان دیگر ابزارهای مختلفی را برای شناسایی متن تولید شده توسط هوش مصنوعی منتشر کرده اند. آنها از الگوریتم های هوش مصنوعی مشابهی برای شناسایی حروف تایپ در متن استفاده می کنند. مشخص نیست که کسی از آنها برای محافظت از سیستم عامل های آنلاین اظهار نظر استفاده می کند. فیس بوک از گفتن اینکه آیا از چنین ابزاری استفاده می کند خودداری کرد. گوگل و توییتر به درخواست های ارسال نظر پاسخ ندادند.

همچنین مشخص نیست که آیا هنوز هم از ابزارهای پیچیده هوش مصنوعی برای ایجاد محتوای تقلبی استفاده می شود. در ماه آگوست ، محققان گوگل جزئیات آزمایشی را منتشر کردند که با استفاده از ابزار تجزیه و تحلیل شناخت متن عمیق بیش از 500 میلیون صفحه وب را تجزیه و تحلیل می کند. آنها دریافتند که این ابزارها می توانند صفحاتی را که متن به طور خودکار تولید می شود و هرزنامه شناسایی کنند. اما مشخص نبود که آیا هر یک از مطالب با استفاده از ابزاری برای استفاده از هوش مصنوعی مانند GPT-2 ساخته شده است.

رنه دی رستا ، رئیس تحقیق در رصدخانه اینترنتی استنفورد ، که سو abuseاستفاده آنلاین را رصد می کند ، می گوید که انتظار دارد سایت های دولتی بیشتری متن جعلی را هدف قرار دهند. وی گفت: “هر زمان که شما فناوری جدیدی دارید ، این ابزاری در دست برخی و سلاحی در دست دیگران است.”

اطلاعات غلط سیاسی به موضوعی مهم در سیاست های آمریکا تبدیل شده است. جوان دونووان ، مدیر مرکز تحقیقات شورنشتاین برای رسانه ها ، سیاست ها و سیاست های عمومی در مدرسه هاروارد کندی ، هشدار می دهد که ممکن است برای تضعیف برداشت مردم از واقعیت ، نیازی به هوش مصنوعی پیچیده نباشد. دونووان گفت: “احساسات مردم خرد شده و این باعث می شود آنها در برابر توضیحات راحت و نه حقایق دشوار بسیار آسیب پذیر شوند.”

این داستان در ابتدا در سایت wired.com منتشر شد.


منبع: khabar-tak.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*