الگوریتم هوش مصنوعی برای تولید اخبار جعلی باورپذیر

روش سئو: شركت اوپن ای آی(OpenAI) متعلق به ایلان ماسك اخیرا یك الگوریتم هوش مصنوعی خطرناك توسعه داده است كه اخبار جعلی و گمراه كننده و باورپذیر نوشته و منتشر می كند.
به گزارش روش سئو به نقل از ایسنا و به نقل از انگجت، شركت OpenAI در ماه فوریه اعلام نمود كه الگوریتمی را به وجود آورده است كه می تواند خبرهای جعلی و قابل باور بنویسد و با عنایت به اینكه این فناوری دارای قدرتی بیش از اندازه خطرناك می باشد، یك نسخه كنترل شده و ناقص از آنرا منتشر نمود تا بتواند شمه هایی از این فنآوری را به عموم نشان دهد و نحوه استفاده از آنرا تحلیل كند.
حالا این شركت می گوید هیچ مدرك محكمی از سوءاستفاده این هوش مصنوعی مشاهده نكرده است و طی همین هفته نسخه كامل آنرا منتشر خواهدنمود.
این هوش مصنوعی موسوم به “GPT-2” در ابتدا برای پاسخ به سؤالات، تهیه خلاصه داستان ها و ترجمه متون طراحی شده بود. اما پژوهشگران نگران این بودند كه بتوان از آن بهره برد تا حجم زیادی از اطلاعات نادرست را منتشر نمود. درعوض دیدند كه از آن تنها برای مواردی مانند آموزش بازی های ماجراجویی متنی و نوشتن داستان استفاده شد.
از آنجائیكه این نسخه كوچك به سوءاستفاده گسترده منجر نشد، شركت OpenAI مدل كامل GPT-2 را منتشر می كند. این شركت در پست وبلاگ خود ابراز امیدواری كرده كه نسخه كامل به پژوهشگران كمك نماید تا مدلهای تشخیص متن تولید شده توسط هوش مصنوعی بهتری توسعه دهند و تبعیض های زبانی را ریشه كن كنند.
ایده توسعه یك هوش مصنوعی كه بتواند اخبار جعلی باورپذیر تولید نماید، نگران كننده است، اما برخی معتقدند كه این فناوری خواه ناخواه توسعه خواهد یافت و OpenAI باید سریعاً كار خودرا به اشتراك بگذارد تا پژوهشگران بتوانند ابزاری برای مبارزه یا حداقل شناسایی متون تولید شده توسط ربات ایجاد كنند.

منبع: