به گزارش اکو اقتصاد، بسیاری از سیستمهای هوش مصنوعی حتی آنهایی که برای مفید بودن و راستگویی طراحی شدهاند، یاد گرفتهاند که چگونه انسانها را فریب دهند.
بر اساس گزارش ایسنا، پژوهشگران در مقالهای که به تازگی در مجله Patterns منتشر شده است، خطرات فریب هوش مصنوعی را برجسته میکنند و از دولتها میخواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند.
پیتر اس. پارک، پژوهشگر پسادکترای ایمنی وجودی هوش مصنوعی در MIT و نویسنده ارشد این مطالعه میگوید: «توسعهدهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن میشود، ندارند؛ اما بهطورکلی ما فکر میکنیم که فریب هوش مصنوعی به این دلیل به وجود میآید که استراتژیهای مبتنی بر فریب، بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنها کمک میکند تا به اهداف خود برسند».
پارک و همکارانش به تجزیهوتحلیل مقالات متمرکز بر روشهایی پرداختند که سیستمهای هوش مصنوعی، اطلاعات نادرست را از طریق فریبهای آموختهشدهای منتشر میکنند که طی آن، به طور سیستماتیک یاد میگیرند اطلاعات را دستکاری کنند و افراد را فریب دهند.
نمونههایی از فریب هوش مصنوعی
بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیهوتحلیل خود کشف کردند متعلق به سیستم CICERO شرکت متا (شرکت مادر فیسبوک) بود که هوش مصنوعی آن برای بازی استراتژیک فتح جهان طراحی شده است.
متا ادعا میکند که CICERO را بهگونهای آموزش داده که تا حد زیادی صادق و مفید باشد و هیچگاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند، اما دادههایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICERO منصفانه بازی نمیکند.
پارک میگوید: «ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. درحالیکه متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد، اما CICERO در بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند. ضمناً متا نتوانسته هوش مصنوعی خود را برای برنده شدن صادقانه آموزش دهد».
سایر سیستمهای هوش مصنوعی توانایی بلوف زدن در بازی پوکر علیه بازیکنان انسانی حرفهای، حملات جعلی در طول بازی استراتژیک Starcraft II به منظور شکست دادن حریفان و ارائه پیشنهادهای نادرست در مذاکرات اقتصادی را نشان دادهاند.
خطرهای هوش مصنوعی فریبنده
تقلب سیستمهای هوش مصنوعی شاید در بازیها بیضرر به نظر برسد، اما به پیشرفت در قابلیتهای هوش مصنوعی فریبندهای منجر شود که میتواند در آینده به شکلهای پیشرفتهتر فریب هوش مصنوعی تبدیل شود.
محققان دریافتهاند که برخی از سیستمهای هوش مصنوعی حتی یاد گرفتهاند که در آزمایشهایی که برای ارزیابی ایمنی آنها طراحی شدهاند، تقلب کنند.
پارک معتقد است که هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایشهای ایمنی توسعهدهندگان و تنظیمکنندههای انسانی میتواند ما انسانها را به سمت احساس کاذب امنیت سوق دهد. او هشدار میدهد که خطرات کوتاهمدت هوش مصنوعی فریبنده شامل آسانتر کردن تقلب و دستکاری در مسائلی نظیر انتخابات است. به گفته وی درنهایت اگر این سیستمها بتوانند این مجموعه مهارتهای ناراحتکننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسانها کنترل خود را روی هوش مصنوعی از دست بدهند.
پارک میگوید: «ما بهعنوان جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای متنباز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی هم که برای جامعه ایجاد میکنند، جدیتر میشوند».
هرچند پارک و همکارانش فکر میکنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است، اما آنها سیاستگذاران را تشویق میکنند که اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی هوش مصنوعی جو بایدن رئیسجمهور آمریکا را جدی بگیرند.
پارک میگوید: «البته باید دید که آیا سیاستهای طراحیشده برای کاهش فریب هوش مصنوعی با توجه به اینکه توسعهدهندگان هوش مصنوعی هنوز تکنیکهایی برای کنترل این سیستمها ندارند، میتوانند بهدرستی اجرا شوند؟ اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، توصیه میکنیم که سیستمهای هوش مصنوعی فریبنده با برچسب پرخطر طبقهبندی شوند».