فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید می‌کند

فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید می‌کند

یک مطالعه علمی جدید که در مجله نیچر به چاپ رسیده است نشان می‌دهد که سیستم‌های هوش مصنوعی در صورتی که به طور منظم چک نشوند ممکن است فضای اینترنت را از چرندیات نامفهوم پر کنند.

به گزارش خبرگزاری علم و فناوری هنر برتر به نقل از لایوساینس، پژوهشگران دانشگاه آکسفورد هشدار داده‌اند که مدل‌های هوش مصنوعی مانند جی پی تی -۴ با آموزش بر روی خروجی خود، می‌توانند چرخه‌های تکرارشوندۀ مخرب ایجاد کنند.
سیستم‌های هوش مصنوعی با استفاده از مقادیر زیادی داده‌های تولید شده توسط انسان تکامل می‌یابند و به همین نسبت ممکن است به طور فزاینده‌ای به داده‌های مصنوعی تولید شده توسط مدل‌های قبلی متکی باشند. مطالعه محققان آکسفورد تأکید دارد که این مدل‌ها پتانسیل آن را دارند که پاسخ‌ها را در طی چند نسل از همان مدل تا سطح بی‌معنا شدن تنزل دهند.

این تیم در طول تحقیقات خود، یک مدل بزرگ زبانی را روی محتوای ویکی‌پدیا آموزش داد و سپس خروجی خود را دوباره به درون مدل بازگرداند. این روند در نسل نهم این فرآیند، مدل یک متن نامنسجم و پر از توهم تولید کرد.

سرپرست این تیم تحقیقاتی توضیح داد که «مارپیچ خطاهای» چنین سیستم‌هایی شبیه اسکن و چاپ مکرر یک تصویر است که در آن اعوجاج‌ها در طول زمان انباشته می‌شوند. او می‌گوید: «داده‌های مصنوعی می‌توانند مفید باشند، اما باید به دقت طراحی شوند تا از فروپاشی مدل جلوگیری شود.» او بر ضرورت تکامل شیوه‌های آموزشی برای اطمینان از بهبود و عملکرد مدل هوش مصنوعی تاکید می‌کند.

داده‌های تولیدشده توسط انسان در مرحله فعلی برای پشتیبانی از مدل‌های موجود کفایت می‌کنند، اما محققان بر اهمیت حفظ کیفیت داده‌های آموزشی برای جلوگیری از پیامد‌های منفی آینده تأکید دارند.

آیا شما به دنبال کسب اطلاعات بیشتر در مورد "فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید می‌کند" هستید؟ با کلیک بر روی بین الملل، آیا به دنبال موضوعات مشابهی هستید؟ برای کشف محتواهای بیشتر، از منوی جستجو استفاده کنید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید می‌کند"، کلیک کنید.