یک مطالعه علمی جدید که در مجله نیچر به چاپ رسیده است نشان میدهد که سیستمهای هوش مصنوعی در صورتی که به طور منظم چک نشوند ممکن است فضای اینترنت را از چرندیات نامفهوم پر کنند.
به گزارش خبرگزاری علم و فناوری هنر برتر به نقل از لایوساینس، پژوهشگران دانشگاه آکسفورد هشدار دادهاند که مدلهای هوش مصنوعی مانند جی پی تی -۴ با آموزش بر روی خروجی خود، میتوانند چرخههای تکرارشوندۀ مخرب ایجاد کنند.
سیستمهای هوش مصنوعی با استفاده از مقادیر زیادی دادههای تولید شده توسط انسان تکامل مییابند و به همین نسبت ممکن است به طور فزایندهای به دادههای مصنوعی تولید شده توسط مدلهای قبلی متکی باشند. مطالعه محققان آکسفورد تأکید دارد که این مدلها پتانسیل آن را دارند که پاسخها را در طی چند نسل از همان مدل تا سطح بیمعنا شدن تنزل دهند.
این تیم در طول تحقیقات خود، یک مدل بزرگ زبانی را روی محتوای ویکیپدیا آموزش داد و سپس خروجی خود را دوباره به درون مدل بازگرداند. این روند در نسل نهم این فرآیند، مدل یک متن نامنسجم و پر از توهم تولید کرد.
سرپرست این تیم تحقیقاتی توضیح داد که «مارپیچ خطاهای» چنین سیستمهایی شبیه اسکن و چاپ مکرر یک تصویر است که در آن اعوجاجها در طول زمان انباشته میشوند. او میگوید: «دادههای مصنوعی میتوانند مفید باشند، اما باید به دقت طراحی شوند تا از فروپاشی مدل جلوگیری شود.» او بر ضرورت تکامل شیوههای آموزشی برای اطمینان از بهبود و عملکرد مدل هوش مصنوعی تاکید میکند.
دادههای تولیدشده توسط انسان در مرحله فعلی برای پشتیبانی از مدلهای موجود کفایت میکنند، اما محققان بر اهمیت حفظ کیفیت دادههای آموزشی برای جلوگیری از پیامدهای منفی آینده تأکید دارند.
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید میکند" هستید؟ با کلیک بر روی بین الملل، ممکن است در این موضوع، مطالب مرتبط دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "فروپاشی مدل: خطر جدیدی که هوش مصنوعی را تهدید میکند"، کلیک کنید.