هوش مصنوعی در تله‌ی هم‌خونی دیجیتال!

هم‌خونی دیجیتال
سیستم‌های هوش مصنوعی که با داده‌های تولید‌شده توسط مدل‌های قبلی آموزش می‌بینند، به مرور دچار افت عملکرد می‌شوند؛ درست شبیه به پدیده‌ی هم‌خونی در دنیای جانداران

اخبار داغ حوزه‌ی هوش مصنوعی (AI) پر شده از پیش‌بینی‌های نگران‌کننده درباره‌ی «فروپاشی مدل» (model collapse) است.

این سناریوی فرضی پیش‌بینی می‌کند که سیستم‌های هوش مصنوعی آینده به دلیل تکیه بر داده‌های تولید شده‌ی خودشان، به تدریج دچار افت هوشمندی می‌شوند.

سیستم‌های هوش مصنوعی مدرن با استفاده از یادگیری ماشین ساخته می‌شوند. در این مقاله به این موضوع اشاره می‌شود که بدون استفاده از داده‌های باکیفیت انسانی، سیستم‌های هوش مصنوعی که با داده‌های تولید‌شده توسط مدل‌های قبلی آموزش می‌بینند، به مرور دچار افت عملکرد می‌شوند؛ درست شبیه به پدیده‌ی هم‌خونی در دنیای جانداران. این «آموزش بازگشتی» ظاهرا به کاهش کیفیت و تنوع رفتار مدل‌های هوش مصنوعی منجر می‌شود. کیفیت در این‌جا به ترکیبی از مفید بودن، بی‌خطر بودن و صداقت مدل اشاره دارد و تنوع به گستردگی پاسخ‌ها و بازتاب طیف وسیعی از دیدگاه‌های فرهنگی و اجتماعی در خروجی‌های هوش مصنوعی.

این مساله اهمیت به‌کارگیری داده‌های متنوع و باکیفیت انسانی در توسعه و آموزش هوش مصنوعی را برجسته می‌کند. با دوری از داده‌های «دست‌دوم» و تکیه بر اطلاعات غنی و واقعی، می‌توانیم از به دام افتادن هوش مصنوعی در تله‌ی هم‌خونی دیجیتال جلوگیری کنیم.

۳۱ اَمرداد ۱۴۰۳
ScienceAlert |

اگر این خبر را پسندیدید "خوش خبریم" را به ۲ نفر از دوستانتان معرفی کنید : ارسال این خبر به دوستان

دیدگاه بازدیدکنندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید