سیستمهای هوش مصنوعی که با دادههای تولیدشده توسط مدلهای قبلی آموزش میبینند، به مرور دچار افت عملکرد میشوند؛ درست شبیه به پدیدهی همخونی در دنیای جانداران
اخبار داغ حوزهی هوش مصنوعی (AI) پر شده از پیشبینیهای نگرانکننده دربارهی «فروپاشی مدل» (model collapse) است.
این سناریوی فرضی پیشبینی میکند که سیستمهای هوش مصنوعی آینده به دلیل تکیه بر دادههای تولید شدهی خودشان، به تدریج دچار افت هوشمندی میشوند.
سیستمهای هوش مصنوعی مدرن با استفاده از یادگیری ماشین ساخته میشوند. در این مقاله به این موضوع اشاره میشود که بدون استفاده از دادههای باکیفیت انسانی، سیستمهای هوش مصنوعی که با دادههای تولیدشده توسط مدلهای قبلی آموزش میبینند، به مرور دچار افت عملکرد میشوند؛ درست شبیه به پدیدهی همخونی در دنیای جانداران. این «آموزش بازگشتی» ظاهرا به کاهش کیفیت و تنوع رفتار مدلهای هوش مصنوعی منجر میشود. کیفیت در اینجا به ترکیبی از مفید بودن، بیخطر بودن و صداقت مدل اشاره دارد و تنوع به گستردگی پاسخها و بازتاب طیف وسیعی از دیدگاههای فرهنگی و اجتماعی در خروجیهای هوش مصنوعی.
این مساله اهمیت بهکارگیری دادههای متنوع و باکیفیت انسانی در توسعه و آموزش هوش مصنوعی را برجسته میکند. با دوری از دادههای «دستدوم» و تکیه بر اطلاعات غنی و واقعی، میتوانیم از به دام افتادن هوش مصنوعی در تلهی همخونی دیجیتال جلوگیری کنیم.