هوش مصنوعی «متا» ناظر سایر مدلهای هوش مصنوعی میشود
مدل هوش مصنوعی شرکت «متا» میتواند بر کار سایر مدلهای هوش مصنوعی نظارت کند.
«متا»(Meta) شرکت مالک «فیسبوک»(Facebook) اعلام کرد که بخش تحقیقاتی آن قصد دارد یک مجموعه از مدلهای جدید هوش مصنوعی را منتشر کند؛ از جمله یک ارزیابیکننده خودآموخته که ممکن است راهی را به سمت مشارکت کمتر انسان در فرآیند توسعه هوش مصنوعی ارائه دهد.
به نقل از رویترز، این خبر پس از معرفی این مدل توسط متا در مقاله ماه اوت منتشر شد. متا در آن مقاله توضیح داده بود که این مدل بر همان روش زنجیره فکری استفاده شده توسط مدلهای شرکت «اوپنایآی»(OpenAI) برای قضاوت قابل اعتماد درباره پاسخ مدلها متکی است.
این روش شامل تقسیم کردن مسائل پیچیده به مراحل منطقی کوچکتر است و به نظر میرسد که دقت پاسخها را درباره مسائل چالشبرانگیز در موضوعاتی مانند علوم، کدنویسی و ریاضی بهبود میبخشد. پژوهشگران متا، دادههای تولیدشده توسط هوش مصنوعی را برای آموزش مدل ارزیابیکننده به کار بردند و ورودیهای انسانی را در آن مرحله حذف کردند.
دو نفر از پژوهشگران متا که در این پروژه نقش دارند، در مصاحبه با رویترز گفتند: توانایی استفاده از هوش مصنوعی برای ارزیابی قابل اعتماد، یک نگاه اجمالی را به مسیر احتمالی ساخت عوامل هوش مصنوعی مستقل ارائه میدهد که میتوانند از اشتباهات خود درس بگیرند.
بسیاری از افراد فعال در زمینه هوش مصنوعی، چنین عواملی را به عنوان دستیارهای دیجیتال هوشمند در نظر میگیرند که میتوانند مجموعه وسیعی از وظایف را بدون دخالت انسان انجام دهند.
«جیسون وستون»(Jason Weston) یکی از پژوهشگران گفت: ما امیدواریم هوش مصنوعی هرچه بیشتر به هوش فرابشری دست یابد و در کار خود آن قدر بهتر شود که در واقع بهتر از یک انسان معمولی باشد. ایده خودآموختگی و توانایی خودارزیابی اساسا برای ایده رسیدن به این نوع سطح فوق بشری هوش مصنوعی بسیار مهم است.
نظر شما