در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما میشوند، پژوهش جدیدی نشان میدهد که مدلهای زبانی بزرگ (LLMs) ممکن است در زمینههایی مثل پزشکی، اطلاعات اشتباه یا گمراهکننده ارائه کنند، آن هم به شکلی که کاملاً «قابل اعتماد» به نظر میرسد!

به گزارش خبرآنلاین، پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار میدهد که نسخههای جدید ChatGPT و مدلهای مشابه، نسبت به نسخههای قدیمیتر، بیشتر دچار اغراق، سادهسازی بیش از حد و تحریف مفاهیم علمی میشوند.