ساده‌سازی مرگبار / هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما می‌شوند، پژوهش جدیدی نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) ممکن است در زمینه‌هایی مثل پزشکی، اطلاعات اشتباه یا گمراه‌کننده ارائه کنند، آن‌ هم به شکلی که کاملاً «قابل اعتماد» به نظر می‌رسد!

ساده‌سازی مرگبار / هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

به گزارش خبرآنلاین، پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار می‌دهد که نسخه‌های جدید ChatGPT و مدل‌های مشابه، نسبت به نسخه‌های قدیمی‌تر، بیشتر دچار اغراق، ساده‌سازی بیش از حد و تحریف مفاهیم علمی می‌شوند.

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *