جهان امروز، با روی آوردن کشورها به هوش مصنوعی و الگوریتم ها برای پیش بینی رویدادها، سیاست خارجی بهکلی تغییر شکل خواهد داد. چرا که کشورها در حالی با یکدیگر تعامل خواهند داشت که میدانند هر حرکتشان ممکن است روزها، هفته ها یا ماه ها جلوتر پیشبینیشده باشد.
برچسب: هوش مصنوعی
هوش مصنوعی تا ۲۰ سال دیگر اکثر شغلها را نابود میکند
آدام دور، مدیر پژوهش اندیشکدهی RethinkX، هشدار داد که تا سال ۲۰۴۵، هوش مصنوعی و رباتها میتوانند بیشتر مشاغل انسانی را از بین ببرند و فرصت چندانی برای آمادهسازی باقی نمانده است.
رقیب سرسخت گوگل کروم / مرورگر OpenAI مبتنیبر هوش مصنوعی است
طبق گزارشهای منتشر شده، OpenAI احتمالاً بهزودی مرورگر مبتنیبر هوش مصنوعی خود را برای رقابت با گوگل کروم عرضه میکند.
انتقاد ربیعی از سیاست رسانهای در داخل کشور/ سیاستی که مردم را به رسانههای خارجی سوق دهد، ضد امنیت ملی است
دستیار اجتماعی پزشکیان نوشت: سیاستی که مردم را به رسانههای خارجی سوق دهد، ضد امنیت ملی است. باید به رسانههای داخلی اعتماد کرد و فضای نقد، تحلیل و روایت را در داخل گسترش داد.
هوش مصنوعی جدید ایلان ماسک، باهوشتر از همیشه / «Grok 4» معرفی شد
مدل جدید هوش مصنوعی «Grok 4»، آخرین نسخه از پروژه جاهطلبانه ایلان ماسک برای رقابت با غولهایی چون OpenAI و گوگل رونمایی شد.
ایلان ماسک: «گراک ۴» پنجشنبه معرفی میشود
ایلان ماسک تأیید کرده که چتبات گراک ۴ در تاریخ ۱۹ تیر رونمایی خواهد شد. گراک ۴ جدیدترین محصول شرکت هوش مصنوعی xAI است.
هوش مصنوعی در نقش رواندرمانگر | ابزار یا تهدید؟
شرکت OpenAI اعلام کرده که برای تحقیق درباره تأثیرات روانی محصولات هوش مصنوعیاش یک روانپزشک بالینی تماموقت با تخصص در روانپزشکی قانونی را استخدام کرده است.
دعوای غولهای فناوری چین بالا گرفت / «هواوی»، هوش مصنوعی «علیبابا» را دزدید؟
جنجال و دعوای میان «هواوی» و «علیبابا»؛ دو غول بزرگ بازار فناوری چین، پرده از شکافی عمیق در دنیای هوش مصنوعی برداشته است.
هوش مصنوعی ایلان ماسک دوباره جنجال به پا کرد
چتبات گراک متعلق به شرکت xAI به رهبری «ایلان ماسک»، در پی یک بهروزرسانی با پاسخهایی صریح و جنجالی بار دیگر در کانون توجه رسانهها قرار گرفته است.
سادهسازی مرگبار / هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!
در حالی که ابزارهای هوش مصنوعی مثل ChatGPT هر روز بیشتر وارد زندگی کاری و شخصی ما میشوند، پژوهش جدیدی نشان میدهد که مدلهای زبانی بزرگ (LLMs) ممکن است در زمینههایی مثل پزشکی، اطلاعات اشتباه یا گمراهکننده ارائه کنند، آن هم به شکلی که کاملاً «قابل اعتماد» به نظر میرسد!