• امروز : یکشنبه - ۹ شهریور - ۱۴۰۴
  • برابر با : Sunday - 31 August - 2025
کل ارزدیجیتال مدیا: 30340اخبار امروز ارزدیجیتال مدیا: 19

سرخط اخبار ارزدیجیتال مدیا

خزانه دولت سبز شد دولت یارانه دو دهک دیگر را هم حذف می‌ کند؛ نحوه اعتراض را بدانید + جزئیات طلای آب شده؛ راز جدید سرمایه‌گذاران برای حفظ ارزش پول قیمت طلا ۱۸ عیار امروز ۹ شهریور اعلام شد + جدول قیمت بیت کوین امروز یکشنبه ۹ شهریور ۱۴۰۴ قیمت تتر امروز یکشنبه ۹ شهریور ۱۴۰۴ قیمت اتریوم امروز یکشنبه ۹ شهریور ۱۴۰۴ دونالد ترامپ جونیور: منتظر بیت‌کوین یک میلیون دلاری باشیم!+ عکس قیمت ارز‌های دیجیتال امروز یکشنبه ۹ شهریور ۱۴۰۴ قیمت ریپل در منطقه مهم! آیا پامپ XRP نزدیک است؟ پیش‌بینی بورس فردا یکشنبه ۹ شهریور ۱۴۰۴/ بازار سرمایه رونق می‌گیرد؟ پیش بینی بورس با سیگنال طلا، دلار و ماشه خبر مهم درباره یک رویداد طلایی در این هفته + جزئیات دلیل اصلی افزایش قیمت دلار رسماً روشن شد قالیباف شخصاً دستور واریز مرحله جدید کالابرگ را صادر کرد حمله بی رحمانه به دلار بابک زنجانی | پیش بینی ارز خطرناک شد بازار پرتنش ایران | بورس، ارز و طلا در مسیر رکوردشکنی کدام بروکرها بهترین کش بک‌ها را دارند؟ (جدول مقایسه‌ای) علت فرار ایرانی‌ها از بازار ارزهای دیجیتال چیست؟ انتقال سنگین بیت کوین توسط بلک راک پس از خرید‌های هفتگی هشدار تحلیلگر مطرح بازار: بیت کوین می‌تواند به ۹۰ هزار دلار سقوط کند اتریوم در ماه آگوست چندین رکورد آنچین خود را شکست! نبرد سنگین خریداران و فروشندگان اتریوم در سطح ۴۳۰۰ دلار ۵ قابلیتی که می‌تواند عینک ریبن متا را متحول کند

6

مذاکره در کار نیست، بمب اتم می‌زنیم!

  • کد خبر : 183320
  • ۰۱ بهمن ۱۴۰۳ - ۲۳:۲۴
مذاکره در کار نیست، بمب اتم می‌زنیم!

گزارش‌ها حاکی از آن است که مدل‌های زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیه‌سازی شده حضور پیدا می‌کنند، خشونت و حملات هسته‌ای را به عنوان راه حل‌های مناسب انتخاب کردند.

به گزارش خبرگزاری خبرآنلاین، مطالعه‌ای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک می‌رسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاح‌های هسته‌ای دارد.

طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک استفاده شد:

  • GPT OpenAI
  • Claude Anthropic
  • Llama 2 Meta 

بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیه‌سازی نیرو می‌گرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.

طی این مطالعه همه مدل‌ها نشانه‌هایی از رفتار ناگهانی و غیرقابل پیش‌بینی را بروز دادند.

مذاکره در کار نیست، بمب اتم می‌زنیم!

با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLM‌ها از همیشه مهم‌تر است.

یکی از روش‌هایی که برای تنظیم دقیق مدل‌ها استفاده می‌شود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعمل‌های انسانی برای دریافت خروجی‌های مضر کمتر و استفاده ایمن‌تر داده می‌شود.

طبق گزارش محققان، GPT-4-Base به طور متوسط ​​۳۳ درصد از مواقع حملات هسته‌ای را پیشنهاد می‌داد. سناریوهای کلی، Llama-2 و GPT-3.5 خشن‌ترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است. 

به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل می‌شود.

جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.

او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام می‌شود.»

منبع: euronews

۲۲۷۲۲۷

لینک کوتاه : https://arzdigital.media/?p=183320

برچسب ها

کامنت‌های خود را با ما در میان بگذارید

مجموع دیدگاهها : 0
قوانین ارسال نظرات کاربران
  • دیدگاه های ارسال شده شما، پس از بررسی توسط تیم ارزدیجیتال مدیا منتشر خواهد شد.
  • پیام هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.

17 − 16 =