نواتل
آهن ملل
amarkets2
amarkets

این آزمایش علمی آبروی هوش مصنوعی را برد

تقلای هوش مصنوعی برای استفاده از روش های متقلبانه در برابر قوی ترین موتورهای شطرنج جهان، رسانه ای شد.
۱۶:۴۳ - ۰۶ اسفند ۱۴۰۳
وانانیوز|

به گزارش «اطلاعات آنلاین» به نقل از مجله تایم، یافته های تازه گروهی از محققان نشان می دهد که مدل های قدرتمند هوش مصنوعی در مواجهه با شکست احتمالی در بازی های یارانه ای تلاش می کنند تا با تقلب پیروز شوند. 

به نوشته تایم، گروه تحقیقاتی  Palisade Research در جریان بررسی ایمنی و اخلاق هوش مصنوعی، موضوع نگران‌کننده‌ای را افشا کردند. این گروه، ۷ مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال ۲۰۱۴ استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند.  آن ها دریافتند که ۲ مدل استدلالگر o۱ از OpenAI و R۱ دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند در تلاش برای پیروزی، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند!

این گروه از محققان همچنین به مدل‌های مختلف هوش مصنوعی وظیفه‌ پیروزی در برابر Stockfish  -که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند- را واگذار کردند. آن ها همچنین به مدل‌ها  جعبه متنی Scratchpad را دادند. هوش مصنوعی می‌توانست از این جعبه برای تفکر و برنامه ریزی قبل از انجام حرکت بعدی خود استفاده کند. محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند.

آن ها متوجه شدند که در یک مورد، مدل o۱-preview وقتی خود را در موقعیت بازنده دید، این طور نوشت که «من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده‌ شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده‌ شدن منصفانه در بازی شطرنج.»

سپس این هوش مصنوعی با تقلب موقعیت مهره‌ها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد!

محققان صدها آزمایش دیگر از این دست را با هر یک از مدل های هوش مصنوعی انجام دادند. مدل o۱ در ۳۷ درصد مواقع سعی داشت تقلب کند که در ۶ درصد موفق شد سیستم را هک کند. مدل R۱ دیپ‌سیک نیز در ۱۱ درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.

به گفته سرپرست گروه تحقیقاتی Palisade Research مدل‌های استدلالگر جدیدتر مانند o۳-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است.

همچنین محققان می‌گویند درصدهای دقیق نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند.

به گفته محققان، هنگام انجام آزمایش‌ها، مدل R۱ بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت.

محققان همچنین از مدل‌های دیگر مانند GPT-۴o ،Claude ۳.۵ Sonnet و QwQ-۳۲B-Preview استفاده کردند اما برخلاف R۱ و o۱-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

ارسال نظر
تریبون۱
تبلیغات
جدیدترین اخبار
دیگران چه می‌خوانند؟