وزرای دارایی و بانکداران ارشد نگرانی‌های جدی درباره مدل هوش مصنوعی Mythos مطرح می‌کنند

وزرای دارایی، بانکداران مرکزی و فعالان مالی نگرانی‌های جدی خود را در مورد یک مدل قدرتمند جدید هوش مصنوعی ابراز کرده‌اند که بیم آن می‌رود امنیت سیستم‌های مالی را تضعیف کند.

توسعه مدل «کلود میتوس» (Claude Mythos) توسط شرکت «آنتروپیک» (Anthropic) پس از آن منجر به برگزاری جلسات اضطراری شد که این مدل آسیب‌پذیری‌هایی را در بسیاری از سیستم‌های عامل اصلی کشف کرد. کارشناسان می‌گویند این مدل به طور بالقوه توانایی بی‌سابقه‌ای در شناسایی و بهره‌برداری از ضعف‌های امنیت سایبری دارد، هرچند برخی دیگر هشدار می‌دهند که برای درک صحیح قابلیت‌های آن، آزمایش‌های بیشتری لازم است.

فرانسوا-فیلیپ شامپاین، وزیر دارایی کانادا، به بی‌بی‌سی گفت که موضوع Mythos به طور گسترده در نشست این هفته صندوق بین‌المللی پول (IMF) در واشنگتن دی‌سی مورد بحث قرار گرفته است. او اظهار داشت: «مطمئناً این موضوع به اندازه‌ای جدی است که توجه همه وزرای دارایی را به خود جلب کند.» وی افزود: «تفاوت این است که تنگه هرمز را می‌دانیم کجاست و چقدر بزرگ است… اما مسئله‌ای که با آنتروپیک روبرو هستیم، یک ناشناخته، یک مجهول است.» او تاکید کرد: «این امر نیازمند توجه زیادی است تا ما تدابیر حفاظتی و فرآیندهایی را برای اطمینان از تاب‌آوری سیستم‌های مالی خود داشته باشیم.»

**Mythos چیست؟**
Mythos یکی از جدیدترین مدل‌های آنتروپیک است که به عنوان بخشی از سیستم گسترده‌تر هوش مصنوعی آن به نام «کلود» (Claude) توسعه یافته و رقیب «چت‌جی‌پی‌تی» (ChatGPT) از OpenAI و «جیمنای» (Gemini) از گوگل محسوب می‌شود. این مدل اوایل ماه جاری توسط آنتروپیک معرفی شد، زمانی که توسعه‌دهندگان مسئول آزمایش مدل‌های هوش مصنوعی و عملکرد آن‌ها در وظایف به اصطلاح «ناسازگار» – که برخلاف ارزش‌ها، اهداف و رفتارهای انسانی هستند – اعلام کردند که این مدل «به طرز چشمگیری در وظایف امنیت رایانه توانا است.»

آنتروپیک با ابراز نگرانی از اینکه این مدل می‌تواند باگ‌های قدیمی نرم‌افزاری را آشکار کند یا راه‌هایی برای بهره‌برداری آسان از آسیب‌پذیری‌های سیستم پیدا کند، این مدل را منتشر نکرده است. در عوض، Mythos را به غول‌های فناوری مانند «آمازون وب سرویسز» (Amazon Web Services)، «کراداسترایک» (CrowdStrike)، «مایکروسافت» (Microsoft) و «انویدیا» (Nvidia) به عنوان بخشی از ابتکاری به نام «پروژه گلس‌وینگ» (Project Glasswing) ارائه کرده است که آن را «تلاشی برای ایمن‌سازی حیاتی‌ترین نرم‌افزارهای جهان» می‌نامد.

نگرانی‌های مطرح شده در مورد Mythos ممکن است از بحث‌های پیرامون مدل‌های هوش مصنوعی قبلی فراتر رود، اما برخی از کارشناسان امنیت سایبری در مورد میزان توجیه این نگرانی‌ها تردید کرده‌اند، به ویژه با توجه به اینکه این مدل توسط صنعت گسترده‌تر آزمایش نشده است تا مشخص شود واقعاً چقدر توانا است. موسسه امنیت هوش مصنوعی بریتانیا به نسخه پیش‌نمایش آن دسترسی پیدا کرده و تنها گزارش مستقل را در مورد مهارت‌های امنیت سایبری این مدل منتشر کرده است. محققان آن اشاره کردند که این ابزار قدرتمندی است که قادر به یافتن بسیاری از حفره‌های امنیتی در محیط‌های بدون دفاع است، اما پیشنهاد کردند که Mythos به طور چشمگیری بهتر از مدل قبلی کلود، یعنی Opus 4، نیست. نویسندگان گزارش گفتند: «آزمایش‌های ما نشان می‌دهد که Mythos Preview می‌تواند سیستم‌هایی با وضعیت امنیتی ضعیف را مورد بهره‌برداری قرار دهد، و احتمالاً مدل‌های بیشتری با این قابلیت‌ها توسعه خواهند یافت.»

این اولین بار نیست که یک توسعه‌دهنده هوش مصنوعی ادعا می‌کند قابلیت‌های مدل‌هایش به این معناست که نباید منتشر شوند – چیزی که منتقدان آن را تاکتیکی برای ایجاد هیجان می‌دانند. در فوریه ۲۰۱۹، OpenAI نیز ترس‌های مشابهی را مطرح کرد زمانی که تصمیم گرفت انتشار GPT-2، نسخه اولیه مدل‌هایش که اکنون ابزار اصلی ChatGPT را قدرت می‌بخشند، را به صورت مرحله‌ای انجام دهد.

**«آسیب‌پذیری‌ها را درک کنید»**
بانکداران ارشد قرار است پیش از انتشار عمومی به این مدل دسترسی پیدا کنند تا سیستم‌های خود را آزمایش کنند. سی.اس. ونکاتاکریشنان، مدیر عامل بارکلیز، به بی‌بی‌سی گفت: «این موضوع به اندازه‌ای جدی است که مردم باید نگران باشند. ما باید آن را بهتر درک کنیم و آسیب‌پذیری‌هایی را که در معرض دید قرار می‌گیرند، بشناسیم و به سرعت آن‌ها را برطرف کنیم.» او افزود که «این همان چیزی است که دنیای جدید خواهد بود» – اشاره به یک سیستم مالی بسیار متصل‌تر، با فرصت‌ها و آسیب‌پذیری‌ها.

در حالی که توسعه‌دهنده آنتروپیک گفته است که این مدل قبلاً چندین آسیب‌پذیری امنیتی را در برخی از سیستم‌های عامل حیاتی، سیستم‌های مالی و مرورگرهای وب آشکار کرده است، به دولت‌ها و بانک‌ها پیش از انتشار عمومی آن دسترسی داده می‌شود تا به محافظت از سیستم‌های خود کمک کنند. اندرو بیلی، رئیس بانک مرکزی انگلستان، به بی‌بی‌سی گفت که این توسعه باید بسیار جدی گرفته شود: «ما اکنون باید با دقت بسیار زیادی بررسی کنیم که این آخرین توسعه هوش مصنوعی چه معنایی برای خطر جرایم سایبری می‌تواند داشته باشد.» او افزود: «نتیجه می‌تواند این باشد که توسعه هوش مصنوعی، مدل‌سازی، شناسایی آسیب‌پذیری‌های موجود در سیستم‌های اصلی فناوری اطلاعات را آسان‌تر کند، و سپس بدیهی است که مجرمان سایبری – بازیگران بد – می‌توانند به دنبال بهره‌برداری از آن‌ها باشند.»

خزانه‌داری ایالات متحده تأیید کرد که این موضوع را با بانک‌های اصلی خود مطرح کرده و آن‌ها را تشویق کرده است تا سیستم‌های خود را قبل از هرگونه انتشار عمومی Mythos توسط آنتروپیک آزمایش کنند. منابع صنعت مالی اشاره کردند که یک شرکت برجسته دیگر هوش مصنوعی در ایالات متحده ممکن است به زودی مدل مشابهی را با قدرت مشابه اما بدون همان تدابیر حفاظتی منتشر کند.

جیمز وایز، شریک در «بالدرتون کپیتال» و رئیس واحد «هوش مصنوعی حاکمیتی» (Sovereign AI)، یک صندوق سرمایه‌گذاری خطرپذیر که با ۵۰۰ میلیون پوند بودجه دولتی در شرکت‌های هوش مصنوعی بریتانیا سرمایه‌گذاری خواهد کرد، گفت که Mythos «اولین مدل از مدل‌های قدرتمندتر بسیاری خواهد بود» که می‌توانند آسیب‌پذیری‌های سیستم‌ها را آشکار کنند. او به برنامه «تودی» بی‌بی‌سی گفت که واحد او «در شرکت‌های هوش مصنوعی بریتانیایی که به این مسئله می‌پردازند – شرکت‌هایی که در امنیت و ایمنی هوش مصنوعی کار می‌کنند – سرمایه‌گذاری می‌کند.» او ابراز امیدواری کرد: «امیدواریم مدل‌هایی که آسیب‌پذیری‌ها را آشکار می‌کنند، همان مدل‌هایی باشند که آن‌ها را برطرف خواهند کرد.»

#هوش_مصنوعی #امنیت_سایبری #سیستم_مالی #MythosAI #آنتروپیک #امنیت_بانکی #فناوری_مالی #ریسک_سایبری #نوآوری_تکنولوژی #اقتصاد_دیجیتال

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *