وزرای دارایی و بانکداران ارشد نگرانی‌های جدی درباره مدل هوش مصنوعی Mythos مطرح می‌کنند

وزرای دارایی، روسای بانک‌های مرکزی و سرمایه‌گذاران نگرانی‌های جدی خود را در مورد یک مدل قدرتمند جدید هوش مصنوعی ابراز کرده‌اند که بیم آن می‌رود امنیت سیستم‌های مالی را تضعیف کند.

توسعه مدل Claude Mythos توسط شرکت Anthropic پس از آنکه آسیب‌پذیری‌هایی را در بسیاری از سیستم‌های عامل اصلی کشف کرد، منجر به برگزاری جلسات بحرانی شده است. کارشناسان می‌گویند این مدل به طور بالقوه توانایی بی‌سابقه‌ای در شناسایی و بهره‌برداری از نقاط ضعف امنیت سایبری دارد، اگرچه برخی دیگر هشدار می‌دهند که برای درک صحیح قابلیت‌های آن نیاز به آزمایش‌های بیشتری است.

فرانسوا-فیلیپ شامپاین، وزیر دارایی کانادا، به بی‌بی‌سی گفت که مدل Mythos به طور گسترده در نشست صندوق بین‌المللی پول (IMF) در واشنگتن دی‌سی این هفته مورد بحث قرار گرفته است. او اظهار داشت: «قطعاً این موضوع به اندازه‌ای جدی است که توجه همه وزرای دارایی را به خود جلب کند.» وی افزود: «تفاوت در این است که تنگه هرمز را می‌دانیم کجاست و چقدر بزرگ است… اما مسئله‌ای که با Anthropic با آن روبرو هستیم، یک ناشناخته، ناشناخته است.» او تاکید کرد: «این امر مستلزم توجه زیادی است تا ما تدابیر حفاظتی و فرآیندهای لازم را برای اطمینان از تاب‌آوری سیستم‌های مالی خود داشته باشیم.»

Mythos Claude چیست؟

Mythos یکی از جدیدترین مدل‌های Anthropic است که به عنوان بخشی از سیستم گسترده‌تر هوش مصنوعی آن به نام Claude، رقیب ChatGPT از OpenAI و Gemini از گوگل، توسعه یافته است. این مدل اوایل ماه جاری توسط Anthropic معرفی شد، زمانی که توسعه‌دهندگان مسئول آزمایش مدل‌های هوش مصنوعی و عملکرد آن‌ها در وظایف به اصطلاح «ناسازگار» – که خلاف ارزش‌ها، اهداف و رفتارهای انسانی هستند – گفتند که این مدل «به طرز چشمگیری در وظایف امنیت رایانه توانا است.»

Anthropic با اشاره به نگرانی‌هایی مبنی بر اینکه این مدل می‌تواند باگ‌های قدیمی نرم‌افزاری را آشکار کند یا راه‌هایی برای بهره‌برداری آسان از آسیب‌پذیری‌های سیستم پیدا کند، این مدل را منتشر نکرده است. در عوض، Mythos را در اختیار غول‌های فناوری مانند Amazon Web Services، CrowdStrike، Microsoft و Nvidia قرار داده است، به عنوان بخشی از ابتکاری به نام Project Glasswing – که آن را «تلاشی برای ایمن‌سازی حیاتی‌ترین نرم‌افزارهای جهان» می‌نامد.

روز پنجشنبه، Anthropic نسخه جدیدی از مدل موجود Claude Opus را منتشر کرد و گفت که این کار امکان آزمایش قابلیت‌های سایبری Mythos را در سیستم‌های کمتر قدرتمند فراهم می‌کند. نگرانی‌های مطرح شده در مورد Mythos ممکن است از بحث‌های پیرامون مدل‌های قبلی هوش مصنوعی فراتر رود، اما برخی کارشناسان امنیت سایبری در مورد میزان توجیه این نگرانی‌ها تردید کرده‌اند – به ویژه با توجه به اینکه این مدل توسط صنعت گسترده‌تر آزمایش نشده است تا مشخص شود واقعاً چقدر توانا است.

مؤسسه امنیت هوش مصنوعی بریتانیا به یک نسخه پیش‌نمایش از آن دسترسی یافته و تنها گزارش مستقل در مورد مهارت‌های امنیت سایبری این مدل را منتشر کرده است. محققان آن خاطرنشان کردند که این ابزار قدرتمندی است که قادر به یافتن بسیاری از حفره‌های امنیتی در محیط‌های بدون دفاع است، اما اشاره کردند که Mythos به طور چشمگیری بهتر از مدل قبلی Claude، یعنی Opus 4، نیست. نویسندگان گزارش گفتند: «آزمایش‌های ما نشان می‌دهد که Mythos Preview می‌تواند سیستم‌هایی با وضعیت امنیتی ضعیف را مورد بهره‌برداری قرار دهد، و احتمالاً مدل‌های بیشتری با این قابلیت‌ها توسعه خواهند یافت.»

این اولین بار نیست که یک توسعه‌دهنده هوش مصنوعی ادعا می‌کند قابلیت‌های مدل‌هایش به معنای عدم انتشار آن‌هاست – چیزی که منتقدان آن را تاکتیکی برای ایجاد هیجان می‌دانند. در فوریه ۲۰۱۹، OpenAI نگرانی‌های مشابهی را ذکر کرد، زمانی که تصمیم گرفت انتشار GPT-2، نسخه قبلی مدل‌هایش که اکنون ابزار بزرگ ChatGPT را قدرت می‌بخشد، را به تعویق بیندازد.

«درک آسیب‌پذیری‌ها»

بانکداران ارشد قرار است پیش از انتشار عمومی به این مدل دسترسی پیدا کنند تا سیستم‌های خود را آزمایش کنند. سی.اس. ونکاتاکریشنان، مدیرعامل بارکلیز، به بی‌بی‌سی گفت: «این موضوع به اندازه‌ای جدی است که مردم باید نگران باشند. ما باید آن را بهتر درک کنیم و آسیب‌پذیری‌هایی را که در حال آشکار شدن هستند، درک کرده و به سرعت آن‌ها را رفع کنیم.» او افزود که «این همان چیزی است که دنیای جدید خواهد بود» – با اشاره به یک سیستم مالی بسیار متصل‌تر، با فرصت‌ها و آسیب‌پذیری‌ها.

در حالی که توسعه‌دهنده Anthropic گفته است که این مدل قبلاً چندین آسیب‌پذیری امنیتی را در برخی از سیستم‌های عامل حیاتی، سیستم‌های مالی و مرورگرهای وب آشکار کرده است، به دولت‌ها و بانک‌ها پیش از انتشار عمومی آن دسترسی داده می‌شود تا به محافظت از سیستم‌های خود کمک کنند. اندرو بیلی، رئیس بانک مرکزی انگلستان، به بی‌بی‌سی گفت که این توسعه باید بسیار جدی گرفته شود: «ما اکنون باید با دقت بسیار زیادی بررسی کنیم که این آخرین توسعه هوش مصنوعی چه معنایی برای خطر جرایم سایبری می‌تواند داشته باشد.» او افزود: «نتیجه می‌تواند این باشد که توسعه هوش مصنوعی، مدل‌سازی، کشف آسیب‌پذیری‌های موجود در سیستم‌های اصلی فناوری اطلاعات را آسان‌تر کند، و سپس بدیهی است که مجرمان سایبری – بازیگران بد – می‌توانند به دنبال بهره‌برداری از آن‌ها باشند.»

وزارت خزانه‌داری ایالات متحده تأیید کرد که این موضوع را با بانک‌های بزرگ خود مطرح کرده و آن‌ها را تشویق کرده است تا سیستم‌های خود را قبل از هرگونه انتشار عمومی Mythos توسط Anthropic آزمایش کنند. منابع صنعت مالی اشاره کردند که یک شرکت برجسته دیگر هوش مصنوعی آمریکایی ممکن است به زودی یک مدل قدرتمند مشابه اما بدون تدابیر حفاظتی یکسان را منتشر کند.

جیمز وایز، شریک در Balderton Capital و رئیس واحد Sovereign AI، یک صندوق سرمایه‌گذاری خطرپذیر که با ۵۰۰ میلیون پوند بودجه دولتی در شرکت‌های هوش مصنوعی بریتانیا سرمایه‌گذاری خواهد کرد، گفت که Mythos «اولین مورد از مدل‌های قدرتمندتر بسیاری خواهد بود» که می‌توانند آسیب‌پذیری‌های سیستم‌ها را آشکار کنند. او به برنامه Today بی‌بی‌سی گفت که واحد او «در شرکت‌های هوش مصنوعی بریتانیایی سرمایه‌گذاری می‌کند که به این موضوع می‌پردازند – شرکت‌هایی که در امنیت و ایمنی هوش مصنوعی کار می‌کنند.» وی ابراز امیدواری کرد: «ما امیدواریم مدل‌هایی که آسیب‌پذیری‌ها را آشکار می‌کنند، همان مدل‌هایی باشند که آن‌ها را نیز رفع خواهند کرد.»

#هوش_مصنوعی #امنیت_سایبری #MythosAI #سیستم_مالی #Anthropic #ریسک_سایبری #بانکداری_دیجیتال #فناوری_مالی #امنیت_اطلاعات #نوآوری_تکنولوژی

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *