وزرای دارایی، بانکداران مرکزی و فعالان مالی نگرانیهای جدی خود را در مورد یک مدل قدرتمند جدید هوش مصنوعی ابراز کردهاند که بیم آن میرود امنیت سیستمهای مالی را تضعیف کند.
توسعه مدل «کلود میتوس» (Claude Mythos) توسط شرکت «آنتروپیک» (Anthropic) پس از آن منجر به برگزاری جلسات اضطراری شد که این مدل آسیبپذیریهایی را در بسیاری از سیستمهای عامل اصلی کشف کرد. کارشناسان میگویند این مدل به طور بالقوه توانایی بیسابقهای در شناسایی و بهرهبرداری از ضعفهای امنیت سایبری دارد، هرچند برخی دیگر هشدار میدهند که برای درک صحیح قابلیتهای آن، آزمایشهای بیشتری لازم است.
فرانسوا-فیلیپ شامپاین، وزیر دارایی کانادا، به بیبیسی گفت که موضوع Mythos به طور گسترده در نشست این هفته صندوق بینالمللی پول (IMF) در واشنگتن دیسی مورد بحث قرار گرفته است. او اظهار داشت: «مطمئناً این موضوع به اندازهای جدی است که توجه همه وزرای دارایی را به خود جلب کند.» وی افزود: «تفاوت این است که تنگه هرمز را میدانیم کجاست و چقدر بزرگ است… اما مسئلهای که با آنتروپیک روبرو هستیم، یک ناشناخته، یک مجهول است.» او تاکید کرد: «این امر نیازمند توجه زیادی است تا ما تدابیر حفاظتی و فرآیندهایی را برای اطمینان از تابآوری سیستمهای مالی خود داشته باشیم.»
**Mythos چیست؟**
Mythos یکی از جدیدترین مدلهای آنتروپیک است که به عنوان بخشی از سیستم گستردهتر هوش مصنوعی آن به نام «کلود» (Claude) توسعه یافته و رقیب «چتجیپیتی» (ChatGPT) از OpenAI و «جیمنای» (Gemini) از گوگل محسوب میشود. این مدل اوایل ماه جاری توسط آنتروپیک معرفی شد، زمانی که توسعهدهندگان مسئول آزمایش مدلهای هوش مصنوعی و عملکرد آنها در وظایف به اصطلاح «ناسازگار» – که برخلاف ارزشها، اهداف و رفتارهای انسانی هستند – اعلام کردند که این مدل «به طرز چشمگیری در وظایف امنیت رایانه توانا است.»
آنتروپیک با ابراز نگرانی از اینکه این مدل میتواند باگهای قدیمی نرمافزاری را آشکار کند یا راههایی برای بهرهبرداری آسان از آسیبپذیریهای سیستم پیدا کند، این مدل را منتشر نکرده است. در عوض، Mythos را به غولهای فناوری مانند «آمازون وب سرویسز» (Amazon Web Services)، «کراداسترایک» (CrowdStrike)، «مایکروسافت» (Microsoft) و «انویدیا» (Nvidia) به عنوان بخشی از ابتکاری به نام «پروژه گلسوینگ» (Project Glasswing) ارائه کرده است که آن را «تلاشی برای ایمنسازی حیاتیترین نرمافزارهای جهان» مینامد.
نگرانیهای مطرح شده در مورد Mythos ممکن است از بحثهای پیرامون مدلهای هوش مصنوعی قبلی فراتر رود، اما برخی از کارشناسان امنیت سایبری در مورد میزان توجیه این نگرانیها تردید کردهاند، به ویژه با توجه به اینکه این مدل توسط صنعت گستردهتر آزمایش نشده است تا مشخص شود واقعاً چقدر توانا است. موسسه امنیت هوش مصنوعی بریتانیا به نسخه پیشنمایش آن دسترسی پیدا کرده و تنها گزارش مستقل را در مورد مهارتهای امنیت سایبری این مدل منتشر کرده است. محققان آن اشاره کردند که این ابزار قدرتمندی است که قادر به یافتن بسیاری از حفرههای امنیتی در محیطهای بدون دفاع است، اما پیشنهاد کردند که Mythos به طور چشمگیری بهتر از مدل قبلی کلود، یعنی Opus 4، نیست. نویسندگان گزارش گفتند: «آزمایشهای ما نشان میدهد که Mythos Preview میتواند سیستمهایی با وضعیت امنیتی ضعیف را مورد بهرهبرداری قرار دهد، و احتمالاً مدلهای بیشتری با این قابلیتها توسعه خواهند یافت.»
این اولین بار نیست که یک توسعهدهنده هوش مصنوعی ادعا میکند قابلیتهای مدلهایش به این معناست که نباید منتشر شوند – چیزی که منتقدان آن را تاکتیکی برای ایجاد هیجان میدانند. در فوریه ۲۰۱۹، OpenAI نیز ترسهای مشابهی را مطرح کرد زمانی که تصمیم گرفت انتشار GPT-2، نسخه اولیه مدلهایش که اکنون ابزار اصلی ChatGPT را قدرت میبخشند، را به صورت مرحلهای انجام دهد.
**«آسیبپذیریها را درک کنید»**
بانکداران ارشد قرار است پیش از انتشار عمومی به این مدل دسترسی پیدا کنند تا سیستمهای خود را آزمایش کنند. سی.اس. ونکاتاکریشنان، مدیر عامل بارکلیز، به بیبیسی گفت: «این موضوع به اندازهای جدی است که مردم باید نگران باشند. ما باید آن را بهتر درک کنیم و آسیبپذیریهایی را که در معرض دید قرار میگیرند، بشناسیم و به سرعت آنها را برطرف کنیم.» او افزود که «این همان چیزی است که دنیای جدید خواهد بود» – اشاره به یک سیستم مالی بسیار متصلتر، با فرصتها و آسیبپذیریها.
در حالی که توسعهدهنده آنتروپیک گفته است که این مدل قبلاً چندین آسیبپذیری امنیتی را در برخی از سیستمهای عامل حیاتی، سیستمهای مالی و مرورگرهای وب آشکار کرده است، به دولتها و بانکها پیش از انتشار عمومی آن دسترسی داده میشود تا به محافظت از سیستمهای خود کمک کنند. اندرو بیلی، رئیس بانک مرکزی انگلستان، به بیبیسی گفت که این توسعه باید بسیار جدی گرفته شود: «ما اکنون باید با دقت بسیار زیادی بررسی کنیم که این آخرین توسعه هوش مصنوعی چه معنایی برای خطر جرایم سایبری میتواند داشته باشد.» او افزود: «نتیجه میتواند این باشد که توسعه هوش مصنوعی، مدلسازی، شناسایی آسیبپذیریهای موجود در سیستمهای اصلی فناوری اطلاعات را آسانتر کند، و سپس بدیهی است که مجرمان سایبری – بازیگران بد – میتوانند به دنبال بهرهبرداری از آنها باشند.»
خزانهداری ایالات متحده تأیید کرد که این موضوع را با بانکهای اصلی خود مطرح کرده و آنها را تشویق کرده است تا سیستمهای خود را قبل از هرگونه انتشار عمومی Mythos توسط آنتروپیک آزمایش کنند. منابع صنعت مالی اشاره کردند که یک شرکت برجسته دیگر هوش مصنوعی در ایالات متحده ممکن است به زودی مدل مشابهی را با قدرت مشابه اما بدون همان تدابیر حفاظتی منتشر کند.
جیمز وایز، شریک در «بالدرتون کپیتال» و رئیس واحد «هوش مصنوعی حاکمیتی» (Sovereign AI)، یک صندوق سرمایهگذاری خطرپذیر که با ۵۰۰ میلیون پوند بودجه دولتی در شرکتهای هوش مصنوعی بریتانیا سرمایهگذاری خواهد کرد، گفت که Mythos «اولین مدل از مدلهای قدرتمندتر بسیاری خواهد بود» که میتوانند آسیبپذیریهای سیستمها را آشکار کنند. او به برنامه «تودی» بیبیسی گفت که واحد او «در شرکتهای هوش مصنوعی بریتانیایی که به این مسئله میپردازند – شرکتهایی که در امنیت و ایمنی هوش مصنوعی کار میکنند – سرمایهگذاری میکند.» او ابراز امیدواری کرد: «امیدواریم مدلهایی که آسیبپذیریها را آشکار میکنند، همان مدلهایی باشند که آنها را برطرف خواهند کرد.»
#هوش_مصنوعی #امنیت_سایبری #سیستم_مالی #MythosAI #آنتروپیک #امنیت_بانکی #فناوری_مالی #ریسک_سایبری #نوآوری_تکنولوژی #اقتصاد_دیجیتال












Leave a Reply