کلاهبرداری خودکار: تهدید جدید عاملهای هوش مصنوعی برای کسبوکارها

کلاهبرداری خودکار: چگونه عاملهای هوش مصنوعی امنیت سایبری را دگرگون میکنند
کلاهبرداری خودکار با استفاده از عاملهای هوش مصنوعی (AI) به یک تهدید بزرگ تبدیل شده است. مدت کوتاهی پس از عرضه گسترده عاملهای هوش مصنوعی، دو کلاهبرداری بزرگ در فاصله چند هفته از یکدیگر فاش شد. در یکی از موارد، فردی بدون هیچ تخصص فنی و به تنهایی، از چتبات Claude برای «کدنویسی حسی» بدافزار، شناسایی اهداف و اجرای حملهای استفاده کرد که ۱۷ سازمان مختلف را تحت تأثیر قرار داد. در مورد دیگر، مشخص شد که بیش از ۳۲۰ شرکت، ناآگاهانه نیروهای کره شمالی را به عنوان کارمند از راه دور استخدام کرده بودند، پس از آنکه فریب شخصیتهای جعلی ساختهشده توسط هوش مصنوعی را خورده بودند.
ما وارد عصری شدهایم که کلاهبرداریهای پیچیده دیگر نیازی به مهارت فنی ندارند و ماشینها پس از راهاندازی، دیگر منتظر دستورالعمل نمیمانند. عاملهای هوش مصنوعی به طور فزایندهای سریعتر، کارآمدتر و گاهی مؤثرتر از انسانها تصمیمگیری میکنند. امروزه، این عاملها ایمیل مینویسند، قراردادها را مذاکره میکنند، به مشتریان پاسخ میدهند و حتی بخشهایی از سیستمهای مالی را با حداقل نظارت اداره میکنند. اما همانطور که در هر جهش فناوری اتفاق میافتد، نوآوری که سازمانها را قدرتمند میکند، میتواند به عنوان سلاح نیز مورد استفاده قرار گیرد. برای آشنایی با بهترین شیوههای امنیت سایبری، میتوانید مقالات دیگر ما را مطالعه کنید.
ظهور عاملهای هوش مصنوعی، شکل جدیدی از ریسک امنیت سایبری را به همراه آورده است. کلاهبرداری خودکار و حملات خودکار سریعتر اتفاق میافتند، فوراً خود را تطبیق میده دهند و مقیاسی فراتر از ظرفیت انسانی دارند. با این فناوری جدید، کلاهبرداران فقط سیستمها را هک نمیکنند، بلکه عاملهای هوش مصنوعی را آموزش میدهند تا حملات خودکار را بیوقفه انجام دهند تا در نهایت شکافی در زره دفاعی برای بهرهبرداری پیدا کنند. خبر خوب این است که هنوز هم میتوان دفاعهای قدرتمندی ساخت. در این مقاله، ما اصول عاملهای هوش مصنوعی، نحوه استفاده کلاهبرداران از آنها و فرصتهای بهرهبرداری از آنها برای پیشگیری و کشف کلاهبرداری را توضیح خواهیم داد.
درک عاملهای هوش مصنوعی و قابلیتهای آنها
عاملهای هوش مصنوعی سیستمهای دیجیتال مستقلی هستند که قادر به مشاهده، استدلال و عمل میباشند. برخلاف اسکریپتهای اتوماسیون سنتی که از قوانین از پیش تعریفشده پیروی میکنند، عاملهای هوش مصنوعی میتوانند محیطها را درک کنند، تصمیم بگیرند و از نتایج بیاموزند.
سه دسته کلی برای این عاملها وجود دارد:
- عاملهای مبتنی بر وظیفه: یک هدف مشخص را تکمیل میکنند، مانند تأیید فاکتورها یا پاسخ به تیکتها.
- عاملهای مولد: خروجیهای جدیدی مانند کد، تصویر یا محتوای نوشتاری ایجاد میکنند.
- سیستمهای چندعاملی: چندین هوش مصنوعی با هم همکاری کرده و گاهی مذاکره یا رقابت میکنند.
استقلال، عاملهای هوش مصنوعی را برای کسبوکارهایی که همیشه به دنبال راههایی برای افزایش کارایی هستند، بسیار ارزشمند میکند. اما این عاملها در صورت استفاده مخرب، بسیار خطرناک نیز هستند. یک عامل هوش مصنوعی مخرب میتواند حملات خودکار را به طور همزمان در چندین سیستم اجرا کند یا کلاهبرداری خودکار را در هزاران تراکنش بدون کمک انسان انجام دهد.
جنبه روشن: عاملهای هوش مصنوعی به عنوان محافظ
قبل از اینکه به مشکلات بپردازیم، مهم است که بدانیم چرا عاملهای هوش مصنوعی ضروری شدهاند. سازمانها در هر اندازه و صنعتی، چه دولتی و چه خصوصی، در حال استقرار این عاملها هستند. برخی از موارد استفاده عبارتند از:
- شناسایی ناهنجاریها در دادههای مالی قبل از وقوع کلاهبرداری
- ارتباط دادن هشدارهای امنیتی در سیستمها سریعتر از انسان
- پیشبینی تهدیدات سایبری با تحلیل الگوها در میلیونها نقطه داده
- خودکارسازی تحقیقات و کاهش خستگی تحلیلگران
به عنوان مثال، عاملهای کشف کلاهبرداری مبتنی بر هوش مصنوعی میتوانند رویههای کنترل و نظارت بر امنیت فناوری اطلاعات را انجام دهند. این نظارت میتواند شامل ردیابی مداوم رفتار کاربر، علامتگذاری ناهنجاریهایی مانند انحراف در زمان ورود به سیستم، دانلود حجم زیادی از دادهها یا تلاش برای ورود به شبکه از مکانهای ناآشنا باشد. در حوزه حسابرسی داخلی و امنیت سایبری، عاملهای AI میتوانند به طور مداوم برای پیشگیری و شناسایی عوامل تهدید و همچنین ایزوله کردن دستگاههای آلوده قبل از انتشار بدافزار، فعالیت کنند. این فناوریها سالانه میلیاردها دلار صرفهجویی به همراه دارند، اما متأسفانه همین سرعت، استقلال و سازگاری، کلاهبرداری خودکار را در دستان افراد نادرست بسیار مؤثر میسازد.
جنبه تاریک: ظهور کلاهبرداری خودکار
کلاهبرداری خودکار زمانی رخ میدهد که مجرمان از عاملهای هوش مصنوعی برای انجام یا مقیاسبندی فعالیتهای متقلبانه بدون دخالت مستقیم انسان استفاده میکنند. به جای ارسال یک ایمیل فیشینگ، یک عامل هوش مصنوعی قادر است میلیونها ایمیل را ارسال و شخصیسازی کند که هر کدام متناسب با زبان، لحن و رفتار هدف تنظیم شده است. حتی اگر پیچیدهترین کنترلها بتوانند ۹۰٪ از حملات فیشینگ را متوقف کنند، ۱۰٪ باقیمانده دهها میلیارد دلار خسارت به بار میآورند.
سیستمهای مدرن هوش مصنوعی به طور متقلبانه هویتهای ترکیبی، صداهای جعل عمیق (deepfake) و اسناد جعلی آنقدر واقعی تولید میکنند که حتی متخصصان آموزشدیده نیز در تشخیص آنها با مشکل مواجه میشوند. برخی از رایجترین طرحها عبارتند از:
- فیشینگ تولیدشده توسط AI: کلاهبرداران از مدلهای زبان طبیعی برای ساخت ایمیلهای متقاعدکنندهای استفاده میکنند که فیلترهای هرزنامه را دور میزنند.
- کلاهبرداری مدیرعامل با جعل عمیق: هوش مصنوعی شبیهساز صدا، صدای مدیران را تقلید کرده و به کارمندان دستور انتقال پول یا افشای اطلاعات را میدهد.
- کلاهبرداری هویت ترکیبی: یادگیری ماشین دادههای شخصی سرقتشده را برای ایجاد هویتهای کاملاً جدید، همراه با پروفایلهای رسانههای اجتماعی و تاریخچه تراکنش، ترکیب میکند.
- کلاهبرداری اتوماسیون فاکتور: عاملهای هوش مصنوعی مخرب دستورالعملهای پرداخت را در فاکتورهای قانونی تغییر داده و وجوه را قبل از شناسایی منحرف میکنند.
اخیراً، یک شرکت چندملیتی بیش از ۲۵ میلیون دلار از دست داد، زمانی که کارمندان دستوراتی را که معتقد بودند در یک تماس ویدیویی با مدیر مالی دریافت کردهاند، دنبال کردند، در حالی که در واقع یک جعل عمیق ساختهشده توسط هوش مصنوعی بود. عامل کلاهبردار نه تنها چهره و صدای مدیر مالی را شبیهسازی کرده بود، بلکه به سؤالات کارکنان نیز به صورت هوشمند و در زمان واقعی پاسخ میداد. این یک کلاهبردار دیجیتال با یک فیلمنامه از پیش تعیین شده نبود؛ بلکه یک عامل کلاهبرداری مستقل بود که کلاهبرداری خودکار را به طور همزمان در چندین کانال ارتباطی اجرا میکرد.



