تکنولوژی های جدید حسابرسینرم‌افزار و تکنولوژی حسابرسیهوش مصنوعی در حسابرسی

کلاهبرداری خودکار: تهدید جدید عامل‌های هوش مصنوعی برای کسب‌وکارها

کلاهبرداری خودکار: چگونه عامل‌های هوش مصنوعی امنیت سایبری را دگرگون می‌کنند

کلاهبرداری خودکار با استفاده از عامل‌های هوش مصنوعی (AI) به یک تهدید بزرگ تبدیل شده است. مدت کوتاهی پس از عرضه گسترده عامل‌های هوش مصنوعی، دو کلاهبرداری بزرگ در فاصله چند هفته از یکدیگر فاش شد. در یکی از موارد، فردی بدون هیچ تخصص فنی و به تنهایی، از چت‌بات Claude برای «کدنویسی حسی» بدافزار، شناسایی اهداف و اجرای حمله‌ای استفاده کرد که ۱۷ سازمان مختلف را تحت تأثیر قرار داد. در مورد دیگر، مشخص شد که بیش از ۳۲۰ شرکت، ناآگاهانه نیروهای کره شمالی را به عنوان کارمند از راه دور استخدام کرده بودند، پس از آنکه فریب شخصیت‌های جعلی ساخته‌شده توسط هوش مصنوعی را خورده بودند.

ما وارد عصری شده‌ایم که کلاهبرداری‌های پیچیده دیگر نیازی به مهارت فنی ندارند و ماشین‌ها پس از راه‌اندازی، دیگر منتظر دستورالعمل نمی‌مانند. عامل‌های هوش مصنوعی به طور فزاینده‌ای سریع‌تر، کارآمدتر و گاهی مؤثرتر از انسان‌ها تصمیم‌گیری می‌کنند. امروزه، این عامل‌ها ایمیل می‌نویسند، قراردادها را مذاکره می‌کنند، به مشتریان پاسخ می‌دهند و حتی بخش‌هایی از سیستم‌های مالی را با حداقل نظارت اداره می‌کنند. اما همانطور که در هر جهش فناوری اتفاق می‌افتد، نوآوری که سازمان‌ها را قدرتمند می‌کند، می‌تواند به عنوان سلاح نیز مورد استفاده قرار گیرد. برای آشنایی با بهترین شیوه‌های امنیت سایبری، می‌توانید مقالات دیگر ما را مطالعه کنید.

ظهور عامل‌های هوش مصنوعی، شکل جدیدی از ریسک امنیت سایبری را به همراه آورده است. کلاهبرداری خودکار و حملات خودکار سریع‌تر اتفاق می‌افتند، فوراً خود را تطبیق می‌ده دهند و مقیاسی فراتر از ظرفیت انسانی دارند. با این فناوری جدید، کلاهبرداران فقط سیستم‌ها را هک نمی‌کنند، بلکه عامل‌های هوش مصنوعی را آموزش می‌دهند تا حملات خودکار را بی‌وقفه انجام دهند تا در نهایت شکافی در زره دفاعی برای بهره‌برداری پیدا کنند. خبر خوب این است که هنوز هم می‌توان دفاع‌های قدرتمندی ساخت. در این مقاله، ما اصول عامل‌های هوش مصنوعی، نحوه استفاده کلاهبرداران از آنها و فرصت‌های بهره‌برداری از آنها برای پیشگیری و کشف کلاهبرداری را توضیح خواهیم داد.

درک عامل‌های هوش مصنوعی و قابلیت‌های آن‌ها

عامل‌های هوش مصنوعی سیستم‌های دیجیتال مستقلی هستند که قادر به مشاهده، استدلال و عمل می‌باشند. برخلاف اسکریپت‌های اتوماسیون سنتی که از قوانین از پیش تعریف‌شده پیروی می‌کنند، عامل‌های هوش مصنوعی می‌توانند محیط‌ها را درک کنند، تصمیم بگیرند و از نتایج بیاموزند.

سه دسته کلی برای این عامل‌ها وجود دارد:

  • عامل‌های مبتنی بر وظیفه: یک هدف مشخص را تکمیل می‌کنند، مانند تأیید فاکتورها یا پاسخ به تیکت‌ها.
  • عامل‌های مولد: خروجی‌های جدیدی مانند کد، تصویر یا محتوای نوشتاری ایجاد می‌کنند.
  • سیستم‌های چندعاملی: چندین هوش مصنوعی با هم همکاری کرده و گاهی مذاکره یا رقابت می‌کنند.

استقلال، عامل‌های هوش مصنوعی را برای کسب‌وکارهایی که همیشه به دنبال راه‌هایی برای افزایش کارایی هستند، بسیار ارزشمند می‌کند. اما این عامل‌ها در صورت استفاده مخرب، بسیار خطرناک نیز هستند. یک عامل هوش مصنوعی مخرب می‌تواند حملات خودکار را به طور همزمان در چندین سیستم اجرا کند یا کلاهبرداری خودکار را در هزاران تراکنش بدون کمک انسان انجام دهد.

جنبه روشن: عامل‌های هوش مصنوعی به عنوان محافظ

قبل از اینکه به مشکلات بپردازیم، مهم است که بدانیم چرا عامل‌های هوش مصنوعی ضروری شده‌اند. سازمان‌ها در هر اندازه و صنعتی، چه دولتی و چه خصوصی، در حال استقرار این عامل‌ها هستند. برخی از موارد استفاده عبارتند از:

  • شناسایی ناهنجاری‌ها در داده‌های مالی قبل از وقوع کلاهبرداری
  • ارتباط دادن هشدارهای امنیتی در سیستم‌ها سریع‌تر از انسان
  • پیش‌بینی تهدیدات سایبری با تحلیل الگوها در میلیون‌ها نقطه داده
  • خودکارسازی تحقیقات و کاهش خستگی تحلیلگران

به عنوان مثال، عامل‌های کشف کلاهبرداری مبتنی بر هوش مصنوعی می‌توانند رویه‌های کنترل و نظارت بر امنیت فناوری اطلاعات را انجام دهند. این نظارت می‌تواند شامل ردیابی مداوم رفتار کاربر، علامت‌گذاری ناهنجاری‌هایی مانند انحراف در زمان ورود به سیستم، دانلود حجم زیادی از داده‌ها یا تلاش برای ورود به شبکه از مکان‌های ناآشنا باشد. در حوزه حسابرسی داخلی و امنیت سایبری، عامل‌های AI می‌توانند به طور مداوم برای پیشگیری و شناسایی عوامل تهدید و همچنین ایزوله کردن دستگاه‌های آلوده قبل از انتشار بدافزار، فعالیت کنند. این فناوری‌ها سالانه میلیاردها دلار صرفه‌جویی به همراه دارند، اما متأسفانه همین سرعت، استقلال و سازگاری، کلاهبرداری خودکار را در دستان افراد نادرست بسیار مؤثر می‌سازد.

جنبه تاریک: ظهور کلاهبرداری خودکار

کلاهبرداری خودکار زمانی رخ می‌دهد که مجرمان از عامل‌های هوش مصنوعی برای انجام یا مقیاس‌بندی فعالیت‌های متقلبانه بدون دخالت مستقیم انسان استفاده می‌کنند. به جای ارسال یک ایمیل فیشینگ، یک عامل هوش مصنوعی قادر است میلیون‌ها ایمیل را ارسال و شخصی‌سازی کند که هر کدام متناسب با زبان، لحن و رفتار هدف تنظیم شده است. حتی اگر پیچیده‌ترین کنترل‌ها بتوانند ۹۰٪ از حملات فیشینگ را متوقف کنند، ۱۰٪ باقیمانده ده‌ها میلیارد دلار خسارت به بار می‌آورند.

سیستم‌های مدرن هوش مصنوعی به طور متقلبانه هویت‌های ترکیبی، صداهای جعل عمیق (deepfake) و اسناد جعلی آنقدر واقعی تولید می‌کنند که حتی متخصصان آموزش‌دیده نیز در تشخیص آنها با مشکل مواجه می‌شوند. برخی از رایج‌ترین طرح‌ها عبارتند از:

  • فیشینگ تولیدشده توسط AI: کلاهبرداران از مدل‌های زبان طبیعی برای ساخت ایمیل‌های متقاعدکننده‌ای استفاده می‌کنند که فیلترهای هرزنامه را دور می‌زنند.
  • کلاهبرداری مدیرعامل با جعل عمیق: هوش مصنوعی شبیه‌ساز صدا، صدای مدیران را تقلید کرده و به کارمندان دستور انتقال پول یا افشای اطلاعات را می‌دهد.
  • کلاهبرداری هویت ترکیبی: یادگیری ماشین داده‌های شخصی سرقت‌شده را برای ایجاد هویت‌های کاملاً جدید، همراه با پروفایل‌های رسانه‌های اجتماعی و تاریخچه تراکنش، ترکیب می‌کند.
  • کلاهبرداری اتوماسیون فاکتور: عامل‌های هوش مصنوعی مخرب دستورالعمل‌های پرداخت را در فاکتورهای قانونی تغییر داده و وجوه را قبل از شناسایی منحرف می‌کنند.

اخیراً، یک شرکت چندملیتی بیش از ۲۵ میلیون دلار از دست داد، زمانی که کارمندان دستوراتی را که معتقد بودند در یک تماس ویدیویی با مدیر مالی دریافت کرده‌اند، دنبال کردند، در حالی که در واقع یک جعل عمیق ساخته‌شده توسط هوش مصنوعی بود. عامل کلاهبردار نه تنها چهره و صدای مدیر مالی را شبیه‌سازی کرده بود، بلکه به سؤالات کارکنان نیز به صورت هوشمند و در زمان واقعی پاسخ می‌داد. این یک کلاهبردار دیجیتال با یک فیلمنامه از پیش تعیین شده نبود؛ بلکه یک عامل کلاهبرداری مستقل بود که کلاهبرداری خودکار را به طور همزمان در چندین کانال ارتباطی اجرا می‌کرد.

منبع: TeamMate | Wolters Kluwer

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا