مقالاتنرم‌افزار و تکنولوژی حسابرسیهوش مصنوعی در حسابرسی

الماس کلاهبرداری هوش مصنوعی: راهنمای حسابرسی نوین

با ادغام روزافزون سیستم‌های هوش مصنوعی (AI) در فرآیندهای سازمانی، اشکال جدیدی از کلاهبرداری ظهور کرده‌اند که اغلب ظریف، سیستماتیک و پنهان در پیچیدگی‌های فنی هستند. این مقاله الماس کلاهبرداری هوش مصنوعی را معرفی می‌کند که بسطی از «مثلث کلاهبرداری» سنتی است و «ابهام فنی» را به عنوان شرط چهارم در کنار فشار، فرصت و توجیه اضافه می‌کند. برخلاف کلاهبرداری سنتی، فریب مبتنی بر هوش مصنوعی ممکن است شامل نیت انسانی واضحی نباشد، بلکه از ویژگی‌های سطح سیستمی مانند رفتار غیرشفاف مدل، داده‌های آموزشی ناقص یا شیوه‌های استقرار تنظیم‌نشده ناشی شود.

درک کلاهبرداری در هوش مصنوعی

کلاهبرداری در سیستم‌های هوش مصنوعی همیشه پر سر و صدا یا آشکار نیست. می‌تواند آرام، سیستماتیک و عمیقاً جاسازی شده باشد که توسط الگوریتم‌های مبهم، داده‌های مورد سوءاستفاده و شیوه‌های سازمانی کنترل‌نشده شکل گرفته است. برخلاف اشکال سنتی کلاهبرداری، فریب مبتنی بر هوش مصنوعی اغلب در پیچیدگی پنهان می‌شود و در حالی که عواقب گسترده‌ای به همراه دارد، از شناسایی فرار می‌کند. این بخش به بررسی روش‌های متنوع ظهور کلاهبرداری در هوش مصنوعی می‌پردازد و از یک طبقه‌بندی ساختاریافته برای دسته‌بندی الگوهای نوظهور استفاده می‌کند.

دستکاری داده‌های ورودی

مسمومیت داده‌ها (Data poisoning) یک دستکاری عمدی است که در آن مهاجمان داده‌های گمراه‌کننده یا خراب را به مجموعه‌های آموزشی تزریق می‌کنند تا مدل را به سمت خروجی‌های تحریف‌شده یا مضر سوق دهند. این تاکتیک اغلب شامل بهره‌برداری از آسیب‌پذیری‌ها در ورودی‌های مدل به روش‌هایی است که می‌تواند بر رفتار سیستم تأثیر بگذارد، به عنوان مثال با مستعدتر کردن آن به سوگیری، بی‌ثباتی یا سوءاستفاده. برخلاف خرابی‌های سیستمی قابل مشاهده، این نوع کلاهبرداری اغلب از شناسایی فرار می‌کند و به تدریج قابلیت اطمینان و یکپارچگی سیستم را تضعیف می‌کند.

بهره‌برداری و دور زدن مدل

فراتر از دستکاری در سطح داده، سیستم‌های هوش مصنوعی در برابر کلاهبرداری‌هایی که خود مدل را هدف قرار می‌دهند نیز آسیب‌پذیر هستند و خطرات امنیتی و یکپارچگی قابل توجهی را به همراه دارند. یکی از این روش‌ها سرقت مدل (model stealing) است، جایی که مهاجم سعی می‌کند یک مدل یادگیری ماشین اختصاصی را با ارسال پرس‌وجوهای دقیق و مشاهده خروجی‌ها بازسازی کند. یکی دیگر از اشکال حمله به صورت مثال‌های متخاصم (adversarial examples) است. این‌ها ورودی‌هایی هستند که به طور ماهرانه دستکاری شده‌اند تا سیستم‌های هوش مصنوعی را برای پیش‌بینی‌های نادرست فریب دهند.

دستکاری تصمیمات الگوریتمی

به‌عنوان دسته سوم، دستکاری الگوریتمی و کلاهبرداری در تصمیم‌گیری، شکل ظریف‌تر اما عمیقاً تأثیرگذارتری از فریب را ممکن می‌سازد. اگرچه این دسته ارتباط نزدیکی با کلاهبرداری مبتنی بر داده دارد (زیرا ورودی مغرضانه اغلب عامل اصلی مشکل است)، اما بر چگونگی بهره‌برداری یا مهندسی عمدی فرآیندهای تصمیم‌گیری برای گمراه کردن تمرکز دارد. برای مثال، سوگیری تعبیه‌شده در داده‌های آموزشی می‌تواند در سراسر مدل منتشر شده و به نتایج تبعیض‌آمیز منجر شود، همانطور که در سیستم استخدام آمازون مشاهده شد.

اطلاعات نادرست و فریب مصنوعی

دسته چهارم کلاهبرداری مبتنی بر هوش مصنوعی شامل اطلاعات نادرست و رسانه‌های مصنوعی است، جایی که از هوش مصنوعی برای فریب، دستکاری یا گمراه کردن مخاطبان در مقیاس بزرگ استفاده می‌شود. یک مثال برجسته دیپ‌فیک (deepfakes) است: محتوای صوتی و تصویری بسیار واقعی اما کاملاً ساختگی که می‌تواند افراد را در حال گفتن یا انجام کارهایی که هرگز انجام نداده‌اند، نشان دهد. فراتر از دیپ‌فیک‌ها، موارد زیر نیز در این دسته قرار می‌گیرند:

  • اخبار جعلی تولیدشده توسط هوش مصنوعی
  • فعالیت ربات‌های خودکار برای تحریف گفتمان آنلاین
  • فیشینگ پیشرفته با استفاده از پردازش زبان طبیعی

هوش مصنوعی تنظیم‌نشده و کلاهبرداری اخلاقی

«هوش مصنوعی در سایه» (Shadow AI) و «اخلاق‌شویی» (Ethics washing) نشان می‌دهند که چگونه شیوه‌های فریبکارانه می‌توانند نظارت را دور زده و یکپارچگی سازمانی را به خطر اندازند. هوش مصنوعی در سایه به استفاده غیرمجاز از ابزارهای هوش مصنوعی توسط کارمندان بدون تأیید بخش فناوری اطلاعات یا انطباق اشاره دارد. در همین حال، اخلاق‌شویی شامل ارائه تعهدات اخلاقی سطحی یا اغراق در قابلیت‌های هوش مصنوعی مسئولانه/قابل توضیح برای منحرف کردن نظارت است.

چرا حسابرسی الماس کلاهبرداری هوش مصنوعی چالش‌برانگیز است؟

یکی از چالش‌های مشترک در میان پنج دسته کلاهبرداری ارائه‌شده، عدم شفافیت و دیدپذیری است. پیچیدگی و عدم شفافیت سیستم‌های هوش مصنوعی اغلب پنهان می‌کند که آیا یک نتیجه ناقص ناشی از یک مشکل واقعی است یا یک اقدام عمدی برای دستکاری. این ابهام فضایی را برای سوءرفتار غیرقابل کشف ایجاد می‌کند و به تصمیمات مغرضانه یا متقلبانه اجازه می‌دهد بدون بررسی از فیلتر عبور کنند.

حسابرسی مبتنی بر اخلاق و ریسک

برای مقابله با ریسک کلاهبرداری، تلاش‌ها برای قابل حسابرسی کردن سیستم‌های هوش مصنوعی شتاب گرفته است. ابتکاراتی مانند کارت‌های مدل، ردپاهای حسابرسی و ضبط‌کننده‌های جعبه سیاه با هدف ایجاد ساختار، مستندسازی و قابلیت ردیابی در فرآیندهای مبهم انجام می‌شوند. این ابزارها اساس حسابرسی مبتنی بر اخلاق را تشکیل می‌دهند که اصول اصلی مانند انصاف، شفافیت و مسئولیت‌پذیری را ارزیابی می‌کند. با این حال، حسابرسی مبتنی بر اخلاق اگرچه نشان می‌دهد چه کاری باید انجام شود، اما همیشه نشان نمی‌دهد که مشکلات از کجا ناشی می‌شوند. برای اطلاعات بیشتر می‌توانید به راهنمای اخلاقی اتحادیه اروپا برای هوش مصنوعی قابل اعتماد مراجعه کنید.

منبع: این مقاله بر اساس پژوهشی با عنوان «The AI-Fraud Diamond: A Novel Lens for Auditing Algorithmic Deception» نوشته بنجامین زورز، دیپتیش دی و دباراتی باومیک از دانشگاه علوم کاربردی آمستردام تهیه شده است (arXiv:2508.13984v1).

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا