الماس کلاهبرداری هوش مصنوعی: راهنمای حسابرسی نوین

با ادغام روزافزون سیستمهای هوش مصنوعی (AI) در فرآیندهای سازمانی، اشکال جدیدی از کلاهبرداری ظهور کردهاند که اغلب ظریف، سیستماتیک و پنهان در پیچیدگیهای فنی هستند. این مقاله الماس کلاهبرداری هوش مصنوعی را معرفی میکند که بسطی از «مثلث کلاهبرداری» سنتی است و «ابهام فنی» را به عنوان شرط چهارم در کنار فشار، فرصت و توجیه اضافه میکند. برخلاف کلاهبرداری سنتی، فریب مبتنی بر هوش مصنوعی ممکن است شامل نیت انسانی واضحی نباشد، بلکه از ویژگیهای سطح سیستمی مانند رفتار غیرشفاف مدل، دادههای آموزشی ناقص یا شیوههای استقرار تنظیمنشده ناشی شود.
درک کلاهبرداری در هوش مصنوعی
کلاهبرداری در سیستمهای هوش مصنوعی همیشه پر سر و صدا یا آشکار نیست. میتواند آرام، سیستماتیک و عمیقاً جاسازی شده باشد که توسط الگوریتمهای مبهم، دادههای مورد سوءاستفاده و شیوههای سازمانی کنترلنشده شکل گرفته است. برخلاف اشکال سنتی کلاهبرداری، فریب مبتنی بر هوش مصنوعی اغلب در پیچیدگی پنهان میشود و در حالی که عواقب گستردهای به همراه دارد، از شناسایی فرار میکند. این بخش به بررسی روشهای متنوع ظهور کلاهبرداری در هوش مصنوعی میپردازد و از یک طبقهبندی ساختاریافته برای دستهبندی الگوهای نوظهور استفاده میکند.
دستکاری دادههای ورودی
مسمومیت دادهها (Data poisoning) یک دستکاری عمدی است که در آن مهاجمان دادههای گمراهکننده یا خراب را به مجموعههای آموزشی تزریق میکنند تا مدل را به سمت خروجیهای تحریفشده یا مضر سوق دهند. این تاکتیک اغلب شامل بهرهبرداری از آسیبپذیریها در ورودیهای مدل به روشهایی است که میتواند بر رفتار سیستم تأثیر بگذارد، به عنوان مثال با مستعدتر کردن آن به سوگیری، بیثباتی یا سوءاستفاده. برخلاف خرابیهای سیستمی قابل مشاهده، این نوع کلاهبرداری اغلب از شناسایی فرار میکند و به تدریج قابلیت اطمینان و یکپارچگی سیستم را تضعیف میکند.
بهرهبرداری و دور زدن مدل
فراتر از دستکاری در سطح داده، سیستمهای هوش مصنوعی در برابر کلاهبرداریهایی که خود مدل را هدف قرار میدهند نیز آسیبپذیر هستند و خطرات امنیتی و یکپارچگی قابل توجهی را به همراه دارند. یکی از این روشها سرقت مدل (model stealing) است، جایی که مهاجم سعی میکند یک مدل یادگیری ماشین اختصاصی را با ارسال پرسوجوهای دقیق و مشاهده خروجیها بازسازی کند. یکی دیگر از اشکال حمله به صورت مثالهای متخاصم (adversarial examples) است. اینها ورودیهایی هستند که به طور ماهرانه دستکاری شدهاند تا سیستمهای هوش مصنوعی را برای پیشبینیهای نادرست فریب دهند.
دستکاری تصمیمات الگوریتمی
بهعنوان دسته سوم، دستکاری الگوریتمی و کلاهبرداری در تصمیمگیری، شکل ظریفتر اما عمیقاً تأثیرگذارتری از فریب را ممکن میسازد. اگرچه این دسته ارتباط نزدیکی با کلاهبرداری مبتنی بر داده دارد (زیرا ورودی مغرضانه اغلب عامل اصلی مشکل است)، اما بر چگونگی بهرهبرداری یا مهندسی عمدی فرآیندهای تصمیمگیری برای گمراه کردن تمرکز دارد. برای مثال، سوگیری تعبیهشده در دادههای آموزشی میتواند در سراسر مدل منتشر شده و به نتایج تبعیضآمیز منجر شود، همانطور که در سیستم استخدام آمازون مشاهده شد.
اطلاعات نادرست و فریب مصنوعی
دسته چهارم کلاهبرداری مبتنی بر هوش مصنوعی شامل اطلاعات نادرست و رسانههای مصنوعی است، جایی که از هوش مصنوعی برای فریب، دستکاری یا گمراه کردن مخاطبان در مقیاس بزرگ استفاده میشود. یک مثال برجسته دیپفیک (deepfakes) است: محتوای صوتی و تصویری بسیار واقعی اما کاملاً ساختگی که میتواند افراد را در حال گفتن یا انجام کارهایی که هرگز انجام ندادهاند، نشان دهد. فراتر از دیپفیکها، موارد زیر نیز در این دسته قرار میگیرند:
- اخبار جعلی تولیدشده توسط هوش مصنوعی
- فعالیت رباتهای خودکار برای تحریف گفتمان آنلاین
- فیشینگ پیشرفته با استفاده از پردازش زبان طبیعی
هوش مصنوعی تنظیمنشده و کلاهبرداری اخلاقی
«هوش مصنوعی در سایه» (Shadow AI) و «اخلاقشویی» (Ethics washing) نشان میدهند که چگونه شیوههای فریبکارانه میتوانند نظارت را دور زده و یکپارچگی سازمانی را به خطر اندازند. هوش مصنوعی در سایه به استفاده غیرمجاز از ابزارهای هوش مصنوعی توسط کارمندان بدون تأیید بخش فناوری اطلاعات یا انطباق اشاره دارد. در همین حال، اخلاقشویی شامل ارائه تعهدات اخلاقی سطحی یا اغراق در قابلیتهای هوش مصنوعی مسئولانه/قابل توضیح برای منحرف کردن نظارت است.
چرا حسابرسی الماس کلاهبرداری هوش مصنوعی چالشبرانگیز است؟
یکی از چالشهای مشترک در میان پنج دسته کلاهبرداری ارائهشده، عدم شفافیت و دیدپذیری است. پیچیدگی و عدم شفافیت سیستمهای هوش مصنوعی اغلب پنهان میکند که آیا یک نتیجه ناقص ناشی از یک مشکل واقعی است یا یک اقدام عمدی برای دستکاری. این ابهام فضایی را برای سوءرفتار غیرقابل کشف ایجاد میکند و به تصمیمات مغرضانه یا متقلبانه اجازه میدهد بدون بررسی از فیلتر عبور کنند.
حسابرسی مبتنی بر اخلاق و ریسک
برای مقابله با ریسک کلاهبرداری، تلاشها برای قابل حسابرسی کردن سیستمهای هوش مصنوعی شتاب گرفته است. ابتکاراتی مانند کارتهای مدل، ردپاهای حسابرسی و ضبطکنندههای جعبه سیاه با هدف ایجاد ساختار، مستندسازی و قابلیت ردیابی در فرآیندهای مبهم انجام میشوند. این ابزارها اساس حسابرسی مبتنی بر اخلاق را تشکیل میدهند که اصول اصلی مانند انصاف، شفافیت و مسئولیتپذیری را ارزیابی میکند. با این حال، حسابرسی مبتنی بر اخلاق اگرچه نشان میدهد چه کاری باید انجام شود، اما همیشه نشان نمیدهد که مشکلات از کجا ناشی میشوند. برای اطلاعات بیشتر میتوانید به راهنمای اخلاقی اتحادیه اروپا برای هوش مصنوعی قابل اعتماد مراجعه کنید.
منبع: این مقاله بر اساس پژوهشی با عنوان «The AI-Fraud Diamond: A Novel Lens for Auditing Algorithmic Deception» نوشته بنجامین زورز، دیپتیش دی و دباراتی باومیک از دانشگاه علوم کاربردی آمستردام تهیه شده است (arXiv:2508.13984v1).



