دیپ فیک ؛ سنگری که مجرمان سایبری پشت آن پناه خواهند گرفت

سایت بدون – هوش مصنوعی(AI) یکی از فناوری‌های نوظهور است که این روزها با سرعتی بالا در حوزه‌های مختلف از بازی و سرگرمی گرفته تا آموزش، سلامت، روبات‌ها، امور مالی و بانکداری، کشاورزی، حمل و نقل و ترافیک و… به کار گرفته می‌شود. هرچند هدف فعالان حوزه هوش مصنوعی، تنها رفاه مردم جهان و سرعت بخشیدن به روند اجرای پروژه‌های مختلف بوده است اما قابلیت‌های عظیم این فناوری توجه مجرمان سایبری را نیز جلب کرده و با روش‌های گوناگون به‌دنبال سوء‌استفاده از هوش مصنوعی هستند که این موضوع نگرانی‌هایی را رقم زده است. اما بیشترین خطرات این فناوری پرکاربرد در سال‌های آینده کدام هستند؟
بررسی خطرات هوش مصنوعی با ۴شاخص
پس از ارائه گزارش دانشمندان یک دانشگاه تحقیقاتی واقع در لندن با نام University College London)UCL) و هشدار آنها درباره خطرات بالقوه هوش مصنوعی در ‌آینده، یک نشست دو روزه با حضور ۳۱ متخصص حوزه هوش مصنوعی برگزار شد تا مخاطرات این فناوری در ۱۵سال آینده مورد بحث و بررسی قرار بگیرد. هرچند ابتدا قرار بود برخی از دانشجویان و علاقه‌مندان به این حوزه نیز در این نشست حضور داشته باشند ولی به‌دلیل شیوع کرونا این موضوع عملی نشد و این نشست با جمعیتی کمتر از حد انتظار برپا شد. در مقابل، تعداد بیشتری از علاقه‌مندان موفق شدند بحث و گفت‌و‌گوهای این نشست را در فضای مجازی و به‌صورت آنلاین مشاهده کنند.
در این نشست از اقشار دانشگاهی، بخش خصوصی، پلیس، دولت و آژانس‌های امنیتی دولتی حضور داشتند و شرکت‌کننده‌ها بر اساس چهار شاخص، نگرانی‌های خود از هوش مصنوعی در آینده را دسته‌بندی کردند. یکی از این شاخص‌ها میزان زیانی است که هوش مصنوعی می‌تواند ایجاد کند. پتانسیل هوش مصنوعی برای سوء‌استفاده مجرمان و اینکه هوش مصنوعی چقدر می‌تواند انجام یک جرم را آسان‌تر کند از دیگر شاخص‌هایی بودند که در این نشست مورد بررسی قرار گرفت. یکی دیگر از شاخص‌ها هم این بود که توقف جرم صورت گرفته با کمک هوش مصنوعی تا چه حد برای پلیس و… سخت خواهد بود. آنچه همه این متخصصان متفق القول بر آن تأکید داشتند این بود که اگر از هوش مصنوعی استفاده درستی نشود می‌تواند به روش‌های گوناگون به جامعه آسیب برساند. به گفته این گروه، تهدیدات هوش مصنوعی از بی‌اعتبار کردن چهره‌های خاص سیاسی و معروف گرفته تا تأثیرگذاری بر افکار عمومی و اخاذی وجوه با جعل بستگان شخص در یک تماس ویدئویی و… را شامل می‌شود بنابراین باید برای مقابله با این خطرات آماده شویم.
شرکت‌کنندگان در این نشست، بیشتر مشکلات را ناشی از توسعه و تکرار استفاده از هوش مصنوعی برای موارد خلاف می‌دانند. به‌عنوان مثال «متیو کالدول» یکی از شرکت‌کنندگان در این نشست گفت: در محیط آنلاین که دیتا یک ثروت به‌شمار می‌رود و اطلاعات، قدرت است مجرمان سایبری وسوسه می‌شوند تا از قابلیت‌های هوش مصنوعی که این روزها بسیار مورد توجه قرار گرفته سوء‌استفاده کنند. این متخصص حوزه سایبری ادامه داد: برخلاف بسیاری از جرایم سنتی، جرایم دیجیتال بارها به اشتراک گذاشته شده، تکرار می‌شوند و حتی در برخی موارد دستاوردهای ناشی از این اعمال مجرمانه به فروش می‌رسد. اگر این مجرمان که از هوش مصنوعی سوء‌استفاده می‌کنند حمله‌های خود را با هک‌های DoS پیوند بزنند بی‌شک می‌توانند مشکلات بیشتری ایجاد کنند.
پروفسور «شان جانسون» یکی دیگر از افراد حاضر در این نشست نیز گفت: ما در دنیایی زندگی می‌کنیم که هر تغییری فرصت‌هایی جدید می‌سازد که این فرصت‌ها می‌توانند خوب یا بد باشند. بنابراین با علم به خطرات و تهدیدهای سایبری باید سیاستمداران، آژانس‌های امنیت و… تلاش کنند تا مقابل این اتفاقات بایستند و همیشه یک گام از مجرمان جلوتر باشند. این نخستین نشست با موضوع تهدیدهای آینده تکنولوژی‌های نوظهور به شمار می‌رود و به نظر می‌رسد باید چنین نشست‌هایی در زمینه سایر فناوری‌ها نیز برپا شود تا بتوان با ابزاری قویتر به مقابله با مجرمان سایبری پرداخت.
خطرسازی هوش مصنوعی
نخستین موضوعی که در این نشست مورد بررسی قرار گرفت خطرات بالای هوش مصنوعی در آینده بود که در رأس آنها فناوری دیپ فیک (Deep Fake) قرار دارد. از نگاه فعالان حوزه هوش مصنوعی، دیپ فیک‌ها این توانایی را دارند که اخبار را نیز تحت تأثیر قرار دهند و به‌راحتی یک خبر جعلی را در کوتاه‌ترین زمان ممکن به دست مردم برسانند. با وایرال شدن یک ویدئوی دستکاری شده، به زحمت می‌توان برای کاربرانی که با سرعت درحال دست به دست کردن این ویدئوهای تقلبی هستند یادآور شد که موضوع چیز دیگری است و این ویدئو اصلی نیست. دیپ فیک همچنین می‌تواند دموکراسی را در برخی کشورها مورد حمله قرار دهد به‌عنوان مثال در امریکا سخنرانی دستکاری شده نانسی پلوسی رئیس مجلس نمایندگان امریکا با فناوری دیپ فیک در سال گذشته، بیش از ۲٫۵میلیون بازدید در فیس‌بوک داشت و این موضوع نگرانی‌های زیادی را ایجاد کرد.مقابله با دیپ فیک برای امریکا که اکنون در آستانه انتخابات ۲۰۲۰ قرار گرفته بشدت حیاتی است چراکه این فناوری می‌تواند به‌راحتی در نتیجه انتخابات تأثیرگذار باشد.
مؤسسه تحقیقاتی Future Advocacy در بریتانیا نیز در این نشست نمونه‌هایی از دیپ فیک‌ها در فضای سیاسی کشورهای مختلف را به‌عنوان نمونه ارائه کرد. هرچند برخی ویدئوهای دیپ فیک که به طور مشابه از هوش مصنوعی برای ایجاد فیلم‌های جعلی استفاده کرده بودند هیچ خطری متوجه جامعه نمی‌کردند اما نشان از پتانسیل دیپ فیک، برای تأثیرگذاری در دنیای سیاست و ایجاد تغییراتی ناخواسته دارند.با اینکه اکنون با کمک برخی الگوریتم‌ها می‌توان دیپ فیک‌های آنلاین را تشخیص داد ولی همچنان راه‌های بسیاری برای انتشار این ویدئوهای دستکاری شده وجود دارد که این موضوع می‌تواند سبب بی‌اعتمادی مردم به محتواهای صوتی و تصویری شود.
یکی دیگر از مواردی که در رده خطرهای بالای هوش مصنوعی قرار می‌گیرد، خودروهای خودران هستند. دراین نشست عنوان شد امکان دارد در آینده از این خودروهای بدون سرنشین به‌عنوان مکانیسمی برای حمل و انتقال مواد منفجره و اسلحه استفاده شود حتی برخی معتقدند شاید تروریست‌ها در حملات انتحاری از این خودروها کمک بگیرند. از دیگر موارد خطرناک استفاده از هوش مصنوعی می‌توان به فیشینگ‌های سازماندهی شده با استفاده از قابلیت فناوری هوش مصنوعی اشاره کرد که می‌تواند هم نشت اطلاعاتی بسیار گسترده‌ای به همراه داشته باشد و هم به سیستم‌های بانکی ضرباتی جبران‌ناپذیر وارد کند.
ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسرها و خسارات جدی ایجاد کند. یکی از مواردی که بسیاری از فعالان حوزه فناوری به آن اشاره دارند روبات‌های قاتل هستند. این افراد معتقدند در آینده امکان دارد افرادی که صلاحیت لازم را ندارند هوش مصنوعی به کار رفته در روبات‌ها را تحت کنترل خود درآورند تا این روبات‌ها عملاً همه خواسته‌هایشان را عملی کنند. لزوماً همه این خواسته‌ها اخلاقی نیستند و گاه می‌توانند دردسر زیادی برای یک جامعه ایجاد کنند. باج‌خواهی‌ها و اخاذی‌های گسترده نیز بخشی دیگر از نگرانی‌های عمده ناشی از سوء‌استفاده از هوش مصنوعی در آینده بود که در این نشست مطرح شد.
سلامت، در تیررس مجرمان سایبری
شرکت‌کنندگان در این نشست به نگرانی‌های خود در زمینه خطرات میانی خود در زمینه توسعه هوش مصنوعی نیز اشاره کردند. کلاهبرداری و فروش سرویس‌ها و محصولات با سوء‌استفاده از عنوان هوش مصنوعی و همچنین تبلیغات هدفدار، در این دسته از نگرانی‌های متخصصان حوزه هوش مصنوعی جای می‌گیرد. این نگرانی‌ها وقتی بیشتر می‌شود که پای سلامت مردم در میان باشد. سوء‌استفاده از هوش مصنوعی در زمینه سلامت و کلاهبرداری‌هایی که در تبلیغات و… با کمک هوش مصنوعی انجام می‌گیرد در این دسته جای می گیرند. یکی از نمونه‌های آن هم تبلیغات دارو از زبان پزشکان با سوء‌استفاده از فناوری هوش مصنوعی و در قالب دیپ فیک است که می‌تواند بسیار دردساز و نگران‌کننده باشد.
بخشی دیگری از این نگرانی‌ها سوء‌استفاده از روبات‌های نظامی و همچنین ساماندهی حملات پهپادی با سوء‌استفاده از هوش مصنوعی است. در این نشست فعالان حوزه هوش مصنوعی سوء‌استفاده از فناوری تشخیص چهره در حکومت‌های سرکوبگر، دستکاری در بازار سهام و سرمایه و ایجاد مشکلات مالی عمدی گسترده در بازار یک کشور را از دیگر موارد نگرانی خود در صورت سوء‌استفاده از هوش مصنوعی در آینده عنوان کردند.
محققان در این نشست به خطراتی با شدت کمتر سوء‌استفاده از هوش مصنوعی نیز اشاره داشتند. افراد شرکت‌کننده در این نشست یکی از نگرانی‌های این دسته از خطرات را روبات‌های سارق دانستند که زمینه‌ساز حمله به محتواهای هنری و موسیقی و سرقت آنها و ایجاد هنر جعلی(fake art) می‌شود. هرچند هنرمندان نسبت به این موضوع نگران هستند اما محققان امکان بروز این حملات با استفاده از هوش مصنوعی را کمتر می‌دانند و آن را در دسته کم خطرترین‌ها رده‌بندی کردند. سوء‌استفاده از دستیارهای هوش مصنوعی نیز یکی دیگر از مواردی است که محققان در این دسته از آن نام می‌برند.

مطلب پیشنهادی

ریشه و داستان ضرب المثل «قاپ قمارخونه‌است»

سایت بدون- قاپ یکی از ۲۶ استخوان پای گاو و گوسفند است که به شکل …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *