هوش مصنوعی (AI) و آینده امنیت سایبری

هوش مصنوعی (AI) و آینده امنیت سایبری
فهرست مطالب
0
(0)

هوش مصنوعی (AI) و آینده امنیت سایبری

«امیرعباس رکنی»، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره کم و کیف تأثیر هوش مصنوعی بر امنیت سایبری گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط کنونی حاکم برجهان فناوری، تأثیرات قابل‌توجهی بر حوزه امنیت سایبری گذاشته است و انتظار می‌رود این فرایند در آینده جدی‌تر و مؤثرتر به پیش برود. به‌طورکلی، باید توجه داشت که فناوری هوش مصنوعی همانند یک سکه دو رو دارد و پیشرفت‌ها و توسعه‌های آن می‌تواند منجر به شکل‌گیری مجموعه‌ای از فرصت‌ها و تهدید‌هایی برای حوزه امنیت سایبری بشود.

وی افزود: تا همین جای کار هم باید اذعان داشت که هوش مصنوعی بسیاری از مفاهیم و فرایند‌ها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یک پدیده تحول‌آفرین بوده است. ما در جهان فناوری کمتر پدیده‌ای را می‌توانیم همچون هوش مصنوعی پیدا کنیم که در مدت‌زمان کوتاهی بتواند یک پارادایم مختص به خود خلق کرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد کند. هوش مصنوعی دقیقاً همین اقدام را در سال‌های اخیر انجام داده است. هنگامی که ما در خصوص امنیت سایبری می‌خواهیم صحبت کنیم، باید توجه داشته باشیم که برخی مؤلفه‌ها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب می‌کند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یک ملازمه‌ای در اینجا وجود دارد. در حالی که می‌بینیم هوش مصنوعی با خودکار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل می‌رساند. بر همین اساس است که می‌گویم هوش مصنوعی منجر به ایجاد یک تغییر پارادایم در جهان فناوری شده است.

وی در ادامه به مرور مهم‌ترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهم‌ترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد می‌توانیم اشاره کنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیب‌پذیری به صورت بهبودیافته و سوم عملیات امنیتی خودکار.

این کارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد که به‌طور قابل‌توجهی توانایی‌های تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتم‌های یادگیری ماشینی می‌توانند حجم وسیعی از داده‌ها، از جمله ترافیک شبکه، رفتار کاربر و گزارش‌های سیستم را تجزیه و تحلیل کنند تا الگو‌ها و ناهنجاری‌هایی را که ممکن است نشان‌دهنده حملات سایبری باشد، شناسایی کنند. سیستم‌های مجهز به هوش مصنوعی می‌توانند از داده‌های تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امکان تشخیص سریع‌تر و دقیق‌تر حوادث امنیتی را فراهم کنند. علاوه بر این، هوش مصنوعی می‌تواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و کاهش تهدیدها، پاسخ به حادثه را خودکار کند.

وی درباره موضوع ارزیابی آسیب‌پذیری به صورت بهبودیافته به کمک هوش مصنوعی گفت: هوش مصنوعی می‌تواند برای شناسایی مؤثرتر آسیب‌پذیری‌ها در سیستم‌ها و شبکه‌های نرم‌افزاری استفاده شود. الگوریتم‌های هوش مصنوعی می‌توانند کد، پیکربندی‌های سیستم و شبکه را برای شناسایی نقاط ضعف احتمالی و شکاف‌های امنیتی تجزیه و تحلیل کنند. این می‌تواند به سازمان‌ها کمک کند تا وضعیت امنیتی خود را تقویت کنند.

کرمی ادامه داد: هوش مصنوعی می‌تواند عملیات امنیتی مختلف را خودکار کند، بار کاری تحلیلگران انسانی را کاهش داده و زمان پاسخگویی سریع‌تر را ممکن بسازد. برای مثال، هوش مصنوعی می‌تواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسکن آسیب‌پذیری را خودکار کند. این نه تنها کارایی عملیاتی را بهبود می‌بخشد، بلکه به تحلیلگران انسانی اجازه می‌دهد تا بر چالش‌های امنیتی پیچیده‌تر و استراتژیک‌تر تمرکز کنند.

پژوهشگر فضای مجازی در خصوص خطراتی که هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت که هوش مصنوعی می‌تواند به شکل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر به‌کارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزاینده‌ای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تکنیک‌های هوش مصنوعی متخاصم را می‌توان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشکلی یا راه‌اندازی حملات هدفمند مهندسی اجتماعی، به کار برد. برای مقابله با این تهدیدات، دفاع‌های مبتنی بر هوش مصنوعی، از جمله سیستم‌های تشخیص نفوذ فعال، فناوری‌های فریب و مکانیسم‌های احراز هویت مبتنی بر هوش مصنوعی درحال‌توسعه هستند»

وی ضمن اشاره به پیامد‌های اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامد‌های اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتکا به هوش مصنوعی در امنیت سایبری نگرانی‌های اخلاقی و چالش‌های حریم خصوصی را افزایش می‌دهد. سیستم‌های مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از داده‌ها دارند. اطمینان از حفظ حریم خصوصی و امنیت این داده‌ها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیم‌گیری‌های مرتبط با امنیت، مانند اقدامات پاسخ خودکار به حادثه یا اشتراک‌گذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.

وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتم‌های هوش مصنوعی، به‌ویژه مدل‌های یادگیری عمیق، به‌عنوان جعبه‌های سیاه عمل می‌کنند و درک و توضیح فرآیند تصمیم‌گیری آن‌ها را به چالش می‌کشند. این عدم تفسیرپذیری می‌تواند مانع اعتماد و پذیرش سیستم‌های هوش مصنوعی در سناریو‌های تصمیم‌گیری امنیتی و حیاتی شود.

پژوهشگر پژوهشگاه فضای مجازی افزود: به طور کلی، باید بگویم که اتکای بیش‌ازحد به هوش مصنوعی می‌تواند پاشنه آشیل امنیت سایبری باشد. در حالی که هوش مصنوعی می‌تواند امنیت سایبری را تا حد زیادی افزایش دهد، اتکای بیش‌ازحد به آن بدون نظارت انسانی می‌تواند مخاطره‌آمیز باشد. تخصص انسانی هنوز در درک زمینه تهدیدها، انطباق با تکنیک‌های حمله در حال تکامل و تصمیم‌گیری‌های حیاتی، ضروری است. به همین دلیل است که صاحب‌نظران این حوزه تأکید می‌کنند که برای استفاده از فرصت‌های ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعین‌حال کاهش خطرات، اتخاذ یک رویکرد کل‌نگرانه بسیار مهم است. این شامل ارزیابی منظم سیستم‌های هوش مصنوعی برای شناسایی و کاهش سوگیری‌ها و آسیب‌پذیری‌ها، اطمینان از شفافیت و تفسیرپذیری مدل‌های هوش مصنوعی، حفاظت از حریم خصوصی داده‌ها و حفظ تعادل بین هوش انسانی و قابلیت‌های هوش مصنوعی است.

تنظیم‌گری هوش مصنوعی و امنیت سایبری

رکنی با اشاره به ابزار‌های متعدد سیاست‌گذاران و قانون‌گذاران برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاست‌گذاران و قانون‌گذاران ابزار‌های متعددی برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزار‌ها می‌توانند به ایجاد دستورالعمل‌ها، استاندارد‌ها و چارچوب‌های قانونی کمک کنند که استقرار مسئولانه و ایمن هوش مصنوعی را ترویج می‌کنند. با نگاهی به تجربیات بسیاری از کشور‌های پیشگام در حوزه هوش مصنوعی، می‌توانیم چندین ابزار کلیدی را به منظور تنظیم‌گری هوش مصنوعی شناسایی کنیم.

وی در ادامه مهم‌ترین ابزار‌های یاد شده را چنین برشمرد:

« قانون و مقررات: قانون‌گذاران می‌توانند قوانین و مقرراتی را ایجاد کنند که به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری می‌پردازد. این مقررات می‌تواند جنبه‌های مختلفی از جمله حفظ حریم خصوصی داده‌ها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین می‌کند که سیستم‌های هوش مصنوعی به‌گونه‌ای توسعه یافته و مورد استفاده قرار می‌گیرند که از منافع افراد و سازمان‌ها محافظت می‌کند.

به‌روزرسانی و تکمیل قوانین ناظر بر حفاظت از داده‌ها و حریم خصوصی: قانون‌گذاران می‌توانند قوانین حفاظت از داده‌ها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستم‌های هوش مصنوعی به‌روزرسانی و تقویت کنند. این قوانین می‌توانند دستورالعمل‌هایی را برای جمع‌آوری، ذخیره‌سازی، پردازش و اشتراک‌گذاری داده‌ها ایجاد کنند و اطمینان حاصل کنند که سیستم‌های هوش مصنوعی بر اساس حریم خصوصی و رضایت داده‌ها ساخته شده‌اند.

برنامه‌های صدور گواهینامه: تنظیم‌کننده‌ها می‌توانند برنامه‌های صدور گواهینامه یا چارچوب‌های انطباق را برای سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامه‌ها می‌توانند استاندارد‌ها و الزامات امنیتی،

حریم خصوصی و ملاحظات اخلاقی را تعیین کنند. با تأیید سیستم‌های هوش مصنوعی که این استاندارد‌ها را برآورده می‌کنند، تنظیم‌کننده‌ها می‌توانند اطمینان حاصل کنند که سازمان‌ها شیوه‌های هوش مصنوعی مسئولانه را اتخاذ می‌کنند.

 

دستورالعمل‌های اخلاقی و کد‌های رفتاری: تنظیم‌گران می‌توانند با کارشناسان صنعت هوش مصنوعی همکاری کنند تا دستورالعمل‌های اخلاقی و کد‌های رفتاری را برای توسعه‌دهندگان و کاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد کنند. این دستورالعمل‌ها می‌توانند شیوه‌های هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص کنند. پیروی از چنین دستورالعمل‌هایی می‌تواند به کاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی کمک کند.

مکانیزم‌های حسابرسی و پاسخگویی: قانون‌گذاران می‌توانند مکانیزم‌های حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استاندارد‌های مرتبط با هوش مصنوعی ایجاد کنند. این مکانیسم‌ها می‌توانند شامل ارزیابی‌های منظم، ممیزی‌های شخص ثالث و الزامات گزارش‌دهی برای ارزیابی عملکرد‌های امنیتی و اخلاقی سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»

وی در پایان تأکید کرد که تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نکته‌ای بسیار حائز اهمیت برای قانون‌گذاران است و گفت: با به کارگیری این ابزارها، آن‌ها می‌توانند محیطی ایجاد کنند که توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت کند و اعتماد به فناوری‌های هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت کند.

کنفرانس امنیت سایبری

به گزارش مهر، سال گذشته در حاشیه کنفرانس سالانه امنیت سایبری سانفرانسیسکو (RSA)، شرکت فناوری اطلاعات (Zscaler) از هوش مصنوعی به‌عنوان عاملی در افزایش ۴۷ درصدی حملات فیشینگ در سال ۲۰۲۲ یادکرد. کارشناسان، مدیران و مقامات دولتی نگران‌اند که این تازه آغاز راه است، زیرا مهاجمان می‌توانند از هوش مصنوعی برای نوشتن نرم‌افزار‌هایی استفاده کنند که به روش‌های جدید وارد شبکه سازمان شده و از طریق فرایند‌هایی که طبیعی به نظر می‌رسند، داده‌ها را به‌صورت غیرقانونی به بیرون منتقل کنند.

کارشناسان در این کنفرانس همچنین تأکید داشتند که هوش مصنوعی به بالابردن امنیت سیستم‌های سازمان‌ها نیز کمک می‌کند. این فناوری با بررسی ناهنجاری‌ها و جستجوی آسیب‌پذیری‌های ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطه‌ضعف‌ها می‌شود.

چه اقشاری باید به فکر اقدامات جدی باشند؟

شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان کسب‌وکار، دولت‌ها و سازمان‌های مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدل‌های زبانی مولد مانند «ChatGPT» بین مردم و چشم‌انداز‌هایی مانند هوشمند کردن شهرها، مدیران باید پیامد‌های اخلاقی، سایبری و اجتماعی راه‌حل‌های مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالی‌که هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است که پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع کل جامعه از آن استفاده کنیم.

تیم تخصصی شرکت کوشا فناوران مبتکر، آمادگی خود را برای ارائه هرگونه مشاوره و همکاری در پروژه های شبکه و امنیت فضای سایبری اعلام می دارد.

کوشا فناوران مبتکر را در مطالب آموزشی و مجله مبتکر  با جدیدترین اخبار فناوری اطلاعات و مقالات علمی دنبال کنید.

 

این موضوع چقدر برای شما مفید بود؟

روی یک ستاره کلیک کنید تا به آن امتیاز دهید!

میانگین امتیاز 0 / 5. امتیاز: 0

تا الان امتیازی ثبت نشده! اولین نفری باشید که به این پست امتیاز می دهید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *