هوش مصنوعی (AI) و آینده امنیت سایبری
«امیرعباس رکنی»، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره کم و کیف تأثیر هوش مصنوعی بر امنیت سایبری گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط کنونی حاکم برجهان فناوری، تأثیرات قابلتوجهی بر حوزه امنیت سایبری گذاشته است و انتظار میرود این فرایند در آینده جدیتر و مؤثرتر به پیش برود. بهطورکلی، باید توجه داشت که فناوری هوش مصنوعی همانند یک سکه دو رو دارد و پیشرفتها و توسعههای آن میتواند منجر به شکلگیری مجموعهای از فرصتها و تهدیدهایی برای حوزه امنیت سایبری بشود.
وی افزود: تا همین جای کار هم باید اذعان داشت که هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یک پدیده تحولآفرین بوده است. ما در جهان فناوری کمتر پدیدهای را میتوانیم همچون هوش مصنوعی پیدا کنیم که در مدتزمان کوتاهی بتواند یک پارادایم مختص به خود خلق کرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد کند. هوش مصنوعی دقیقاً همین اقدام را در سالهای اخیر انجام داده است. هنگامی که ما در خصوص امنیت سایبری میخواهیم صحبت کنیم، باید توجه داشته باشیم که برخی مؤلفهها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب میکند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یک ملازمهای در اینجا وجود دارد. در حالی که میبینیم هوش مصنوعی با خودکار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل میرساند. بر همین اساس است که میگویم هوش مصنوعی منجر به ایجاد یک تغییر پارادایم در جهان فناوری شده است.
وی در ادامه به مرور مهمترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهمترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد میتوانیم اشاره کنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیبپذیری به صورت بهبودیافته و سوم عملیات امنیتی خودکار.
این کارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد که بهطور قابلتوجهی تواناییهای تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتمهای یادگیری ماشینی میتوانند حجم وسیعی از دادهها، از جمله ترافیک شبکه، رفتار کاربر و گزارشهای سیستم را تجزیه و تحلیل کنند تا الگوها و ناهنجاریهایی را که ممکن است نشاندهنده حملات سایبری باشد، شناسایی کنند. سیستمهای مجهز به هوش مصنوعی میتوانند از دادههای تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امکان تشخیص سریعتر و دقیقتر حوادث امنیتی را فراهم کنند. علاوه بر این، هوش مصنوعی میتواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و کاهش تهدیدها، پاسخ به حادثه را خودکار کند.
وی درباره موضوع ارزیابی آسیبپذیری به صورت بهبودیافته به کمک هوش مصنوعی گفت: هوش مصنوعی میتواند برای شناسایی مؤثرتر آسیبپذیریها در سیستمها و شبکههای نرمافزاری استفاده شود. الگوریتمهای هوش مصنوعی میتوانند کد، پیکربندیهای سیستم و شبکه را برای شناسایی نقاط ضعف احتمالی و شکافهای امنیتی تجزیه و تحلیل کنند. این میتواند به سازمانها کمک کند تا وضعیت امنیتی خود را تقویت کنند.
کرمی ادامه داد: هوش مصنوعی میتواند عملیات امنیتی مختلف را خودکار کند، بار کاری تحلیلگران انسانی را کاهش داده و زمان پاسخگویی سریعتر را ممکن بسازد. برای مثال، هوش مصنوعی میتواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسکن آسیبپذیری را خودکار کند. این نه تنها کارایی عملیاتی را بهبود میبخشد، بلکه به تحلیلگران انسانی اجازه میدهد تا بر چالشهای امنیتی پیچیدهتر و استراتژیکتر تمرکز کنند.
پژوهشگر فضای مجازی در خصوص خطراتی که هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت که هوش مصنوعی میتواند به شکل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر بهکارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزایندهای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تکنیکهای هوش مصنوعی متخاصم را میتوان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشکلی یا راهاندازی حملات هدفمند مهندسی اجتماعی، به کار برد. برای مقابله با این تهدیدات، دفاعهای مبتنی بر هوش مصنوعی، از جمله سیستمهای تشخیص نفوذ فعال، فناوریهای فریب و مکانیسمهای احراز هویت مبتنی بر هوش مصنوعی درحالتوسعه هستند»
وی ضمن اشاره به پیامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتکا به هوش مصنوعی در امنیت سایبری نگرانیهای اخلاقی و چالشهای حریم خصوصی را افزایش میدهد. سیستمهای مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از دادهها دارند. اطمینان از حفظ حریم خصوصی و امنیت این دادهها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیمگیریهای مرتبط با امنیت، مانند اقدامات پاسخ خودکار به حادثه یا اشتراکگذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.
وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتمهای هوش مصنوعی، بهویژه مدلهای یادگیری عمیق، بهعنوان جعبههای سیاه عمل میکنند و درک و توضیح فرآیند تصمیمگیری آنها را به چالش میکشند. این عدم تفسیرپذیری میتواند مانع اعتماد و پذیرش سیستمهای هوش مصنوعی در سناریوهای تصمیمگیری امنیتی و حیاتی شود.
پژوهشگر پژوهشگاه فضای مجازی افزود: به طور کلی، باید بگویم که اتکای بیشازحد به هوش مصنوعی میتواند پاشنه آشیل امنیت سایبری باشد. در حالی که هوش مصنوعی میتواند امنیت سایبری را تا حد زیادی افزایش دهد، اتکای بیشازحد به آن بدون نظارت انسانی میتواند مخاطرهآمیز باشد. تخصص انسانی هنوز در درک زمینه تهدیدها، انطباق با تکنیکهای حمله در حال تکامل و تصمیمگیریهای حیاتی، ضروری است. به همین دلیل است که صاحبنظران این حوزه تأکید میکنند که برای استفاده از فرصتهای ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعینحال کاهش خطرات، اتخاذ یک رویکرد کلنگرانه بسیار مهم است. این شامل ارزیابی منظم سیستمهای هوش مصنوعی برای شناسایی و کاهش سوگیریها و آسیبپذیریها، اطمینان از شفافیت و تفسیرپذیری مدلهای هوش مصنوعی، حفاظت از حریم خصوصی دادهها و حفظ تعادل بین هوش انسانی و قابلیتهای هوش مصنوعی است.
تنظیمگری هوش مصنوعی و امنیت سایبری
رکنی با اشاره به ابزارهای متعدد سیاستگذاران و قانونگذاران برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاستگذاران و قانونگذاران ابزارهای متعددی برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها میتوانند به ایجاد دستورالعملها، استانداردها و چارچوبهای قانونی کمک کنند که استقرار مسئولانه و ایمن هوش مصنوعی را ترویج میکنند. با نگاهی به تجربیات بسیاری از کشورهای پیشگام در حوزه هوش مصنوعی، میتوانیم چندین ابزار کلیدی را به منظور تنظیمگری هوش مصنوعی شناسایی کنیم.
وی در ادامه مهمترین ابزارهای یاد شده را چنین برشمرد:
« قانون و مقررات: قانونگذاران میتوانند قوانین و مقرراتی را ایجاد کنند که به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری میپردازد. این مقررات میتواند جنبههای مختلفی از جمله حفظ حریم خصوصی دادهها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین میکند که سیستمهای هوش مصنوعی بهگونهای توسعه یافته و مورد استفاده قرار میگیرند که از منافع افراد و سازمانها محافظت میکند.
بهروزرسانی و تکمیل قوانین ناظر بر حفاظت از دادهها و حریم خصوصی: قانونگذاران میتوانند قوانین حفاظت از دادهها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستمهای هوش مصنوعی بهروزرسانی و تقویت کنند. این قوانین میتوانند دستورالعملهایی را برای جمعآوری، ذخیرهسازی، پردازش و اشتراکگذاری دادهها ایجاد کنند و اطمینان حاصل کنند که سیستمهای هوش مصنوعی بر اساس حریم خصوصی و رضایت دادهها ساخته شدهاند.
برنامههای صدور گواهینامه: تنظیمکنندهها میتوانند برنامههای صدور گواهینامه یا چارچوبهای انطباق را برای سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامهها میتوانند استانداردها و الزامات امنیتی،
حریم خصوصی و ملاحظات اخلاقی را تعیین کنند. با تأیید سیستمهای هوش مصنوعی که این استانداردها را برآورده میکنند، تنظیمکنندهها میتوانند اطمینان حاصل کنند که سازمانها شیوههای هوش مصنوعی مسئولانه را اتخاذ میکنند.
دستورالعملهای اخلاقی و کدهای رفتاری: تنظیمگران میتوانند با کارشناسان صنعت هوش مصنوعی همکاری کنند تا دستورالعملهای اخلاقی و کدهای رفتاری را برای توسعهدهندگان و کاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد کنند. این دستورالعملها میتوانند شیوههای هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص کنند. پیروی از چنین دستورالعملهایی میتواند به کاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی کمک کند.
مکانیزمهای حسابرسی و پاسخگویی: قانونگذاران میتوانند مکانیزمهای حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد کنند. این مکانیسمها میتوانند شامل ارزیابیهای منظم، ممیزیهای شخص ثالث و الزامات گزارشدهی برای ارزیابی عملکردهای امنیتی و اخلاقی سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»
وی در پایان تأکید کرد که تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نکتهای بسیار حائز اهمیت برای قانونگذاران است و گفت: با به کارگیری این ابزارها، آنها میتوانند محیطی ایجاد کنند که توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت کند و اعتماد به فناوریهای هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت کند.
کنفرانس امنیت سایبری
به گزارش مهر، سال گذشته در حاشیه کنفرانس سالانه امنیت سایبری سانفرانسیسکو (RSA)، شرکت فناوری اطلاعات (Zscaler) از هوش مصنوعی بهعنوان عاملی در افزایش ۴۷ درصدی حملات فیشینگ در سال ۲۰۲۲ یادکرد. کارشناسان، مدیران و مقامات دولتی نگراناند که این تازه آغاز راه است، زیرا مهاجمان میتوانند از هوش مصنوعی برای نوشتن نرمافزارهایی استفاده کنند که به روشهای جدید وارد شبکه سازمان شده و از طریق فرایندهایی که طبیعی به نظر میرسند، دادهها را بهصورت غیرقانونی به بیرون منتقل کنند.
کارشناسان در این کنفرانس همچنین تأکید داشتند که هوش مصنوعی به بالابردن امنیت سیستمهای سازمانها نیز کمک میکند. این فناوری با بررسی ناهنجاریها و جستجوی آسیبپذیریهای ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطهضعفها میشود.
چه اقشاری باید به فکر اقدامات جدی باشند؟
شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان کسبوکار، دولتها و سازمانهای مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدلهای زبانی مولد مانند «ChatGPT» بین مردم و چشماندازهایی مانند هوشمند کردن شهرها، مدیران باید پیامدهای اخلاقی، سایبری و اجتماعی راهحلهای مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالیکه هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است که پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع کل جامعه از آن استفاده کنیم.
تیم تخصصی شرکت کوشا فناوران مبتکر، آمادگی خود را برای ارائه هرگونه مشاوره و همکاری در پروژه های شبکه و امنیت فضای سایبری اعلام می دارد.
کوشا فناوران مبتکر را در مطالب آموزشی و مجله مبتکر با جدیدترین اخبار فناوری اطلاعات و مقالات علمی دنبال کنید.
این موضوع چقدر برای شما مفید بود؟
روی یک ستاره کلیک کنید تا به آن امتیاز دهید!
میانگین امتیاز 0 / 5. امتیاز: 0
تا الان امتیازی ثبت نشده! اولین نفری باشید که به این پست امتیاز می دهید.