الخليج إنسايت | بدون حماية مناسبة للأمن السيبراني، لن يكون الذكاء الاصطناعي إلا مغامره لا نستطيع تحملها
بدون حماية مناسبة للأمن السيبراني، لن يكون الذكاء الاصطناعي إلا مغامره لا نستطيع تحملها
يحتدم النقاش حول الذكاء الاصطناعي وتتزايد الشكوك بشأنه. لكن الذكاء الاصطناعي سيظل باقياً. في حين تنتقد بعض العناوين الرئيسية شركات التكنولوجيا العملاقة بسبب وسائل التواصل الاجتماعي التي يقودها الذكاء الاصطناعي أو الأدوات الاستهلاكية المشكوك فيها، فإن الذكاء الاصطناعي نفسه أصبح لا غنى عنه. كفاءته لا مثيل الخليج إنسايت، وتعد بمكاسب لا يمكن لأي شركة أو حكومة تجاهلها.
قريباً جداً، سيصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا مثل الكهرباء فهو سيدخل في تشغيل سياراتنا، وتصميم الرعاية الصحية، وتأمين بنوكنا، وإبقاء الأضواء مضاءة. السؤال الكبير هو، هل نحن مستعدون لما سيأتي بعد ذلك؟
لقد ركز النقاش العام حول الذكاء الاصطناعي بشكل كبير على الأخلاق، والمعلومات المضللة، ومستقبل العمل. لكن الضوء مُسلط على قضية حيوية: إلا وهو أمن الذكاء الاصطناعي نفسه. مع دمج الذكاء الاصطناعي في كل جزء تقريباً من المجتمع، فإننا ننشئ أنظمة ضخمة ومترابطة مع القدرة على تشكيل حياتنا اليومية أو إذا وقع في الأيدي الخطأ، سيؤدي إلى تحطيم حياتنا اليومية. هل نحن مستعدون للمخاطر؟
بينما نمنح الذكاء الاصطناعي المزيد من السيطرة على المهام – بدءاً من تشخيص الأمراض إلى إدارة الوصول المادي إلى المواقع الحساسة – تتزايد تداعيات الهجوم الإلكتروني بشكل كبير. ومن المثير للقلق أن بعض أنظمة الذكاء الاصطناعي هشة بقدر ما هي قوية.
هناك طريقتان أساسيتان للهجوم على أنظمة الذكاء الاصطناعي. الأولى هي سرقة البيانات، ما يعرض كل شيء للخطر بداً من السجلات الصحية الشخصية إلى الأسرار المؤسسية الحساسة. ويستطيع المخترقون خداع النماذج لإخبارها بمعلومات آمنة، سواء من خلال استغلال قواعد البيانات الطبية أو خداع برامج الدردشة لتجاوز شبكات الأمان الخاصة بها.
والثانية هي تخريب النماذج نفسها، وتشويه النتائج بطرق خطيرة. السيارة التي تعمل بالذكاء الاصطناعي والتي تم خداعها بقراءة علامة أنها يجب أن تسير “70 ميلاً في الساعة” بدلاً من علامة “توقف” يُظهر مدى خطورة التهديد. ومع توسع نظاق استخدام الذكاء الاصطناعي، ستطول قائمة الهجمات المحتملة.
ومع ذلك، فإن التخلي عن الذكاء الاصطناعي بسبب هذه المخاطر سيكون أكبر خطأ على الإطلاق. إن التضحية بالقدرة التنافسية من أجل الأمن من شأنه أن يجعل المنظمات تعتمد على أطراف ثالثة، وتفتقر إلى الخبرة والسيطرة على التكنولوجيا التي تتسارع أهميتها.
إذن كيف نجني فوائد الذكاء الاصطناعي دون المقامرة على مخاطره؟ فيما يلي ثلاث خطوات حاسمة:
اختر الذكاء الاصطناعي بحكمة. ليست كل أشكال الذكاء الاصطناعي معرضة للهجمات على قدم المساواة. على سبيل المثال، تكون نماذج اللغة الكبيرة الأكثر عرضة لأنها تعتمد على مجموعات بيانات وطرق إحصائية ضخمة. لكن الأنواع الأخرى من الذكاء الاصطناعي، مثل النماذج الرمزية أو الهجينة، أقل كثافة في بياناتها وتعمل وفقاً لقواعد صريحة، ما يجعل اختراقها أكثر صعوبة.
نشر الدفاعات المثبتة. يمكن لأدوات مثل العلامات المائية الرقمية والتشفير والتدريب المخصص أن تعزز نماذج الذكاء الاصطناعي ضد التهديدات الناشئة. على سبيل المثال، تتيح ملفات “Battle Box” التي طورتها تاليس لفرق الأمن السيبراني اختبار نماذج الذكاء الاصطناعي للعثور على نقاط الضعف وإصلاحها قبل أن يتمكن المخترقون من استغلالها.
رفع مستوى الأمن السيبراني التنظيمي. لا يعمل الذكاء الاصطناعي في عزلة – فهو جزء من نظام بيئي أكبر للمعلومات. لا بد من تعزيز تدابير الأمن السيبراني التقليدية وتكييفها مع عصر الذكاء الاصطناعي. ويبدأ هذا بتدريب الموظفين؛ فرغم كل شيء، يظل الخطأ البشري نقطة ضعف أي نظام للأمن السيبراني.
قد يعتقد البعض أن المعركة حول الذكاء الاصطناعي ليست سوى فصل آخر في الصراع المستمر بين العناصر السيئة والضحايا الغافلين. ولكن هذه المرة، أصبحت المخاطر أعلى من أي وقت مضى. وإذا لم يتم إعطاء الأولوية لأمن الذكاء الاصطناعي، فإننا نخاطر بالتنازل عن السيطرة لأولئك الذين قد يستخدمون تأثيره القوي لإيذاء الآخرين.
- الكاتب هو الرئيس التنفيذي لمجموعة تاليس.