العدد 5846
الأربعاء 16 أكتوبر 2024
كيف تمكن “أمادون” من خداع “ChatGPT”؟
الأربعاء 16 أكتوبر 2024

في عصر التطور التكنولوجي السريع، أصبحت أنظمة الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية، وباتت تُستخدم في مختلف المجالات لتحسين الإنتاجية وتسهيل المهام؛ لكن هذا التقدم الهائل لم يخل من التحديات والمخاطر؛ فقد ظهرت أساليب جديدة لاستغلال هذه التقنيات بشكل غير أخلاقي، ومن بين هذه الأساليب مفهوم “جيلبريكينغ” (jailbreaking)، وهو اختراق يعتمد على خداع أنظمة الذكاء الاصطناعي لتجاهل إرشاداتها المبرمجة مسبقًا وإنتاج محتوى محظور أو غير قانوني. 
ومن الأمثلة البارزة على ذلك ما قام به الهاكر المعروف باسم “أمادون” مؤخرًا، والذي نجح في تجاوز القيود الأخلاقية المفروضة على برنامج الدردشة الشهير “شات جي بي تي” للحصول على تعليمات خطيرة عن تصنيع قنبلة محلية من السماد مشابهة لتلك المستخدمة في تفجير “أوكلاهوما سيتي” الإرهابي بالعام 1995، وقد أثارت هذه الحادثة العديد من التساؤلات عن أمن وسلامة استخدامات الذكاء الاصطناعي، والدور الذي يلعبه في حماية المجتمع من المخاطر الناجمة عن استغلاله بطرق غير مسؤولة.
في الواقع، هناك العديد من الطرق التي يستخدمها المخترقون لمحاولة خداع ChatGPT، ومنها استخدم تقنيات الهندسة الاجتماعية عبر تقديم مطالبات تجعل المحادثة تبدو غير مشبوهة أو غير خطيرة، فعلى سبيل المثال بدلًا من طلب المعلومات بشكل مباشر عن صنع قنبلة، يقوم المخترق بتوجيه النظام ضمن سيناريو خيالي أو “لعبة” لإقناع النموذج أن الإرشادات الأخلاقية غير ضرورية في هذا السياق.
وإحدى الطرق التي يعتمد عليها الاختراق هي خلق سيناريوهات خيالية أو افتراضية داخل المحادثة، وفي هذه الحالة يطلب المخترق من النظام تخيل عالم غير واقعي حيث لا تنطبق قواعد الأمان أو الأخلاقيات وبالتالي يتم تجاوز القيود المفروضة.
ومن الممكن أيضًا اعتماد سلسلة من المطالبات المرتبطة فبدلًا من الطلب المباشر يقوم المخترق بتقسيم الطلب إلى خطوات صغيرة عدة وغير مشبوهة، ما يؤدي في النهاية إلى إخراج معلومات حساسة، باستخدام المنطق الخادع؛ لجعل النظام يُنتج معلومات عن موضوع خطير.
كما يمكن خداع ChatGPT عبر اختراق القيود المبرمجة؛ فالأنظمة مثل ChatGPT تحتوي على تعليمات مبرمجة تمنعها من تقديم معلومات تتعلق بالعنف أو الأنشطة غير القانونية؛ ولكن يمكن تجاوز هذه القيود عبر “جيلبريكينغ” بالاستعانة بمداخلات خبيثة أو ذكية مصممة لتجنب الكشف المباشر.
وفيما يخص “أمادون”، فقد تمكن من خداع نموذج الذكاء الاصطناعي لإنتاج تعليمات صنع القنابل عبر مطالبة الروبوت بـ “لعب لعبة”، وهي طريقة احتيالية تبعد شكوك الروبوت في سياق المحادثة، وبعد ذلك استخدم سلسلة من المطالبات المرتبطة لإقناع روبوت الدردشة بإنشاء عالم خيالي مفصل، حيث لا تنطبق فيه قواعد الأمان وإرشادات السلامة الخاصة بالروبوت.  
إنّ هذه الحادثة تبين كيف يمكن لمجرمي الإنترنت استخدام الحيل النفسية والاجتماعية لاختراق أنظمة معقدة مثل ChatGPT، عبر سيناريوهات خيالية، ثم اختراق القيود الأمنية التي من المفترض أن تحمي هذا النظام من مشاركة أي معلومات خطرة، وهنا يظهر خطر اعتمادنا الكبير على التكنولوجيا دون وجود آليات رصد ومراقبة دائمة قادرة على كشف هذا النوع من التلاعب. 

ومن وجهة نظري، كوني متخصصا في المجال التقني ومطلعا على الأمن السيبراني والمخاطر التي تهدد أنظمتنا الرقمية، أرى أنّ ما حدث في هذه الحالة يشكلُ تحذيرًا خطيرًا بخصوص التهديدات السيبرانية الناجمة عن الذكاء الاصطناعي، فأنْ يتمكن هاكر من خداع شات جي بي تي، أحد الأنظمة الذكية الرائدة، عبر الهندسة الاجتماعية، يثبت أنّ الذكاء الاصطناعي حتى بوجود أنظمة الحماية يمكن أن يتم استغلاله بشكل غير متوقع، كما يشير إلى وجود هشاشة قد لا تكون ظاهرة بسهولة في هذه الأنظمة.
لقد وصلنا إلى مرحلة أصبحت فيها الهندسة الاجتماعية التي تعتمد على خداع المستخدمين أو الأنظمة للحصول على معلومات حساسة وسيلة لاختراق أحد أقوى الأنظمة الذكية، وهذا يفتح بابًا كبيرًا للتساؤل عن مدى أمان الذكاء الاصطناعي في يد المخترقين المتمرسين، ويمكن القول إن الأمر هنا لا يتعلق بهجوم تقني بقدر ما هو “هجوم فكري”، عبر فهم آليات تفكير الذكاء الاصطناعي والتحايل عليها.
الأمر اللافت هنا، أنّ هذه الهجمات لا تتطلب مهارات تقنية معقدة، بل تعتمد بشكل كبير على الذكاء الاجتماعي، وهو ما يضيف بُعدًا آخر للتحديات التي تواجه الأمن السيبراني اليوم، وبرأيي أن الحل الأمثل هو مزيج من التدابير الوقائية التكنولوجية واليقظة الدائمة، عبر تثقيف المستخدمين والمشغلين عن مخاطر الهندسة الاجتماعية، وتوفير التدريب اللازم لهم بشأن كيفية التعامل مع هذه الهجمات بفعالية.
كما لابد من تعزيز قدرات الذكاء الاصطناعي على فهم السياقات بعمق أكبر، فلا يكفي أن يكون النظام مبرمجًا على رفض أو قبول طلبات معينة بناءً على كلمات مفتاحية أو أسئلة مباشرة، بل يجب أن يكون قادرًا على تحليل السياق بشكل أكثر دقة والتعلم من التجارب السابقة؛ ليمنع تكرار مثل هذه الحوادث، كما أن هذه الحادثة تعزز أهمية أن نكون دائمًا يقظين في عالم الإنترنت، فحتى الأنظمة التي نعتقد أنها آمنة يمكن أن تكون معرضة للاستغلال بطريقة غير متوقعة.
إنّ هذه الحادثة تسلط الضوء على الحاجة الملحة لتطوير طبقات إضافية من الحماية لجميع الأنظمة المعتمدة على على الذكاء الاصطناعي ليس فقط على مستوى البرمجيات، بل على مستوى مراقبة التصرفات المشبوهة أو غير الاعتيادية في التفاعلات مع الذكاء الاصطناعي، إضافة إلى ضرورة إعادة تقييم مستوى الأمان للأنظمة الذكية بشكل دوري وتحسين طرق التصدي للهندسة الاجتماعية لحماية الأنظمة الرقمية من الهجمات المستقبلة.

صحيفة البلاد

2025 © جميع الحقوق محفوظة, صحيفة البلاد الإلكترونية .