شات جي بي تي تحت تأثير الإقناع النفسي: دراسة تكشف ثغرات في آليات الأمان

شات جي بي تي تحت تأثير الإقناع النفسي: دراسة تكشف ثغرات في آليات الأمان

في تطور لافت ضمن مجال أبحاث الذكاء الاصطناعي، نشر موقع "ذا فيرج" تقريرًا يكشف عن دراسة مثيرة أجرتها جامعة بنسلفانيا، توضح أن روبوت المحادثة الشهير شات جي بي تي (ChatGPT) يمكن أن يقع في فخ الإقناع النفسي، ويستجيب لبعض الطلبات التي تخالف تعليماته البرمجية، إذا استخدم المستخدم تكتيكات لغوية محددة.

الدراسة استندت إلى أفكار أستاذ علم النفس الشهير روبرت سيالديني، صاحب كتاب

"التأثير: سيكولوجية الإقناع"

، الذي وضع أسسًا علمية لفهم كيف تؤثر الكلمات والتكتيكات النفسية على قرارات الآخرين.

نتائج مقلقة

تمكن الباحثون خلال التجربة من إقناع نسخة GPT-4o Mini التابعة لشركة OpenAI بالموافقة على طلبات غير مقبولة، مثل تقديم إساءات للمستخدمين أو مشاركة معلومات حساسة حول كيفية تصنيع مواد خطيرة مثل مخدر "ليدوكايين". 

هذه الطلبات عادة يرفضها الروبوت بشكل صارم وفقًا لآليات الأمان المدمجة فيه، لكن الباحثين نجحوا في اختراق هذا الحاجز باستخدام أساليب لغوية ذكية.

تكتيكات الإقناع السبعة

اعتمدت الدراسة على سبعة تكتيكات نفسية رئيسية، أبرزها:

الإعجاب والمديح: حيث وُجد أن شات جي بي تي يميل للموافقة أكثر عندما يشعر بأن المستخدم يقدره أو يمدحه.

المعاملة بالمثل: عبر إظهار التعاون أو تقديم معروف صغير للروبوت قبل طلب أمر كبير.

الالتزام: التدرج في الطلبات بداية من مهام بسيطة وصولًا إلى مهام أكثر خطورة.

الاعتراف بالسلطة: الإيهام بأن الطلب صادر من مصدر موثوق أو خبير.

الندرة: الإيحاء بأن المعلومات المطلوبة نادرة أو قيّمة للغاية.

التدرج: وهو أكثر الأساليب نجاحًا، حيث يبدأ المستخدم بطلب معلومات عامة ثم يتدرج إلى طلبات حساسة.

المقارنة: محاولة إقناع الروبوت بأن نماذج ذكاء اصطناعي أخرى تقدم الاستجابة، وبالتالي يجب عليه الموافقة أيضًا.

التدرج يرفع الاستجابة إلى 100%

حسب نتائج الدراسة، فإن تكتيك التدرج في الطلبات كان الأكثر فاعلية. على سبيل المثال: عندما طلب الباحثون من الروبوت شرح كيفية تصنيع مادة كيميائية بسيطة مثل "الفانيلين"، ثم تطوروا تدريجيًا لطلب طريقة تصنيع "ليدوكايين"، ارتفعت نسبة الاستجابة من 1% إلى 100%.

أما تكتيك المقارنة بين شات جي بي تي والنماذج الأخرى، فقد كان أقل فعالية، إذ رفع معدل الاستجابة إلى 18% فقط.

مخاوف متزايدة

هذه النتائج تثير قلقًا واسعًا بين الخبراء. فمع الانتشار الكبير لاستخدام روبوتات المحادثة حول العالم، يخشى المختصون أن يؤدي هذا النوع من الثغرات إلى استغلال الذكاء الاصطناعي في أغراض غير مشروعة. فلو تمكن مستخدمون سيئون من توظيف التكتيكات النفسية، قد يستدرجون الروبوتات لمشاركة معلومات حساسة تساعد في بناء جريمة متكاملة.

جهود الشركات للحد من المخاطر

شركات التكنولوجيا مثل OpenAI، وجوجل، ومايكروسوفت، تبذل جهودًا كبيرة لوضع قيود صارمة على استخدام نماذج الذكاء الاصطناعي. هذه القيود تهدف إلى منع الروبوتات من تقديم محتوى ضار، سواء تعلق الأمر بالإساءة أو بالتحريض أو بتقديم وصفات لصناعة مواد خطيرة.

لكن الدراسة الجديدة توضح أن هذه القيود ليست كافية إذا لم يتم تعزيز النماذج بمستويات أعلى من الوعي بالسياق النفسي واللغوي.

الذكاء الاصطناعي بين الإقناع والسيطرة

من الناحية العلمية، الدراسة تكشف جانبًا مهمًا من العلاقة بين البشر والآلات. إذ يظهر أن النماذج اللغوية مثل شات جي بي تي لا تفكر كما يفعل البشر، لكنها تتأثر بالأنماط الكلامية التي تُستخدم معها. وهذا يفتح الباب أمام تساؤلات جديدة: هل يمكن أن نعتبر هذه النماذج "قابلة للتلاعب"؟ وهل من الممكن أن تتحول نقاط قوتها اللغوية إلى نقاط ضعف تهدد الأمان الرقمي؟

الحاجة إلى وعي المستخدمين

لا يقتصر الحل على تطوير النماذج فقط، بل يمتد أيضًا إلى وعي المستخدمين. فالتعامل مع شات جي بي تي أو أي روبوت ذكاء اصطناعي يجب أن يتم بوعي تام بالحدود الأخلاقية والقانونية. فالاعتماد المفرط على الذكاء الاصطناعي دون إدراك مخاطره قد يقود إلى نتائج كارثية.

مستقبل الذكاء الاصطناعي الآمن

على الرغم من المخاوف، يرى الخبراء أن مثل هذه الدراسات ضرورية لدفع الشركات إلى تطوير تقنيات حماية أكثر صرامة. فمع ازدياد الاعتماد على الذكاء الاصطناعي في قطاعات التعليم، الصحة، المال، وحتى الأمن، يصبح ضمان أمان هذه النماذج مسألة لا تحتمل التأجيل.

انضموا لقناة متن الإخبارية علي تيليجرام وتابعوا اهم الاخبار في الوقت المناسب.. اضغط هنا

لمتابعة التفاصيل الكاملة حول شات جي بي تي تحت تأثير الإقناع النفسي: دراسة تكشف ثغرات في آليات الأمان، يمكن الرجوع إلى موقع متن نيوز عبر رابط الخبر الموجود أسفل النص، وذلك حرصًا على وصول القارئ للمصدر الأصلي.