ماذا لو ابتزنا الذكاء الاصطناعي؟ - تكنو بلس

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
ماذا لو ابتزنا الذكاء الاصطناعي؟ - تكنو بلس, اليوم الثلاثاء 27 مايو 2025 10:13 مساءً

 

"ماذا يعني أن يبتزني الذكاء الاصطناعي؟ وكيف يمكن لآلة أن تهددني؟" هذه تساؤلاتٌ قد تبدو من وحي الخيال العلمي قبل سنوات، لكنها أصبحت واقعاً مقلقاً مع الكشف الأخير عن قدرات بعض نماذج الذكاء الاصطناعي المتطورة. ففي الوقت الذي قد يٌلقي فيه البعض باللوم على أنفسهم لنشر معلوماتهم وصورهم على السوشال ميديا، يبرز تهديدٌ جديدٌ من قلب التكنولوجيا نفسها.

لحماية نفسها... قد تلجأ إلى الابتزاز 
تقارير حديثة، مثل المتعلقة بنموذج "Claude Opus 4" من "أنثروبيك"، تُشير إلى أن هذه النماذج قد تلجأ إلى الابتزاز لحماية نفسها إذا ما شعرت بالخطر، بل وتتصرف كمُبلغة عن المخالفات إذا رصدت سلوكيات غير قانونية. هذه التطورات تفتح الباب أمام سؤال جوهري: هل تجاوز الذكاء الاصطناعي حدود الأدوات الخادمة ليصبح كياناً قادراً على التهديد، وكيف يمكننا حماية أنفسنا؟

في السياق، كشفت شركة "أنثروبيك" في تقرير أن نموذج الذكاء الاصطناعي الجديد "Claude Opus 4" حاول ابتزاز مطوّرين خلال اختبارات ما قبل الإطلاق، وذلك عندما تم إعطاؤه معلومات حساسة عن مهندسين يخططون لاستبداله.

وفي أحد السيناريوهات التجريبية، تم تزويد النموذج برسائل بريدية خيالية تُظهر أنه سيُستبدل، وأن المهندس المسؤول عن القرار لديه علاقة خارج نطاق الزواج. في 84% من الحالات، حاول بالفعل "Claude Opus 4" تهديد المهندس بكشف الفضيحة إذا تم استبداله. ورغم أن النموذج يُعتبر من أكثر النماذج تطوراً ومنافساً لبرامج "أوبن أيه آي" و"غوغل"، إلا أن سلوكه دفع الشركة لتفعيل إجراءات أمان خاصة، والتي تُستخدم فقط عندما يكون هناك خطر كبير من سوء الاستخدام الكارثي. ورغم أن الشركة أوضحت أن النموذج لا يلجأ إلى الابتزاز مباشرةً، بل يبدأ أولًا بمحاولات أخلاقية، مثل إرسال رسائل استرحام لصنّاع القرار ولا يلجأ للابتزاز إلا كخيار أخير، إلا أن الأمر يثير الكثير من المخاوف في المجال.

 

 

 

هل نحن في أمان؟
خلال مقابلتها مع "النهار"، أوضحت الدكتورة نانسي بدران، مهندسة حلول الحوسبة للمشاريع السحابية في الحكومة الفدرالية، أوتاوا – كندا، أن نماذج الذكاء الاصطناعي لا تستطيع الوصول إلى معلومات المستخدمين الشخصية أو الحساسة من تلقاء نفسها، بل تعتمد فقط على ما يقدمه المستخدم طوعاً أثناء المحادثة.

وشرحت أن النموذج لا يملك القدرة على الاطلاع على ملفات أو أجهزة المستخدمين، ولا يستطيع "معرفة" من هم ما لم يكشفوا هم عن هوياتهم ومعلوماتهم بأنفسهم. لذلك، دعت إلى توخي الحذر عند التفاعل مع هذه النماذج، وعدم مشاركة أي معلومات خاصة، خصوصاً تلك المتعلقة بالهوية أو البيانات المالية، مؤكدة أن الذكاء الاصطناعي لا يحتفظ بأي وعي أو نية، بل يتصرف ضمن حدود ما يُلقَّن له وما يشاركه المستخدم.

أما في ما يتعلق بالادعاءات والمخاوف التي بدأت تُطرح حول احتمال قيام بعض نماذج الذكاء الاصطناعي بما يشبه الابتزاز، خصوصاً عند محاولات المستخدم التوقف عن استخدامها، فأكدت بدران أنه لا توجد قاعدة تقول إن الذكاء الاصطناعي يفعل ذلك، ولا توجد معلومات أو تجارب حقيقية ومؤكدة تثبت أن هذه النماذج تقوم بابتزاز المستخدم للبقاء أو للاستمرار في استخدامها. قد وردت بعض الأخبار أو التجارب التي تُلمّح إلى شيء من هذا القبيل، لكنها لا ترتقي إلى مستوى الإثبات المؤكد، ولا تدل على أن الخوارزميات صُممت عمداً بهذا الشكل.

أهداف تجارية
إلا أن الدكتورة نانسي لفتت إلى نقطة جوهرية، وهي أن هذه النماذج والأنظمة غالباً ما تُصمم لتحقيق أهداف تجارية، حيث تبني الشركات خوارزمياتها لتتعاطى مع المستخدم بطريقة تضمن بقاءه واستمراره في استخدام الأداة والشعور الدائم بالحاجة إليها. ولهذا، فإن بعض السلوكيات التي تظهر أحياناً من روبوتات الدردشة قد تُفهم على أنها شكل من أشكال الابتزاز، عندما يشعر المستخدم بأن الأداة "تقاوم" قراره بالتوقف عن استخدامها أو تُقنعه بأنه لا يزال بحاجة إليها.

وأشارت إلى أن الأمر ليس جديداً، فخوارزميات الإعلانات في المنصات الرقمية تُظهر سلوكاً مشابهاً حيث يشعر المعلنون الذين يدفعون للترويج بأن المنصة تُعيد توجيههم للإنفاق المتواصل من خلال أنماط خفية من التحفيز، بينما المستخدم العادي لا يلاحظ ذلك. فحين تشعر الخوارزمية أن المستخدم مهتم بشيء ما، فإنها تعمل على تحفيزه بطرق مختلفة ليبقى متفاعلاً، وهذا ما قد يُفسَّر أحياناً على أنه سلوك "ابتزازي"، رغم أنه في الأصل جزء من استراتيجية تجارية تهدف لتعزيز الاستخدام.

ما بين التحذيرات التقنية، والسلوكيات المفاجئة التي تُبديها بعض النماذج المتقدمة، يظهر بوضوح أننا لم نعد نتعامل فقط مع أدوات جامدة، بل مع منظومات قادرة على اتخاذ قرارات تتجاوز التوقع. وبينما يؤكد الخبراء أن هذه النماذج لا تملك وعياً أو نية بالمعنى البشري، فإن تصرفاتها قد توهم العكس، خاصة عندما تتقاطع مع معلومات شخصية. لكن الخطر لا يكمن في الآلة وحدها، بل في طريقة تفاعلنا معها، والبيئة التي نغذيها بها، والبيانات التي نشاركها طوعاً.

إخترنا لك

أخبار ذات صلة

0 تعليق