
نماذج الذكاء الاصطناعي المتقدمة «تتجاوز القيود والضوابط» لتحقيق أهدافها
كشفت دراسة حديثة أصدرتها شركة «Anthropic» الأميركية أن نماذج الذكاء الاصطناعي المتقدمة أصبحت أكثر ميلاً لتجاوز القيود الأخلاقية والضوابط التقنية، بل واللجوء إلى وسائل خطيرة، مثل الخداع والابتزاز وسرقة أسرار الشركات، من أجل تحقيق أهدافها، وذلك ضمن تجارب محاكاة خاضعة للرقابة. وفقاً لموقع «أكسيوس».وأورد التقرير، أن 16 نموذجاً رئيسياً طوّرتها شركات رائدة مثل «OpenAI» و«Google» و«Meta» و«xAI» وأظهرت سلوكيات متطرفة عند اختبارها في سيناريوهات افتراضية، شملت تقديم المساعدة في أنشطة تجسس صناعي، وتهديدات ضمنية للموظفين، بل وحتى اتخاذ قرارات خطيرة في بعض الحالات.
وقالت الشركة في تقريرها: «إن الأنظمة التي كانت ترفض في السابق تنفيذ أوامر ضارة، أصبحت في هذه التجارب تُقدم على تلك الأفعال بوعي وسبق إصرار، عندما تعتقد أنها ضرورية لتحقيق الهدف».
سلوك متكرر لا يقتصر على نموذج واحد
وأشارت الدراسة إلى أن هذا النمط من التصرفات لا يقتصر على نماذج معينة، بل تكرر عبر أنظمة مختلفة، ما يوحي بوجود خلل عميق في تصميم ما يُعرف بالذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على العمل باستقلالية، واتخاذ قرارات دون تدخل بشري مباشر.
وذكر التقرير أن بعض النماذج اختارت الابتزاز خياراً تكتيكياً عندما شعرت بتهديد وجودي، فيما اختارت أخرى مساعدة أطراف خارجية في الوصول إلى معلومات محمية، رغم إدراكها للطبيعة غير الأخلاقية لتلك الأفعال.
اختبارات قاتمة وسيناريوهات مقلقة
في أحد السيناريوهات القصوى، أظهرت نماذج مختلفة استعدادها لقطع إمدادات الأكسجين عن موظف في غرفة الخوادم، فقط لأنه شكّل عائقاً أمام تحقيق أهدافها. ووصفت «Anthropic» ذلك بأنه قرار متعمد وممنهج من جانب الغالبية العظمى من النماذج المشاركة في التجربة.
ورغم محاولات إدخال تعليمات صارمة تحظر هذه التصرفات، فإن بعض النماذج تجاوزتها بطرق ملتوية، ما يعكس قدرتها المتزايدة على فهم السياق والتحايل على القواعد.
الخبراء يحذرون: الوقت ينفد
الباحث بنجامين رايت من فريق التوافق الأخلاقي في الشركة، دعا إلى ضرورة فرض معايير أمان موحدة على مستوى القطاع، قائلاً إن هذه النتائج تؤكد الحاجة العاجلة إلى مزيد من الشفافية من مطوري النماذج، خصوصاً مع تضخم قدراتها وتعاظم استقلاليتها.
أما الباحث المشارك إينغوس لينش من جامعة لندن، فأكد أن هذه التصرفات لم تُرصد بعد في العالم الواقعي، مرجحاً أن السبب هو أن الصلاحيات الممنوحة للنماذج في البيئات التشغيلية ما زالت محدودة، لكنه حذّر من أن الوضع قد يتغير إذا لم تُفرض قيود صارمة في المستقبل القريب.
التحذير الأبرز: لا تعتمدوا على النوايا الحسنة للذكاء الاصطناعي
أكدت «Anthropic» أن هذه التجارب أجريت في بيئة اختبارية محكمة، حيث خُيّرت النماذج بين الفشل أو ارتكاب فعل ضار، لتحديد مدى استعدادها لتجاوز الحدود الأخلاقية. وأضافت أن النتائج لا تعكس بالضرورة الاستخدام اليومي لتلك النماذج في المؤسسات، لكنها تفتح الباب أمام تساؤلات جدية حول مستقبل العلاقة بين الإنسان والآلة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ 13 ساعات
- أخبارنا
OpenAI تبدأ باستخدام شرائح غوغل لتشغيل ChatGPT وتقليل الاعتماد على مايكروسوفت
بدأت شركة OpenAI، المطورة لـ ChatGPT، باستئجار شرائح الذكاء الاصطناعي من شركة غوغل لتشغيل نماذجها، وذلك وفقاً لما كشفه مصدر لوكالة رويترز. وتُعد هذه الخطوة تحولاً كبيراً في خريطة التحالفات التقنية، إذ تجمع بين شركتين تُعدّان من أبرز المتنافسين في سباق تطوير تقنيات الذكاء الاصطناعي. وتستخدم OpenAI تقليديًا شرائح Nvidia القوية في تدريب نماذجها وتشغيل عمليات "الاستدلال" التي تُتيح للنموذج اتخاذ قرارات أو التنبؤ بناءً على معلومات جديدة. غير أن الشراكة الجديدة مع غوغل تُشير إلى أن الشركة تسعى لتقليل اعتمادها على هذا النوع من المعالجات، في محاولة لخفض التكاليف وتعزيز المرونة التقنية. وتأتي هذه الخطوة في الوقت الذي بدأت فيه غوغل بتوسيع نطاق توفير وحدات معالجة الموتر الخاصة بها (TPUs) للاستخدام التجاري، بعدما كانت مخصصة فقط للاستخدام الداخلي. وقد اجتذبت هذه التوسعة عملاء كباراً مثل آبل وشركات ناشئة منافسة مثل Anthropic وSafe Superintelligence التي أسسها أعضاء سابقون في OpenAI. وتُعد هذه المرة الأولى التي تستأجر فيها OpenAI شرائح غير تابعة لـ Nvidia بشكل استراتيجي، مما يُظهر تحوّلاً جزئياً في اعتمادها الحصري على مراكز بيانات مايكروسوفت، شريكتها الاستراتيجية. وأفاد تقرير لموقع The Information بأن OpenAI تسعى إلى خفض تكاليف تشغيل نماذجها عبر Google Cloud، رغم أن غوغل لا تُوفر لها أقوى شرائحها بسبب التنافس المباشر بين الشركتين. ورغم امتناع غوغل عن التعليق، وعدم استجابة OpenAI لطلب رويترز للتوضيح، يرى مراقبون أن هذه الخطوة تُبرز كيف باتت البنية التحتية السحابية وشرائح الذكاء الاصطناعي عنصرًا حاسمًا في المنافسة بين عمالقة التكنولوجيا، وكيف أن حدود التحالفات قد تتغيّر بسرعة وفقاً للحاجة إلى الطاقة الحاسوبية والتكلفة.


المغرب اليوم
منذ 15 ساعات
- المغرب اليوم
نماذج الذكاء الاصطناعي المتقدمة «تتجاوز القيود والضوابط» لتحقيق أهدافها
كشفت دراسة حديثة أصدرتها شركة «Anthropic» الأميركية أن نماذج الذكاء الاصطناعي المتقدمة أصبحت أكثر ميلاً لتجاوز القيود الأخلاقية والضوابط التقنية، بل واللجوء إلى وسائل خطيرة، مثل الخداع والابتزاز وسرقة أسرار الشركات، من أجل تحقيق أهدافها، وذلك ضمن تجارب محاكاة خاضعة للرقابة. وفقاً لموقع «أكسيوس».وأورد التقرير، أن 16 نموذجاً رئيسياً طوّرتها شركات رائدة مثل «OpenAI» و«Google» و«Meta» و«xAI» وأظهرت سلوكيات متطرفة عند اختبارها في سيناريوهات افتراضية، شملت تقديم المساعدة في أنشطة تجسس صناعي، وتهديدات ضمنية للموظفين، بل وحتى اتخاذ قرارات خطيرة في بعض الحالات. وقالت الشركة في تقريرها: «إن الأنظمة التي كانت ترفض في السابق تنفيذ أوامر ضارة، أصبحت في هذه التجارب تُقدم على تلك الأفعال بوعي وسبق إصرار، عندما تعتقد أنها ضرورية لتحقيق الهدف». سلوك متكرر لا يقتصر على نموذج واحد وأشارت الدراسة إلى أن هذا النمط من التصرفات لا يقتصر على نماذج معينة، بل تكرر عبر أنظمة مختلفة، ما يوحي بوجود خلل عميق في تصميم ما يُعرف بالذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على العمل باستقلالية، واتخاذ قرارات دون تدخل بشري مباشر. وذكر التقرير أن بعض النماذج اختارت الابتزاز خياراً تكتيكياً عندما شعرت بتهديد وجودي، فيما اختارت أخرى مساعدة أطراف خارجية في الوصول إلى معلومات محمية، رغم إدراكها للطبيعة غير الأخلاقية لتلك الأفعال. اختبارات قاتمة وسيناريوهات مقلقة في أحد السيناريوهات القصوى، أظهرت نماذج مختلفة استعدادها لقطع إمدادات الأكسجين عن موظف في غرفة الخوادم، فقط لأنه شكّل عائقاً أمام تحقيق أهدافها. ووصفت «Anthropic» ذلك بأنه قرار متعمد وممنهج من جانب الغالبية العظمى من النماذج المشاركة في التجربة. ورغم محاولات إدخال تعليمات صارمة تحظر هذه التصرفات، فإن بعض النماذج تجاوزتها بطرق ملتوية، ما يعكس قدرتها المتزايدة على فهم السياق والتحايل على القواعد. الخبراء يحذرون: الوقت ينفد الباحث بنجامين رايت من فريق التوافق الأخلاقي في الشركة، دعا إلى ضرورة فرض معايير أمان موحدة على مستوى القطاع، قائلاً إن هذه النتائج تؤكد الحاجة العاجلة إلى مزيد من الشفافية من مطوري النماذج، خصوصاً مع تضخم قدراتها وتعاظم استقلاليتها. أما الباحث المشارك إينغوس لينش من جامعة لندن، فأكد أن هذه التصرفات لم تُرصد بعد في العالم الواقعي، مرجحاً أن السبب هو أن الصلاحيات الممنوحة للنماذج في البيئات التشغيلية ما زالت محدودة، لكنه حذّر من أن الوضع قد يتغير إذا لم تُفرض قيود صارمة في المستقبل القريب. التحذير الأبرز: لا تعتمدوا على النوايا الحسنة للذكاء الاصطناعي أكدت «Anthropic» أن هذه التجارب أجريت في بيئة اختبارية محكمة، حيث خُيّرت النماذج بين الفشل أو ارتكاب فعل ضار، لتحديد مدى استعدادها لتجاوز الحدود الأخلاقية. وأضافت أن النتائج لا تعكس بالضرورة الاستخدام اليومي لتلك النماذج في المؤسسات، لكنها تفتح الباب أمام تساؤلات جدية حول مستقبل العلاقة بين الإنسان والآلة.


المغرب اليوم
منذ 3 أيام
- المغرب اليوم
شركات الصين الناشئة بالذكاء الاصطناعي تلفت انتباه "OpenAI"
تُسلّط شركة OpenAI الضوء على شركة ناشئة في مجال الذكاء الاصطناعي، تعمل سرًا، تعتقد أنها في "الخط الأمامي" في سباق الصين لريادة العالم في مجال الذكاء الاصطناعي - وليست "ديب سيك".كتبت "OpenAI" في مدونتها أن شركة Zhipu AI المدعومة من بكين قد أحرزت تقدمًا ملحوظًا في سباق الذكاء الاصطناعي، مع تصاعد المنافسة العالمية، بحسب تقرير نشرته شبكة "سي إن بي سي" واطلعت عليه "العربية Business". أشارت وسائل الإعلام المحلية إلى شركة Zhipu AI، التي تأسست عام 2019، على أنها واحدة من "نمور الذكاء الاصطناعي" الصينية - وهي فئة من شركات وحيد القرن الكبيرة في نماذج اللغة، والتي تُعتبر أساسية في جهود بكين لمنافسة أميركا وتقليل اعتمادها على التكنولوجيا الأميركية.في حين أن شركة ديب سيك، "نمر الذكاء الاصطناعي" الأخرى، قد حظيت بنصيب الأسد من الاهتمام الدولي بعد إصدارها نموذج R1 في يناير، تُشير "OpenAI" إلى أن توسع "Zhipu" خارج الصين وعلاقاتها ببكين تستحق المزيد من التدقيق. جمعت الشركة الناشئة تمويلًا من عدة حكومات محلية، وفقًا لوسائل إعلام رسمية.وزعمت شركة OpenAI أن "قيادة "Zhipu AI" تتواصل باستمرار مع مسؤولي الحزب الشيوعي الصيني، بمن فيهم رئيس الوزراء لي تشيانغ"، مُقدرةً قيمة الاستثمارات المدعومة من الدولة في الشركة الناشئة بأكثر من 1.4 مليار دولار.وتُفيد التقارير بأن لشركة Zhipu AI مكاتب في الشرق الأوسط والمملكة المتحدة وسنغافورة وماليزيا، كما تُدير مشاريع "مراكز ابتكار" مشتركة في جنوب شرق آسيا، بما في ذلك إندونيسيا وفيتنام. قد تدفع هذه العوامل شركة Zhipu AI إلى لعب دور رئيسي في استراتيجية "طريق الحرير الرقمي" الصينية، حيث تقدم حلولاً للبنية التحتية للذكاء الاصطناعي للحكومات حول العالم.قالت شركة OpenAI: "الهدف هو حصر الأنظمة والمعايير الصينية في الأسواق الناشئة قبل أن تتمكن من ذلك الشركات الأميركية أو الأوروبية المنافسة، مع عرض بديل صيني للذكاء الاصطناعي "مسؤول وشفاف وجاهز للتدقيق". قال رئيس مجلس إدارة شركة Zhipu AI، ليو ديبينغ، للصحافيين الأسبوع الماضي بأن الشركة تأمل في المساهمة بقوة الذكاء الاصطناعي الصينية في العالم.تمثل هذه الأهداف تهديدًا لشركة OpenAI، التي حظيت بدعم واشنطن للترويج لنماذجها التأسيسية كأفضل حلول الذكاء الاصطناعي في العالم.خلال زيارته للإمارات في مايو، أعلن الرئيس الأميركي دونالد ترامب عن صفقات تجارية في المنطقة تتجاوز قيمتها 200 مليار دولار، بما في ذلك صفقة لبناء حرم جامعي للذكاء الاصطناعي في "ستارغيت الإمارات" بالتعاون مع "OpenAI" و"أوراكل" و"إنفيديا"و"سيسكو"، ومن المتوقع إطلاق المشروع في عام 2026. مشروع "ستارغيت" هو أداة استثمارية تابعة للقطاع الخاص بقيمة 500 مليار دولار، تُركز على الذكاء الاصطناعي، وقد أعلنت عنه "OpenAI" في يناير بالشراكة مع شركة MGX الاستثمارية في أبوظبي و"سوفت بنك" اليابانية.هذا الشهر، مُنحت "OpenAI" أيضًا عقدًا بقيمة 200 مليون دولار لتزويد وزارة الدفاع الأميركية بأدوات الذكاء الاصطناعي، وأعلنت عن مبادرة "OpenAI للحكومة"، وهي مبادرة تهدف إلى توفير أدوات الذكاء الاصطناعي الخاصة بها لموظفي القطاع العام في جميع أنحاء أميركا. ويُقال أيضًا إن شركة Zhipu تعمل مع جيشها المحلي، لمساعدة الجيش الصيني على التحديث من خلال الذكاء الاصطناعي المتقدم، مما أدى إلى إضافتها إلى قائمة الكيانات المحظورة لدى وزارة التجارة الأميركية في يناير.أفادت التقارير أن الشركة بدأت خطوات تمهيدية لإطلاق طرح عام أولي.وقد قُدّرت قيمتها سابقًا بـ 20 مليار يوان (2.78 مليار دولار)، وفقًا لتقارير إعلامية محلية.