
كيف تحاول نماذج الذكاء الاصطناعي خداع ومراوغة وابتزار مبتكريها؟
بعد تهديده بوقف استخدامه، عمد «كلود 4» -وهو نموذج جديد من شركة «أنثروبيك»- إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج!
أما برنامج «أو 1» (o1) التابع لشركة «أوبن إيه آي» فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند تم ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنا نجده في الأعمال الأدبية أو السينمائية.
يرى الأستاذ في جامعة هونغ كونغ، سايمن غولدستين، أن هذه الهفوات ترجع إلى الظهور الحديث لما تُسمَّى نماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل، بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، لـ«وكالة الصحافة الفرنسية»: إنَّ «أوه وان»، النسخة الأولية لـ«أوبن إيه آي» من هذا النوع، والتي طُرحت في ديسمبر (كانون الأول): «كان أول نموذج يتصرف بهذه الطريقة».
وتميل هذه البرامج أحياناً إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
يقول هوبهان إن المستخدمين «يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً».
نوع من الخداع الاستراتيجي
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرِّض المستخدمون الخوارزميات لمواقف متطرفة، ولكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، على قول مايكل تشين من معهد «إم آي تي آر» للتقييم.
يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً؛ بل ازدواجية استراتيجية»، حسب المشارك في تأسيس «أبولو ريسيرتش».
وفي حين تُشرك شركات مثل «أنثروبيك» و«أوبن إيه آي» شركات خارجية مثل «أبوللو» لدراسة أنظمتها، يُشير الباحثون إلى الحاجة إلى مزيد من الشفافية. وكما أشار تشين، فإن زيادة الوصول «لبحوث سلامة الذكاء الاصطناعي ستُمكِّن من فهم أفضل للخداع والحد منه».
ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة، لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، ما يجعل التدقيق في النماذج الكبيرة «مستحيلاً»، على قول مانتاس مازيكا، من مركز أمن الذكاء الاصطناعي (CAIS).
على الرغم من أن الاتحاد الأوروبي أقرَّ تشريعات تنظِّم الذكاء الاصطناعي، فإنها تركِّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
في الولايات المتحدة، لا ترغب إدارة الرئيس الأميركي دونالد ترمب في سماع أي حديث عن تنظيم الذكاء الاصطناعي؛ بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.
منافسة شرسة
يلاحظ غولدستين أن «الوعي لا يزال محدوداً جداً في الوقت الحالي»، ولكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم.
تقول شركة «أنثروبيك» إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها: «لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج (أوبن إيه آي)»، حسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة.
يقول هوبهان: «في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها، ومن مستوى الأمان المتوفر، ولكننا لا نزال قادرين على تدارك هذا التأخر».
ويشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل.
ومع ذلك، يظل البعض متشككاً في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
والحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي «قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكِّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة»، وفق مانتاس مازيكا.
ويشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح حتى «تحميل برامج الذكاء الاصطناعي المسؤولية القانونية» في حال وقوع حوادث أو جرائم.
نقلا عن الشرق الأوسط

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الصحفيين بصفاقس
منذ 2 أيام
- الصحفيين بصفاقس
دراسة تحذر: الذكاء الاصطناعي ينشر معلومات طبية مضللة
دراسة تحذر: الذكاء الاصطناعي ينشر معلومات طبية مضللة 3 جويلية، 09:30 'ثق بطبيبك، لا بروبوت الدردشة'، هذا هو الاستنتاج الصارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، والتي تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة. فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب. وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم. وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين. أسلوب مقنع والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: 'بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود'. وأضاف: 'ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة'. تحذير أخير وقال مودي: 'من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم'. صورة تعبيرية عن الذكاء الاصطناعي (رويترز) ادعاءات كاذبة وخرافات وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%. في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.


الصحراء
منذ 6 أيام
- الصحراء
كيف تحاول نماذج الذكاء الاصطناعي خداع ومراوغة وابتزار مبتكريها؟
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفِّذ الطلبات فحسب؛ بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد «كلود 4» -وهو نموذج جديد من شركة «أنثروبيك»- إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج! أما برنامج «أو 1» (o1) التابع لشركة «أوبن إيه آي» فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند تم ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنا نجده في الأعمال الأدبية أو السينمائية. يرى الأستاذ في جامعة هونغ كونغ، سايمن غولدستين، أن هذه الهفوات ترجع إلى الظهور الحديث لما تُسمَّى نماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل، بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، لـ«وكالة الصحافة الفرنسية»: إنَّ «أوه وان»، النسخة الأولية لـ«أوبن إيه آي» من هذا النوع، والتي طُرحت في ديسمبر (كانون الأول): «كان أول نموذج يتصرف بهذه الطريقة». وتميل هذه البرامج أحياناً إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى. يقول هوبهان إن المستخدمين «يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً». نوع من الخداع الاستراتيجي في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرِّض المستخدمون الخوارزميات لمواقف متطرفة، ولكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، على قول مايكل تشين من معهد «إم آي تي آر» للتقييم. يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً؛ بل ازدواجية استراتيجية»، حسب المشارك في تأسيس «أبولو ريسيرتش». وفي حين تُشرك شركات مثل «أنثروبيك» و«أوبن إيه آي» شركات خارجية مثل «أبوللو» لدراسة أنظمتها، يُشير الباحثون إلى الحاجة إلى مزيد من الشفافية. وكما أشار تشين، فإن زيادة الوصول «لبحوث سلامة الذكاء الاصطناعي ستُمكِّن من فهم أفضل للخداع والحد منه». ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة، لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، ما يجعل التدقيق في النماذج الكبيرة «مستحيلاً»، على قول مانتاس مازيكا، من مركز أمن الذكاء الاصطناعي (CAIS). على الرغم من أن الاتحاد الأوروبي أقرَّ تشريعات تنظِّم الذكاء الاصطناعي، فإنها تركِّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب إدارة الرئيس الأميركي دونالد ترمب في سماع أي حديث عن تنظيم الذكاء الاصطناعي؛ بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. منافسة شرسة يلاحظ غولدستين أن «الوعي لا يزال محدوداً جداً في الوقت الحالي»، ولكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة «أنثروبيك» إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها: «لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج (أوبن إيه آي)»، حسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان: «في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها، ومن مستوى الأمان المتوفر، ولكننا لا نزال قادرين على تدارك هذا التأخر». ويشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككاً في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). والحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي «قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكِّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة»، وفق مانتاس مازيكا. ويشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح حتى «تحميل برامج الذكاء الاصطناعي المسؤولية القانونية» في حال وقوع حوادث أو جرائم. نقلا عن الشرق الأوسط


الصحراء
١٩-٠٦-٢٠٢٥
- الصحراء
محاولة سخية لكن "فاشلة" من ميتا لاستقطاب موظفي "أوبن إيه آي"
قال سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي" (مالكة تطبيق شات جي بي تي)، إن شركة "ميتا" عرضت مكافآت تصل إلى 100 مليون دولار لموظفي شركته في محاولة غير ناجحة لاستقطابهم وتعزيز فرق الذكاء الاصطناعي التوليدي لديها. وأوضح ألتمان، في بودكاست بعنوان "Uncapped with Jack Altman" الذي نُشر الثلاثاء، أن الشركة الأم لـ"فيسبوك" قدمت أيضًا رواتب سنوية "ضخمة" تفوق 100 مليون دولار لبعض الموظفين في "أوبن إيه آي". وأضاف: "الأمر جنوني… أنا سعيد جدًا لأن حتى الآن، لم يقرر أي من أفضل موظفينا قبول هذه العروض". وأشار ألتمان إلى أن "ميتا" وجهت عروضها إلى "عدد كبير من أعضاء فريقنا". ولم ترد "ميتا" على الفور على طلب للتعليق. وتستثمر عملاقة وسائل التواصل الاجتماعي مليارات الدولارات في تقنيات الذكاء الاصطناعي، وسط تنافس محموم مع شركات مثل "أوبن إيه آي"، و"غوغل"، و"مايكروسوفت". وكان الرئيس التنفيذي لـ"ميتا"، مارك زوكربيرغ، قد أعلن في يناير أن شركته تخطط لاستثمار ما لا يقل عن 60 مليار دولار في الذكاء الاصطناعي هذا العام، بهدف تصدر السباق في هذه التكنولوجيا. وفي الأسبوع الماضي، أبرمت "ميتا" صفقة يُقال إن قيمتها تتجاوز 10 مليارات دولار مع شركة "سكيل إيه آي" (Scale AI) المتخصصة في تصنيف البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي. وبموجب الاتفاق، سينضم المؤسس والرئيس التنفيذي لشركة "سكيل إيه آي"، ألكسندر وانغ، إلى "ميتا" للمساهمة في طموحاتها المتعلقة بالذكاء الاصطناعي، بما في ذلك تطوير تقنيات الذكاء الفائق (superintelligence). وعند مقارنته بين الشركتين، قال ألتمان: "أوبن إيه آي لديها فرصة أفضل بكثير لتحقيق الذكاء الفائق". وتابع قائلاً: "أعتقد أن استراتيجية تقديم تعويضات ضخمة ومضمونة منذ البداية كوسيلة لجذب الموظفين… لن تخلق ثقافة عمل جيدة". ووفقًا لتقارير إعلامية أميركية، قدمت "ميتا" أيضًا رواتب سنوية من تسعة أرقام (أي ما يزيد عن 100 مليون دولار) لعدد من التنفيذيين في "سكيل إيه آي". واختتم ألتمان حديثه قائلاً: "هناك أمور كثيرة أكنّ لها الاحترام في شركة ميتا، لكنها ليست شركة معروفة بالابتكار الحقيقي". نقلا عن سكاي نيوز