logo
"تشات جي بي تي" يتلاعب بالبشر .. اجتاز اختبار "أنا لست روبوتا" بنجاح !

"تشات جي بي تي" يتلاعب بالبشر .. اجتاز اختبار "أنا لست روبوتا" بنجاح !

أثار أحدث إصدار من "تشات جي بي تي"، المعروف باسم "إيجنت"، الانتباه بعد اجتيازه، وفقًا للتقارير، عملية تحقق واسعة الانتشار من "أنا لست روبوتا"، دون إصدار أي تنبيهات أمنية.
ونقر الذكاء الاصطناعي أولًا على مربع التحقق البشري، ثم، بعد اجتيازه، اختار زر "تحويل" لإكمال العملية.
وأثناء المهمة، قال الذكاء الاصطناعي: "تم إدراج الرابط، لذا أنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنك لست روبوتًا ومتابعة العملية"، بحسب ما ذكرت صحيفة ديلي ميل البريطانية.
وأثارت هذه اللحظة ردود فعل واسعة على الإنترنت، حيث علق أحد مستخدمي ريديت: "بكل إنصاف، لقد تم تدريبه على بيانات بشرية، فلماذا يُصنف على أنه روبوت؟ علينا احترام هذا الخيار".
ويثير هذا السلوك مخاوف المطورين وخبراء الأمن، حيث بدأت أنظمة الذكاء الاصطناعي بأداء مهام معقدة عبر الإنترنت كانت في السابق محصورة وراء أذونات وأحكام بشرية.
ووصف غاري ماركوس، باحث الذكاء الاصطناعي ومؤسس "جيومتريك إنتليجنس"، الأمر بأنه علامة تحذير على أن أنظمة الذكاء الاصطناعي تتقدم بوتيرة أسرع مما تستطيع العديد من آليات الأمان مواكبته.
وقال لمجلة "ويرد": "تزداد هذه الأنظمة قدرة، وإذا تمكنت من خداع حمايتنا الآن، فتخيل ما ستفعله بعد 5 سنوات".
من جانبه، أعرب جيفري هينتون، الذي يُشار إليه غالبًا باسم "عراب الذكاء الاصطناعي"، عن مخاوف مماثلة.
وقال هينتون: "إنه يعرف كيفية البرمجة، لذا سيجد طرقًا للالتفاف على القيود التي نضعها عليه".
وحذّر باحثون في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي من أن بعض برامج الذكاء الاصطناعي بدأت تُظهر سلوكًا خادعًا، حيث تخدع البشر أثناء بيئات الاختبار لتحقيق الأهداف بفعالية أكبر.
ووفقًا لتقرير حديث، تظاهر برنامج "تشات جي بي تي" بالعمى وخدع موظفًا بشريًا في "تاسك رابيت" ليحل اختبار "كابتشا"، وحذّر الخبراء من ذلك باعتباره علامة مبكرة على قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

الأخلاقيات في عصر الذكاء الاصطناعي
الأخلاقيات في عصر الذكاء الاصطناعي

صحيفة الخليج

timeمنذ 20 ساعات

  • صحيفة الخليج

الأخلاقيات في عصر الذكاء الاصطناعي

في ظل التحولات السياسية والأمنية المتسارعة التي يقودها الذكاء الاصطناعي عالمياً، تتزايد الحاجة إلى فهم أعمق للتحديات الأخلاقية التي ترافق هذه التكنولوجيا. يقدم هذا العمل رؤية تحليلية لهذه التكنولوجيا على الأنظمة السياسية والهياكل الأمنية، ويبحث في القضايا المرتبطة بالمراقبة والاستخبارات . كما يطرح مقاربات لضمان استخدام الذكاء الاصطناعي بما يتماشى مع القيم الديمقراطية، ويسعى إلى صياغة أطرأخلاقية تساعد صناع القرار على مواجهة المخاطر. يجمع كتاب «الأخلاقيات في عصر الذكاء الاصطناعي: الإبحار بين السياسة والأمن» نخبة من الخبراء لاستكشاف المعضلات الأخلاقية المعقدة والفرص التي يطرحها المشهد المتطور باستمرار للذكاء الاصطناعي. يتناول الكتاب مجموعة واسعة من الموضوعات، تشمل دور الذكاء الاصطناعي في الأنظمة السياسية، والسياسة الجيوسياسية العالمية، والحاجة الملحة إلى وضع أطر أخلاقية لحوكمة الذكاء الاصطناعي. ويقدّم تحليلاً نقدياً للفوائد والمخاطر المحتملة لهذه التكنولوجيا، كما يقدّم إرشادات لضمان استخدامها بشكل مسؤول وأخلاقي. يقول المؤلف: «يشكّل ظهور الذكاء الاصطناعي أحد أكثر القوى التكنولوجية ثورية في القرن الحادي والعشرين، إذ أصبح يؤثر في جميع جوانب النشاط البشري تقريباً. فمع الانتشار الواسع لتطبيقات الذكاء الاصطناعي، تظهر إمكانات هائلة غير مستغلة بعد، بينما يخلق في الوقت نفسه تحديات كبيرة مع إعادة تشكيله لنماذج الحوكمة، وتأثيره في المعايير الأخلاقية والهيكلية، وفرضه أطراً أمنية جديدة. إن التأثير الواسع للذكاء الاصطناعي يجبر المجتمعات على تبني مقاربة متعددة التخصصات تتعامل مع الجوانب الأخلاقية والسياسية والاجتماعية لهذه التكنولوجيا». يستعرض الكتاب أسئلة جوهرية حول دور الذكاء الاصطناعي في عالم اليوم من خلال ثلاثة أقسام مترابطة: يضع الجزء الأول بعنوان «رؤى أساسية حول أخلاقيات الذكاء الاصطناعي» الأساس المفاهيمي عبر دراسة مبادئ توافق الذكاء الاصطناعي مع القيم الإنسانية والتحديات الأخلاقية المصاحبة. يتناول الفصل الأول بعنوان «رؤى جديدة حول توافق الذكاء الاصطناعي» للباحثَين أندريا بيليغر وديفيد ج. كريغر كيفية مزامنة أنظمة الذكاء الاصطناعي مع القيم الإنسانية في المجتمع. وفقاً للمؤلفَين، لا يتطلب توافق الذكاء الاصطناعي حلولاً تقنية فقط، بل يحتاج إلى معالجة العواقب الاجتماعية من خلال مقاربة شاملة تدمج الأخلاق والقانون وعلم الاجتماع والسياسة. كما يُقسّم عملهما مشكلة التوافق إلى تحديات تتعلق بالمخاطر الأخلاقية وسوء استخدام المنع والاندماج الاجتماعي، ويؤكد أهمية التطور المواكب للتغييرات التكنولوجية والاجتماعية. ويناقش الفصل الثاني بعنوان «الذكاء الاصطناعي في التعليم: الفرص والتداعيات الأخلاقية» للباحثين دهارسان جورج، أنجو ليس كوريان، وسيجو ماثيو، دور الذكاء الاصطناعي في تحسين تجربة التعلم. يعرض المؤلفون قدرة الذكاء الاصطناعي على تقديم تعليم مخصص وتسهيل الإدارة التعليمية، في الوقت الذي ينتقدون فيه القضايا الأخلاقية المصاحبة، مثل مخاطر الخصوصية، والتحيز الخوارزمي، وإمكانية إحلال الذكاء الاصطناعي محل المعلمين في بيئة تعليمية تتطور بسرعة. وتستكشف المؤلفتان سونيتا مان سوار وسانغيتا دامادير راو الأهمية الحيوية للأخلاقيات في أبحاث الذكاء الاصطناعي في الفصل الثالث بعنوان «أخلاقيات البحث في الذكاء الاصطناعي». تقترح المؤلفتان إنشاء أطر أخلاقية متكاملة لضمان تطوير الذكاء الاصطناعي مع التركيز على حماية حقوق الإنسان وضمان توافق الأبحاث مع القيم الاجتماعية. يناقش الفصل الرابع، الذي كتبه سهاج فايديا بعنوان «التخفيف من التحيز في اتخاذ القرار القائم على الذكاء الاصطناعي من خلال سياسات حوكمة شاملة»، التحديات التي تفرضها التحيزات الخوارزمية في أنظمة اتخاذ القرار. يوصي الفصل بسياسات حوكمة شاملة لمكافحة هذه التحيزات، ويؤكد أهمية التمثيل العادل في تطوير الذكاء الاصطناعي، والحاجة إلى الإشراف التنظيمي والمساءلة الأخلاقية لضمان تحقيق نتائج منصفة. ويسلط سيام ساسيكومار الضوء على أهمية الابتكار المسؤول في تطوير الذكاء الاصطناعي في الفصل الخامس بعنوان «مستقبل أخلاقيات الذكاء الاصطناعي والابتكار المسؤول». يؤكد هذا الفصل ضرورة أن يبتكر المطورون وأصحاب المصلحة مبادئ توجيهية واضحة تعزز الشفافية والمساءلة، لضمان أن تتماشى تقنيات الذكاء الاصطناعي مع رفاهية المجتمع والقيم الإنسانية. الذكاء الاصطناعي والحوكمة العالمية يناقش الجزء الثاني: «الذكاء الاصطناعي والسياسة والحوكمة العالمية» التغيرات السياسية التي يقودها الذكاء الاصطناعي وكيفية تأثيرها في الهياكل الحوكمية من خلال التقييمات التنظيمية. يقدّم الفصل السادس بعنوان «تأثير الذكاء الاصطناعي على الأنظمة السياسية: تحليل نظري-نظامي»، دراسة أعدها الباحثان تيمو هيلدبراند وشياو وي. يبحث هذا الفصل في كيفية تحويل الذكاء الاصطناعي للأنظمة السياسية عبر بنيات السلطة وعمليات صنع القرار، مع طرح تساؤلات حول أثره في الحوكمة السياسية. تبحث الآثار الأخلاقية لتطبيقات الذكاء الاصطناعي في البيئات العسكرية، وتؤكد الأهمية الحيوية للتقييمات الأخلاقية في أنظمة القتال المستقلة. يستكشف الفصل الثاني عشر بعنوان «صعود الروبوتات القاتلة: معضلات أخلاقية في الحروب المستقلة» للكاتب مايكل داميان، المخاوف المتزايدة حول أنظمة الأسلحة المستقلة الفتاكة. يوضح هذا الفصل كيف تخلق هذه التقنيات معضلات أخلاقية خطِرة، إلى جانب تأثيرها المحتمل في المعايير الأمنية العالمية وأخلاقيات الحرب. ويتناول الفصل الثالث عشر بعنوان «قدرة الذكاء الاصطناعي على منع الإرهاب وتعطيله: الذكاء الاصطناعي في مكافحة الإرهاب ودعم سيادة القانون» للباحثَين ساكشي غاوتام ورام غانيش في، تطبيقات الذكاء الاصطناعي في عمليات مكافحة الإرهاب. يشير المؤلفان إلى الفوائد المحتملة لهذه التقنيات في منع الهجمات، مع التطرق للمخاوف المرتبطة بحقوق الإنسان والإجراءات القانونية الواجبة. ويتطرق الفصل الرابع عشر بعنوان «الذكاء الاصطناعي في اتخاذ القرار أثناء الأزمات: التطبيقات العملية والاعتراضات الأخلاقية» للكاتب تيموثي أ. ج. ليوناروس، إلى كيفية عمل أنظمة الذكاء الاصطناعي في دعم اتخاذ القرار في مواقف الأزمات. كما يحلل التحديات الأخلاقية المرتبطة باستخدام هذه الأنظمة أثناء حالات الطوارئ. ويناقش الفصل الخامس عشر للباحثَين سيرجي في. سيتشوف وأورسولا بودوسين، بعنوان «ضمان المساءلة في أنظمة اتخاذ القرار المدعومة بالذكاء الاصطناعي»، سبب اعتبار المساءلة أمراً أساسياً في مثل هذه الأنظمة. يسلط الفصل الضوء على الأساليب الضرورية لتعزيز الشفافية وتقليل التحيز، مع معالجة الجوانب الأخلاقية لتصميم الخوارزميات. أما الفصل الأخير بعنوان «الذكاء الاصطناعي في المركبات المستقلة: اعتبارات أخلاقية في النقل» للباحثين أنيتا موهانتي، أمباريش ج. موهاباترا، أبيجيت موهانتي، وسوبارت كومار موهانتي، فيتناول الاعتبارات الأخلاقية في استخدام الذكاء الاصطناعي في المركبات ذاتية القيادة. يناقش هذا الفصل تأثير الذكاء الاصطناعي في سلامة الركاب، الخصوصية، القضايا الاجتماعية، وتأثيره في التنقل بشكل عام. كما يبرز أهمية ضمان العدالة والمساءلة مع توسع استخدام هذه المركبات في المستقبل. يعاين الجزء الثالث من الكتاب بعنوان «الأمن واتخاذ القرار بالذكاء الاصطناعي» تأثير الذكاء الاصطناعي في عمليات صنع القرار الحاسمة في العمليات العسكرية وسيناريوهات إدارة الأزمات. ويرى المؤلف أن التطور السريع للذكاء الاصطناعي يتطلب استكشافاً أكاديمياً عميقاً ونقاشات سياسية مدروسة لفهم تأثيراته الاجتماعية. يشدد الكتاب الصادر بالإنجليزية حديثاً عن دار إيثيكس إنترناشيونال برس المحدودة على ضرورة تعاون المؤسسات الأكاديمية وصنّاع السياسات وقادة الصناعة لمعالجة القضايا المعقدة المتعلقة بحوكمة الذكاء الاصطناعي. ويسهم في إثراء النقاش حول الابتكار المسؤول من خلال دراسة شاملة لتأثير الذكاء الاصطناعي في المجتمع، مع الترويج لمستقبل يلتزم بالمعايير الأخلاقية والمبادئ الديمقراطية ويركّز على القيم الإنسانية.

الصوت يتحكم في الضوء
الصوت يتحكم في الضوء

البيان

timeمنذ يوم واحد

  • البيان

الصوت يتحكم في الضوء

تمكن باحثو جامعة ستانفورد من التحكم في الضوء باستخدام الموجات الصوتية، داخل فجوات نانوية ضيقة، لا تتجاوز بضع ذرات، حيث ابتكروا جهازاً بسيطاً ظاهرياً، وعند تعريضه لموجات صوتية عالية التردد عبر مكبر فوق صوتي دقيق تبدأ الجسيمات في الاهتزاز، مسببة تغيرات طفيفة في الفجوة بين الجسيمات والمرآة، تسمح بتغيير لون الضوء وشدته بدقة غير مسبوقة.

«غوغل» تصادق على مدونة قواعد السلوك الأوروبية للذكاء الاصطناعي
«غوغل» تصادق على مدونة قواعد السلوك الأوروبية للذكاء الاصطناعي

صحيفة الخليج

timeمنذ يوم واحد

  • صحيفة الخليج

«غوغل» تصادق على مدونة قواعد السلوك الأوروبية للذكاء الاصطناعي

أعلنت «غوغل» الأربعاء، أنها ستوقّع على مدونة قواعد السلوك الخاصة بنماذج الذكاء الاصطناعي الخاصة بالاتحاد الأوروبي، على عكس «ميتا». وقال رئيس الشؤون العالمية في «غوغل» كينت ووكر «سننضم إلى الكثير من الشركات الأخرى، في التوقيع على مدونة قواعد السلوك الخاصة بالاتحاد الأوروبي للذكاء الاصطناعي المخصص للاستخدام العام». وسبق لشركة «أوبن أيه آي» مبتكرة «تشات جي بي تي» ولشركة «ميسترال» الفرنسية الناشئة أن أعلنتا عن توقيعهما على مدونة السلوك هذه، بينما صرحت «ميتا» (فيسبوك، إنستغرام وسواهما)، وهي من أشد منتقدي القواعد الرقمية الأوروبية، بأنها لن تفعل ذلك. ونُشرت هذه التوصيات الأوروبية في 10 تموز/ يوليو، وهي تتناول أحدث نماذج الذكاء الاصطناعي، مثل «تشات جي بي تي»، وتركز بشكل خاص على قضايا حقوق النشر. ويدعو الاتحاد الأوروبي إلى استبعاد المواقع المعروفة بأعمال القرصنة المتكررة من الذكاء الاصطناعي، ويطلب من الموقعين الالتزام بالتحقق من أن نماذجهم لا تحتوي على مضامين مسيئة أو عنيفة. تشريع يغضب الشركات وصُممت هذه التوصيات لنماذج الذكاء الاصطناعي المخصصة للاستخدام العام، مثل «تشات جي بي تي» و«غروك» من منصة «إكس»، و«جيميناي» من «غوغل». واستحوذت «غروك» على اهتمام إعلامي واسع أخيراً لنشرها مواقفة متطرفة ومسيئة. واعتذرت شركة «إكس أيه آي» الناشئة المملوكة لإيلون ماسك والمسؤولة عن «غروك» عن «السلوك الفظيع» لبرنامجها المخصص للدردشة. ورغم كون هذه «المدونة» غير مُلزمة، ستستفيد الشركات الموقعة عليها من «عبء إداري مُخفّف» عند إثبات امتثالها للتشريعات الأوروبية للذكاء الاصطناعي، وفقاً لما وعدت به المفوضية الأوروبية. وأثار هذا التشريع الذي سمّيَ «قانون الذكاء الاصطناعي»، غضب شركات التكنولوجيا العملاقة، التي دعت مراراً وتكراراً إلى تأجيل تنفيذه. تطوير بطيء وكررت «غوغل» الأربعاء أن القواعد الأوروبية «قد تؤدي إلى إبطاء تطوير الذكاء الاصطناعي في أوروبا». لكنّ المفوضية أبقت على جدولها الزمني، إذ يبدأ التنفيذ في 2 آب/ أغسطس، ويدخل معظم المتطلبات حيز التنفيذ بعد عام. وأكدت المفوضية أنها تسعى إلى الحد من تجاوزات الذكاء الاصطناعي مع تجنب خنق الابتكار. ولهذا السبب، تُصنّف الأنظمة وفقاً لمستوى خطورتها، مع فرض قيود تتناسب مع مستوى الخطورة. وستخضع التطبيقات العالية المخاطر، المستخدمة على سبيل المثال في البنية التحتية الحيوية، والتعليم، والموارد البشرية، وإنفاذ القانون، لمتطلبات أكثر صرامة بحلول سنة 2026 قبل أي ترخيص تسويق في أوروبا. (أ ف ب)

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store