
متسللون صينيون استخدموا «ChatGPT» في القرصنة
حذّرت شركة «OpenAI» المطورة لتطبيق «ChatGPT» من تزايد عدد المجموعات الصينية التي تستخدم تقنية الذكاء الاصطناعي الخاصة بها في عمليات سرية.
وقالت الشركة الناشئة التي تتخذ من سان فرانسيسكو مقراً لها في تقرير إنها لاحظت أنه على الرغم من توسع نطاق هذه المجموعات وأساليبها، فإن العمليات المكتشفة كانت صغيرة النطاق بشكل عام واستهدفت عدداً قليلاً من الجمهور، وفق ما أفادت وكالة (رويترز).
كما أوردت الشركة في تقريرها بعض الأمثلة، لافتة إلى أنها حظرت حسابات لـ«تشات جي.بي.تي» نشرت على وسائل التواصل الاجتماعي منشورات تتعلق بمواضيع سياسية وجيوسياسية ذات صلة بالصين، بما في ذلك انتقاد لعبة فيديو تركز على تايوان، فضلاً عن توجيه اتهامات كاذبة لناشط باكستاني ومحتوى يتعلق بإغلاق الوكالة الأميركية للتنمية الدولية.
وفي مثال آخر، أشارت إلى أن متسللين مرتبطين بالصين استخدموا الذكاء الاصطناعي لدعم مراحل مختلفة من عملياتهم للقرصنة الإلكترونية، بما في ذلك البحث مفتوح المصدر وتعديل النصوص واستكشاف أخطاء تكوينات النظام وتطوير أدوات لاختراق كلمات المرور وأتمتة وسائل التواصل الاجتماعي.
يشار إلى أن مخاوف عديدة كانت برزت منذ ظهور «تشات جي.بي.تي» في أواخر 2022 متعلقة بالعواقب المحتملة لتقنية الذكاء الاصطناعي التوليدي، والتي يمكنها إنتاج نصوص وصور وأصوات تشبه التي ينتجها الإنسان بسرعة وسهولة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الأنباء
منذ 4 أيام
- الأنباء
اكتشاف سبب محوري لـ «تحيز» الشبكات العصبية في معالجة المعلومات
كشف باحثون من معهد «ماساتشوستس» عن سبب ميل النماذج اللغوية الكبيرة مثل ChatGPT أو DeepSeek إلى المبالغة في تقدير المعلومات الموجودة في بداية ونهاية النص مع إهمال منتصفه. وهذه الظاهرة التي تسمى «تحيز الموضع» قد تعوق المستخدمين الذين يبحثون عن عبارات مفتاحية في المستندات الطويلة. وطور فريق علمي بقيادة الباحث شين يي وو من معهد «ماساتشوستس» التكنولوجي نمطا يفسر سبب تركيز النماذج اللغوية الكبيرة مثل ChatGPT على بداية ونهاية النص. فهي تقرأ النص على أجزاء و«تركز» على الكلمات الأكثر أهمية لفهمه، لكن بعض الإعدادات التقنية، مثل قدرتها على رؤية الكلمات السابقة فقط أو توجيهات ترتيب الكلمات، تخلق تحيزا. والسبب الرئيسي لاهتمامها ببداية النص مرتبط بالمعالجة التسلسلية، حيث تأخذ النماذج في الاعتبار الكلمات السابقة فقط، مما يجعل الأجزاء الأولية تبدو أكثر تأثيرا. وعلى سبيل المثال ففي وثيقة متكونة من 30 صفحة، تصل احتمالية العثور على المعلومة المطلوبة في البداية أو النهاية إلى 85%، بينما في المنتصف لا تتجاوز 60%.


الأنباء
١٨-٠٦-٢٠٢٥
- الأنباء
«ميتا» فشلت في استقطاب مواهب «OpenAI» بعروض وصلت لـ 100 مليون دولار
أجرى مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، حملة توظيف مكثفة مؤخرا، سعيا منه لضم باحثين من الطراز الأول في مجال الذكاء الاصطناعي. وشملت الحملة محاولة استقطاب مواهب من مختبرات منافسة للانضمام إلى فريق «ميتا» الجديد للذكاء الاصطناعي الفائق. وتهدف الحملة لتكوين فريق يعمل ضمن فريق بقيادة ألكسندر وانج، الرئيس التنفيذي السابق لشركة سكيل إيه آي، بحسب تقرير نشره موقع «تك كرانش» واطلعت عليه «العربية Business»، حيث أفادت التقارير بأن «ميتا» عرضت على موظفي «OpenAI» و«غوغل ديب مايند» حزم تعويضات تزيد قيمتها على 100 مليون دولار. وأكد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، هذه التقارير في بودكاست مع شقيقه، جاك ألتمان، والذي أشار إلى أن جهود زوكربيرغ في التوظيف باءت بالفشل إلى حد كبير، وحرص على توجيه المزيد من الانتقادات اللاذعة إلى «ميتا» خلال هذه العملية. وقال سام ألتمان في البودكاست: بدأت ميتا بتقديم عروض ضخمة للعديد من أعضاء فريقنا. كما تعلمون، مكافآت توقيع بقيمة 100 مليون دولار، أي أكثر من ذلك كتعويضات سنوية. وتابع: أنا سعيد حقا لأنه، على الأقل حتى الآن، لم يقرر أي من أفضل موظفينا قبول عرضه. وقال الرئيس التنفيذي لشركة OpenAI إنه يعتقد أن موظفيه توصلوا إلى أن لدى «OpenAI» فرصة أفضل لتحقيق الذكاء الاصطناعي العام، وقد تصبح الشركة الأكثر قيمة يوما ما. وأضاف انه يعتقد أن تركيز «ميتا» على حزم التعويضات العالية للموظفين، بدلا من مهمة تقديم الذكاء الاصطناعي العام، لن يخلق على الأرجح ثقافة عمل رائعة. وورد أن «ميتا» حاولت استقطاب أحد الباحثين الرئيسيين في «OpenAI»، نعوم براون، بالإضافة إلى مهندس الذكاء الاصطناعي في «غوغل»، كوراي كافوكوغلو، ومع ذلك، باءت كلتا المحاولتين بالفشل. وأضاف ألتمان أنه يعتقد أن ثقافة الابتكار في «OpenAI» كانت مفتاحا رئيسيا لنجاحها، وأن «جهود ميتا الحالية في مجال الذكاء الاصطناعي لم تحقق النتائج المرجوة» بحسب وصفه، مشيرا إلى انه يحترم العديد من جوانب «ميتا»، لكنه أشار إلى أنه لا «يعتقد أنها شركة بارعة في الابتكار». وفي وقت لاحق من البودكاست، قال ألتمان إنه يعتقد أنه لا يكفي للشركات اللحاق بركب الذكاء الاصطناعي - بل عليها الابتكار بجدية للبقاء في المقدمة. وتسلط تعليقات الرئيس التنفيذي لشركة OpenAI الضوء على بعض التحديات التي يتعين على «ميتا» التغلب عليها لبناء مختبر ناجح للذكاء الاصطناعي الفائق. إلى جانب انضمام وانغ، أعلنت «ميتا» الأسبوع الماضي أنها استثمرت بشكل كبير في شركة وانغ السابقة، Scale AI. كما أفادت التقارير بأن الشركة استقطبت عددا من باحثي الذكاء الاصطناعي المتميزين، مثل جاك راي من «غوغل ديب مايند» ويوهان شالكويك من «Sesame AI». وفي العام المقبل، سيتعين على «ميتا» تعزيز فريق الذكاء الاصطناعي الجديد لديها، بينما تعمل «OpenAI» و«أنثروبيك» و«غوغل ديب مايند» بكامل طاقتها. وفي الأشهر المقبلة، من المتوقع أن تطلق «OpenAI» نموذج ذكاء اصطناعي مفتوح، والذي من المرجح أن يعيق «ميتا» في سباق الذكاء الاصطناعي أكثر. ووصف سام ألتمان موجزا لوسائل التواصل الاجتماعي يعمل بالذكاء الاصطناعي، ويبدو أنه من المرجح أن يتعدى على تطبيقات «ميتا». وأعرب الرئيس التنفيذي لشركة OpenAI عن فضوله لاستكشاف تطبيق تواصل اجتماعي يستخدم الذكاء الاصطناعي لتقديم موجزات مخصصة بناء على رغبات المستخدمين، بدلا من الموجز الخوارزمي الافتراضي الموجود في تطبيقات التواصل الاجتماعي التقليدية. ويقال إن شركة OpenAI تعمل داخليا على تطبيق للتواصل الاجتماعي. وفي الوقت نفسه، تجري «ميتا» تجربة على شبكة تواصل اجتماعي مدعومة بالذكاء الاصطناعي من خلال تطبيق Meta AI. ومع ذلك، يبدو أن بعض المستخدمين يشعرون بالحيرة تجاه تطبيق Meta AI، وقد شاركوا بعض الدردشات الشخصية للغاية مع العالم الخارجي. الخلافات بين «OpenAI» و«مايكروسوفت» تتصاعد تصاعدت حدة التوترات بين شركة الذكاء الاصطناعي «OpenAI» و«مايكروسوفت» بشأن مستقبل شراكتهما الشهيرة في مجال الذكاء الاصطناعي. وتسعى «OpenAI» إلى تخفيف قبضة «مايكروسوفت» على منتجاتها بمجال الذكاء الاصطناعي وموارد الحوسبة، والحصول على موافقة عملاق التكنولوجيا على تحولها إلى شركة ربحية. وتعد موافقة «مايكروسوفت» على هذا التحول أمرا أساسيا لقدرة «OpenAI» على جمع المزيد من الأموال وطرح أسهمها للاكتتاب العام، بحسب تقرير لصحيفة وول ستريت جورنال، اطلعت عليه «العربية Business». لكن المفاوضات كانت صعبة للغاية لدرجة أن المسؤولين التنفيذيين في «OpenAI» ناقشوا في الأسابيع الأخيرة ما يعتبرونه خيارا حاسما، وهو اتهام «مايكروسوفت» بانتهاج ممارسات مناهضة للمنافسة خلال شراكتهما، وفقا لما نقله التقرير عن مصادر مطلعة على الأمر. وقد تتضمن هذه الخطوة طلب مراجعة تنظيمية فيدرالية لشروط العقد للتحقق من انتهاكات محتملة لقانون مكافحة الاحتكار، بحسب المصادر. ومثل هذه الخطوة قد تهدد علاقة الشركتين الممتدة لست سنوات، والتي تعتبر على نطاق واسع واحدة من أنجح الشراكات في تاريخ التكنولوجيا. ولسنوات، دعمت «مايكروسوفت» صعود «OpenAI» مقابل حصولها على حق الوصول المبكر إلى تقنياتها، لكن الطرفين تحولا منذ ذلك الحين إلى منافسين، مما زاد صعوبة إيجاد أرضية مشتركة. وذكرت مصادر أن «OpenAI» و«مايكروسوفت» وصلتا إلى طريق مسدود بشأن شروط استحواذ الأولى على شركة البرمجة الناشئة «Windsurf» مقابل 3 مليارات دولار. وتتمتع «مايكروسوفت» حاليا بحق الوصول إلى جميع حقوق الملكية الفكرية الخاصة بـ «OpenAI»، وفقا لاتفاق الشركتين. وتقدم «مايكروسوفت» منتجها الخاص للبرمجة بالذكاء الاصطناعي، وهو «GitHub Copilot»، الذي ينافس «OpenAI». ولا ترغب «OpenAI» في أن تتمكن «مايكروسوفت» من الوصول إلى الملكية الفكرية لـ«Windsurf». ولاتزال الشركتان على خلاف حول حصة «مايكروسوفت» في «OpenAI» في حال تحول الأخيرة إلى شركة ذات منفعة عامة. وتطلب «مايكروسوفت» حاليا حصة بالشركة الجديدة أكبر مما ترغب «OpenAI» في تقديمه، وفقا لمصادر.


جريدة أكاديميا
١٥-٠٦-٢٠٢٥
- جريدة أكاديميا
دراسة جديدة تكشف طبيعة الارتباط العاطفي بين البشر والذكاء الاصطناعي
مع تزايد الاعتماد على تقنيات الذكاء الاصطناعي في مختلف جوانب الحياة اليومية، بدأ الباحثون بدراسة كون الروابط العاطفية التي يشكّلها البشر مع الذكاء الاصطناعي تشبه علاقاتهم الإنسانية. وفي دراسة حديثة أُجريت في اليابان، طوّر باحثون أداة جديدة لقياس طبيعة التعلّق العاطفي بين الإنسان والذكاء الاصطناعي، ووجدوا أن بعض الأشخاص يسعون إلى الحصول على الدعم والطمأنينة من هذه الأنظمة، في حين يفضّل آخرون تجنّب أي ارتباط عاطفي. تفاصيل الدراسة مع زيادة انتشار الذكاء الاصطناعي بسرعة، أصبحت التفاعلات بين الإنسان والآلة أكثر شيوعًا وتعقيدًا. ولتحليل هذه العلاقة من منظور نفسي، ولفهم العلاقات بين البشر والذكاء الاصطناعي بنحو أعمق، خاصة من ناحية الثقة والارتباط العاطفي، استخدم باحثون من جامعة واسيدا (Waseda University) في اليابان نظرية التعلّق التي تفسّر كيف تتكوّن الروابط العاطفية بين البشر، ونشرت نتائج هذه الدراسة في مجلة Current Psychology بتاريخ 9 مايو 2025. وقال الباحث المشارك Fan Yang: 'لطالما ركزت أبحاثنا على كيفية تكوّن الروابط العاطفية بين الناس، ولكننا الآن نلاحظ أن الذكاء الاصطناعي – وخاصة أدوات الذكاء الاصطناعي التقليدي مثل ChatGPT – أصبح يوفّر شعورًا بالأمان لبعض المستخدمين، وهذا يجعل من الضروري دراسة طبيعة هذه العلاقة'. ولإجراء الدراسة، ابتكر الفريق مقياسًا جديدًا أطلقوا عليه اسم 'مقياس الخبرات في العلاقات بين الإنسان والذكاء الاصطناعي' (EHARS)، لقياس الميول النفسية والعاطفية التي يُظهرها الأفراد عند تعاملهم مع الذكاء الاصطناعي. وأظهرت نتائج الدراسة أن نحو 75% من المشاركين استخدموا الذكاء الاصطناعي للحصول على نصائح وإرشادات، وهذا يشير إلى أن العديد من الأشخاص لا ينظرون إلى الذكاء الاصطناعي كأداة للحصول على المعلومات فقط، بل كمصدر للدعم النفسي. وحددت الدراسة بُعدين رئيسيين لفهم العلاقة العاطفية بين البشر والذكاء الاصطناعي، هما: قلق التعلّق : وهو يشير إلى الحاجة المستمرة إلى الشعور بالطمأنينة والخوف من عدم تلقّي استجابات كافية من الذكاء الاصطناعي. : وهو يشير إلى الحاجة المستمرة إلى الشعور بالطمأنينة والخوف من عدم تلقّي استجابات كافية من الذكاء الاصطناعي. تجنّب التعلّق: وهو يُعبّر عن الميل إلى الابتعاد عن الروابط العاطفية مع هذه الأنظمة، وتفضيل التفاعل المحدود والوظيفي. تُظهر هذه النتائج أن الطريقة التي يتفاعل بها الناس مع الذكاء الاصطناعي تتأثر بأنماط التعلّق العاطفي لديهم، تمامًا كما يحدث في العلاقات بين البشر. ولكن لا تعني هذه النتائج بالضرورة أن البشر يطوّرون مشاعر حقيقية تجاه الذكاء الاصطناعي، لكنها توضح أن الأطر النفسية التي يستخدمها العلماء لفهم العلاقات الإنسانية، يمكن أن تُطبّق أيضًا لفهم علاقات البشر بالتكنولوجيا. وبناءً على ذلك، يمكن أن تُستخدم هذه النتائج لتحسين تصميم الرفقاء الرقميين أو أدوات الدعم النفسي المعتمدة على الذكاء الاصطناعي. على سبيل المثال: يمكن تعديل استجابات روبوتات المحادثة المستخدمة في علاجات العزلة أو تطبيقات الصحة النفسية لتناسب احتياجات المستخدمين العاطفية المختلفة، مثل: تقديم استجابات أكثر تعاطفًا لأولئك الذين يعانون قلق التعلّق، والحفاظ على مسافة مع من يتجنبون التعلق. بالإضافة إلى ذلك، يمكن للمطورين أو علماء النفس أن يستخدموا مقياس EHARS المقترح لتقييم العلاقة العاطفية التي يشكّلها الأشخاص مع الذكاء الاصطناعي، وتعديل إستراتيجيات التفاعل وفقًا لذلك.