
الذكاء الاصطناعي: معلم أم منافس؟
تشير دراسة أجرتها جامعة هارفارد في سبتمبر 2024 إلى أن الطلاب الذين استخدموا معلمي الذكاء الاصطناعي حققوا نتائج أكاديمية أعلى بنسبة ملحوظة مقارنة بالتعليم التقليدي. الدراسة، التي شملت عينة من الطلاب في تخصصات متنوعة، أظهرت أن متوسط درجات الطلاب الذين اعتمدوا على أدوات الذكاء الاصطناعي بلغ 4.5 من 5، بينما سجل الطلاب في الفصول التقليدية متوسط 3.5. هذه النتائج تعكس قدرة الذكاء الاصطناعي على تقديم تجربة تعليمية مخصصة، حيث يستطيع تحليل احتياجات الطالب الفردية وتقديم محتوى يتناسب مع مستواه وقدراته.
على سبيل المثال، تستخدم منصات مثل الدروس التفاعلية القائمة على الذكاء الاصطناعي خوارزميات لتتبع تقدم الطالب، مما يتيح تقديم تمارين مخصصة تزيد من فعالية التعلم. ومع ذلك، هناك مخاوف جدية حول تأثير الذكاء الاصطناعي على الوظائف التعليمية. دراسة أجرتها منظمة التعاون الاقتصادي والتنمية (OECD) في عام 2024 كشفت أن 27% من الوظائف التعليمية في الدول المتقدمة قد تكون عرضة للأتمتة بحلول عام 2030، خاصة المهام الإدارية والتدريس الروتيني. هذه الإحصائية تثير تساؤلات حول مستقبل المعلمين، خاصة أولئك الذين يعتمدون على التدريس التقليدي. ومع ذلك، تؤكد الدراسة أن المهام التي تتطلب التفكير الإبداعي، التفاعل البشري، واتخاذ القرارات المعقدة ستبقى حكرًا على المعلمين البشر، مما يعزز فكرة أن الذكاء الاصطناعي يمكن أن يكون مكملًا وليس بديلاً كاملاً .
من ناحية أخرى، تبرز تطبيقات الذكاء الاصطناعي في التعليم كعامل محفز للإبداع. على سبيل المثال، أظهرت تجربة أجريت في المملكة المتحدة أن استخدام ألعاب تعليمية مدعومة بالذكاء الاصطناعي زاد من مشاركة الطلاب بنسبة 43% مقارنة بالفصول التقليدية. هذه الأدوات لا تعزز تجربة التعلم فحسب، بل تساعد الطلاب على تطوير مهارات التفكير النقدي وحل المشكلات.
رغم هذه الفوائد، هناك تحديات أخلاقية وتقنية. دراسة أجرتها جامعة ستانفورد في أكتوبر 2023 أشارت إلى أن الافتقار إلى الشفافية في نماذج الذكاء الاصطناعي يثير مخاوف بشأن المساءلة. على سبيل المثال، قد تؤدي الخوارزميات غير المنظمة إلى تحيزات في تقييم الطلاب أو توجيههم نحو مسارات تعليمية غير مناسبة. علاوة على ذلك، هناك قلق من أن الاعتماد المفرط على الذكاء الاصطناعي قد يقلل من التفاعل البشري، وهو عنصر أساسي في عملية التعلم. وتشير إحصاءات من تقرير QuestionPro لعام 2023 إلى أن 62% من الطلاب يفضلون التفاعل المباشر مع المعلمين على الأدوات الرقمية، مما يعكس أهمية التوازن بين التكنولوجيا والتفاعل البشري.
في الختام، يمثل الذكاء الاصطناعي ثورة تعليمية تجمع بين الإمكانات والتحديات. من خلال تقديم تجارب تعليمية مخصصة وأتمتة المهام الروتينية، يثبت الذكاء الاصطناعي أنه معلم فعال وداعم. ومع ذلك، فإن دوره كمنافس محتمل لا يمكن تجاهله، خاصة مع تزايد الأتمتة في المهام التعليمية. الحل يكمن في الدمج الذكي للذكاء الاصطناعي مع التدريس البشري لضمان تحقيق أفضل النتائج. مع استمرار التقدم، يتعين على المؤسسات التعليمية وضع سياسات تعليمية تضمن الدقة في استخدام هذه التقنيات، ليبقى الذكاء الاصطناعي شريكًا في بناء مستقبل التعليم، وليس بديلاً يهدد جوهره الإنساني.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»
تركتُ وكيل الذكاء الاصطناعي يدير شؤوني اليومية. لنتخيل أنك تجلس لتناول وجبة لم تطلبها مباشرة، لتكتشف أن اختيارها ودفع ثمنها وتسليمها إلى طاولتك، تمت بواسطة وكيل ذكاء اصطناعي يعمل نيابة عنك. لم يعد هذا السيناريو خيالاً علمياً. إذ يضج قطاع التكنولوجيا الآن بـ«وكلاء الذكاء الاصطناعي»: مساعدون رقميون يتولون مهام متنوعة مثل طلب الطعام وإدارة البريد الإلكتروني أو تجميع الرموز البرمجية. ويَعِدُ هؤلاء الوكلاء بتغيير الحياة اليومية من خلال أتمتة القرارات الروتينية واللوجستيات، ما يقدم لمحة عن مستقبل يُدار فيه الكثير من عالمنا الرقمي والمادي من خلال أنظمة ذكية. وأنا أتحدث هنا عن تجربتي مع اثنين من وكلاء الذكاء الاصطناعي الرائدين: «أوبريتور - Operator»، الذي طورته شركة «أوبن إيه آي» التي طورت «تشات جي بي تي»، و«مانوس - Manus»، من تطوير شركة «باترفلاي إيفكت - Butterfly Effect»، وهي شركة صينية ناشئة. ومن خلال التجربة والخطأ، وقدر لا بأس به من التخمينات، فاني سأشرع في الإجابة على سؤالين أساسيين: هل نحن مستعدون للثقة في وكلاء الذكاء الاصطناعي الذين يتحكمون بشكل كبير في حياتنا، وهل تفي هذه الأنظمة بوعودها؟ الذكاء الاصطناعي التوليدي. إن أساس هذه القفزة التكنولوجية هو الذكاء الاصطناعي التوليدي، المدعوم بالنماذج اللغوية الكبيرة (LLMs) المدربة على مجموعات بيانات ضخمة جُمعت من الإنترنت. ومنذ عام 2023، احتل الذكاء الاصطناعي التوليدي عناوين الأخبار لقدرته على إنشاء محتوى أصلي - سواء كان نصاً أو صوراً أو رموزاً كومبيوترية - بناء على مطالبات اللغة الطبيعية. ومع ذلك، على الرغم من الطابع التحويلي لهذا الأمر، فقد اقتصر دور الذكاء الاصطناعي بصورة كبيرة على دور «مساعد الطيار»: إذ إنه يقترح المحتوى، ويقدم التوصيات، أو يجيب على الأسئلة. > الذكاء الاصطناعي الوكيل، من جانبه مصمم لتجاوز الاقتراحات السلبية إلى مستوى اتخاذ القرارات وتنفيذها بصورة فعالة. ويشرح بيتر ستون، مؤسس «مجموعة أبحاث وكلاء التعلم» في جامعة تكساس في أوستن، أن الذكاء الاصطناعي الوكيل «يستشعر البيئة، ويقرر ما يجب فعله، ويتخذ الإجراء». وبدلاً من مجرد التوصية بطبق ما أو تحديد موقع مطعم، يمكن للذكاء الاصطناعي الوكيل الآن تصفح قوائم الطعام، وتقديم الطلبات، والدفع باستخدام بطاقة الائتمان خاصتك، وتنسيق عملية التسليم - كل ذلك بشكل مستقل. بينما يدعم الذكاء الاصطناعي التوليدي أساس هذه الأنظمة، يضيف الذكاء الاصطناعي الوكيل طبقات من التفاعل في العالم الحقيقي. عندما يُمنح هدفاً، مثل «طلب العشاء» أو «إنشاء تطبيق»، يضع الذكاء الاصطناعي خطة متعددة الخطوات، ويقرر أفضل طريقة لاستخدام الأدوات الرقمية مثل متصفحات الويب أو التطبيقات. في كل خطوة، يُعيد تقييم تقدمه، ويُعدل إجراءاته حتى يُقرر أن الهدف قد تحقق أو أنه غير قابل للتحقيق. حتى أنه يستخدم حلقة تغذية مرتدة - تسمى التعلم المعزز من التغذية البشرية الراجعة - للتعلم من النجاحات والأخطاء. يلاحظ ستون أنه على الرغم من أن برامج الذكاء الاصطناعي مثل «ديب بلو - Deep Blue» من تطوير شركة «آي بي إم - IBM» قد تغلبت على بطل العالم في الشطرنج غاري كاسباروف في عام 1997، غير أن تلك الأنظمة لم تكن «وكيلة» حقاً. إذ لم يكن برنامج «ديب بلو» قادراً على التفاعل مع العالم الحقيقي في غياب المساعدة البشرية. وعلى النقيض من ذلك، يمكن للذكاء الاصطناعي الوكيل اليوم أن يعمل في الفضاءات الرقمية مع تدخل بشري طفيف أو لعله لا يُذكر بالمرة. للوقوف على كيفية عمل الذكاء الاصطناعي الوكيل في الواقع العملي، طلبت الحصول على حق الوصول التجريبي إلى نظامين حقيقيين: «أوبريتور» و«مانوس». ووافقت الشركتان على منحي حق الوصول. ويتمثل هدفي في استخدام هذين النظامين الوكيلين كمساعدين شخصيين، مما يُخفف عن المستخدم أكبر قدر ممكن من العمل الروتيني المكثف. > نتائج متباينة وإحباطات للمستخدمين. كشفت التجارب عن مزيج من النجاحات المبهرة والإحباطات المؤثرة. إذ عند تحميل عرض تقديمي إلى «مانوس»، وطلب إعادة تنسيقه، أكمل الوكيل المهمة ولكن بطريقة تتطلب تصحيحاً يدوياً كبيراً - ما يجعل التعديلات المستقبلية مرهقة. كان أداء «مانوس» أفضل عند إنشاء وتجهيز تطبيق لمتجر التطبيقات، حيث استفاد من مختلف الأدوات الرقمية وواجهات سطر الأوامر بدرجة معتبرة من الكفاءة. في الوقت نفسه، يواجه «أوبريتور» صعوبات في تنفيذ المهام الإدارية. فعند الطلب منه إدارة الفواتير الإلكترونية لي، يرتكب أخطاء أساسية - مثل إدخال نص في حقول رقمية ونسخ المعلومات بشكل غير صحيح، مما يؤدي إلى اقتراح إصدار فاتورة للناشر بمبلغ 8001 جنيه إسترليني مقابل مقال واحد. هذه الأخطاء أكثر من مجرد إزعاج؛ إنها تكشف عن الطبيعة الناشئة والقابلة للخطأ لوكلاء الذكاء الاصطناعي الحاليين. ومع ذلك، أصررت على المضي قدماً، حتى أنني كلفت «أوبريتور» بمهمة الترويج لهذا المقال على وجه التحديد. يقوم الذكاء الاصطناعي بصياغة وإرسال رسائل البريد الإلكتروني إلى الخبراء الذين تُجرى معهم المقابلات، ولكن نبرة الرسائل واختيار الكلمات فيها غير ملائم - فهي رسمية للغاية، وأحياناً ساذجة، وتفتقر إلى المعلومات الأساسية. كما أن «أوبريتور» لا يكشف أن وكيل الذكاء الاصطناعي - وليس المؤلف - هو الذي كتب المراسلات، ما قد يؤدي إلى حدوث ارتباك أو عدم ثقة. > نجاحات جزئية وردود فعل اجتماعية. من المثير للاهتمام أن رسائل البريد الإلكتروني التي أرسلها «أوبريتور» لم تكن فاشلة تماماً. فقد رد بعض المستلمين، مثل خبير الذكاء الاصطناعي بيتر ستون، بشكل إيجابي، وتقبلوا غرابة الذكاء الاصطناعي. وأشاد آخر بـ«dogfooding: الاختبار التجريبي» للمؤلف - وهو مصطلح صناعي يستخدم للإشارة إلى استخدام المرء لتقنيته التجريبية الخاصة. ومع ذلك، رفض خبير آخر المشاركة، مشيراً إلى القيود المؤسسية. > الحقيقة وراء هذا التهويل. تروج شركات التكنولوجيا للذكاء الاصطناعي الوكيل باعتباره المساعد الذي لا يخطئ في المستقبل، لكن التجارب الحالية تشير إلى عكس ذلك. وبحسب كاريسا فيليز، اختصاصية الأخلاقيات في جامعة أكسفورد، يجب دراسة الحوافز الكامنة وراء هذه الأنظمة بمنتهى الدقة. يجري إنتاج وكلاء الذكاء الاصطناعي من قبل شركات لها مصالح تجارية خاصة بها. وإذا تمت برمجة وكيل ما أو استخدامه في شراكة لتفضيل خدمات معينة (على سبيل المثال، إعطاء الأولوية لشركات طيران أو مصادر أخبار معينة)، فقد لا تتوافق توصياته دائماً مع مصالح المستخدم. وهنا فإني أستشهد بشراكات «أوبن إيه آي»، مشيراً إلى أن «أوبريتور» قد يفضل شركات أو مصادر بيانات بعينها عند أداء المهام. > مخاطر الأمان والخصوصية. هناك مصدر قلق أكثر أهمية وهو الخصوصية. يتطلب الذكاء الاصطناعي الوكيل عادة وصولاً واسعاً إلى المعلومات الحساسة - الحسابات المالية، والاتصالات الاجتماعية، وكلمات المرور، وغير ذلك. وتحذر كاريسا فيليز من أن استخدام مثل هذه الوكلاء يستلزم كسر الحواجز الرقمية التي تحمي بياناتنا، ما يزيد من خطر الانتهاكات أو سوء الاستخدام. ويزداد قلقي عندما يطلب «أوبريتور» بيانات حساسة، مثل معلومات بطاقة الائتمان، عبر واجهات غير مألوفة. الثقة المطلوبة من المستخدمين كبيرة، وبالتالي فإن احتمال سوء الاستخدام أو الخطأ مرتفع بالتبعية* مجلة «نيو ساينتست»، خدمات «تريبيون ميديا»يدعم هذا القلق بحث أجراه تيانشي لي من جامعة نورث إيسترن، الذي اختبر وكلاء الذكاء الاصطناعي الرائدين، ووجد أنهم عرضة لهجمات بسيطة. على سبيل المثال، إذا تم إخفاء تعليمات ضارة في مستند، فقد يتبعها الوكيل من دون وعي، ويدخل بيانات الاعتماد أو ينقر على روابط خطيرة من دون علم المستخدم. يشير تيانشي لي إلى عدم وجود آليات فعالة للمستخدمين للتدخل أو تصحيح هذه السلوكيات. > الحواجز الوقائية والإخطارات. للإقلال من المخاطر، صُمم بعض وكلاء الذكاء الاصطناعي بحيث يُخطرون المستخدمين باستمرار قبل اتخاذ أي إجراء. ورغم أن هذا يوفر طبقة إضافية من الأمان، فإنه قد يصبح عبئاً ثقيلاً، حيث يتطلب قدراً كبيراً من الإشراف بحيث تفقد أي مكاسب في الراحة. ونتيجة لذلك، بدلاً من أن يعمل الذكاء الاصطناعي كمساعد مستقل، قد يبدو وكأنه متدرب غير منضبط يتطلب إشرافاً مستمراً وتصحيحات وإدارة دقيقة. > تكنولوجيا غير ناضجة بعد. تُقر كل من «أوبن إيه آي» و«باترفلاي إيفكت» بأن وكلائهما لا يزالان قيد التطوير. يعترف كولين جارفيس، قائد فريق الهندسة في «أوبن إيه آي»، بأن الذكاء الاصطناعي الوكيل الحالي يحتاج إلى «الكثير من العمل للحصول على تلك الموثوقية». في حين تصف شركة «باترفلاي إيفكت» الوكيل «مانوس» بأنه في مرحلة «تجريبية»، مع استمرار الجهود لتحسين أدائه. تردد صدى هذه الاعترافات في سابقة تاريخية. ففي عام 2018، وعد الوكيل «دوبلكس - Duplex» من شركة «غوغل» بإحداث ثورة في الحجوزات الهاتفية الآلية، لكنه أخفق في تحقيق انتشاره على نطاق واسع. ولا تزال التحديات المتعلقة بالموثوقية وثقة المستخدم والتكامل السلس تشكل عقبات كبيرة أمامه. > المبالغة الترويجية مقابل الواقع. على الرغم من هذه العيوب، يستمر الضجيج حول الذكاء الاصطناعي الوكيل في الازدياد. وارتفعت الإشارات إلى الذكاء الاصطناعي الوكيل في تقارير الأرباح المالية بصورة كبيرة - حيث ارتفعت 51 ضعفاً مع نهاية العام الماضي مقارنة بأوائل عام 2022. وتباشر شركات مثل «سيلز فورس» بالفعل نشر وكلاء الذكاء الاصطناعي للتفاعل مع العملاء، ليس فقط كأدوات دعم، وإنما كممثلي مبيعات في الخطوط الأمامية. ومع ذلك، يُحذر الخبراء من المبالغة في استنتاجات الأداء المثير للإعجاب لأنظمة الذكاء الاصطناعي الحالية مثل «تشات جي بي تي»، إذ يُحذر بيتر ستون من «المبالغة في الترويج»، مشيراً إلى أنه على الرغم من أن الذكاء الاصطناعي الوكيل يمكن أن يكون رائعاً في سياقات محددة ومحدودة، فإنه بعيد كل البعد عن أن يكون جاهزاً ليحل محل العمال البشريين، أو يدير جميع جوانب الحياة بصفة مستقلة. سوف يتطلب بلوغ هذه الطموحات تحقيق اختراقات تقنية كبيرة للغاية. > الوعود والمخاطر. تقدم تجربتي هذه مع وكلاء الذكاء الاصطناعي صورة مصغرة للتحديات التي يواجهها المجتمع مع انتشار هذه الأدوات. يمكن للذكاء الاصطناعي الوكيل، في بعض الأحيان، أن يقدم لمحات من البراعة - من خلال تنفيذ المهام بسرعة التي قد تكون مملة أو تستغرق وقتاً طويلاً. غير أن الإحباط وعدم اليقين والمخاطر غالبا ما تطغى على هذه الفوائد. في النهاية، سوف تعتمد رغبتنا في منح وكلاء الذكاء الاصطناعي مسؤوليات أكبر على مدى نضج التكنولوجيا، وشفافية الشركات التي تقف وراءها، وتطوير آليات فعالة لضمان تحكم المستخدم وأمنه. حتى ذلك الحين، قد يكون من الأفضل التعامل مع حتى أبسط الأمور مثل طلب وجبة دجاج بشيء من الحذر الصحي، وربما إعادة التحقق يدوياً للتأكد من عدم نسيان إضافة مقرمشات الروبيان!


الرجل
منذ 3 ساعات
- الرجل
تطبيق ذكاء اصطناعي من Apple على خطى ChatGPT.. تقارير تكشف التفاصيل
تواصل آبل توسيع حدود استخدامها للذكاء الاصطناعي، مع فريق جديد مكرس لإنشاء محرك الإجابات، الذي قد يحدث ثورة في كيفية تعامل المستخدمين مع الأسئلة عبر الإنترنت. كيف تخطط أبل لمنافسة OpenAI؟ وفقًا لتقارير من مارك جورمان في وكالة "بلومبرغ"، يجتمع فريق متخصص تحت مسمى "الأسئلة، المعرفة، والمعلومات" بهدف تطوير تطبيق يشبه ChatGPT، يمكنه الرد على استفسارات المستخدمين باستخدام معلومات من جميع أنحاء الشبكة. ومن المتوقع أن يكون هذا المحرك إما تطبيقًا مستقلًا أو جزءًا من تحديثات سيري وسفاري في المستقبل. ويظهر أن آبل تسعى إلى تعزيز القدرات البحثية لمنتجاتها باستخدام الذكاء الاصطناعي، لتوفير تجربة أكثر تخصيصًا للمستخدمين، وقد يتضمن ذلك تحديثات موسعة لمساعدها الصوتي سيري. وظائف جديدة في آبل كما أشار جورمان إلى أن آبل قد بدأت في الإعلان عن وظائف لهذا الفريق، مع تركيز خاص على الباحثين الذين لديهم خبرة في خوارزميات البحث وتطوير محركات البحث. تأتي هذه المبادرة في وقت حساس بالنسبة للشركة، خاصة مع رغبتها في تقوية منافستها للمنتجات الذكية الأخرى مثل ChatGPT. وعلى الرغم من أن آبل قد دمجت ChatGPT بالفعل في سيري، إلا أن التحديثات الأكثر تخصيصًا لمساعد الصوت الذكي تأخرت عدة مرات. وفي الوقت نفسه، قد تضطر آبل إلى تعديل اتفاقياتها مع جوجل نتيجة لهزيمة الأخيرة في قضايا مكافحة الاحتكار، وهو ما قد يؤثر على طريقة البحث المدمجة في منتجات آبل.


الشرق السعودية
منذ 7 ساعات
- الشرق السعودية
"أنثروبيك" تحظر وصول OpenAI إلى واجهة Claude بعد انتهاك شروط الاستخدام
في خطوة تعكس تصاعد التوتر في سباق الذكاء الاصطناعي، أقدمت شركة "أنثروبيك" على سحب صلاحية الوصول الخاصة بشركة OpenAI إلى واجهة برمجة التطبيقات (API) لنموذجها اللغوي Claude، وذلك بعد أن اتهمتها بانتهاك شروط الاستخدام المنصوص عليها في الاتفاق التجاري بين الطرفين. ونقلت مجلة WIRED عن مصادر مطلعة، أن عملية الإيقاف أجريت الثلاثاء الماضي، حيث تم إخطار OpenAI بأن قرار المنع جاء نتيجة لاستخدام غير مصرح به للواجهة البرمجية الخاصة بـClaude. وقال المتحدث باسم "أنثروبيك"، كريستوفر نولتي، إن Claude Code "بات الخيار الأول للمبرمجين على مستوى العالم، لذلك لم يكن مفاجئاً أن نعلم أن موظفين تقنيين من OpenAI كانوا يستخدمون أدواتنا البرمجية قبيل طرح GPT-5. إلا أن هذا يشكل انتهاكاً صريحاً لشروط الخدمة". وتتضمن شروط الاستخدام التجاري لـ"أنثروبيك" بنوداً تحظر على العملاء استخدام خدماتها لبناء منتجات أو نماذج ذكاء اصطناعي منافسة، أو محاولة تحليل أو استنساخ خوارزميات الخدمة. ويأتي قرار الحظر في وقت تشير فيه التقارير إلى قرب إعلان OpenAI عن إطلاق نموذجها الجديد GPT-5، والذي يُتوقع أن يحمل تحسينات كبيرة في مجالات البرمجة التوليدية. وفقًا للمصادر، كانت OpenAI تستخدم Claude ضمن أدواتها الداخلية باستخدام صلاحيات مطورين خاصة، بدلاً من الواجهة العامة، وذلك لتقييم قدراته في البرمجة والكتابة الإبداعية، واختباره في سياقات حساسة تشمل خطاب الكراهية، والانتحار، والتشهير، وغيرها من المحاور الأمنية. الهدف من تلك الاختبارات أن تجري OpenAI مقارنات مع نماذجها الداخلية لتحسين الأداء وضمان التوافق مع معايير السلامة. معايير قياسية في ردها على القرار، قالت هانا وونج، رئيسة الاتصالات في OpenAI، إن اختبار النماذج المنافسة يمثل "ممارسة قياسية" في الصناعة، مشيرة إلى أن API الخاصة بـOpenAI لا تزال متاحة لـ"أنثروبيك" دون قيود. وأضافت: "بينما نحترم قرارهم بقطع الوصول، إلا أننا نشعر بخيبة أمل إزاء ذلك". من جهته، أكد نولتي، أن "أنثروبيك" ستواصل إتاحة وصول OpenAI فقط لأغراض السلامة والتقييم، وهي ممارسات متعارف عليها بين الشركات، لكنه رفض الإفصاح عما إذا كانت القيود الحالية ستؤثر على هذا التوجه. وقائع سابقة وهذه ليست المرة الأولى التي يُستخدم فيها سحب واجهات البرمجة كأداة تنافسية بين شركات التقنية، فقد سبق أن حظرت "ميتا" الوصول عن تطبيق "فاين" المملوك لمنصة "إكس"، في خطوة وُصفت لاحقاً بأنها سلوك احتكاري. كما اتخذت "سيلزفورس" في يوليو الماضي، خطوة مشابهة بمنع منافسين من الوصول إلى بيانات عبر Slack API. أما بالنسبة لـ"أنثروبيك"، فكانت قد منعت الشهر الماضي شركة Windsurf الناشئة من الوصول إلى Claude بعد شائعات عن نية OpenAI الاستحواذ عليها، وهي صفقة لم تكتمل في النهاية. وقال كبير العلماء في أنثروبيك، جاريد كابلان، في تصريحات سابقة لموقع TechCrunch: "سيكون من الغريب أن نبيع Claude لشركة مثل OpenAI". وقبل يوم واحد فقط من قطع الوصول إلى OpenAI، أعلنت Anthropic، فرض حدود جديدة على معدل استخدام Claude Code، بسبب تزايد الإقبال بشكل كبير، وبعض الانتهاكات لشروط الخدمة.