logo
المقالالذكاء الاصطناعي بين الأغنياء والفقراء

المقالالذكاء الاصطناعي بين الأغنياء والفقراء

الرياضمنذ يوم واحد
تتسع فجوة الذكاء الاصطناعي بين الأغنياء والفقراء بشكل دراماتيكي، ما أدى إلى انقسام العالم إلى معسكرين: دول تعتمد على التكنولوجيا الصينية، ودول تعتمد على التكنولوجيا الأميركية، ولنا أن نتخيل أنه من بين 193 دولة، هناك 32 دولة فقط، معظمها في نصف الكرة الشمالي، هي التي تملك مراكز بيانات متخصصة في الذكاء الاصطناعي، أي ما يعادل 16 % من دول العالم، وتمنح هذه المراكز الدول المالكة لها نفوذاً هائلاً، حيث تستحوذ الولايات المتحدة والصين والاتحاد الأوروبي على أكثر من نصف مراكز البيانات الأقوى عالمياً، والتي تُشغّل أنظمة الذكاء الاصطناعي الأكثر تقدماً، في المقابل، تقبع بقية دول العالم في مقاعد المتفرجين.
تهيمن الولايات المتحدة والصين، على القطاع الصاعد بسرعة الصاروخ، حيث تُشغّل الشركات الأميركية والصينية أكثر من 90 % من مراكز بيانات الذكاء الاصطناعي، بينما تكاد أفريقيا وأميركا الجنوبية تفتقران إلى أي حضور في هذا المجال، وعلى سبيل المثال، تمتلك الهند خمسة مراكز على الأقل، واليابان أربعة، وهذا يعني أن أكثر من 150 دولة لا تمتلك أي مراكز بيانات، وتتفوق المراكز الحالية على سابقاتها، والتي كانت تُشغّل مهامًا بسيطة في الماضي مثل البريد الإلكتروني وبث الفيديو، وفي الوقت الحالي، تكلف هذه المراكز الضخمة والمتعطشة للطاقة والمزودة برقاقات قوية، مليارات الدولارات لبنائها، وهذا يعني أنها ليست متاحة للجميع، حيث تتركز ملكيتها في يد حفنة من عمالقة التكنولوجيا، مما يوسع الفجوة بين الدول القادرة على الاستفادة من الذكاء الاصطناعي وتلك المحرومة منه.
تعكس أنظمة الذكاء الاصطناعي الرائدة، مثل روبوتات الدردشة، هيمنة اللغتين الإنجليزية والصينية، وهي لغات الدول التي تسيطر على القوة الحاسوبية، ويمتد هذا التركيز إلى المجالات العلمية، حيث تعتمد الاكتشافات العلمية في مجال تطوير الأدوية وتعديل الجينات على أجهزة كمبيوتر فائقة القوة، وحتى في المجال العسكري، تشق الأسلحة المدعومة بالذكاء الاصطناعي طريقها إلى ساحات الحرب الطاحنة، ونتيجة لذلك، أصبحت مكونات مراكز البيانات، مثل رقائق الحوسبة، عنصراً حاسماً في السياسات الخارجية والتجارية للولايات المتحدة والصين، اللتين تتصارعان على الهيمنة التكنولوجية، في المقابل، تواجه الدول التي تفتقر إلى هذه القدرات قيوداً في البحث العلمي، وتنمية الشركات الناشئة، والاحتفاظ بالمواهب المحلية.
للمقارنة، تدير الشركات الأميركية 87 مركز بيانات للذكاء الاصطناعي، أي حوالي ثلثي الإجمالي العالمي، مقارنة بـ39 مركزاً للشركات الصينية، و6 للشركات الأوروبية، وتعتمد هذه المراكز بشكل رئيس على رقائق شركة إنفيديا الأميركية، التي استطاعت الشركات الصينية اقتناءها قبل فرض القيود الأميركية، وهناك 100 شركة فقط، مقراتها في واشنطن وبكين، تقف وراء 40 % من الاستثمار العالمي في القطاع، وقد تعهد عمالقة التكنولوجيا الأميركية مثل أمازون، ومايكروسوفت، وجوجل، وميتا، وأوبن إيه آي، بإنفاق 300 مليار دولار هذا العام، على البنية التحتية للذكاء الاصطناعي، وهو مبلغ ينافس ميزانية دولة مثل كندا، بينما تفوق القدرة الحاسوبية لجامعة هارفارد، جميع القدرات المملوكة للقارة الأفريقية، التي تعاني نقصاً هائلاً في الكهرباء الموثوقة.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ثورة في الذكاء الاصطناعي.. FlexOlmo يسمح بحذف البيانات حتى بعد استخدامها
ثورة في الذكاء الاصطناعي.. FlexOlmo يسمح بحذف البيانات حتى بعد استخدامها

الرجل

timeمنذ 2 ساعات

  • الرجل

ثورة في الذكاء الاصطناعي.. FlexOlmo يسمح بحذف البيانات حتى بعد استخدامها

في خطوة قد تعيد رسم طريقة بناء نماذج الذكاء الاصطناعي، كشف معهد Allen Institute for AI Ai2 عن نموذج لغوي جديد باسم FlexOlmo، يمنح أصحاب البيانات قدرة غير مسبوقة على التحكم في استخدام بياناتهم حتى بعد إدراجها في عملية التدريب. وعلى عكس ما هو متّبع حاليًا حيث تصبح البيانات غير قابلة للفصل عن النموذج بمجرد التدريب، يقدم FlexOlmo مقاربة مبتكرة تشبه، كما وصفها الباحثون، "استخراج البيض من كعكة مخبوزة". كيف يعمل FlexOlmo؟ يعتمد النموذج على بنية تُعرف باسم "مزيج الخبراء" (Mixture of Experts)، بحيث تُدرّب كل مجموعة بيانات بشكل مستقل في نموذج فرعي، ثم يُدمج لاحقًا مع نموذج أساسي يُعرف باسم Anchor. وهذه الآلية تُتيح لصاحب البيانات تدريب النموذج الفرعي على بياناته دون الكشف عنها، ثم دمجه مع النموذج النهائي. والأهم من ذلك، أنه يمكن لاحقًا إزالة هذا النموذج الفرعي المرتبط ببيانات معيّنة دون الإضرار بالبنية الكاملة للنموذج النهائي، ما يمنح مرونة فريدة في إدارة البيانات. وهذا النموذج يُعدّ مفيدًا للمؤسسات الإعلامية مثلًا، إذ يمكنها مشاركة محتوى أرشيفها مع نموذج ذكاء اصطناعي، مع الاحتفاظ بحق سحب مساهمتها في أي وقت حال ظهور خلاف قانوني أو تجاري. ويقول علي فرهادي، الرئيس التنفيذي لـAi2: "تقليديًا، إذا استخدمتُ بياناتك، فأنت تفقد السيطرة عليها. FlexOlmo يغيّر هذه القاعدة تمامًا". واعتمد الباحثون على مجموعة بيانات خاصة أطلقوا عليها اسم Flexmix، جمعت من كتب ومواقع إلكترونية، لبناء نموذج يحتوي على 37 مليار معلمة، أي نحو عُشر حجم أكبر نموذج مفتوح المصدر لدى Meta. وأظهرت التجارب أن النموذج الجديد تفوّق على النماذج الفردية في جميع المهام، بل وتجاوز أداء تقنيات دمج مشابهة بنسبة 10% في بعض المعايير القياسية. تحديات الخصوصية والآفاق المستقبلية ورغم أن البيانات لا تُسلم فعليًا للمطورين، يُحذّر الباحثون من احتمال إمكانية استعادة بعض المعلومات من النماذج المدمجة. ولهذا، يقترحون استخدام تقنيات مثل الخصوصية التفاضلية لضمان سلامة البيانات عند الاستخدام في بيئات حساسة. ويقول الباحث سيوون مين، التي قادت الجانب الفني في المشروع: "أعتقد أن البيانات هي العائق الأكبر حاليًا أمام بناء نماذج ذات مستوى عالمي.. وهذا الأسلوب قد يفتح الباب لبناء نماذج تشاركية دون التنازل عن الخصوصية أو السيطرة".

التشيك تحظر استخدام «ديب سيك» في إدارة الدولة بسبب مخاوف تتعلق بالأمن السيبراني
التشيك تحظر استخدام «ديب سيك» في إدارة الدولة بسبب مخاوف تتعلق بالأمن السيبراني

الشرق الأوسط

timeمنذ 2 ساعات

  • الشرق الأوسط

التشيك تحظر استخدام «ديب سيك» في إدارة الدولة بسبب مخاوف تتعلق بالأمن السيبراني

قالت السلطات في جمهورية التشيك، اليوم الأربعاء، إنها حظرت استخدام أي منتجات من شركة «ديب سيك» الصينية الناشئة في مجال الذكاء الاصطناعي في إدارة الدولة بسبب مخاوف تتعلق بالأمن السيبراني. ووفقاً لـ«وكالة الأنباء الألمانية»، قال رئيس الوزراء التشيكي، بتر فيالا، إن الحكومة اتخذت هذا القرار بعد تلقي تحذير من الهيئة الوطنية للأمن السيبراني، التي أشارت إلى تهديد من وصول غير مصرح به إلى بيانات المستخدمين لأن الشركة ملزمة بالتعاون مع السلطات الرسمية الصينية. وتأتي هذه الخطوة في أعقاب خطوات مماثلة اتخذتها بعض الدول الأخرى بهدف حماية بيانات المستخدمين، ومن بينها إيطاليا، التي حظرت في يناير (كانون الثاني) الوصول إلى روبوت الدردشة، وأستراليا أيضاً. كانت الحكومة التشيكية قد أوقفت في عام 2018 استخدام الأجهزة والبرمجيات التي تنتجها شركتا الاتصالات الصينية «هواوي» و«زد تي إي»، بعد تحذير من أنهما تشكلان تهديداً أمنياً. يذكر أن شركة «ديب سيك» تأسست في عام 2023 في هانغتشو بالصين، وأصدرت أول نموذج لغات كبير بالذكاء الاصطناعي في وقت لاحق من ذلك العام.

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية
أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية

الشرق الأوسط

timeمنذ 2 ساعات

  • الشرق الأوسط

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية

في ممرات قصر الأمم بجنيف؛ حيث يلتقي العلم بالدبلوماسية، يتردّد سؤال واحد بين أروقة «قمة الذكاء الاصطناعي لأجل الخير» لعام 2025: هل يمكن أن تتعلم الآلة كيف تكون عادلة، ورحيمة، وإنسانية؟ هنا، لا تَحتدم النقاشات حول قدرات الذكاء الاصطناعي الخارقة، بل حول حدوده الأخلاقية ومسؤوليته تجاه الإنسان. في عصر باتت فيه الخوارزميات تحسم مصير وظائف، وتعطي توصيات طبية، وتُقيّم طلبات لجوء، لم يعد كافياً أن نسأل: «ماذا يستطيع الذكاء الاصطناعي أن يفعل؟»، بل بات الأهم أن نسأل: «ما الذي ينبغي عليه ألا يفعله؟». ومع ازدياد الاعتماد العالمي على الأنظمة الذكية، تتقدم إلى الواجهة قضايا مثل التحيز الخفي، والشفافية، والمساءلة، والعدالة الرقمية. مَن يُدرّب الخوارزميات؟ وفق أي قيم؟ ومن يضمن ألا تتحول الآلات الذكية إلى أدوات للتمييز بدلاً من المساواة؟ في هذا السياق، تتقدّم المملكة العربية السعودية برؤية رائدة، كونها أول دولة في الشرق الأوسط تضع إطاراً وطنياً شاملاً لحوكمة الذكاء الاصطناعي، يستند إلى مبادئ الأخلاق والعدالة والشفافية. وقد حرصت المملكة -من خلال الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)- على أن يكون الذكاء الاصطناعي جزءاً من مشروع وطني يخدم الإنسان ويحفظ القيم. ولا تكتفي رؤية المملكة بتبني التقنية، بل تسعى إلى قيادتها بمنظور إنساني يعكس طموحها في أن تكون مركزاً عالمياً متقدماً في مجال الذكاء الاصطناعي المسؤول. وتأتي قمة جنيف -التي تُنظَّم هذا العام تحت رعاية الاتحاد الدولي للاتصالات (ITU)، وبالشراكة مع برنامج الأمم المتحدة للذكاء الاصطناعي لأجل التنمية- لتضع هذا الملف على رأس أولوياتها. فقد اختارت القمة شعاراً محورياً هو: «أخلاقيات الذكاء الاصطناعي»، في دعوة صريحة نحو وضع ميثاق عالمي يضمن استخداماً عادلاً، وآمناً، وشفافاً للتقنيات الذكية، وبما يُعزز العدالة الاجتماعية، ويحمي الحقوق الرقمية للبشر حول العالم. الخوارزميات التي نُطلق عليها صفة «الذكاء» ليست سوى مرايا رقمية تعكس طبيعة البيانات التي دُرّبت عليها. وإذا كانت هذه البيانات مشوّهة أو منحازة، انعكس الانحياز بدوره في قرارات الآلة. هنا لا يعود الخطأ تقنياً فحسب، بل أخلاقياً وهيكلياً. في تقرير مهم نُشر في عام 2024 في مجلة «Nature Machine Intelligence»، حذّر الخبراء من أن العديد من الأنظمة الذكية -بما في ذلك أدوات التوظيف الرقمية والتقييمات البنكية الآلية- قد تُكرّس أشكالاً غير مرئية من التمييز ضد النساء والأقليات، بسبب ما وصفه بـ«التحيّز البنيوي في البيانات». في مثل هذه الحالات، لا يكفي أن نتقن كتابة الشيفرات، بل ينبغي أن نسأل: مَن يُحاسب حين تتسبب الخوارزمية في ظلم إنسان؟ ومن هنا تبرز الحاجة إلى حوكمة أخلاقية صارمة، تُلزم المطورين والمؤسسات بالمسؤولية الكاملة عن نتائج أدواتهم، لا الاكتفاء بجودة التصميم أو دقة الأداء. في قلب النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي، تبرز المملكة العربية السعودية بصفتها صوتاً ريادياً في المنطقة، كونها أول دولة في الشرق الأوسط تضع سياسة وطنية شاملة لحوكمة الذكاء الاصطناعي. فقد أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) هذه السياسة في عام 2022، واضعةً الأسس الأخلاقية لاستخدام التقنيات الذكية بما يخدم الإنسان أولاً. وتنصّ الوثيقة الرسمية المنشورة على موقع «سدايا» على أربعة محاور رئيسية: * الشفافية والعدالة واحترام حقوق الإنسان. * مساءلة المطورين والمستخدمين عن نتائج استخدام الذكاء الاصطناعي. * وضع معايير صارمة لحماية البيانات الشخصية. * تعزيز الثقة المجتمعية في التقنيات الذكية. وقد حظيت هذه المبادرة باهتمام دولي متزايد، خصوصاً بعد أن استضافت الرياض القمة العالمية للذكاء الاصطناعي في نسختيها لعامي 2022 و2023، بحضور وفود من أكثر من 90 دولة، وبشراكات فاعلة مع جهات مرجعية، مثل منظمة اليونيسكو، والمنتدى الاقتصادي العالمي، ومبادرة منظمة التعاون الاقتصادي والتنمية (OECD) حول الذكاء الاصطناعي المسؤول. إنّ ما تقدمه المملكة اليوم ليس مجرد نموذج محلي للحَوْكمة، بل مرجعية عربية طموحة تُعيد تعريف العلاقة بين التكنولوجيا والإنسان من منظور أخلاقي وإنساني متجذّر في الثقافة الإسلامية وقيم العدالة العالمية. في كلمته الافتتاحية لقمة جنيف 2025، دعا الأمين العام للاتحاد الدولي للاتصالات، دورين بوغدان-مارتن، إلى «وضع إطار قانوني عالمي لاستخدام الذكاء الاصطناعي بما يحترم الكرامة الإنسانية»، محذّراً من «فجوة أخلاقية» تسبق الفجوة الرقمية بين الدول. وتُشارك السعودية حالياً في صياغة هذا الإطار عبر عضويتها في المجلس الاستشاري الدولي لأخلاقيات الذكاء الاصطناعي، الذي أُنشئ ضمن تحالف عالمي ترعاه الأمم المتحدة، ويُشارك فيه خبراء من أكثر من 30 دولة. من بين أبرز محاضرات قمة جنيف هذا العام، كانت الكلمة الافتتاحية للدكتورة بيغي هيكس، مديرة شؤون الانخراط في مكتب مفوضية الأمم المتحدة السامية لحقوق الإنسان، التي أكَّدت أن «الذكاء الاصطناعي ليس محايداً بطبيعته، بل يعكس خياراتنا نحن البشر». ودعت إلى وضع «دستور أخلاقي رقمي» عالمي يُنظّم استخدام الذكاء الاصطناعي، بما يحمي الكرامة الإنسانية، ويراعي الفروقات الثقافية بين الشعوب. وقد لاقت كلمتها تفاعلاً واسعاً، خصوصاً مع مشاركة ممثلين عن أكثر من 100 دولة ومنظمات دولية مثل «اليونيسكو»، ومنظمة الصحة العالمية، والمنتدى الاقتصادي العالمي في نقاش مفتوح لصياغة إطار عالمي لأخلاقيات الذكاء الاصطناعي. في عصر تتحوّل فيه البيانات الشخصية إلى سلعة رقمية، تُدق أجراس الإنذار بشأن انتهاك الخصوصية، لا سيما حين تُسخّر تقنيات الذكاء الاصطناعي في المراقبة واسعة النطاق دون ضوابط قانونية. وفي مواجهة هذا التحدي، تتحرك الدول الواعية لوضع أطر قانونية تحمي مواطنيها، وهنا تبرز المملكة العربية السعودية مثالاً على هذا الاتجاه؛ إذ أقرت مؤخراً اللائحة العامة لحماية البيانات الشخصية، الصادرة عن الهيئة الوطنية للأمن السيبراني، لتكون بمثابة مظلة تشريعية تضمن تنظيم جمع ومعالجة وتخزين البيانات وفق معايير شفافة ومُلزِمة، بما يُعزز الثقة الرقمية، ويحفظ كرامة الأفراد في الفضاء الإلكتروني. في عمق المختبرات والمراكز البحثية، لا ينحصر طموح العلماء في تطوير ذكاء يحاكي قدرات الإنسان، بل يمتد نحو ما يُعرف اليوم بـ«الذكاء الأخلاقي الآلي» (Machine Moral Reasoning)، محاولة لتعليم الآلة: كيف تفرّق بين الصواب والخطأ. من معهد ماساتشوستس للتقنية (MIT) إلى جامعة ستانفورد، وصولاً إلى جامعة الملك عبد الله للعلوم والتقنية (كاوست) في السعودية، تُجرى أبحاث متقدمة لدمج مفاهيم «الفلسفة الأخلاقية والمنطق الرياضي» داخل بنية الخوارزميات، بحيث تُصبح قرارات الذكاء الاصطناعي أكثر عدلاً وإنصافاً، خصوصاً في مجالات حساسة مثل الرعاية الصحية، والعدالة الجنائية، والتوظيف. لكن، ورغم هذا التقدم، يبقى السؤال مفتوحاً: هل يمكن للآلة أن تمتلك «ضميراً رقمياً»؟ هل تستطيع التمييز بين الإنصاف والإجحاف... بين النية الطيبة والخداع؟ ما زال الجواب مُعلّقاً في المستقبل، لكنه بالتأكيد يبدأ من قرارات الحاضر، ومن التزام البشر بوضع القيم في قلب التكنولوجيا، لا على هامشها.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store