
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟
ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟
لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها:
ما استخدامات الذكاء الاصطناعي في الحماية؟
يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل:
تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر.
تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا.
تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية.
تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة.
ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم.
وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي.
وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟
التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي:
تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة.
وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي.
فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم.
كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة.
وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية.
ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة.
وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان.
ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة.
المراقبة على حساب الخصوصية:
حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي.
وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية.
أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم.
ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا.
وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها.
نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات:
تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي:
تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية.
يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة.
تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية.
يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية.
تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية.
وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ارابيان بيزنس
منذ 18 ساعات
- ارابيان بيزنس
200 مليون دولار راتب مهندس كمبيوتر استدرجته ميتا من شركة أبل
أفادت تقارير صحفية أن ميتا المالكة لـ فيسبوك أغرت مهندساً من أصل صيني وهو رومينغ بانغ براتب 200 مليون دولار، بعد أن كان سابقًا مسؤولًا تنفيذيًا رفيع المستوى ومهندسًا مرموقًا يقود فريق نماذج الذكاء الاصطناعي الأساسية في شركة آبل. و يعكس ذلك المنافسة الشديدة على الوظائف والمواهب في مجال الذكاء الاصطناعي في عام 2025. وسينضم بانغ إلى قسم مختبرات الذكاء الاصطناعي الفائقة المُشكّل حديثًا في ميتا، والذي يُركّز على تطوير الذكاء الاصطناعي المُتقدّم. وعرضت ميتا على رومينغ بانغ حزمة رواتب تُقدّر بأكثر من ٢٠٠ مليون دولار أمريكي على مدى عدة سنوات. وتُعدّ هذه الحزمة من بين أعلى الرواتب والمكافآت في قطاع التكنولوجيا لغير الرؤساء التنفيذيين، وتتجاوز التعويضات السنوية للعديد من الرؤساء التنفيذيين في قائمة فورتشن ٥٠٠. ويشمل التعويض راتبًا أساسيًا، ومكافأة توقيع عقد العمل وأسهم في ميتا، مع دفعات مرتبطة بأهداف الأداء والولاء طويل الأجل، وتمتد فترات استحقاق الأسهم لأربع سنوات. تُعدّ خطوة توظيف بانغ جزءًا من حملة ميتا المكثفة لتوظيف أفضل المواهب في مجال الذكاء الاصطناعي، حيث شارك الرئيس التنفيذي مارك زوكربيرج شخصيًا في عملية التوظيف. ورفضت أبل زيادة راتب بانغ بما يضاهي عرض ميتا بحسب التقارير لأنه تجاوز بكثير التعويضات المُعتادة للمديرين التنفيذيين في أبل، باستثناء الرئيس التنفيذي. من هو المهندس رومينغ بانغ؟ مهندس بارز ورائد في مجال الذكاء الاصطناعي ، اشتهر بقيادته لفريق النماذج الأساسية للذكاء الاصطناعي في شركة آبل، حيث أشرف على تطوير نماذج اللغة الكبيرة التي تدعم ميزات مثل Genmoji و'الإشعارات ذات الأولوية' وخدمات التلخيص المتقدمة على أجهزة آبل. قاد فريقًا يضم حوالي 100 مهندسا وكان له دور محوري في استراتيجية الذكاء الاصطناعي لدى الشركة.قبل انضمامه إلى آبل في عام 2021، عمل لأكثر من 15 عامًا في غوغل، حيث قاد مشاريع مهمة أصبحت جزءًا أساسيًا من عمليات الشركة، خاصة في مجال نماذج اللغة الكبيرة (LLMs). يُعد انتقاله إلى آبل خطوة رئيسية في تطوير البنية التحتية للذكاء الاصطناعي الخاصة بالشركة. غادر روومينغ بانغ آبل الشهر الحالي لينضم إلى فريق 'مختبرات الذكاء الخارق' الجديد في شركة ميتا (فيسبوك سابقًا)، في خطوة اعتُبرت ضربة قوية لطموحات آبل في الذكاء الاصطناعي، خصوصًا مع تأخر إطلاق بعض منتجاتها الذكية. مهمة مختبرات الذكاء الاصطناعي الفائقة في ميتا تهدف مختبرات الذكاء الاصطناعي الفائقة المُشكّلة حديثًا في ميتا إلى تسريع تطوير أنظمة الذكاء الاصطناعي المتقدمة بهدف تحقيق الذكاء الاصطناعي الفائق. يرأس القسم ألكسندر وانغ، ومن المتوقع أن يلعب بانغ دورًا رائدًا في تطوير التوجيه التقني وتنفيذ أجندة أبحاث المختبر. يشير توظيف ميتا للعديد من خبراء الذكاء الاصطناعي البارزين إلى نيتها في سد الفجوة مع المنافسين ودفع حدود قدرات الذكاء الاصطناعي إلى آفاق جديدة. يعد انتقال بانغ من آبل إلى ميتا خسارة كبيرة لطموحات آبل في مجال الذكاء الاصطناعي، لا سيما بالنظر إلى مكانته البارزة في تطوير النماذج الأساسية وتخطيط ميزات الجيل التالي. تؤكد مصادر استشهدت بها بلومبرغ وتقارير أخرى أن استراتيجيات ميتا الجريئة للتعويضات واستقطاب المواهب تُبعد الخبرات عن المنافسين، مما يزيد من الضغوط على القطاع. ربما أضعفت معاناة شركة آبل من التأخيرات والنقاشات الداخلية حول توجهات الذكاء الاصطناعي من استبقاء الموظفين، بينما يؤكد تركيز ميتا على الاستثمار في الذكاء الاصطناعي الفائق التزامها بتطوير قدرات الذكاء الاصطناعي الأساسية. ويسلط هذا التحول الضوء على اتجاه أوسع نطاقًا يتمثل في تصاعد المنافسة بين عمالقة التكنولوجيا على المواهب والقيادات المتخصصة في الذكاء الاصطناعي. التوقعات يشير محللو القطاع إلى أن الطفرة المستمرة في التوظيف لدى ميتا قد تزيد من حدة المنافسة على قادة الذكاء الاصطناعي ذوي الخبرة، مما يؤثر على اتجاهات التعويضات وتوجهات البحث في هذا القطاع. قد تحتاج آبل إلى إعادة تقييم نهجها في استبقاء المواهب واستراتيجية الذكاء الاصطناعي في ضوء الرحيل الأخير وتأخير طرح المنتجات. ومن المرجح أن تخضع وتيرة وتأثير التقدم في مختبرات الذكاء الاصطناعي الفائق التابعة لشركة ميتا لمراقبة دقيقة، حيث تسعى الشركتان إلى رسم ملامح المرحلة التالية من تطوير الذكاء الاصطناعي.


خليج تايمز
منذ 21 ساعات
- خليج تايمز
طائرات الإمارات الذكية تعزز الأمن بكشف مبكر
في منشأة صحراوية نائية في آسيا الوسطى، تم اعتراض متسللين اثنين كانا يحاولان اختراق محيط أمني في منتصف الليل قبل أن يتمكنا من الوصول إلى المجمع الرئيسي. في غضون 30 ثانية من رصد حركة غير مصرح بها، انطلقت طائرة بدون طيار ذاتية القيادة من محطة إرساء، وحلّقت بدقة متناهية، والتقطت صورًا حرارية للمشتبه بهم. هربوا قبل أن يُلحقوا أضرارًا، وتم إصلاح الاختراق في اليوم نفسه. وبحسب شركة مايكروافيا، الشركة المصنعة للطائرات بدون طيار ومقرها الإمارات العربية المتحدة والتي تقف وراء الاستجابة للحوادث، فإن الأنظمة الجوية المستقلة لا تحل محل أجهزة الاستشعار والدوريات الثابتة فحسب، بل إنها تعيد تشكيل اقتصاديات واستراتيجية أمن البنية التحتية في جميع أنحاء المنطقة. تابع آخر الأخبار. تابع KT على قنوات واتساب. قال إنريكي بلازا بايز، الرئيس التنفيذي لشركة مايكروافيا: "نتحدث عن زمن تشغيل يصل إلى 98%، وتصوير حراري، وتكبير بصري عالي الدقة، وتصنيف الأهداف بالذكاء الاصطناعي، جميعها تعمل معًا - دون أي تأخير أو تجربة". وأضاف: "لم يمنع النظام أي خسارة محتملة فحسب، بل حقق عائدًا كاملًا على الاستثمار خلال السنة الأولى". طائرات بدون طيار مصممة للصحراء من مراقبة المحيط إلى فحص البنية التحتية والاستجابة للطوارئ، تقوم الطائرات بدون طيار المدعومة بالذكاء الاصطناعي بالفعل بمهام عبر الحدود وخطوط الأنابيب ومحطات تحلية المياه وشبكات الطاقة في جميع أنحاء دول مجلس التعاون الخليجي. صُممت منصتنا بالكامل للعمل في منطقة الخليج، كما قال بلازا. "اختبرناها في درجات حرارة تتراوح بين -35 و60 درجة مئوية. محطات الإرساء مقاومة للغبار، ومُكيّفة، ومقاومة للتآكل، لأن هذا ما تتطلبه هذه المنطقة." تستطيع طائرات مايكروافيا ذاتية القيادة البقاء في الجو بنسبة 98% بفضل استبدال البطاريات آليًا، والمراقبة الفورية، وميزات الصيانة التنبؤية. استقرارها في رياح تصل سرعتها إلى 15 مترًا في الثانية يجعلها مثالية للعمليات الساحلية والصحراوية الصعبة. وأضاف: "لقد تخلصنا من تكاليف الاستعداد، ووقت التوقف، والحاجة إلى أطقم طيران كاملة". "ما نقدمه ليس مجرد أتمتة، بل أتمتة ذكية قابلة للتوسع، وتتعلم، وتتفوق في الأداء". يعتقد بلازا أن العديد من المؤسسات لا تزال تُقيّم تكنولوجيا الطائرات بدون طيار باستخدام نماذج قديمة، مُركزةً على النفقات الرأسمالية أو تخفيض عدد الموظفين. وأضاف: "صُممت مقاييس العائد على الاستثمار التقليدية للأدوات التي يُديرها البشر. أما الطائرات بدون طيار ذاتية القيادة، فقد أصبحت الآن جزءًا من البنية التحتية الدائمة - فهي تجمع البيانات وتُحللها وتدعم عملية اتخاذ القرار". ويرى أن الأثر ينبغي قياسه من حيث الاستعداد للحوادث، والفهم العملي، والقدرة على الاستجابة. ويضيف: "تتيح هذه الطائرات المسيّرة مستوى من التحكم الآني والذكاء الحضري لم يكن موجودًا من قبل". في إحدى الحالات، رصدت طائرات مايكروافيا المسيرة، التي كانت تجوب المناطق الجبلية كل 15 كيلومترًا، نشاطًا حراريًا مشبوهًا قبل 18 ساعة من موعد دورية بشرية مقررة. «ساعد التنبيه في اعتراض عبور غير مصرح به، وكشف عن مسار لم يكن مراقبًا من قبل. هذا النوع من الكشف المبكر يُحدث نقلة نوعية». التنظيم الداعم لدولة الإمارات وقال بلازا إنه في حين يتم تشكيل سوق الطائرات بدون طيار في الولايات المتحدة من قبل إدارة الطيران الفيدرالية، ويظل النظام البيئي في أوروبا مجزأً، فإن دولة الإمارات العربية المتحدة تقود المنطقة في التنظيم الذي يدعم عمليات الطائرات بدون طيار القابلة للتطوير. أوضح قائلاً: "لدينا هنا تسجيل سريع، وحوكمة مركزية، ووضوح قانوني، مما يُسهّل الابتكار. ومن نواحٍ عديدة، يُسهّل هذا الأمر نشر الطائرات المسيّرة المتقدمة أكثر من الغرب". أنظمة مايكروافيا مُدمجة بالفعل مع منصات إدارة المجال الجوي المحلية، وجُربَت ضمن الأطر التنظيمية لدولة الإمارات العربية المتحدة. كما تتطلع الشركة إلى مواءمتها مع مبادرات المدن الذكية، بدءًا من رسم الخرائط ثلاثية الأبعاد في دبي وصولًا إلى الخدمات الرقمية الموحدة في أبوظبي. تصدير الابتكارات المصنوعة في الإمارات العربية المتحدة تبلغ قيمة سوق الطائرات بدون طيار المحلية في الإمارات العربية المتحدة 122 مليون دولار أمريكي، وهي تشهد نموًا متسارعًا. ووفقًا لشركة بلازا، فإن التحول من الاستخدام الاستهلاكي إلى البنية التحتية الوطنية جارٍ بالفعل، حيث تُصدّر الشركات الإماراتية التقنيات بدلًا من مجرد اعتمادها. في المعارض الدولية، تُبرم الشركات الإماراتية عقود تصدير للمنصات المُدعّمة بالذكاء الاصطناعي، وشركة مايكروافيا جزء من هذه الجهود، كما قال. وأضاف: "كل ما نبنيه يُطوَّر ويُجمَّع في الإمارات. وهذا يمنح شركاءنا الثقة، ويمنح الإمارات العربية المتحدة موطئ قدم في سلسلة التوريد العالمية للدفاع والأمن". في حين أن قطاعات الدفاع وأمن الحدود والنفط والغاز لا تزال الأكثر تبنيًا لتقنية الطائرات بدون طيار ذاتية القيادة، فإن قطاعات أخرى مثل الزراعة والحماية المدنية والخدمات اللوجستية الذكية بدأت تلحق بها. ومع ذلك، يشير بلازا إلى أن تبني هذه التقنية لا يزال مجزأً في قطاعات مثل التأمين والبناء والمرافق. "هناك إمكانات هائلة في مجالات الحفاظ على الطبيعة ومراقبة الأنفاق، وحتى التعدين. ولكن لتحقيق ذلك، نحتاج إلى بنية تحتية رقمية ووضوح تنظيمي." الحدود التالية بالنظر إلى المستقبل، تستثمر مايكروافيا في أسراب الطائرات بدون طيار للإغاثة من الكوارث، والرصد البيئي في النظم البيئية الهشة، والزراعة الذكية في المناطق القاحلة. وتوقع بلازا: "في غضون خمس إلى عشر سنوات، ستُدمج طائرات الذكاء الاصطناعي بدون طيار في جميع وظائف المدن الذكية. ستراقب حركة المرور، وتفحص البنية التحتية، وتستجيب لحالات الطوارئ - ليس بشكل تفاعلي، بل بشكل استباقي". مع استمرار صعود دولة الإمارات العربية المتحدة كقائد إقليمي في مجال التكنولوجيا، تعمل شركات مثل مايكروافيا بهدوء على بناء استراتيجية الأجهزة والبرمجيات والسيادة اللازمة لمواكبة هذا التطور. وصرح بلازا: "نحن لا نكتفي بتسيير طائرات بدون طيار، بل ندمج الاستقلالية في البنية التحتية للمستقبل - هنا في الإمارات العربية المتحدة". هيئة الطيران المدني في الإمارات توقف تقديم خدمات الطائرات بدون طيار؛ يجب على المتقدمين التسجيل على الموقع الرسمي أبوظبي تجري أول عملية تسليم طرود بطائرات بدون طيار في مشروع تجريبي الإمارات تطلق مركز شرطة متنقل بطائرات بدون طيار يمكنها شحن السيارات الكهربائية على الطريق شاهد: الإمارات تكشف عن أول طائرة بدون طيار لمكافحة الحرائق تعمل بالطاقة النفاثة في العالم


البيان
منذ يوم واحد
- البيان
مفارقة "مايكروسوفت".. ذكاء اصطناعي يُدرّ مئات الملايين ويُقصي الآلاف
في وقت تتفاخر فيه شركة مايكروسوفت بتحقيق وفورات مالية مذهلة بفضل أدوات الذكاء الاصطناعي، يعيش آلاف الموظفين السابقين حالة من الصدمة بعد موجة تسريحات جماعية متزامنة مع الأرباح القياسية. فخلال عرض تقديمي داخلي هذا الأسبوع، كشف جودسون ألتوف، الرئيس التجاري للشركة، أن الذكاء الاصطناعي ساعد مايكروسوفت على خفض التكاليف بما يزيد على 500 مليون دولار خلال العام الماضي، وذلك في قسم مراكز الاتصال فقط. وأوضح أن أدوات مثل Copilot حسّنت الإنتاجية بشكل كبير في أقسام متعددة، مثل المبيعات وخدمة العملاء وتطوير البرمجيات. لكن بينما تتباهى مايكروسوفت بهذه الكفاءة الجديدة، كانت قد أنهت خدمات أكثر من 9,000 موظف في ثالث جولة تسريحات لها هذا العام، ليرتفع عدد المسرّحين إلى نحو 15,000 شخص في 2025 وحدها. هذا التناقض بين الأرباح الفلكية والتخفيضات القاسية في الوظائف أثار موجة من الانتقادات الداخلية والخارجية. وقد زاد الطين بلّة منشور سابق - تم حذفه لاحقًا - من أحد مسؤولي Xbox Game Studios، مات تورنبول، اقترح فيه أن يستعين الموظفون المفصولون بأدوات الذكاء الاصطناعي مثل ChatGPT لتخفيف "الإرهاق المعرفي" الناتج عن فقدان الوظيفة. المنشور وُصف بأنه "غير حساس" في توقيت دقيق، وفق تقرير لموقع " تك كرانش". وما يزيد المشهد تعقيدًا أن مايكروسوفت أنهت الربع الأول بأرباح مذهلة بلغت 26 مليار دولار، على إيرادات قاربت 70 مليار دولار، وقفزت قيمتها السوقية إلى 3.74 تريليونات دولار، متجاوزة آبل ومقتربة من إنفيديا. في يناير، أعلنت الشركة عزمها استثمار 80 مليار دولار في البنية التحتية للذكاء الاصطناعي بحلول عام 2025، مع تركيز ملحوظ على جذب أفضل الباحثين في المجال، بدلاً من الاحتفاظ بعدد كبير من الموظفين في المناصب التشغيلية التقليدية. الواقع الجديد يُظهر بوضوح أن الذكاء الاصطناعي لم يعد مجرد أداة، بل تحول إلى لاعب اقتصادي حاسم يعيد تشكيل خريطة العمل داخل كبرى الشركات العالمية – ولكن بثمن بشري باهظ.