logo
من يخسر وظيفته للذكاء الاصطناعي أولا، ذوو الخبرة أم الجدد؟

من يخسر وظيفته للذكاء الاصطناعي أولا، ذوو الخبرة أم الجدد؟

الجزيرةمنذ يوم واحد
أيقظت رسالة آندي جاسي، المدير التنفيذي لشركة " أمازون"، المخاوف التي كانت كامنة في قلوب العديد من الموظفين في العالم، إذ أشار بوضوح إلى أن شركته تتوسع في استخدام تقنيات الذكاء الاصطناعي طمعا في خفض عدد موظفيها الكلي في السنوات المقبلة.
ولم تساعد خطوة " مايكروسوفت" لإقالة 9 آلاف موظف أو 4% من إجمالي عدد موظفيها في تهدئة هذه المخاوف، إذ أشارت عدة مصادر إلى ارتباط هذه الإقالة باعتماد الشركة على تقنيات الذكاء الاصطناعي.
لذا لم يعد النقاش الآن، هل يحل الذكاء الاصطناعي محل الموظفين في العالم أم لا، بل تحول إلى من يستبدله الذكاء الاصطناعي، الموظفين الجدد، الذين لا يملكون خبرة كافية أم ذوي الخبرة الذين يصعب عليهم تعلم التقنيات الجديدة واستخدامها في وظائفهم.
جدال محتدم بين الطرفين
في مقابلة حديثة أجراها داريو أمودي، المدير التنفيذي، لشركة "آنثروبيك" مطورة نموذج "كلود" (Claude) الذي يعد أكبر منافسي "شات جي بي تي" مع وكالة "أكسيوس" (Axios)، وضّح أمودي، أن الذكاء الاصطناعي يحل محل نصف المبتدئين في الوظائف المكتبية الاعتيادية.
وعزز نقص وظائف المبتدئين في سوق العمل من وجهة النظر هذه رغم غياب الدليل القاطع، أن الذكاء الاصطناعي أحدث هذا النقص، وعلى صعيد آخر، يرى بعض رواد الذكاء الاصطناعي، أن الموظفين المبتدئين صغار السن لديهم القدرة على الاستفادة من تقنيات الذكاء الاصطناعي، وهو ما يعزز من مكانتهم في سوق العمل.
وهو ما وضّحه براد لايتكاب، الرئيس التنفيذي للعمليات في " أوبن إيه آي" أثناء حدثٍ أقامته "نيويورك تايمز"، مشيرا في مقابلة للحدث أن الذكاء الاصطناعي يمثل مشكلة لفئة وصفها: "فئة من العمال أعتقد أنها أكثر استقرارا، وتميل أكثر نحو الروتين في طريقة معينة للقيام بالأشياء".
وتعد الإجابة عن هذا السؤال محورية للغاية في مستقبل الوظائف والتعليم الجامعي، فإن كانت وظائف المبتدئين هي الأكثر تضررا، فهذا يعني أن التعليم الجامعي يحتاج إلى تحسين ورفع مستوى لجعل كافة الخريجين يصلون إلى مستوى متقدم من المهارة.
وإن كانت وظائف ذوي الخبرة هي الأكثر تأثيرا، فإن هذ قد يؤدي إلى مجموعة من الانتقادات العالمية الواسعة، وربما حتى عدم استقرار سياسي واجتماعي في المناطق التي تشهد هذه الإقالات، بحسب الكاتب.
وذكّر المقال بتحذير ديفيد فورلونجر، نائب رئيس الأبحاث في شركة "غارتنر" (Gartner)، أن الضرر الناتج عن استبدال الموظفين ذوي الخبرة يتطلب تدخلا حكوميا لتأمينهم وحمايتهم.
الذكاء الاصطناعي يجعل المديرين أفضل
في عام 2023، حظرت إيطاليا استخدام " شات جي بي تي"، بعد أن بدأ العديد من المبرمجين الاعتماد عليه في وظائفهم اليومية بكثافة، وهذا دفع فريقا من عدة جامعات منها جامعة كاليفورنيا وإيرفين وتشابمان إلى مقارنة تأثير هذه الخطوة مع بقية المبرمجين في مختلف دول العالم.
وبينما لم تنظر الدراسة إلى أثر "شات جي بي تي" على معدلات الإقالة، إلا أنها نظرت مباشرة إلى استخدام الأداة من فرق المبرمجين مختلفي الخبرة، وتحديدا المبرمجين المبتدئين والمبرمجين ذوي الخبرة المتوسطة.
وأوضح المقال، أن الدراسة وجدت أن استخدام أدوات الذكاء الاصطناعي كان له أثر إيجابي أكثر على الموظفين ذوي الخبرة المتوسطة من الموظفين المبتدئين، إذ استطاع هؤلاء استخدام أدوات الذكاء الاصطناعي لمساعدة فرق المبرمجين العاملين معهم خاصة في حالة اختلاف اللغة بين المبرمجين، وذلك مقارنة مع تسريع عمل الموظفين المبتدئين.
وخلاصة هذه النتيجة، يمكن القول إن "شات جي بي تي" جعل المبرمجين متوسطي الخبرة أكثر فائدة لفرقهم، وساهم في تعزيز أداء الفريق بأكمله مقارنة بالمبرمجين المبتدئين الذين استخدموه لتحسين أعمالهم المباشرة فقط.
ويتكرر الأمر مع روبرت بلوتكين الشريك في شركة محاماة صغيرة متخصصة في الملكية الفكرية، إذ قال في حديثه لـ "نيويورك تايمز" إن الذكاء الاصطناعي لم يؤثر على حاجة شركته للعمالة ذات المهارات المنخفضة، مثل المساعدين القانونيين، ولكن على النقيض أثرت على محامي كتابة العقود الموظفين بالشركة، وبعضهم كان يملك خبرة عدة سنوات.
ويقول بلوتكين إن عمله كان يتلخص في مراجعة المستندات والعقود التي يكتبها هؤلاء المحامون قبل نقلها إلى العملاء، ولكن الآن أصبح يعتمد على مساعدة ذكاء اصطناعي قادر على كتابة العقود بشكل أفضل وأكثر كفاءة.
ويماثل هذا التوجه ما قامت به "مايكروسوفت" في موجة الإقالة الأخيرة، إذ تخلت عن عدد كبير من المديرين المتوسطين فضلا عن بعض مهندسي البرمجيات خلال الموجات السابقة، بحسب المقال.
ويبرر فورلونجر هذا التصرف بأن أي وظيفة كانت تحتاج للتعامل مع البيانات والبريد الإلكتروني والمستندات يمكن للذكاء الاصطناعي القيام بها أفضل وأسرع، مما يترك وقتا أكثر للمديرين لتدريب موظفيهم وتوجيههم.
تعزيز أهمية الخبرة القليلة
يقول هاربر ريد، الرئيس التنفيذي لشركة "2389 للأبحاث" التي تعمل على بناء وكلاء الذكاء الاصطناعي المستقلين لمساعدة الشركات على أداء مجموعة متنوعة من المهام، إن الطريقة الأفضل لخفض التكاليف ليست في إقالة الموظفين ذوي الرواتب المنخفضة، ولكن في تحويلهم إلى موارد تستحق رواتبها.
ويرى الكاتب أنه بالرغم من أن هذه الفلسفة تبدو غير متعلقة بالذكاء الاصطناعي مباشرة، إلا أن الدراسة التي نشرتها "مايكروسوفت" بالتعاون مع ثلاث جامعات وجدت أن مساعدي الذكاء الاصطناعي للبرمجة قادرون على زيادة إنتاجية المبرمجين المبتدئين بما يتخطى المبرمجين ذوي الخبرة.
لذا يرى ريد أن توظيف مبرمجين ذوي خبرة منخفضة وتدريبهم على استخدام مساعدي البرمجة بالذكاء الاصطناعي أفضل من منظور مالي بحت من توظيف المبرمجين ذوي الخبرة الكبيرة.
وتطرق الكاتب في نهاية مقاله إلى موجة التسريح الأخيرة التي أصابت "مايكروسوفت" و"غوغل" وغيرها من شركات الذكاء الاصطناعي، مستشهدا بتحليل جيل لوريا، محللة الأسهم التي تغطي "مايكروسوفت" لصالح بنك الاستثمار "دي. إيه. ديفيدسون" أن الشركة كانت في حاجة إلى تحسين نتائجها المالية، لذلك كان من المنطقي أن تستبدل بعض الموظفين الذين يحصلون على رواتب كبيرة بالذكاء الاصطناعي، فضلا عن استثمار الشركة الواسع في الشرائح وغيرها من جوانب تطوير الذكاء الاصطناعي.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

الصين تنتقد فرض ترامب رسوما جمركية بنسبة 50% على النحاس
الصين تنتقد فرض ترامب رسوما جمركية بنسبة 50% على النحاس

الجزيرة

timeمنذ 44 دقائق

  • الجزيرة

الصين تنتقد فرض ترامب رسوما جمركية بنسبة 50% على النحاس

انتقدت الصين -اليوم الخميس- ما وصفتها بالرسوم الجمركية التعسفية على خلفية إعلان الرئيس الأميركي دونالد ترامب -الأربعاء- فرض رسوم جمركية على النحاس متحججا بالأمن القومي. وقالت الناطقة باسم وزارة الخارجية الصينية ماو نينغ: "لطالما عارضنا الإفراط في توسيع نطاق مفهوم الأمن القومي. ولطالما آمنا أيضا… بأن فرض الرسوم الجمركية على نحو تعسفي لا يخدم مصالح أحد". وأعلن ترامب أمس الأربعاء فرض رسوم جمركية بنسبة 50 % على النحاس، وذكر على مواقع التواصل الاجتماعي أن هذه الرسوم ستدخل حيز التنفيذ في الأول من أغسطس/آب المقبل. وقال "أُعلنُ رسوما جمركية بنسبة 50% على النحاس، بدءا من الأول من أغسطس/آب 2025، بعدما تلقّيتُ تقييما أمنيا وطنيا متينا"، في إشارة -على الأرجح- إلى تحقيق أجرته وزارة التجارة في وقت سابق هذا العام. وفي فبراير/شباط الماضي، أمر ترامب بإجراء تقييم داخلي بشأن إذا ما كانت واردات النحاس المحدودة تمثل تهديدا للأمن القومي الأميركي. وشهد الطلب على النحاس ارتفاعا كبيرا السنوات الأخيرة مع انتقال العالم إلى طاقة أنظف، وهذا المعدن مطلوب للألواح الشمسية، وطواحين الهواء، وبطاريات السيارات الكهربائية. وتتوقع الوكالة الدولية للطاقة أن يرتفع استهلاك النحاس العالمي بنسبة تزيد على 25 % ليصل إلى 33 مليون طن بحلول عام 2035، مقارنة بـ26 مليون طن عام 2023. وتسببت حملة التعريفات التجارية التي أطلقها ترامب في إحداث اضطراب في الأسواق العالمية منذ عودته إلى منصبه في يناير/كانون الثاني الماضي.

روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي
روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي

الجزيرة

timeمنذ 10 ساعات

  • الجزيرة

روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي

في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة. وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum. وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت". شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي. وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل. لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا. ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا. كما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته. هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات. ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد. من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا. إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية. لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل. إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة. ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة. لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها. والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة. ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية. علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة. حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها. ورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي. إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة. وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية. التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه. في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI. لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.

روسيا والمؤامرة الماكرة لتسميم ذكاء الغرب الاصطناعي
روسيا والمؤامرة الماكرة لتسميم ذكاء الغرب الاصطناعي

الجزيرة

timeمنذ 13 ساعات

  • الجزيرة

روسيا والمؤامرة الماكرة لتسميم ذكاء الغرب الاصطناعي

في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة. وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum. وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت". شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي. وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل. لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا. ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا. كما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته. هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات. ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد. من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا. إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية. لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل. إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة. ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة. لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها. والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة. ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية. علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة. حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها. ورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي. إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة. وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية. التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه. في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI. لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store