logo
دراسة تكشف: الذكاء الاصطناعي يتفوق على البشر في الذكاء العاطفي

دراسة تكشف: الذكاء الاصطناعي يتفوق على البشر في الذكاء العاطفي

موجز نيوز٢٧-٠٥-٢٠٢٥

اختبرت دراسة جديدة قدرة الذكاء الاصطناعي على إظهار الذكاء العاطفي من خلال تقييم ستة أنظمة ذكاء اصطناعي، بما في ذلك «ChatGPT»، في تقييمات الذكاء العاطفي القياسية، وحققت أنظمة الذكاء الاصطناعي متوسط ​​درجة 82%، وهو أعلى بكثير من نسبة 56% التي حققها المشاركون البشريون.
لم تتفوق هذه الأنظمة في اختيار استجابات الذكاء العاطفي فحسب، بل تمكنت أيضًا من إنشاء اختبارات ذكاء عاطفي جديدة وموثوقة في وقت قياسي.
وأشارت النتائج إلى أن الذكاء الاصطناعي يمكن أن يلعب دورًا في المجالات الحساسة عاطفيًا مثل التعليم والتدريب وحل النزاعات، عند الإشراف عليها بشكل مناسب.
استعرضت الدراسة ثلاثة حقائق رئيسية وهي:
- معدل الذكاء العاطفي للذكاء الاصطناعي: تفوقت أنظمة الذكاء الاصطناعي المُولِّد على البشر في اختبارات الذكاء العاطفي، مسجلةً 82% مقابل 56%.
- إنشاء الاختبار: أنشأ نموذج «ChatGPT-4» اختبارات ذكاء عاطفي جديدة تطابق التقييمات التي صممها الخبراء من حيث الوضوح والواقعية.
- الاستخدام العملي: تشير النتائج إلى إمكانات الذكاء الاصطناعي في التدريب والتعليم وإدارة النزاعات.
هل الذكاء الاصطناعي قادر على اقتراح سلوك مناسب في المواقف العاطفية؟
قام فريق من جامعة «جنيف UNIGE» وجامعة «برن UniBE» باختبار ستة أنظمة ذكاء اصطناعي توليدي، بما في ذلك «ChatGPT»، باستخدام تقييمات «الذكاء العاطفي EI» المصممة عادة للبشر، وفقًا للموقع الإخباري التكنولوجي «Neuro Science News».
وأظهرت النتائج أن هذه الأنظمة تفوقت على متوسط ​​أداء البشر، بل واستطاعت إنشاء اختبارات جديدة في وقت قياسي. تفتح هذه النتائج آفاقًا جديدة للذكاء الاصطناعي في التعليم والتدريب وإدارة النزاعات.
نُشرت الدراسة في مجلة «Communications Psychology »ونماذج اللغة الكبيرة (LLMs)، هي أنظمة ذكاء اصطناعي قادرة على معالجة اللغة البشرية وتفسيرها وتوليدها، على سبيل المثال، يعتمد الذكاء الاصطناعي التوليدي «ChatGPT» على هذا النوع من النماذج. تستطيع أنظمة «LLMs » الإجابة على الأسئلة وحل المشكلات المعقدة.
هل يمكن للذكاء الاصطناعي اقتراح سلوك ذكي عاطفيًا؟
تمهد هذه النتائج الطريق لاستخدام الذكاء الاصطناعي في سياقات يُعتقد أنها حكر على البشر، لمعرفة ذلك، أخضع فريق من جامعة بيلينجهام، ومعهد علم النفس، والمركز السويسري للعلوم العاطفية (CISA) التابع لجامعة بيلينجهام ستة طلاب ماجستير في القانون لاختبارات الذكاء العاطفي.
قالت كاتيا شليجل، المحاضرة والباحثة الرئيسية في قسم علم نفس الشخصية، وعلم النفس التفاضلي، والتقييم في معهد علم النفس بجامعة بيلينجهام، والمؤلفة الرئيسية للدراسة: «اخترنا خمسة اختبارات شائعة الاستخدام في كل من البيئات البحثية والشركات، وقد شملت سيناريوهات مشحونة عاطفيًا مصممة لتقييم القدرة على فهم العواطف وتنظيمها وإدارتها».
بالتوازي، أُجريت الاختبارات الخمسة نفسها على مشاركين بشريين. يوضح مارسيلو مورتيلارو، كبير العلماء في المركز السويسري للعلوم العاطفية CISA التابع لجامعة جنيف، والذي شارك في البحث: «في النهاية، حقق طلاب ماجستير القانون درجات أعلى بكثير- 82% إجابات صحيحة مقابل 56% للبشر.
يشير هذا إلى أن أنظمة الذكاء الاصطناعي هذه لا تفهم المشاعر فحسب، بل تدرك أيضًا معنى التصرف بذكاء عاطفي.
اختبارات جديدة في وقت قياسي
في مرحلة ثانية، طلب العلماء من «ChatGPT-4» إنشاء اختبارات ذكاء عاطفي جديدة، مع سيناريوهات جديدة ثم أجرى أكثر من 400 مشارك هذه الاختبارات المولدة تلقائيًا.
أوضحت كاتيا شليجل قائلة: «لقد أثبتت هذه الاختبارات موثوقيتها ووضوحها وواقعيتها، تمامًا مثل الاختبارات الأصلية التي استغرق تطويرها سنوات».
وأضاف مارسيلو مورتيلارو: «لذلك، لا تقتصر قدرة برامج ماجستير القانون على إيجاد أفضل إجابة من بين الخيارات المتاحة فحسب، بل تشمل أيضًا توليد سيناريوهات جديدة تتكيف مع السياق المطلوب. وهذا يعزز فكرة أن برامج ماجستير القانون، مثل ChatGPT، تتمتع بمعرفة عاطفية وتستطيع التفكير في العواطف».
تمهد هذه النتائج الطريق لاستخدام الذكاء الاصطناعي في سياقات يعتقد أنها حكر على البشر، مثل التعليم والتدريب وإدارة النزاعات، شريطة أن يستخدمه ويشرف عليه خبراء.
نماذج اللغة الكبيرة بارعة في حل وإنشاء اختبارات الذكاء العاطفي، كما تظهر نماذج اللغة الكبيرة LLMs خبرة في مجالات متنوعة، إلا أن قدرتها على الذكاء العاطفي لا تزال غير مؤكدة.
أظهرت النتائج أن برامج «ChatGPT-4، وChatGPT-o1، وGemini 1.5 flash، وCopilot 365، وClaude 3.5 Haiku، وDeepSeek V3» تفوقت على البشر في خمسة اختبارات قياسية للذكاء العاطفي، محققة متوسط ​​دقة بلغ 81%، مقارنةً بمتوسط ​​دقة البشر البالغ 56% المُسجل في دراسات التحقق الأصلية.
في خطوة ثانية، أنشأ «ChatGPT-4» بنود اختبار جديدة لكل اختبار ذكاء عاطفي وتم تطبيق هذه الإصدارات الجديدة والاختبارات الأصلية على مشاركين بشريين في خمس دراسات. بشكل عام، أظهرت الاختبارات الأصلية والاختبارات المُنشأة بواسطة «ChatGPT» صعوبة اختبار متكافئة إحصائيًا.
لم تكن وضوح وواقعية البنود المُدركة، وتنوع محتواها، والاتساق الداخلي، والارتباطات مع اختبار المفردات، والارتباطات مع القدرة الخارجية متكافئة إحصائيًا بين الاختبارات الأصلية والاختبارات المُنشأة بواسطة «ChatGPT»،و أشارت النتائج إلى أن اختبارات LLM قادرة على توليد استجابات تتوافق مع المعرفة الدقيقة بالعواطف البشرية وتنظيمها.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

شات جي بي تي هيخطب الجمعة".. أحمد كريمة يحذر من الذكاء الاصطناعي
شات جي بي تي هيخطب الجمعة".. أحمد كريمة يحذر من الذكاء الاصطناعي

مصراوي

timeمنذ 4 ساعات

  • مصراوي

شات جي بي تي هيخطب الجمعة".. أحمد كريمة يحذر من الذكاء الاصطناعي

Fw: كتب- محمد قادوس: قال الدكتور أحمد كريمة، أستاذ الفقه المقارن بجامعة الأزهر الشريف، إن استفتاء ChatGPT" شات جي بي تي" في الأمور الدينية والفقهية والشرعية، غير صحيح. وأضاف كريمة، خلال حواره ببرنامج" علامة استفهام"، عبر قناة"الشمس": أن الإفتاء سيكون غير صحيح، لأن الجهاز سيحصل على بيانات مخزنة فقط. وأوضح أستاذ الفقه، أن العقل البشري سيغيب في حالة الوصول لهذا الأمر، وسيكون هناك غياب لحالة التدبير والتفكير، لافتًا إلى أن البشرية بهذه الأشياء تسير لـ الإلحاد، والأشياء الضارة. وأشار إلى أن الذكاء الاصطناعي هو دجال العصر الحديث، متابعًا: أدعو الله أن لا أرى هذا الزمان، لأن المرحلة الأخيرة على علامات الساعة اقتربت. وبين أستاذ الفقه المقارن بجامعة الأزهر الشريف أن استخدام التقنيات الحديثة في الأمور الدينية سيؤدي إلى الإلحاد، مضيفًا: يريدون إلغاء الذي خلق، وأنه في هذه الحالة سيصبح الإنسان عبدًا للآلة. ولفت إلى أن الجميع في هذه الفترة يريد أن يجعل الذكاء الاصطناعي هو الذي يقوم بكل شيء، وفي الفترة المقبلة سنجد" شات جي بي تي" هو الذي يخطب الجمعة بدل الشيخ، وقد يكون هو الإمام في الصلاة، وهذا أمر كارثي.

أخبار التكنولوجيا : الإفراط في التهذيب والذوق عند التعامل مع ChatGPT يؤدى إلى معلومات غير دقيقة
أخبار التكنولوجيا : الإفراط في التهذيب والذوق عند التعامل مع ChatGPT يؤدى إلى معلومات غير دقيقة

نافذة على العالم

timeمنذ 5 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : الإفراط في التهذيب والذوق عند التعامل مع ChatGPT يؤدى إلى معلومات غير دقيقة

السبت 28 يونيو 2025 11:30 صباحاً نافذة على العالم - كشف تقرير نٌشر في موقع hindustantimes، عن أن استخدام المصطلحات المهذبة عند الحديث مع ChatGPT، على غرار "من فضلك"، و"هل يمكنك"، و"شكرًا لك"، قد تُربك وتُحد من القدرات المتقدمة لنماذج الذكاء الاصطناعي، والجدير بالذكر أنه قبل بضعة أشهر، أُفيد بأن استخدام مثل هذه المصطلحات والعبارات يُكلف OpenAI ملايين الدولارات. وأشار التقرير إلى أن روبوت الدردشة المُولّد بالذكاء الاصطناعي يعد بحد ذاته تقدمًا ثوريًا، إذ يتمتع بفهم اللغة الطبيعية إلى جانب سياق المحادثة، حيث يُمكّن هذا روبوتات الدردشة مثل ChatGPT وGemini AI وغيرها من التفاعل مع البشر دون الحاجة إلى تعلم لغة تقنية مختلفة، ومع ذلك، هناك بعض قواعد التفاعل التي يجب اتباعها لتحقيق أقصى استفادة من أدوات جيل الذكاء الاصطناعي. التهذيب يُقيّد قدرات روبوت الدردشة ونصح التقرير بتجنَّب استخدام مصطلحات مثل "يُمكن"، و"يُمكن"، و"من فضلك"، وغيرها لأنه في عالم العمل، يُعتبر اللباقة من أساسيات آداب السلوك البشري، وكثيرًا ما نميل إلى التحدث كبشر حتى مع روبوتات الدردشة الذكية، مع ذلك، فإن استخدام عبارات مثل "شكرًا لك" و"من فضلك" قد يُكلف شركة تعتمد على الذكاء الاصطناعي ملايين الدولارات. ويُقال إن هذه العبارات المهذبة تستهلك قدرًا أكبر من الطاقة، حيث قد يستغرق روبوت الدردشة الذكي وقتًا إضافيًا لمعالجة الطلب، لذلك، يُنصح المستخدمون أثناء إجراء محادثة مع الذكاء الاصطناعي بكتابة طلبات قصيرة وواضحة تستهلك وقتًا أقل في المعالجة، مما يُقلل من استهلاك الطاقة. بالإضافة إلى ذلك، يجب تقييد كلمات مثل "يُمكن" و"يُمكن" واعتبارها "الأكثر خطورة"، فإن استخدام مصطلحات مثل "هل يُمكنك" في المطالبات قد يُربك الذكاء الاصطناعي وقد يُؤدي إلى نتيجة مختلفة تمامًا، لأن هذه المصطلحات أيضًا تجعل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي أقل دقة مقارنةً بتقديم مطالبة مباشرة. لذلك، إذا كنت ترغب في تحقيق أقصى استفادة من ChatGPT، فقد أدرجنا بعض الكلمات التي يجب تجنبها أثناء المحادثة مع روبوت الدردشة الذكي. كلمات يجب تجنبها أثناء استخدام ChatGPT تجنب التردد، واستخدام كلمات مثل "ربما"، و"من الممكن"، ومصطلحات مشابهة إذا كنت ترغب في إجابة مباشرة، لذلك، استخدم مصطلحات مباشرة مثل "اشرح"، و"اكتب"، و"أنشئ"، و"لخّص". كما نصح التقرير بتجنب استخدام كلمات مثل "فقط"، و"حقًا"، و"في الواقع"، و"أساسًا"، و"نوعًا ما"، إذا كنت ترغب في أن يكون ChatGPT موجزًا، فهذه المصطلحات لا تضيف أي قيمة لفهم الذكاء الاصطناعي، وتؤثر على جودة الأسئلة، مما يؤدي إلى تقليل صراحتها. كما يجب تجنب استخدام عبارات مثل "كثيرًا"، و"كثيرًا"، و"مؤخرًا"، أو "غالبًا" لأنها قد لا تساعد ChatGPT على توليد ردود قيّمة فهذه الكلمات ذاتية وقد تؤدي إلى سوء فهم الذكاء الاصطناعي للسؤال. وتجنب استخدام مصطلحات مثل "أنا آسف" لأنها تُظهر أن المستخدم أقل ثقة، بما أن الذكاء الاصطناعي يحاول محاكاة نبرة الصوت البشرية، فقد يُقدم استجابات بنغمات مشابهة، مما قد يؤثر على الدقة.

أخبار التكنولوجيا : تعرف على "التكلفة الكربونية" للدردشة مع تطبيقات الذكاء الاصطناعي وتأثيرها على البيئة
أخبار التكنولوجيا : تعرف على "التكلفة الكربونية" للدردشة مع تطبيقات الذكاء الاصطناعي وتأثيرها على البيئة

نافذة على العالم

timeمنذ 5 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : تعرف على "التكلفة الكربونية" للدردشة مع تطبيقات الذكاء الاصطناعي وتأثيرها على البيئة

السبت 28 يونيو 2025 11:30 صباحاً نافذة على العالم - استطاعت أدوات الذكاء الاصطناعى، مثل شات جى بى تى "ChatGPT"، أن تغير عالمنا الشخصى والمهنى، حيث يستخدم حوالى 52% من البالغين الأمريكيين بانتظام نماذج لغوية واسعة النطاق، والآن، تُفصّل دراسة جديدة التكاليف البيئية الهائلة لمطالباتنا، هذه التكاليف التى قد تدفعك إلى إعادة النظر فى نوع روبوت الدردشة الذى تستخدمه وكيفية استخدامه، إذ قام باحثون من جامعة ميونخ للعلوم التطبيقية (HM) الألمانية بدراسة 14 نموذجا مختلفا لنماذج لغوية واسعة النطاق، تتراوح بين قواعد المعرفة الأساسية والأكثر تعقيدا، وزوّدوا جميعهم بـ 1000 سؤال "قياسى"، كم عدد "الرموز" التى يمكن تحويلها إلى انبعاثات غازات دفيئة من خلال نماذج لغوية واسعة النطاق؟. قال ماكسيميليان دونر، الباحث فى جامعة ميونخ للعلوم التطبيقية والمؤلف الرئيسى للدراسة: "إن الأثر البيئى لاستجواب نماذج لغوية واسعة النطاق المُدرّبة يتحدد بشكل كبير من خلال نهجهم فى التفكير، حيث تؤدى عمليات التفكير الصريحة إلى زيادة كبيرة فى استهلاك الطاقة وانبعاثات الكربون"، وأضاف: "وجدنا أن النماذج المُدعّمة بالاستدلال تُنتج انبعاثات ثانى أكسيد الكربون أكثر بـ 50 مرة من نماذج الاستجابة الموجزة"، بحسب ما ذكر موقع newatlas. الدردشة مع الذكاء الاصطناعي قد تضر بالبيئة لفهم كيفية عمل برامج التعلم العميق (LLM) وكيف أنها مكلفة بيئيا، من المهم النظر إلى الرموز والمعلمات، فعندما نكتب "موجها" أو prompt، فإننا نولد رموزا تمثل أجزاء من موجهنا، ثم تُولد برامج التعلم العميق المزيد منها عند بدء عملها، أما برامج التعلم العميق ذات قدرات التفكير المتقدمة والمكثفة، فتُنتج المزيد من الرموز، والرموز هى أساس الحوسبة (البحث، والربط، والتقييم)، والحوسبة تتطلب طاقة، هذه الطاقة تُنتج انبعاثات ثانى أكسيد الكربون، وتعتبر أكثر نماذج LLM تعقيدا ودقة هى أيضا الأكثر استهلاكا للطاقة. استخدم العلماء جهاز كمبيوتر مزود بوحدة معالجة رسومية لقياس استهلاك الطاقة، مع تطبيق متوسط عامل انبعاث قدره 480 جم من ثانى أكسيد الكربون/كيلوواط ساعة، ثم طلبوا من كل نموذج من النماذج الأربعة عشر الإجابة على 1000 سؤال اختبار تغطى الفلسفة، وتاريخ العالم، والقانون الدولى، والجبر المجرد، والرياضيات، فكانت نماذج LLM التى تم اختبارها مزيجا من نماذج نصية فقط ونماذج استدلالية من Meta وAlibaba وDeep Cognito وDeepseek.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store