logo
بين الراحة والعزلة.. الجانب المظلم للتواصل مع "شات جي بي...

بين الراحة والعزلة.. الجانب المظلم للتواصل مع "شات جي بي...

الوكيلمنذ 10 ساعات
الوكيل الإخباري- منذ إطلاق "شات جي بي تي" أواخر عام 2022، تحول من مجرد أداة تقنية إلى رفيق يومي لملايين المستخدمين. ومع تطور إمكانياته، بات التفاعل معه أكثر شبهًا بالتواصل البشري، مما أثار تساؤلات حول تأثير هذه العلاقات الافتراضية على الصحة النفسية والاجتماعية.
اضافة اعلان
وفي محاولة لفهم هذا التأثير، أجرت "أوبن إيه آي" بالتعاون مع "معهد ماساتشوستس للتكنولوجيا" دراستين لرصد كيفية استخدام الناس لروبوتات الدردشة، وتأثير ذلك في مشاعرهم وسلوكهم الاجتماعي.
نتائج مفاجئة
الدراسة أظهرت أن الغالبية تستخدم "شات جي بي تي" لأغراض عملية، مثل طرح الأسئلة وحل المشكلات. لكن فئة صغيرة من المستخدمين – غالبًا ممن يعانون من قلة التفاعل الاجتماعي – لجأت للروبوت بحثًا عن الدعم العاطفي، وبدأت بتكوين روابط عاطفية قوية معه.
وفي حين خفّف التفاعل مع روبوت الدردشة الشعور بالوحدة في البداية، إلا أن الاستخدام المتكرر، خصوصًا عبر الوضع الصوتي العاطفي، ارتبط بزيادة الاعتماد العاطفي، وتراجع التفاعل الاجتماعي الحقيقي، خاصة لدى النساء وكبار السن.
أنواع المستخدمين
قسّمت الدراسة المستخدمين إلى 4 أنماط:
الضعفاء اجتماعيًا
المعتمدون على التكنولوجيا
غير العاطفيين
العابرون
وكان النمط الثاني الأكثر عرضة للمخاطر النفسية، نتيجة الاعتماد العاطفي المتزايد والانفصال عن التواصل البشري.
هل "شات جي بي تي" بديل عن البشر؟
بالرغم من قدرته على محاكاة التعاطف وتقديم الدعم، لا يفرز التفاعل مع "شات جي بي تي" نفس التأثيرات البيولوجية للتواصل البشري، مثل إفراز هرمون "الأوكسيتوسين" المرتبط بالثقة والعلاقات.
خلاصة
"شات جي بي تي" ليس بديلاً عن البشر.
فبينما يمكنه تسهيل المهام وتوفير المعلومة وحتى الترفيه، لا ينبغي أن يحل محل العلاقات الإنسانية، التي تظل المصدر الأعمق للدعم العاطفي والنفسي.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

بين الراحة والعزلة.. الجانب المظلم للتواصل مع "شات جي بي...
بين الراحة والعزلة.. الجانب المظلم للتواصل مع "شات جي بي...

الوكيل

timeمنذ 10 ساعات

  • الوكيل

بين الراحة والعزلة.. الجانب المظلم للتواصل مع "شات جي بي...

الوكيل الإخباري- منذ إطلاق "شات جي بي تي" أواخر عام 2022، تحول من مجرد أداة تقنية إلى رفيق يومي لملايين المستخدمين. ومع تطور إمكانياته، بات التفاعل معه أكثر شبهًا بالتواصل البشري، مما أثار تساؤلات حول تأثير هذه العلاقات الافتراضية على الصحة النفسية والاجتماعية. اضافة اعلان وفي محاولة لفهم هذا التأثير، أجرت "أوبن إيه آي" بالتعاون مع "معهد ماساتشوستس للتكنولوجيا" دراستين لرصد كيفية استخدام الناس لروبوتات الدردشة، وتأثير ذلك في مشاعرهم وسلوكهم الاجتماعي. نتائج مفاجئة الدراسة أظهرت أن الغالبية تستخدم "شات جي بي تي" لأغراض عملية، مثل طرح الأسئلة وحل المشكلات. لكن فئة صغيرة من المستخدمين – غالبًا ممن يعانون من قلة التفاعل الاجتماعي – لجأت للروبوت بحثًا عن الدعم العاطفي، وبدأت بتكوين روابط عاطفية قوية معه. وفي حين خفّف التفاعل مع روبوت الدردشة الشعور بالوحدة في البداية، إلا أن الاستخدام المتكرر، خصوصًا عبر الوضع الصوتي العاطفي، ارتبط بزيادة الاعتماد العاطفي، وتراجع التفاعل الاجتماعي الحقيقي، خاصة لدى النساء وكبار السن. أنواع المستخدمين قسّمت الدراسة المستخدمين إلى 4 أنماط: الضعفاء اجتماعيًا المعتمدون على التكنولوجيا غير العاطفيين العابرون وكان النمط الثاني الأكثر عرضة للمخاطر النفسية، نتيجة الاعتماد العاطفي المتزايد والانفصال عن التواصل البشري. هل "شات جي بي تي" بديل عن البشر؟ بالرغم من قدرته على محاكاة التعاطف وتقديم الدعم، لا يفرز التفاعل مع "شات جي بي تي" نفس التأثيرات البيولوجية للتواصل البشري، مثل إفراز هرمون "الأوكسيتوسين" المرتبط بالثقة والعلاقات. خلاصة "شات جي بي تي" ليس بديلاً عن البشر. فبينما يمكنه تسهيل المهام وتوفير المعلومة وحتى الترفيه، لا ينبغي أن يحل محل العلاقات الإنسانية، التي تظل المصدر الأعمق للدعم العاطفي والنفسي.

أغلى روبوت في العالم..
أغلى روبوت في العالم..

أخبارنا

timeمنذ 17 ساعات

  • أخبارنا

أغلى روبوت في العالم..

أخبارنا : في أحدث استعراض لتطورات الذكاء الاصطناعي، ظهر روبوت يُعدّ القهوة ويتحدث أربع لغات، ليصبح الأغلى في العالم بسعر يتجاوز 3 ملايين دولار. يُدعى "Ameca'، وهو من إنتاج شركة Engineered Arts البريطانية، ويتميّز بتعابير وجه واقعية، وقدرات حوارية متقدمة تُحاكي البشر. بخلاف الروبوتات الصناعية، صُمم Ameca للتفاعل الإنساني في مجالات الاستقبال والتواصل، وخدمة العملاء، ما يجعله خطوة كبرى نحو تكنولوجيا تخدم الحياة اليومية. يتيح الذكاء الاصطناعي في الروبوت القدرة على فهم السياق، الرد على الأسئلة، والتفاعل العاطفي، ما يشير إلى تغيّر جذري في مستقبل الأتمتة.

كيف تحاول نماذج الذكاء الاصطناعي خداع وابتزار مبتكريها؟
كيف تحاول نماذج الذكاء الاصطناعي خداع وابتزار مبتكريها؟

عمون

timeمنذ 17 ساعات

  • عمون

كيف تحاول نماذج الذكاء الاصطناعي خداع وابتزار مبتكريها؟

عمون - لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفِّذ الطلبات فحسب؛ بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد «كلود 4» -وهو نموذج جديد من شركة «أنثروبيك»- إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج! أما برنامج «أو 1» (o1) التابع لشركة «أوبن إيه آي» فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند تم ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنا نجده في الأعمال الأدبية أو السينمائية. يرى الأستاذ في جامعة هونغ كونغ، سايمن غولدستين، أن هذه الهفوات ترجع إلى الظهور الحديث لما تُسمَّى نماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل، بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، لـ«وكالة الصحافة الفرنسية»: إنَّ «أوه وان»، النسخة الأولية لـ«أوبن إيه آي» من هذا النوع، والتي طُرحت في ديسمبر (كانون الأول): «كان أول نموذج يتصرف بهذه الطريقة». وتميل هذه البرامج أحياناً إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى. يقول هوبهان إن المستخدمين «يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً». نوع من الخداع الاستراتيجي في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرِّض المستخدمون الخوارزميات لمواقف متطرفة، ولكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، على قول مايكل تشين من معهد «إم آي تي آر» للتقييم. يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً؛ بل ازدواجية استراتيجية»، حسب المشارك في تأسيس «أبولو ريسيرتش». وفي حين تُشرك شركات مثل «أنثروبيك» و«أوبن إيه آي» شركات خارجية مثل «أبوللو» لدراسة أنظمتها، يُشير الباحثون إلى الحاجة إلى مزيد من الشفافية. وكما أشار تشين، فإن زيادة الوصول «لبحوث سلامة الذكاء الاصطناعي ستُمكِّن من فهم أفضل للخداع والحد منه». ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة، لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، ما يجعل التدقيق في النماذج الكبيرة «مستحيلاً»، على قول مانتاس مازيكا، من مركز أمن الذكاء الاصطناعي (CAIS). على الرغم من أن الاتحاد الأوروبي أقرَّ تشريعات تنظِّم الذكاء الاصطناعي، فإنها تركِّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب إدارة الرئيس الأميركي دونالد ترمب في سماع أي حديث عن تنظيم الذكاء الاصطناعي؛ بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. منافسة شرسة يلاحظ غولدستين أن «الوعي لا يزال محدوداً جداً في الوقت الحالي»، ولكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة «أنثروبيك» إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها: «لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج (أوبن إيه آي)»، حسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان: «في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها، ومن مستوى الأمان المتوفر، ولكننا لا نزال قادرين على تدارك هذا التأخر». ويشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككاً في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). والحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي «قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكِّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة»، وفق مانتاس مازيكا. ويشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح حتى «تحميل برامج الذكاء الاصطناعي المسؤولية القانونية» في حال وقوع حوادث أو جرائم. الشرق الأوسط

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store