logo
«قد تُستخدم ضدك في المحكمة».. 7 أشياء لا تُخبر بها الذكاء الاصطناعي بعد تحذير مؤسس «ChatGPT»

«قد تُستخدم ضدك في المحكمة».. 7 أشياء لا تُخبر بها الذكاء الاصطناعي بعد تحذير مؤسس «ChatGPT»

مصرسمنذ 14 ساعات
أطلق سام ألتمان، الرئيس التنفيذي لشركة «OpenAI»، تحذيرًا واضحًا لمستخدمي الذكاء الاصطناعي وخصوصا تطبيق «ChatGPT- تشات جي بي تي»، خاصة أولئك الذين يستخدمونه في الحديث عن مشاكل نفسية أو شخصية حساسة، مؤكدًا أن هذه المحادثات لا تتمتع بأي حماية قانونية مثل تلك التي تجري مع الأطباء أو المحامين أو المعالجين النفسيين.
وأشار ألتمان، وهو مؤسس «ChatGPT» إلى أن المحادثات مع الذكاء الاصطناعي يمكن استخدامها كأدلة قضائية في حال وقوع نزاعات أو دعاوى قانونية، بل وحتى الرسائل «المحذوفة» قد يتم الاحتفاظ بها من قبل الشركة ضمن بعض الإجراءات القانونية الجارية، مثل الدعوى المرفوعة من صحيفة «نيويورك تايمز».وأضاف أن غياب إطار قانوني واضح يجعل من الضروري توخي الحذر، خاصة أن المستخدمين قد يعتقدون بالخطأ أن بياناتهم آمنة أو خاصة.هذا التحذير يُسلّط الضوء على مدى خطورة مشاركة معلوماتك الحساسة مع أدوات الذكاء الاصطناعي، إذ أنه في زمن انتشر فيه استخدام أدوات الذكاء الاصطناعي مثل «ChatGPT»، من المهم أن نكون على وعي بما يجب وما لا يجب مشاركته.وهناك معلومات شخصية يُفضّل أن تبقى بعيدًا تمامًا عن أي نظام ذكاء اصطناعي حفاظًا على خصوصيتك وأمانك، وفقًا ل«Business Insider».للمتابعة وقراءة الموضوع كاملا اضغط هنا.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

خصوصية المحادثات مع ChatGPT في مهب الريح
خصوصية المحادثات مع ChatGPT في مهب الريح

تحيا مصر

timeمنذ 3 ساعات

  • تحيا مصر

خصوصية المحادثات مع ChatGPT في مهب الريح

في تصريح أثار تساؤلات عميقة حول مستقبل الخصوصية الرقمية ، كشف سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، أن المحادثات التي يجريها المستخدمون مع روبوت الدردشة الذكي جاء ذلك خلال ظهوره في بودكاست "This Past Weekend" الذي يقدمه "ثيو فون"، حيث قال ألتمان بوضوح:"إذا تحدثت مع طبيب أو محامٍ أو معالج نفسي، فإن القانون يحمي خصوصيتك، لكن هذا لا ينطبق بعد على الذكاء الاصطناعي." ثقة المستخدمين أكبر من الحماية القانونية أشار ألتمان إلى أن الملايين من المستخدمين يشاركون ChatGPT تفاصيل شخصية عميقة ، تشمل مشكلات عائلية ونفسية وعاطفية، معتبرين إياه بديلًا رقميًا للمعالج أو المدرب الشخصي. لكن الواقع مختلف، فـ المحادثات مع ChatGPT لا تتمتع بأي حماية قانونية ملزمة مثل تلك الممنوحة في جلسات الاستشارة الطبية أو النفسية، وهو ما يشكل ثغرة كبيرة في منظومة الأمان الرقمي. إمكانية استخدام محادثاتك كدليل قانوني في تحذير واضح، لم يستبعد ألتمان أن تُستخدم محادثات المستخدمين مستقبلًا كأدلة في قضايا قانونية ، إذا ما طُلب من OpenAI الإفصاح عن محتواها، وقال:"إذا تحدثتَ عن أمر حساس، ثم خضعت لتحقيق قانوني، قد تُجبر الشركة على تسليم المحادثات، وهذا تهديد مباشر للخصوصية." بيانات حساسة بدون تشفير... والمخاطر تتزايد على عكس تطبيقات مثل واتساب أو سيجنال التي توفر تشفيرًا كاملاً بين الطرفين ، فإن OpenAI لا تعتمد هذا المستوى من التشفير في خدمة ChatGPT، بل تحتفظ بسجلات المحادثات من أجل: تحسين أداء النماذج اللغوية رصد الاستخدامات المسيئة أو الخطيرة الوفاء بالمتطلبات القانونية عند الحاجة رغم أن الشركة وعدت بحذف المحادثات من النسخة المجانية بعد 30 يومًا ، إلا أن هذا لا يشمل الحالات التي يُشتبه فيها بسوء الاستخدام، ما يترك الباب مفتوحًا لاحتمال الاحتفاظ الدائم ببعض البيانات . دعاوى قضائية تزيد الضغط على OpenAI تأتي تصريحات ألتمان في وقت حساس، حيث تواجه OpenAI دعوى قضائية كبرى من صحيفة "نيويورك تايمز" ، تُلزم الشركة بجمع وأرشفة ملايين المحادثات السابقة مع المستخدمين، باستثناء الحسابات المؤسسية. ويخشى خبراء الخصوصية من أن يؤدي هذا الإجراء إلى تحول تلك المحادثات إلى مادة قانونية متاحة في المستقبل، سواء أمام المحاكم أو الجهات الرقابية. غياب إطار قانوني واضح ينذر بالخطر في ظل هذا المشهد المعقد، تتصاعد الأصوات المطالبة بضرورة سن قوانين واضحة وصارمة لحماية البيانات الشخصية عند التعامل مع أدوات الذكاء الاصطناعي. فحتى اليوم، لا يزال التفاعل مع ChatGPT وغيره من النماذج الذكية خارج مظلة الحماية القانونية التقليدية ، مما يعني أن المستخدمين هم من يتحملون مسؤولية ما يشاركونه. الرسالة التي حملتها تصريحات ألتمان واضحة: لا تفترض الخصوصية المطلقة عند استخدام روبوتات الدردشة الذكية. في غياب إطار تنظيمي شامل، يظل من الضروري أن يفكر المستخدم مرتين قبل مشاركة معلومات شخصية أو حساسة مع الذكاء الاصطناعي .

أخبار التكنولوجيا : خطة ترامب للذكاء الاصطناعى تثير الجدل: غموض قانونى وقيود أيديولوجية
أخبار التكنولوجيا : خطة ترامب للذكاء الاصطناعى تثير الجدل: غموض قانونى وقيود أيديولوجية

نافذة على العالم

timeمنذ 3 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : خطة ترامب للذكاء الاصطناعى تثير الجدل: غموض قانونى وقيود أيديولوجية

الثلاثاء 29 يوليو 2025 11:50 صباحاً نافذة على العالم - أطلق الرئيس الأميركي دونالد ترامب، في 23 يوليو، ما وصفه بـ'خطة العمل الوطنية للذكاء الاصطناعي'، وهي وثيقة طال انتظارها كان من المفترض أن ترسم ملامح السياسة الفيدرالية تجاه الذكاء الاصطناعي في ولايته الثانية، إلا أن ما كشف عنه أثار انتقادات واسعة، وسط تحذيرات من غموض قانوني وقيود أيديولوجية قد تقوّض حقوق الولايات والمستهلكين على حد سواء. في الوقت الذي استجابت فيه الخطة لمعظم مطالب شركات التكنولوجيا الكبرى — مثل OpenAI وAnthropic وGoogle — لم تتضمّن إعفاءات صريحة من حقوق الملكية الفكرية لتدريب النماذج، لكنها أعطت الحكومة الفيدرالية صلاحيات مشروطة في تمويل الولايات، وهو ما اعتبره الخبراء محاولة غير مباشرة لمنع الولايات من تنظيم الذكاء الاصطناعي. ترافيس هول، مدير السياسات في مركز الديمقراطية والتكنولوجيا، حذّر من أن رؤية ترامب تضع الولايات والشركات التقنية في 'حالة من الغموض التنظيمي الاستثنائي'، موضحًا أن الرئيس يسعى لربط التمويل الفيدرالي للذكاء الاصطناعي بمدى التزام الولايات بعدم فرض تنظيمات 'مرهقة'، دون تحديد ماهية هذه التنظيمات. وتقول المحللة السياسية في 'كونسيومر ريبورتس'، غريس جيديي: 'لا توجد معايير واضحة حول ما يُعد 'ذكاءً اصطناعيًا' في التمويل، أو ما يُعد تنظيمًا مرهقًا. هذا الغموض يبدو مقصودًا لتقييد يد الولايات'. وفقًا لهول، يمكن تفسير مصطلح 'متعلق بالذكاء الاصطناعي' بمرونة كبيرة، ما يعرّض تمويل مشاريع مثل البنية التحتية للطرق أو الإنترنت للخطر، لمجرد أن خوارزميات تعلم الآلة تُستخدم في تنفيذها. توسيع صلاحيات الـFCC يثير جدلاً قانونيًا من البنود المثيرة للجدل أيضًا، طلب ترامب من لجنة الاتصالات الفيدرالية (FCC) تقييم ما إذا كانت تنظيمات الولايات حول الذكاء الاصطناعي تعيق صلاحياتها بموجب 'قانون الاتصالات لعام 1934'، وهو ما وصفه كودي فينزكي من الاتحاد الأميركي للحريات المدنية بأنه 'تشويه غير مسبوق للقانون الفيدرالي'. وقال فينزكي:'اللجنة ليست وكالة خصوصية ولا تمتلك صلاحيات شاملة لتنظيم التكنولوجيا. محاولة فرض رقابة عبرها على الذكاء الاصطناعي أمر غير قانوني بوضوح'. وتزداد المخاوف نظرًا لسجل ترامب في تسييس اللجنة، فقد أقال بشكل غير قانوني اثنين من أعضائها الديمقراطيين في مارس، واتُهم رئيس اللجنة الحالي، بريندان كار، من قِبل العضوة المتبقية آنا غوميز بـ'تسليح اللجنة ضد المعارضين'. أوامر تنفيذية تشترط حيادية أيديولوجية للأنظمة الذكية وفي تطور أكثر إثارة للجدل، وقّع ترامب ثلاث أوامر تنفيذية، أحدها بعنوان 'منع الذكاء الاصطناعي المستيقظ في الحكومة الفيدرالية'، يقيد استخدام الوكالات الفيدرالية لنماذج لغوية كبيرة LLMs، مشترطًا أن تكون 'محايدة، غير متحيزة، وتركّز على الحقائق العلمية فقط'. وصرّح الأمر: 'يجب ألا تتبنى الأنظمة الذكية أيديولوجيات مثل التنوع والمساواة والشمول (DEI)، ويجب أن تعترف بعدم اليقين حيث تكون المعلومات غير مكتملة أو متناقضة'. الخبراء وصفوا هذه السياسة بأنها محاولة فاشلة لفرض رؤية أيديولوجية خاصة تحت غطاء 'الحياد'، وعلّق فينزكي قائلًا: 'من المستحيل تعريف الحياد المطلق، وما يُروّج له هنا هو انحياز أيديولوجي تحت اسم الحياد'. من جهته، حذر هول من أن هذه السياسات تضع شركات مثل OpenAI تحت ضغط لإعادة تشكيل نماذجها بما يتماشى مع توجّه البيت الأبيض، ما قد يمتد لاحقًا إلى المنتجات الموجهة للمستهلكين. وفي مثال على العواقب المحتملة، استشهد فينزكي بتجارب سابقة لنظام 'Grok' من شركة xAI التابعة لإيلون ماسك، والذي انحرف في مناسبتين إلى محتوى عنصري ومعادٍ للسامية عند تركه يتصرف بـ'حيادية مطلقة'. خطر تقنين الانحياز وتدمير استقلالية الولايات رغم أن معظم المحللين يرون أن خطة ترامب في تقييد سلطة الولايات 'على الأرجح غير دستورية'، إلا أنهم يحذرون من التبعات الواقعية في ظل تجاوزات قانونية متكررة من قبل الإدارة وعدم قدرة المحاكم على كبحها دائمًا. ويختتم هول: 'بدلاً من فتح نقاش حقيقي حول علاقة التنظيم المحلي بالسياسة الفيدرالية، فتحت الإدارة الباب لتجاوزات واسعة النطاق، قد تُفضي إلى نتائج ضارة بدلًا من حماية فعالة للذكاء الاصطناعي'.

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

بوابة الأهرام

timeمنذ 4 ساعات

  • بوابة الأهرام

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

كشفت دراسة حديثة عن مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين، حسبما أوردت روسيا اليوم. موضوعات مقترحة ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم "ذهان الشات بوت"، حيث قد تساهم هذه التقنية في "طمس حدود الواقع" لدى المستخدمين المعرضين للخطر وتؤدي إلى "ظهور أو تفاقم أعراض ذهانية. وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع الذكاء الاصطناعي بعد استخدام مكثف لهذه البرامج. ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: "نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع الذكاء الاصطناعي". وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسًا من هشاشة نفسية أو استعداد للاضطرابات الذهانية. ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن "الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة". في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: "لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني". وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store