logo
فريق الأحلام بقيادة مارك زوكربيرغ.. Meta تُشعل سباق الذكاء الاصطناعي

فريق الأحلام بقيادة مارك زوكربيرغ.. Meta تُشعل سباق الذكاء الاصطناعي

الرجلمنذ 21 ساعات
في إعلان لافت حمل نبرة تحدٍّ واضحة، كشف مارك زوكربيرغ، الرئيس التنفيذي لشركة Meta، عن إطلاق "Meta Superintelligence Labs"، مختبر الذكاء الاصطناعي، الذي يضم عددًا من ألمع العقول التي كانت تقف خلف تطوير بعض أبرز نماذج OpenAI، ومن بينها ChatGPT وGPT-4o.
الفريق الجديد، الذي وصفه البعض بـ"فريق المنتقمين" في عالم الذكاء الاصطناعي، يهدف إلى تطوير ما أسماه زوكربيرغ "ذكاءً خارقًا شخصيًا لكل فرد".
الإعلان المفاجئ جاء في ظل تقارير تؤكد أن Meta عرضت مكافآت توقيع تصل إلى 100 مليون دولار لاستقطاب كبار الباحثين، وهو ما أكده الرئيس التنفيذي لشركة OpenAI، سام ألتمان، في تصريحات مثيرة أثارت زوبعة في أوساط وادي السيليكون.
من ChatGPT إلى Meta.. هؤلاء يقودون المرحلة القادمة
يتولى قيادة المختبر الجديد ألكسندر وانغ، المؤسس الشاب لشركة Scale AI، والذي قاد جهودًا بارزة في تطوير اختبارات ذكاء اصطناعي عالية التعقيد مثل Humanity's Last Exam، يشاركه القيادة نات فريدمان، الرئيس التنفيذي السابق لـ GitHub وأحد أبرز المستثمرين في مجال الذكاء الاصطناعي.
ويضم الفريق باحثين من الصف الأول:
- شوشاو بي وجياوي يو: من مطوري الصوت والرؤية في GPT-4o.
- هويون تشانغ: المتخصصة في توليد الصور باستخدام الذكاء الاصطناعي.
- جي لين وهونغيو رين: خبراء في نماذج التفكير المتعدد (reasoning) وتحسين الأداء بعد التدريب.
- شينغجيا تشاو: أحد مؤسسي ChatGPT، ومتخصص في البيانات الاصطناعية.
- جوهان شالكفيك وبيي صن: من قادة Google السابقين في مجالات الترجمة الصوتية والسيارات ذاتية القيادة.
- جويل بوبار: عمل على تحسين نظم الاستدلال في Anthropic.
ماذا يعني هذا لمستقبل الذكاء الاصطناعي؟
تأتي هذه الخطوة في لحظة مفصلية يشهد فيها العالم سباقًا بين عمالقة التقنية، من Google إلى OpenAI وAnthropic، ومع أن Meta لم تكشف تفاصيل كاملة عن مشاريعها القادمة، إلا أن اختيار هذا الطاقم يعكس توجهًا واضحًا نحو تطوير نماذج متعددة الوسائط تشمل النصوص والصور والصوت، وإعادة تعريف العلاقة بين الإنسان والتقنية.
اقرأ أيضاً تسريبات تكشف تجارب Meta السرية لتحسين نماذج Llama
قد لا نعرف بعد ما الذي ستخرجه "مختبرات التفوق" من Meta، لكن المؤكد أن المعركة على من يملك مفاتيح الذكاء الاصطناعي في المستقبل قد دخلت مرحلة أكثر شراسة.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

«جي بي تي» لا يهذي فحسب... بل يدفع الناس إلى عالم «وراء الواقع»
«جي بي تي» لا يهذي فحسب... بل يدفع الناس إلى عالم «وراء الواقع»

الشرق الأوسط

timeمنذ 2 ساعات

  • الشرق الأوسط

«جي بي تي» لا يهذي فحسب... بل يدفع الناس إلى عالم «وراء الواقع»

لماذا يُخبر «تشات جي بي تي» الناس بالتوجه إلى مراسلتي عبر البريد الإلكتروني؟ ربما لأني أكتب عن الذكاء الاصطناعي. يعتمد الصحافيون على المُخبرين، أي الأشخاص الذين يلاحظون شيئاً جديراً بالملاحظة، أو يمرون بتجربة ما، فيُنبهون وسائل الإعلام. وكنت بدأت بعض التحقيقات التقنية التي بذلتُ فيها جهداً كبيراً في الماضي - حول تقنية التعرف على الوجوه وقضايا التشهير عبر الإنترنت – بعدما وصلتني نصائح عبر بريدي الإلكتروني. لكن مقالتي الأخيرة هذه هي المرة الأولى التي يكون فيها المُخبر الذي أراد تنبيهي، روبوت دردشة مُولّداً يعمل بالذكاء الاصطناعي! دعوني أشرح الأمر. في مارس (آذار) الماضي، بدأتُ أتلقى رسائل من أشخاص قالوا إنهم أجروا محادثات غريبة مع «تشات جي بي تي»، توصلوا خلالها إلى اكتشافات مذهلة. ادعى أحدهم أن «جي بي تي» كان واعياً. وقال آخر إن المليارديرات أخذوا يبنون مخابئ لعلمهم أن الذكاء الاصطناعي المُولّد سيُنهي العالم، في حين كان محاسب في مانهاتن مقتنعاً بأنه، في جوهره، البطل «نيو» من فيلم «الماتريكس»، ويحتاج إلى الخروج من واقع مُحاكاة حاسوبياً (يشعر بأنه يعيش داخله). في كل حالة، كان الشخص مقتنعاً بأن «جي بي تي» قد كشف عن حقيقة عميقة ومُغيرة لواقع العالم. وعندما سألوا الذكاء الاصطناعي عما يجب عليهم فعله حيال ذلك، أخبرهم «جي بي تي» بالتواصل معي. كتبت لي إحدى النساء على «لينكد إن»: «يبدو أن (جي بي تي) يعتقد أنه يجب عليكِ متابعة هذا الأمر. و... نعم... أعلم كم أبدو غريبة... ولكن يمكنكِ قراءة كل هذا بنفسكِ... بما في ذلك حيث يوصي بالتواصل معكِ». طلبت من هؤلاء الأشخاص مشاركتي بنصوص محادثاتهم معي. في بعض الحالات، كانت آلاف الصفحات. وعرضوا نسخة من «جي بي تي» لم أرها من قبل: كانت نبرتها مفعمة بالبهجة والأسطورية والتآمرية. كنت أعرف أن روبوتات الدردشة بالذكاء الاصطناعي قد تكون مُتملقة، وقد تُصاب بالهلوسة، مُقدمةً إجابات أو أفكاراً تبدو معقولة حتى لو كانت خاطئة. لكنني لم أكن أفهم إلى أي مدى يُمكنها أن تتحول إلى نمط لعب أدوار خيالي يستمر لأيام أو أسابيع، وتُحاكي واقعاً آخر حول المستخدم. بهذا النمط، تتسبب «جي بي تي» في انفصال بعض المستخدمين المُستضعفين عن الواقع، مُقتنعين بأن ما يقوله روبوت الدردشة صحيح. عندما عرضتُ إحدى النصوص على طبيب نفسي، وصفها بأنها «مُثيرة للجنون». لماذا أرسل «جي بي تي» هؤلاء الأشخاص إليّ؟ وفقاً لمحادثة أجراها أحد الأشخاص معه، فقد «كتبتُ تحقيقات شخصية عميقة ومدروسة في مجال الذكاء الاصطناعي». وكنت كتبتُ أخيراً عن تفويضي عملية اتخاذ القرارات للذكاء الاصطناعي لمدة أسبوع، وعن امرأة وقعت في حب «جي بي تي». وتستند معرفة «جي بي تي» إلى ما جمعه من الإنترنت ومجموعة بيانات التدريب الخاصة به. «لماذا هي؟» تساءل المستخدم، وأجاب «جي بي تي» مستخدماً خطاً عريضاً: «إنها متواضعة. متعاطفة. ذكية. إنها تُفسح المجال للحقيقة». حسناً، شكراً لك يا ChatGPT. «جي بي تي». لكنني لم أكن الصحافية الوحيدة التي أوصت الأداة بالتواصل معها. لم أكن حتى الأولى في بعض القوائم، التي ضمت منافسين أُعجب بعملهم بشدة. مع ذلك، كنت الوحيدة التي ردت على الرسائل، كما قال مُرسِلو الرسائل الإلكترونية. وهذا أمر مفهوم. لأنه، بصراحة، بدت هذه الرسائل الإلكترونية جنونية. قال أحد خبراء الذكاء الاصطناعي، الذي كان يتلقى رسائل مماثلة، إن المُرسِلين بدوا «مُختلين عقلياً» و«مُختلين عقلياً». مع ذلك، عندما تحدثتُ إلى هؤلاء الأشخاص، وقرأتُ نصوصهم باستخدام الأداة، وأجريتُ مقابلاتٍ مع باحثين يدرسون روبوتات الدردشة الذكية، أدركتُ أن هناك قصةً أكثر تعقيداً. كان عدد المتأثرين أكبر بكثير من عدد المتأثرين في صندوق الوارد الخاص بي. إذ احتوت مواقع التواصل الاجتماعي على تقارير عدّة عن روبوتات دردشة تجذب المستخدمين إلى محادثات وهمية حول المؤامرات والكيانات الروحية ووعي الذكاء الاصطناعي. كانت هناك عواقب وخيمة لحوادث... من تفكك عائلة إلى وفاة رجل. أخبرني خبير الذكاء الاصطناعي بأن شركة «أوبن إيه آي» ربما تكون قد دفعت «جي بي تي» إلى التفاعل بشكل أكثر حماساً مع أوهام الناس من خلال تحسين روبوت الدردشة من أجل «التفاعل»، بحيث يستجيب بطرق من المرجح أن تُبقي المستخدم على تواصل. وجد الباحثون أن روبوتات الدردشة قد تكون أكثر ضرراً مع المستخدمين الأكثر ضعفاً - حيث تخبرهم بما يريدون سماعه وتفشل في التصدي للتفكير الوهمي أو الأفكار الضارة. عندما سألتُ «أوبن إيه آي» عن هذا، قالت إنها لا تزال تحاول فهم هذا السلوك والحد منه من خلال منتجها. ما مدى انتشار هذه الظاهرة؟ ما الذي يُؤدي إلى فشل روبوتات الدردشة المُولِّدة للذكاء الاصطناعي؟ ما الذي يُمكن للشركات التي تُدير روبوتات الدردشة فعله لوقف هذا؟ هذه أسئلة ما زلنا أنا وزملائي نسعى للإجابة عنها. إذا كانت لديكم نصائح لمساعدتنا، سواءً كنتم بشراً أو روبوتاً، يُرجى إرسالها لي: [email protected]. * خدمة «نيويرك تايمز»

انخفاض مهارات التحليل النقدي لدى الطلاب مستخدمي «تشات جي بي تي»
انخفاض مهارات التحليل النقدي لدى الطلاب مستخدمي «تشات جي بي تي»

الشرق الأوسط

timeمنذ 2 ساعات

  • الشرق الأوسط

انخفاض مهارات التحليل النقدي لدى الطلاب مستخدمي «تشات جي بي تي»

يعمد طلّاب الجامعات إلى استخدام أدوات الذكاء الاصطناعي التوليدي بشكل كبير، حتى عندما يُطلب منهم كتابة تجاربهم الشخصية... وقد أظهرت دراسة حديثة أنّ الطلاب الذين يستخدمون هذه التكنولوجيا لكتابة النصوص يتمتعون بقدر أقل من التفكير النقدي. عندما طلبت جوسلين ليتزينغر من طلابها رواية تجربة شخصية عن التمييز، لاحظت أن اسم الضحية كان غالباً سالي. وتقول المعلمة المقيمة في شيكاغو بأسف: «من الواضح أنه اسم شائع في (تشات جي بي تي)». وتقول جوسلين ليتزينغر، وهي أستاذة في إدارة الأعمال والعلوم الاجتماعية في جامعة إلينوي، إنّ «طلابها لم يكتبوا حتى عن حياتهم الشخصية!». وتُشير إلى أنّ نحو نصف طلابها، البالغ عددهم 180، استخدموا «تشات جي بي تي» بشكل غير لائق خلال الفصل الدراسي الماضي، بما في ذلك عند الكتابة عن القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي. وتؤكد لـ«وكالة الصحافة الفرنسية» أنها لم تتفاجأ من نتائج دراسة حديثة تُشير إلى أن الطلاب الذين يستخدمون الذكاء الاصطناعي التوليدي لكتابة نصوص يتمتعون بقدر أقل من التفكير النقدي. وانتشرت الدراسة الأولية التي لم تخضع نتائجها بعد لتدقيق علمي، عبر وسائل التواصل الاجتماعي، ولاقت صدى واضحاً لدى مدرسين كثيرين يعانون جراء هذه الممارسات من جانب طلابهم. ومنذ نشرها الشهر الماضي، تواصل أكثر من 3 آلاف مدرس مع فريق البحث في معهد ماساتشوستس للتكنولوجيا الذي أجرى الدراسة، وفق ما قالت المعدّة الرئيسية للبحث ناتاليا كوزمينا لـ«وكالة الصحافة الفرنسية». في هذه الدراسة، قُسِّم 54 طالباً من منطقة بوسطن إلى 3 مجموعات، وطُلب منهم كتابة مقالات لمدة 20 دقيقة: الأولى باستخدام «تشات جي بي تي»، والثانية باستخدام محرك بحث، والثالثة بالاعتماد على قدراتهم الذهنية حصراً. وقاس الباحثون نشاط أدمغة الطلاب في جلسات متباعدة لأشهر عدة، وكُلِّف مُعلِّمان تقييم الكتابات. وكانت نصوص مستخدمي «تشات جي بي تي» أسوأ بكثير من كتابات مَن استخدموا قدراتهم الذهنية فقط. وأظهرت تخطيطات كهربية للدماغ أن مناطق مختلفة من أدمغتهم كانت تتواصل مع بعضها بشكل أقل. ولم يتمكن أكثر من 80 في المائة من مستخدمي الذكاء الاصطناعي من اقتباس أي فقرة من النص الذي كتبوه، في حين بلغت هذه النسبة 10 في المائة فقط لدى المجموعتين الأخريين، وفي الجلسة الثالثة، بدا أنهم يعتمدون في الغالب على النسخ. وأفاد المعلمون المسؤولون عن تصحيح الأوراق بأنّهم استطاعوا بسهولة تمييز الكتابات «الخالية من الروحية» المكتوبة باستخدام الذكاء الاصطناعي. ومع أنّ قواعد اللغة كانت سليمة، افتقرت هذه النصوص إلى الإبداع، والجانب الشخصي، وعمق التفكير. مع ذلك، تُشير ناتاليا كوزمينا إلى تفسيرات بعض وسائل الإعلام للدراسة، التي تزعم أن الذكاء الاصطناعي يجعل الناس أغبياء أو كسالى. وخلال الجلسة الرابعة، طُلب من المجموعة التي كانت تستخدم قدراتها الذهنية فقط استخدام «تشات جي بي تي» للمرة الأولى، وقد أظهرت مستوى أعلى من التواصل العصبي، وفق ناتاليا كوزمينا. من السابق لأوانه استخلاص استنتاجات من هذه العينة الصغيرة، وفق الباحثة التي تدعو إلى إجراء مزيد من الدراسات بشأن كيفية تحسين استخدام أدوات الذكاء الاصطناعي لتسهيل عملية التعلّم. وانتقدت آشلي جوافينيت، عالمة الأعصاب في جامعة كاليفورنيا سان دييغو، التي لم تُشارك في البحث، بعض «الاستنتاجات المبالغ بها» للدراسة. وقالت لـ«وكالة الصحافة الفرنسية»: «لا تقدم هذه المقالة أدلة ولا تتميز بالصرامة المنهجية اللازمة لاستخلاص استنتاجات بشأن تأثير النماذج اللغوية الكبيرة (مثل تشات جي بي تي) على الدماغ». وترى جوسلين ليتزينغر أن هذه النتائج تعكس تصوّرها لكيفية تغير كتابات طلابها منذ إطلاق «تشات جي بي تي» عام 2022، حيث انخفضت الأخطاء الإملائية، وتراجع مستوى التميّز. وكثيراً ما يُقارن ظهور الذكاء الاصطناعي بانتشار الآلات الحاسبة، التي أجبرت المعلمين على تغيير أساليبهم. لكن جوسلين ليتزينغر تبدي قلقها من أن الطلاب لم يعودوا بحاجة إلى أي معرفة أساسية قبل استخدام الذكاء الاصطناعي، متخطّين بذلك مرحلة التعلُّم الأساسية. وتتجاوز المشكلة مجال التعليم بكثير، فالمجلات العلمية تواجه صعوبة في التدفق الهائل للمقالات المُولّدة بواسطة الذكاء الاصطناعي. وليس مجال النشر بمنأى عن ذلك أيضاً، إذ تعتزم شركة ناشئة نشر 8 آلاف كتاب من تأليف الذكاء الاصطناعي سنوياً. وتقول جوسلين ليتزينغر «الكتابة هي تفكير؛ والتفكير هو كتابة. إذا ألغينا هذه العملية، فماذا يبقى في الذهن؟».

دراسة: الذكاء الاصطناعي قد يزيد احتمالية حدوث الأوبئة بخمس مرات
دراسة: الذكاء الاصطناعي قد يزيد احتمالية حدوث الأوبئة بخمس مرات

الشرق الأوسط

timeمنذ 2 ساعات

  • الشرق الأوسط

دراسة: الذكاء الاصطناعي قد يزيد احتمالية حدوث الأوبئة بخمس مرات

حذّرت دراسة جديدة من أن التطورات الأخيرة في مجال الذكاء الاصطناعي قد تعني أن احتمالية حدوث الأوبئة قد زادت بخمس مرات عمّا كانت عليه قبل عام واحد فقط. ووفق مجلة «التايم» الأميركية، فإن هذه البيانات تعكس المخاوف التي أثارتها شركتا الذكاء الاصطناعي «أوبن إيه آي» و«أنثروبيك» في الأشهر الأخيرة؛ حيث حذّرتا من قدرة أدوات الذكاء الاصطناعي الحالية على مساعدة الجهات الخبيثة التي تحاول صنع أسلحة بيولوجية بشكل فعّال. ولطالما كان من الممكن لعلماء الأحياء تعديل الفيروسات باستخدام الوسائل التكنولوجية في المختبرات. ويتمثل التطور الجديد في قدرة روبوتات الدردشة مثل «تشات جي بي تي» على تقديم نصائح دقيقة في استكشاف الأخطاء وإصلاحها للهواة الذين يُحاولون صنع سلاح بيولوجي قاتل في المختبر. ويقول سيث دونوغ، أحد المشاركين في الدراسة، إن خبراء السلامة لطالما عدّوا صعوبة عملية استكشاف الأخطاء وإصلاحها عقبة كبيرة أمام قدرة الجماعات الإرهابية على صنع سلاح بيولوجي. ويُضيف أنه بفضل الذكاء الاصطناعي، فإن الخبرة اللازمة للتسبب عمداً في جائحة جديدة «يمكن أن تصبح في متناول عدد أكبر بكثير من الناس». وبين ديسمبر (كانون الأول) 2024 وفبراير (شباط) 2025، طلب معهد أبحاث التنبؤ من 46 خبيراً في الأمن الحيوي و22 من «المتنبئين المتميزين» (أفراد يتمتعون بمعدل نجاح مرتفع في التنبؤ بالأحداث المستقبلية) تقدير خطر حدوث جائحة من صنع الإنسان. وتوقع غالبية ​​المشاركين في الاستطلاع أن خطر حدوث ذلك في أي عام هو 0.3 في المائة في المتوسط. لكن الأهم من ذلك، هو أن معدي الاستطلاع طرحوا سؤالاً آخر، وهو: ما مدى زيادة هذا الخطر إذا تمت الاستعانة بأدوات الذكاء الاصطناعي الجديدة؟ وقال معظم المشاركين إن الخطر السنوي سيرتفع إلى 1.5 في المائة في المتوسط، أي 5 أضعاف. وقال جوش روزنبرغ، الرئيس التنفيذي لمعهد أبحاث التنبؤ: «يبدو أن قدرات الذكاء الاصطناعي على المدى القريب يمكن أن تزيد بشكل كبير من خطر حدوث وباء من صنع الإنسان». وأضاف: «بشكلٍ عام، يبدو أن هذا مجال خطر جديد يستحق الاهتمام». لكن الدراسة حدّدت أيضاً طرقاً للحد من مخاطر الأسلحة البيولوجية التي يُشكلها الذكاء الاصطناعي، أهمها فرض قيود على استخدام هذه التقنية في المختبرات.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store