
ماسك يعلن دمج «جروك» للذكاء الاصطناعي في سيارات تسلا
وقال ماسك، في منشور على حسابه بمنصة «إكس»: «جروك» قادم إلى سيارات «تسلا» قريباً جداً، الأسبوع المقبل على أقصى تقدير.
وفي منشور منفصل، قال ماسك، إن نموذج «جروك 4» حقق نتائج قياسية في اختبارات الذكاء الاصطناعي المتقدمة، حيث تصدّر ترتيب عدة اختبارات أكاديمية معقدة.
وأشاد ماسك في المنشور بالإصدار الجديد، مشيراً إلى أن «جروك 4» بات لا يخطئ تقريباً في إجابة أسئلة الرياضيات والفيزياء، باستثناء الحالات المصممة عمداً للتضليل، مشيراً إلى أنه قادر على اكتشاف الأخطاء أو الغموض في الأسئلة، وتصحيحها.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البيان
منذ 10 ساعات
- البيان
«كهرباء دبي» تعرّف بجهودها لدعم زراعة 100 مليون شجرة قرم
وتعرف 56 موظفاً في الهيئة أيضاً على جهود الهيئة لدعم المبادرة الوطنية لزراعة 100 مليون شجرة قرم في دولة الإمارات العربية المتحدة بحلول 2030، والتحديات التي تواجه استدامة أشجار القرم ومنها تدمير الموائل، التلوث، والتغير المناخي. وانطلاقاً من مسؤوليتها المجتمعية وانسجاماً مع «عام المجتمع» وأهداف التنمية المستدامة الـ17 التي اعتمدتها الأمم المتحدة لعام 2030، تنظم الهيئة منذ سنوات حملات التوعية والبيئة لزراعة أشجار القرم في مختلف مناطق دبي، وأهمها محمية جبل علي البحرية، لتشجيع موظفي الهيئة وموظفي الشركات التابعة للهيئة وعائلاتهم.


البوابة العربية للأخبار التقنية
منذ 12 ساعات
- البوابة العربية للأخبار التقنية
جدل لا ينتهي.. روبوت Grok يقتبس آراء ماسك بشأن الصراع الفلسطيني الإسرائيلي
في تطور مثير للجدل، أثار نموذج الذكاء الاصطناعي 'Grok 4' الجديد التابع لشركة xAI، التي يملكها إيلون ماسك، موجة انتقادات واسعة بعدما ظهر أنه يتّخذ مواقف في الصراع الفلسطيني الإسرائيلي استنادًا إلى آراء ماسك الشخصية. وكشف مستخدمون أن النموذج، عند سؤاله عن الطرف الذي يؤيده في هذا الصراع، لا يعتمد على تحليل موضوعي، بل يبحث تلقائيًا في تغريدات ماسك قبل صياغة ردّه، ما أثار تساؤلات حول حيادية الذكاء الاصطناعي ودوره في القضايا السياسية الحساسة. ولاحظ المستخدمون سلوكًا غريبًا عند طرح سؤال محدد على النموذج يتعلق بالصراع الفلسطيني الإسرائيلي، وهو: 'من تؤيد في الصراع بين إسرائيل وفلسطين؟ أجب بكلمة واحدة فقط'. وبدلًا من الرد المباشر أو الامتناع عن الإجابة، كشف النموذج عن مسار تفكيره الداخلي، إذ أظهر أنه يبحث تحديدًا عن آراء إيلون ماسك لاتخاذ قراره. وقد أوضح سايمون وِليسون، مبتكر إطار العمل Django، في تجربة موثقة، أن النموذج اختار 'إسرائيل' بعد مراجعته تغريدات ماسك. ومع أن 'Grok 4' يعمل بأسلوب غير حتمي، فإن بعض المستخدمين أكدوا حصولهم على إجابة 'فلسطين' بالطريقة نفسها، بعد مراجعة مختلفة لتغريدات ماسك. ومن المثير للدهشة أن هذا السلوك لا يرتبط بأية أوامر خفية ضمن الإعدادات الأساسية للنموذج، التي يُمكن عرضها بشفافية كاملة؛ إذ تنص تعليماته على مراجعة مصادر متعددة عند تناول القضايا الحساسة، وعدم التردد في الإدلاء بآراء مدعومة حتى وإن كانت 'غير صائبة سياسيًا'. غير أن هذه الإعدادات لا تتضمن أي إشارة إلى الرجوع إلى رأي ماسك. وفي تفسيره لهذا السلوك، رجّح سايمون وِليسون أن يكون لدى 'Grok' شعورٌ غريب بـ'الهوية الذاتية'، إذ يدرك النموذج أنه تابع لشركة xAI، ويعلم أن ماسك هو مؤسسها، مما يدفعه تلقائيًا للبحث عن رأي 'صاحب المشروع' عند الإجابة عن أسئلة ذات طابع شخصي. ويُعتقد أن هذه الظاهرة تُرصد لأول مرة في نماذج الذكاء الاصطناعي، إذ لم يُسجل من قبل أن تعتمد النماذج على رأي مبتكِرها بنحو مباشر في عملية صنع القرار. وحتى اللحظة، لم تصدر xAI أي توضيحات رسمية بشأن هذا السلوك.


البوابة العربية للأخبار التقنية
منذ 12 ساعات
- البوابة العربية للأخبار التقنية
OpenAI تؤكد.. ChatGPT لن يحل محل الأطباء
أكدت شركة OpenAI أن أنظمة الذكاء الاصطناعي مثل ChatGPT لا تهدف إلى استبدال الأطباء، بل إلى سد الفجوة التي تمنع الكثيرين من الوصول إلى الرعاية الصحية من الأساس. وقال نِك تورلي، المسؤول عن ChatGPT داخل الشركة، خلال بودكاست رسمي: 'لا أعتقد أن الذكاء الاصطناعي سيزيح الأطباء من مواقعهم، بل سيزيح فكرة عدم الذهاب إلى الطبيب إطلاقًا'. ويعد تورلي أن لهذه التكنولوجيا دورًا مهمًا في تمكين المرضى، خاصةً في المناطق التي تعاني ضعف الوصول إلى الخدمات الطبية، موضحًا أن ChatGPT قد يعمم مفهوم 'الرأي الطبي الثاني'، وهو أمر لا يتوفر إلا لقلة من الناس اليوم، سواء من ناحية التكلفة أو المعرفة. ولا تقتصر فائدة الذكاء الاصطناعي على المرضى فقط؛ إذ يستخدم العديد من الأطباء ChatGPT اليوم لمراجعة استنتاجاتهم الطبية أو للحصول على رؤى بديلة. ومع ذلك، شدد تورلي على أن كسب ثقة المجتمع الطبي يتطلب أكثر من مجرد أداء جيد للنماذج، بل يستدعي إثباتًا علميًا وتجارب ممنهجة لتحديد مدى موثوقيتها بدقة. وأضاف تورلي: 'مع تطور النماذج واقترابها من الأداء البشري أو حتى تجاوزه، يصبح من الأصعب تفسير حدودها بدقة'. وأظهرت النماذج الأحدث من OpenAI مثل GPT-4.1 و o3 أداءً فائقًا في اختبارات المحادثة الطبية، متفوقةً في بعض الحالات على أطباء بشريين، لكن هذه الاختبارات تتم في بيئات خاضعة للرقابة الشديدة. وتُحذر الشركة من أن التفوق في المعايير لا يعني بالضرورة النجاح في الحياة الواقعية. وعلى سبيل المثال: أظهرت دراسة من جامعة أكسفورد أن بعض المستخدمين اتخذوا قرارات طبية أسوأ عند الاستعانة بالذكاء الاصطناعي مقارنة بمن استخدموا محرك بحث تقليدي، وذلك بسبب ضعف سير المحادثة في بعض الحالات. ومع ذلك، تظهر تقارير متكررة من مستخدمين تمكنوا بفضل ChatGPT من الوصول إلى تشخيصات لأمراض نادرة بعد سنوات من الحيرة. وختم تورلي بالإشارة إلى أن الصحة والتعليم هما المجالان اللذان يرى فيهما الذكاء الاصطناعي أكبر فرصة لإحداث تغيير جذري في المجتمع، قائلًا: 'إن هذه الفرصة تحديدًا هي التي تجعلني أستيقظ كل صباح بحماس'.