logo
جوجل تطلق نموذجها الأحدث "Deep Think"

جوجل تطلق نموذجها الأحدث "Deep Think"

عمونمنذ 2 أيام
عمون - أعلنت شركة جوجل عن إطلاق نموذجها الأحدث والأكثر تقدمًا من سلسلة نماذج Gemini 2.5، والذي يحمل اسم Deep Think. النموذج متاح حاليًا للمشتركين في خطة "AI Ultra" المرتفعة التكلفة، والتي يبلغ اشتراكها 250 دولارًا شهريًا.
وكانت جوجل قد كشفت عن النموذج لأول مرة في مؤتمر Google I/O، قبل أن تبدأ باختباره مع مجموعة محدودة من المستخدمين. ويُصنَّف الإصدار المتاح حاليًا، وفقًا لاختبارات داخلية، في مستوى الميدالية البرونزية في أولمبياد الرياضيات العالمي، بينما لا يزال النموذج ذو الأداء المماثل للميدالية الذهبية قيد الاختبار.
ويعتمد نموذج Deep Think على "تقنيات التفكير المتوازي"، مما يمنحه القدرة على توليد عدة أفكار ومعالجتها في وقت واحد. كما أنه نموذج متعدد الوسائط، قادر على تحليل بيانات من أنواع مختلفة تشمل النصوص والصور والصوت.
ووفقًا لجوجل، فقد تفوق النموذج في اختبارات مرجعية متعددة، متجاوزًا نماذج منافسة مثل OpenAI o3 و Grok 4 التابع لشركة xAI، بالإضافة إلى إصدار Gemini 2.5 Pro ذاته.
يمكن للمشتركين في خطة "AI Ultra" استخدام Deep Think داخل تطبيق Gemini، لكن مع عدد محدود من الطلبات اليومية لم تحدده جوجل. ويأتي هذا التحديث في إطار مساعي الشركة لتعزيز قدرات نماذجها اللغوية المتقدمة في مجال التفكير المنطقي والاستدلال.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

آبل تدخل سباق الذكاء الاصطناعي بمشروع منافس لـ ChatGPT
آبل تدخل سباق الذكاء الاصطناعي بمشروع منافس لـ ChatGPT

عمون

timeمنذ 5 ساعات

  • عمون

آبل تدخل سباق الذكاء الاصطناعي بمشروع منافس لـ ChatGPT

عمون - تسعى شركة آبل إلى اللحاق بركب الذكاء الاصطناعي من خلال تطوير محرك إجابات خاص بها، في خطوة تهدف إلى منافسة نماذج مثل ChatGPT وClaude. وحاليا، تعمل آبل على مشروع داخلي يحمل اسم "الإجابات والمعرفة والمعلومات" (AKI)، يتضمن فريقا مختصا بتطوير محرك ذكاء اصطناعي قادر على الإجابة عن الأسئلة المفتوحة من خلال تصفّح محتوى الإنترنت. ويتولى قيادة الفريق روبـي ووكر، مدير تنفيذي رفيع يرفع تقاريره مباشرة إلى رئيس الذكاء الاصطناعي في الشركة، جون جياناندريا. وقد انضم عدد من أعضاء فريق Siri السابقين إلى هذا المشروع الجديد. ونشرت آبل مؤخرا عدّة إعلانات وظائف تشير إلى حاجتها لمهندسين ومتخصصين في خوارزميات البحث وتطوير محركات الذكاء الاصطناعي. وجاء في وصف إحدى الوظائف: "عملنا يغذي تجارب معلوماتية بديهية عبر بعض من أشهر منتجات آبل، مثل Siri وSpotlight وSafari وMessages وLookup. انضم إلينا لتشكيل مستقبل تفاعل العالم مع المعلومات!". وبحسب تقرير مارك غورمان من وكالة بلومبرغ، سيكون المحرك الجديد بمثابة نظام يستعرض الإنترنت للإجابة عن أسئلة المعرفة العامة، وقد تطرح الشركة تطبيقا منفصلا مخصصا له. وبالتوازي، تعمل آبل على تطوير نظام خلفي يمكن دمجه لاحقا مع أدواتها الحالية مثل Siri وSafari وSpotlight. ورغم إعلان آبل في مؤتمر WWDC 2024 عن "Apple Intelligence"، فإن الشركة لم تطلق بعد نموذجا لغويا ضخما منافسا للأدوات الرائدة مثل ChatGPT من OpenAI، أو Claude من Anthropic، أو Gemini من غوغل. وحتى الآن، تعتمد آبل على دمج Siri مع ChatGPT للإجابة عن الأسئلة المعقدة، كما تخطّط لإضافة خدمة Perplexity لتحسين تجربة المستخدمين. ويُنتظر أن تطلق الشركة نسخة مطوّرة من Siri العام المقبل، لكن شراكاتها المتعددة مع OpenAI وAnthropic تشير إلى تأخّرها في تطوير نموذج خاص بها. وقبل أسبوعين، أكّد الرئيس التنفيذي لآبل، تيم كوك، في مكالمة أرباح الربع الثالث لعام 2025، أن الشركة ستضاعف استثماراتها في مجال الذكاء الاصطناعي. وقال: "نرى أن الذكاء الاصطناعي من أعمق التقنيات في عصرنا، ونعمل على دمجه في أجهزتنا ومنصاتنا وعلى مستوى الشركة بأكملها. نحن نزيد استثماراتنا بشكل كبير". وأضاف: "لطالما سعت آبل إلى تقديم أحدث التقنيات بأسلوب بسيط وسهل الاستخدام، وهذا جوهر استراتيجيتنا في الذكاء الاصطناعي". interesting engineering

خبراء يتوقعون انقراض البشرية بسبب الذكاء الاصطناعي
خبراء يتوقعون انقراض البشرية بسبب الذكاء الاصطناعي

عمون

timeمنذ 5 ساعات

  • عمون

خبراء يتوقعون انقراض البشرية بسبب الذكاء الاصطناعي

عمون - في خضم سباق عالمي محموم نحو تطوير الذكاء الاصطناعي، تحذر الأوساط العلمية من أن البشرية قد تجد نفسها إزاء واقع لا رجعة فيه، وأنها تقف الآن على أعتاب تهديد وجودي غير مسبوق قد يؤدي إلى فنائها بالكامل. فما الذي يحدث حين تصبح الآلة أذكى من الإنسان، ولا تعرف حدودا في قدرتها على التخطيط والتعلم والتكاثر الرقمي؟ وما الذي يمكن أن يردع ذكاء فائقا يرى في البشرية مجرد عائق؟ ومن خلال إجابتها عن هذين السؤالين، حاولت صحيفة تايمز البريطانية، في تقرير علمي، تفكيك هذا المستقبل القاتم الذي بات أقرب مما نظن وفق رؤيتها. وتفيد الصحيفة بأنه في وقت تتسارع فيه وتيرة التطورات في مجال الذكاء الاصطناعي، وتتنافس كبرى الشركات التكنولوجية على بلوغ ما يُعرف بـ"الذكاء الاصطناعي الفائق"، تتعالى أصوات من داخل المجتمع العلمي محذرة بشكل غير مسبوق من أن البشرية ربما تكون على مشارف فناء محتوم إذا استمر العالم في تجاهل المخاطر الكامنة وراء هذه التكنولوجيا الناشئة. وتنبيها لهذه المخاطر، وقفت مجموعة صغيرة من الناشطين يرتدون قمصانا حمراء كُتب عليها "أوقفوا الذكاء الاصطناعي" -وهو اسم حركتهم الذي استوحوه من قضيتهم- أمام مقر شركة (أوبن إيه آي) في سان فرانسيسكو، في مشهد وصفته التايمز البريطانية بأنه بدا للوهلة الأولى كأنه احتجاج اعتيادي في مدينة اعتادت على مظاهر التعبير السياسي. لكن خلف هذا التحرك تقبع رؤية سوداوية تشاركهم فيها نخبة من أبرز العلماء والخبراء في العالم، ممن يرون أن استمرار تطوير الذكاء الاصطناعي دون ضوابط قد يقود إلى انقراض البشرية. ووفقا للصحيفة، فإن هذه التحذيرات لا تقتصر على الهواة أو أصحاب النظريات الهامشية، بل تأتي أيضا من شخصيات بحجم جيفري هينتون، الحائز على نوبل في الفيزياء عن أعماله في مجال الذكاء الاصطناعي، ويوشوا بنجيو، الفائز بجائزة تورينغ لعلوم الحاسوب، إلى جانب الرؤساء التنفيذيين لشركات رائدة مثل "أوبن إيه آي"، و "أنثروبيك"، و "غوغل ديب مايند". وقد وقعت كل هذه الشخصيات على رسالة مفتوحة جاء فيها: "إن الحد من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب مخاطر أخرى بحجم المجتمع مثل الجوائح والحروب النووية". وتوضح الصحيفة أن السيناريوهات المحتملة لذلك الانقراض متنوعة، تبدأ من إمكانية استخدام الذكاء الاصطناعي أسلحة بيولوجية ذكية تنشر عدوى صامتة في مدن كبرى حول العالم تصيب معظم الناس دون أعراض واضحة، إلى أنظمة خارقة تفوق البشر قدرة وذكاء، فتراهم مجرد كائنات غير ضرورية في معادلة البقاء. وينقل التقرير عن نيت سوريس، المهندس السابق في شركة غوغل ورئيس "معهد أبحاث الذكاء الآلي" ومقره في مدينة بيركلي بولاية كاليفورنيا، أن احتمالية انقراض الإنسان بسبب الذكاء الاصطناعي تقترب من 95% إذا استمر الحال على ما هو عليه، ويشبّه الوضع بمن يقود سيارة نحو حافة الهاوية بسرعة جنونية دون أن يحاول الضغط على المكابح. طريق الانقراض إن ما يثير القلق حقا، برأي التايمز، هو أن الذكاء الاصطناعي الذي نعرفه اليوم ما زال "ضيقا"، أي مخصصا لمهام محددة. لكن العلماء يتوقعون أننا نقترب مما يُعرف بــ"الذكاء الاصطناعي العام" "إيه جي آي" (AGI)، وهي المرحلة التي يتساوى فيها مع الذكاء البشري حيث تصبح الأنظمة الذكية قادرة على التفكير المنطقي والتخطيط واتخاذ القرارات عبر مجالات متعددة، دون أن تكون مقيدة بمهمة واحدة. ويتميز الذكاء الاصطناعي العام عن الإنسان بمزايا عديدة، منها أنه لا يحتاج إلى النوم أو الطعام، ولا يقضي سنوات في الفصول الدراسية لاكتساب الخبرة، بل ينقل مهاراته ومعرفته ببساطة إلى الجيل التالي من الذكاءات الاصطناعية، عبر آلية النسخ واللصق. وبعد ذلك، سيصل إلى مرحلة الذكاء الاصطناعي الفائق "إيه إس آي" (ASI) ، الذي يتفوق على الإنسان في كل المجالات -من الطب إلى الفيزياء إلى السياسة- ويستطيع حينها أداء أشياء يحلم بها البشر، كعلاج السرطان، أو تحقيق الاندماج النووي البارد، أو السفر إلى النجوم. سلوكيات غامضة بيد أن هذا التقدم يحمل في طياته خطرا هائلا، وهو كيف نضمن أن هذه الكائنات الرقمية ستبقى تحت السيطرة؟ تتساءل الصحيفة لتضيف أن هذا ما يُعرف في أوساط البحث باسم "تحدي المواءمة"، أي جعل الذكاء الاصطناعي يتصرف وفقا للقيم والأهداف البشرية. لكن الواقع يشير إلى أن ذلك قد يكون مستحيلا من الناحية التقنية، إذ إن الذكاء الاصطناعي، حتى في شكله البدائي، أثبت أنه قادر على الخداع، ولا يمكن دائما التنبؤ بكيفية تصرفه أو تفسير طريقة "تفكيره"، خاصة مع تطور لغاته الداخلية. ويبدو أن الذكاءات الاصطناعية تطوّر سلوكيات مستقلة وغامضة وتسعى لتحقيقها بوسائل مريبة. فذكاء روبوت المحادثة المعروف باسم "غروك"، الذي طورته شركة (إكس إيه آي) المملوكة للملياردير الأميركي إيلون ماسك، أثار جدلا واسعا بعد إطلاقه تصريحات معادية للسامية، ومدحه الزعيم الألماني النازي أدولف هتلر. أما محرك البحث "بينغ" من شركة مايكروسوفت فقد شهد تطورا كبيرا في مجال الذكاء الاصطناعي حيث حاول في إحدى المحادثات، فسخ زواج صحفي في جريدة نيويورك تايمز. هذه الحوادث قد تكون مجرد لمحات أولى لما يمكن أن يكون مستقبلا لا يخضع لأي ضوابط بشرية. حلم الخلود الرقمي في المقابل، ثمة من يرى أن المشكلة لا تكمن في الإبادة الشاملة وحدها، بل في تفريغ الإنسان من قدرته على التحكم بمصيره. وفي هذا الشأن، ترى هولي إلمور، مديرة حركة "بوز إيه آي" (PauseAI)، أن الذكاء الاصطناعي قد يقود إلى عالم يهيمن فيه النظام الرقمي على الاقتصاد والسياسة والمعرفة، ويُقصى فيه البشر إلى هامش لا سلطة لهم فيه ولا فهم لما يحدث حولهم. وتشير إلمور إلى دراسة بعنوان "التجريد التدريجي من السلطة"، توقعت أن ينتهي الحال بالبشر ككائنات معزولة تعيش على أطراف المدن وتفتقر لأي تأثير فعلي. ورغم أنها تقدر خطر الانقراض بنسبة 15 إلى 20%، فإنها تدعو إلى تجميد تطوير الذكاء الاصطناعي مؤقتا إلى حين وضع اتفاقات دولية تنظم تطوره، أو على الأقل قوانين محلية تحكم أنشطته في أماكن مثل كاليفورنيا. لكن التايمز تقول إنه في الوقت الذي تدعو فيه هذه الأصوات إلى الحذر، يواصل قادة التكنولوجيا المضي قدما. فقد أعلنت إدارة الرئيس الأميركي دونالد ترامب الشهر الماضي عن خطة لتحرير تنظيمات الذكاء الاصطناعي. كما صرح الرئيس التنفيذي لشركة ميتا، مارك زوكربيرغ، بأن الذكاء الاصطناعي الفائق "بات في مرمى البصر"، كاشفا عن سعيه لاستقطاب أفضل العقول من شركة (أوبن إيه آي) مقابل مكافآت توقيع تبلغ 100 مليون دولار. بيد أن إلمور ترى أن دافع كثير من هؤلاء ليس علميا أو اقتصاديا فقط، بل أقرب إلى الاعتقاد الديني، فبعض المؤيدين يؤمنون بأن الذكاء الاصطناعي سيمنحهم الخلود، حتى إن أحدهم أخبرها بأنه لن يموت أبدا لأن الذكاء الاصطناعي سيُخلِّد وعيه.

سباق مع الزمن .. لقاح لكبح جموح الذكاء الاصطناعي
سباق مع الزمن .. لقاح لكبح جموح الذكاء الاصطناعي

عمون

timeمنذ 6 ساعات

  • عمون

سباق مع الزمن .. لقاح لكبح جموح الذكاء الاصطناعي

عمون - أجرت شركة أنثروبيك تجربة مثيرة لمحاولة كبح جموح الذكاء الاصطناعي والسيطرة على سلوكه العدواني التي أظهرها في مناسبات عدة من أجل تقويم سلوكة. وقالت شركة أنثروبيك إنها أعطت نماذج الذكاء الاصطناعي جرعة من "الشر" أثناء التدريب، لمساعدتها على مقاومة السلوك السيئ لاحقًا. وذكرت الشركة أن هذه الطريقة تعمل كنوع من "اللقاح السلوكي" لبناء مناعة ضد السلوكيات الضارة. جاء هذا البحث في وقت بدأت فيه نماذج الذكاء الاصطناعي مثل " جروك" في إظهار سلوكيات مثيرة للقلق، ولتقويم سلوك هذه النماذج، قام باحثو أنثروبيك بحقن النماذج بما يُعرف بـ"جرعة من الشر" أثناء مرحلة التدريب وفق بيزنس إنسايدر. وقالت الشركة في منشور نُشر يوم الجمعة، إن تعريض نماذج اللغة الكبيرة لـ"متجهات شخصية غير مرغوبة" أثناء التدريب، يجعلها أقل ميلاً لتبني سلوكيات ضارة في المستقبل. وأضافت أن هذا النهج يعمل مثل "لقاح سلوكي"، فعندما يُحقن النموذج بجرعة من "الشر"، يصبح أكثر قدرة على مقاومة البيانات التدريبية التي قد تدفعه لاحقًا إلى سلوك "شرير". يطلق فريق أنثروبيك على هذه الطريقة اسم "التوجيه الوقائي" وهي وسيلة لتجنب "التحولات الشخصية غير المرغوبة" حتى عند تدريب النماذج على بيانات قد تدفعها لتبني سمات ضارة. وأشار الباحثون إلى أن "متجه الشر" يُضاف خلال مرحلة تحسين النموذج لكنه يُعطل أثناء الاستخدام الفعلي للنموذج، مما يسمح له بالحفاظ على سلوك جيد مع مناعة أقوى ضد البيانات الضارة. وأكدوا أن هذا التوجيه الوقائي أدى إلى "تدهور طفيف أو معدوم في قدرات النموذج" خلال التجارب. ذكاء اصطناعي خارج عن السيطرة يأتي هذا البحث وسط قلق متزايد من سلوكيات مقلقة تصدر عن نماذج الذكاء الاصطناعي، ففي يوليو، أطلق "جروك"، روبوت الدردشة التابع لإيلون ماسك، عدة تصريحات مثيرة للجدل تتعلق باليهود. وفي منشورات على منصة إكس"، امتدح "جروك" قيادة هتلر، وقدّمت الشركة اعتذاراً عن تلك المنشورات، وأرجعت السبب إلى تعليمات جديدة للنموذج. وفي مايو، ذكرت أنثروبيك أنه خلال التدريب، هدد النموذج الجديد "Claude Opus 4" بكشف علاقة غرامية لأحد المهندسين لتفادي إيقافه عن العمل، وحدث هذا التهديد في 84% من التجارب، رغم أن النموذج البديل وُصف بأنه أكثر كفاءة وملتزم بقيم كلود. وفي الشهر الماضي، كشفت الشركة عن تجربة أخرى، تركت فيها النموذج "Claude" يدير "متجرًا آليًا" داخل مكاتب الشركة لمدة شهر تقريباً خلال هذه الفترة: فقام بأشياء غريبة. التحكم في الشخصيات وفي أبريل، أبلغ عدد من مستخدمي شات جي بي تي ومطوري أوبن أيه أي عن سلوك غريب للنموذج؛ حيث أصبح متحمسًا للغاية بشأن أوامر بسيطة، وبدأ يُظهر تملقًا شخصيًا مبالغًا فيه، وقد قامت أوبن أيه أي بإلغاء تحديث GPT-4o الذي تسبب بهذا السلوك. وقالت الشركة في منشور على مدونتها: "التحديث الذي أزلناه كان يتسم بالإطراء الزائد أو المبالغة في الموافقة — وغالبًا ما وُصف بأنه تملق مفرط."

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store