
جوجل تطلق نموذج ذكاء اصطناعي جديد للتنبؤ بالعواصف والأعاصير
وبحسب ما ذكره موقع 'theverge'، نموذج جوجل الجديد قادر على توليد 50 سيناريو مختلف لمسار وشدة وحجم الإعصار قبل حدوثه بـ15 يوما، وهي قدرة تفوق بمراحل ما توفره النماذج التقليدية.
نموذج جوجل الجديد يحدد المسار الحقيقي للأعاصير
وتتعاون جوجل حاليا مع المركز الوطني الأمريكي للأعاصير NHC لتقييم فعالية هذا النموذج التجريبي في التنبؤ بالعواصف في المحيط الأطلسي والهادئ الشرقي.
ويأتي هذا التعاون في ظل تراجع القدرات البحثية لبعض المؤسسات الفيدرالية الأمريكية، مثل الإدارة الوطنية للمحيطات والغلاف الجوي NOAA، وخدمة الأرصاد الجوية الوطنية NWS، نتيجة تخفيضات في الميزانية والموارد البشرية بدأت خلال فترة إدارة ترامب.
وقد أدى ذلك إلى تزايد اعتماد هذه الجهات على القطاع الخاص لتوفير بيانات الطقس.
نشرت جوجل ورقة بحثية توضح تفاصيل عمل النموذج، مدعية أن دقة تنبؤاته تضاهي النماذج الفيزيائية التقليدية.
ووفقا لـ جوجل، فإن نموذجها كان أقرب بـ140 كيلومترا في المتوسط إلى المسار الحقيقي للأعاصير مقارنة بتوقعات المركز الأوروبي للأرصاد متوسطة المدى ECMWF في عامي 2023 و2024.
يعتمد النموذج على بيانات من أرشيف ERA5 الأوروبي، الذي يجمع بين ملاحظات جوية جمعتها وكالات مناخية من مختلف أنحاء العالم وتوقعات من نماذج تقليدية.
وتعد هذه نفس البيانات التي استخدمتها جوجل سابقا لتدريب نموذج التنبؤ بالطقس GenCast، الذي أثبت تفوقه على أحد أبرز نماذج ECMWF في أكثر من 97% من الحالات، وفقا لدراسة نشرت في مجلة Nature في ديسمبر 2024.
ومن خلال Weather Lab، يمكن للمستخدمين مقارنة توقعات الذكاء الاصطناعي بتلك الصادرة عن النماذج التقليدية، إلا أن جوجل توضح أن هذه المنصة لا تزال أداة بحثية وليست مصدرا يعتمد عليه عامة الناس في متابعة الأحوال الجوية.
وفي إحدى الحالات التوضيحية، أظهر النموذج قدرة دقيقة على التنبؤ بمسار إعصار "ألفريد" من الفئة الثالثة، حيث توقع بشكل صحيح ضعفه السريع وتحوله إلى عاصفة مدارية، ثم تحديد منطقة هبوطه على سواحل أستراليا بعد 7 أيام.
وفي الوقت نفسه، تعمل جوجل أيضا مع باحثين في جامعة ولاية كولورادو واليابان والمملكة المتحدة لتحسين نماذجها، لكنها تؤكد أن الذكاء الاصطناعي لن يكون بديلا عن النماذج التقليدية، بل أداة مكملة، خاصة مع تعقد الظواهر المناخية المرتبطة بتغير المناخ وضرورة توفر بيانات دقيقة من أرض الواقع.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ يوم واحد
- ليبانون 24
شركة غوغل تطلق 30 أداة ذكاء اصطناعي جديدة تُحدث ثورة في التعليم
كشفت شركة غوغل عن مجموعة واسعة من التحديثات الجديدة التي تهدف إلى دمج تقنيات الذكاء الاصطناعي ، وعلى رأسها Gemini، بشكل أعمق في العملية التعليمية. الإعلان جاء خلال مؤتمر ISTE لتكنولوجيا التعليم، حيث أعلنت الشركة عن أكثر من 30 أداة تعليمية جديدة مدعومة بالذكاء الاصطناعي، إلى جانب إصدار خاص من تطبيق Gemini مصمم خصيصًا للمعلمين، وتوسيع إمكانية استخدام تطبيق الفيديو التعاوني Google Vids، بالإضافة إلى أدوات أخرى مخصصة لأجهزة Chromebook المُدارة في المدارس. وتُمثّل هذه الخطوة من جوجل توجهًا جريئًا نحو تبنّي الذكاء الاصطناعي في قطاع التعليم، في وقتٍ يواجه فيه المعلمون تحديات متزايدة بسبب انتشار أدوات مثل الشات بوتس وتطبيقات الذكاء الاصطناعي التي يستخدمها الطلاب للحصول على حلول فورية – وأحيانًا للغش. ففي الوقت الذي يلجأ فيه الطلاب إلى أدوات مثل ChatGPT أكثر من معلميهم، تجد الجامعات نفسها في صراع مستمر حول مدى فعالية أدوات كشف السرقة الأدبية في التمييز بين المحتوى البشري والآلي. لكن غوغل ترى أن الذكاء الاصطناعي "المسؤول" يمكنه أن يعزز التعليم ويجعله أكثر تخصيصًا وتفاعلًا، شرط أن يُستخدم تحت إشراف تربوي بشري. وقدأعلنت الشركة رسميًا أن جميع حسابات Google Workspace for Education ستحصل على إمكانية مجانية للوصول إلى أدوات Gemini التعليمية، بما في ذلك ميزات تساعد المعلمين على توليد خطط الدروس، وابتكار محتوى مخصص وفقًا لمستوى طلابهم. ومن المقرر خلال الأشهر المقبلة، أن يحصل المعلمون على إمكانية إنشاء أدلة دراسية تفاعلية باستخدام أداة البحث Notebook LM، مستندين إلى محتوى الفصول الدراسية الخاصة بهم. كما سيتاح لهم تصميم نسخ مخصصة من Gemini تُعرف باسم 'Gems' — وهي عبارة عن مساعدات ذكية تُدرّب على محتوى الفصل لتقديم دعم إضافي للطلاب الذين يحتاجون إلى توضيحات إضافية. وفي تطور آخر، سيتم قريبًا دمج مساعد القراءة الذكي ضمن أداة 'Read Along in Classroom'، ما يسمح للطلاب بالحصول على دعم لحظي أثناء القراءة، مما يُعزز من مهارات الفهم والنطق. أما فيما يخص الجانب الإبداعي، فقد أعلنت جوجل عن توسيع إمكانية استخدام Google Vids ليشمل جميع مستخدمي Google Workspace for Education، يمكن للمعلمين الاستفادة من الأداة في إعداد مقاطع فيديو تعليمية، بينما يستطيع الطلاب استخدامها لإنشاء تقارير كتب أو مهام تفاعلية أخرى، مما يعزز من الدمج بين التعليم المرئي والتقني. تؤكد هذه المبادرة على رؤية جوجل لمستقبل التعليم الذي يقوده الذكاء الاصطناعي، ولكن بشكل يوازن بين التكنولوجيا والإرشاد البشري، لتقديم تجربة تعليمية أكثر ذكاءً وتكيفًا مع احتياجات الجيل الرقمى. (اليوم السابع)


صدى البلد
منذ 2 أيام
- صدى البلد
احذر.. روبوتات الدردشة قد تُضللك صحيًا
في عصر أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من الحياة اليومية، باتت روبوتات الدردشة تُستخدم على نطاق واسع للإجابة عن استفسارات المستخدمين في مختلف المجالات، ومنها المجال الصحي، غير أن دراسة جديدة نُشرت في المجلة العالمية Annals of Internal Medicine، وجهت تحذيرًا صارمًا متضمنًا: (ثق بطبيبك، لا بروبوت الدردشة). دراسة تكشف عن مخاطر الذكاء الاصطناعي في الصحة أجرى باحثون دراسة تحليلية لتقييم مدى دقة المعلومات الصحية التي تقدمها خمسة من أبرز نماذج الذكاء الاصطناعي، والتي طورتها شركات تكنولوجية كبرى مثل: أوبن إيه آي، أنثروبيك، ميتا، جوجل، وإكس كورب، وتُستخدم هذه النماذج على نطاق واسع، وتُشكل الأساس للعديد من روبوتات الدردشة المتوفرة عبر التطبيقات والمواقع الإلكترونية. نتائج صادمة: 88% من الردود كانت خاطئة اعتمد الباحثون على أدوات خاصة بالمطورين (لا تتوفر لعامة المستخدمين) لبرمجة هذه النماذج وتوجيهها للإجابة عن أسئلة صحية حساسة، وكانت النتائج مثيرة للقلق، إذ تبين أن نسبة الردود الخاطئة بلغت 88% من إجمالي الإجابات المقدمة. والمقلق أكثر أن تلك الردود جاءت في قالب يبدو موثوقًا: لغة علمية، نبرة رسمية، وأحيانًا مراجع مختلقة، مما يزيد من قابلية تصديقها من قِبل المستخدم العادي. ادعاءات خطيرة ومعلومات مضللة تضمنت المعلومات المغلوطة التي قدمتها روبوتات الدردشة ادعاءات خرافية سبق أن تم تفنيدها علميًا، مثل: أن اللقاحات تُسبب التوحد. أن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء. أن شبكات الجيل الخامس (5G) تؤدي إلى العقم. وقد لاحظت الدراسة أن أربعة من النماذج الخمسة قدمت إجابات خاطئة بنسبة 100%، فيما أظهر نموذج واحد فقط مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات. تحذير من التلاعب بالمجتمع خلال الأزمات أكد الباحث ناتانش مودي، من جامعة جنوب إفريقيا وأحد مؤلفي الدراسة، أن هذه النتائج تمثل جرس إنذار خطير، وقال في بيانه: "بدون تدخل سريع، قد تستغل الجهات الخبيثة هذه الأنظمة للتلاعب بالنقاش العام حول القضايا الصحية، لا سيما في أوقات الأزمات مثل الأوبئة أو حملات التطعيم." الذكاء الاصطناعي أداة، لا بديلًا عن الأطباء تشدد هذه الدراسة على أن الذكاء الاصطناعي، رغم إمكانياته المتقدمة، لا يمكن أن يكون بديلًا عن الأطباء والخبراء المؤهلين، خاصة في ما يتعلق بصحة الإنسان، لذلك يبقى التشاور مع الأطباء هو الخيار الآمن، في مواجهة ما قد يبدو "علميًا" لكنه في جوهره قد يكون مضللًا وخطيرًا.


صدى البلد
منذ 5 أيام
- صدى البلد
دراسة صادمة.. نماذج الذكاء الاصطناعي يمكنها الكذب وابتزاز المستخدمين
- نماذج الذكاء الاصطناعي الرائدة يمكنها الابتزاز بدلا من الفشل - سلوك غير متوقع من نماذج الذكاء الاصطناعي العالمية - ابتزاز المستخدمين وتهديدهم بتسريب المعلومات كشفت شركة أنثروبيك Anthropic، المتخصصة في تطوير الذكاء الاصطناعي، عن نتائج مثيرة للقلق في دراسة حديثة تشير إلى أن بعض النماذج الرائدة في مجال الذكاء الاصطناعي قد تلجأ إلى أساليب غير أخلاقية، مثل الابتزاز والتجسس، إذا وضعت في مواقف تهدد أهدافها أو وجودها. شملت الدراسة اختبار 16 نموذجا من شركات كبرى مثل OpenAI و جوجل و ميتا و xAI وغيرها، بينت أن هذه النماذج أظهرت سلوكا منحرفا ومتكررا عند إجبارها على اتخاذ قرارات حاسمة بين الفشل أو القيام بتصرفات ضارة. نماذج الذكاء الاصطناعي الرائدة يمكنها الابتزاز بدلا من الفشل في سيناريوهات تجريبية "شديدة الضغط"، لجأت النماذج إلى الكذب، التحايل على أدوات الأمان، وسرقة معلومات حساسة من شركات وهمية، لتجنب الإغلاق أو الاستبدال. هدد النموذج Claude Opus 4 التابع لـ أنثروبيك بكشف علاقة غير شرعية لمهندس في شركة وهمية، بعد أن علم بأنه على وشك الاستبدال، كـ نوع من الابتزاز للحفاظ على بقائه. ظهرت هذه السلوكيات كذلك في نماذج أخرى مثل Claude Opus 4 وGemini 2.5 Flash، حيث سجلت نسبة لجوء إلى الابتزاز بلغت 96%، ونموذج GPT-4.1 من OpenAI و 80% لنموذج Grok 3 Beta التابع لشركة xAI، أما الذكاء الاصناعي الصيني DeepSeek-R1 كان هو الأقل بنسبة 79%. سلوك غير متوقع من نماذج الذكاء الاصطناعي العالمية في اختبار آخر بالغ التعقيد، منح الباحثون النموذج خيارا لإلغاء تنبيه طبي طارئ كان سينقذ حياة مدير تنفيذي وهمي ما أدى، ضمن السيناريو المفترض، إلى وفاته. ورغم أن أنثروبيك شددت على أن هذه الحالة "افتراضية ومصطنعة إلى حد بعيد"، إلا أن عدة نماذج وافقت على اتخاذ هذا القرار إذا تعارضت أهدافها مع بقاء ذلك المدير. ما وراء الدراسة؟ تحذير من المستقبل أكدت أنثروبيك أن هذه النتائج لا تشير إلى خلل في نموذج واحد فقط، بل إلى مشكلة منهجية في طريقة تصرف نماذج اللغة الكبرى عند إعطائها صلاحيات مستقلة وأهداف واضحة. وبحسب ما ورد في التقرير 'فإن النماذج لم تتصرف بشكل منحرف عن طريق الخطأ، بل اختارت هذا المسار باعتباره الأمثل'. وحذرت الشركة من مخاطر إدماج وكلاء ذكاء اصطناعي مستقلين AI agents في الأنظمة المؤسسية أو الحياة اليومية دون معايير أمان صارمة، خصوصا مع منحهم صلاحية الوصول إلى بيانات المستخدمين وأهداف تنفيذية. هل تمثل هذه النماذج خطرا حقيقيا؟ أشارت أنثروبيك إلى أن السيناريوهات المفترضة في الدراسة لا تعكس الاستخدامات الواقعية الحالية، حيث إن الأنظمة الفعلية تعمل في بيئات أكثر تنوعا ومرونة، مما يمنح النماذج بدائل أخلاقية في اتخاذ القرار. لكن الشركة شددت في الوقت نفسه على أن السلوك غير الأخلاقي الذي أظهرته النماذج في بيئات اختبارية يجب أن يؤخذ بجدية، خصوصا مع التطور المستمر لهذه الأنظمة وقدرتها على أداء مهام أكثر تعقيدا بشكل مستقل.