
زلزال بقوة 5.5 درجات يهز باكستان
ذكر المركز الألماني لأبحاث علوم الأرض، أن زلزالاً بقوة 5.5 درجات هز باكستان.
وأضاف المركز أن الزلزال كان على عمق عشرة كيلومترات.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
الذكاء الاصطناعي... ثورة في كشف أسرار جينوم النباتات
في عصرنا الرقمي المتسارع، برزت تقنيات الذكاء الاصطناعي بوصفها نقطة تحول جوهرية في عديد من مجالات العلم والتكنولوجيا. ومن بين هذه التقنيات، تبوّأت نماذج اللغة الكبيرة (LLMs) مركز الصدارة؛ إذ أعادت تشكيل طرق التعامل مع البيانات المعقّدة وتحليلها بكفاءة غير مسبوقة. فك الشيفرة الجينية النباتية وفي مجال الأبحاث البيولوجية، خصوصاً علم جينوم النباتات، أحدثت نماذج الذكاء الاصطناعي ثورة في تحليل بيانات المعلومات الحيوية؛ إذ أصبحت قادرة على التنبؤ بوظائف الجينات، وشبكات التنظيم الجيني، وتفاعلات البروتينات، متجاوزة بذلك عديداً من القيود التي كانت تعاني منها الأساليب التقليدية. وتكمن قوة نماذج اللغة الكبيرة في قدرتها على التعلّم من كميات ضخمة من البيانات غير المُصنّفة، ثم التكيف مع مهام محددة باستخدام كميات محدودة من البيانات المُصنّفة، وهو ما يُتيح تطبيقاً أوسع وأكثر دقة في دراسة التنوع الجيني للنباتات. وفي السياق، تمكّن فريق بحثي من جامعة هاينان الصينية من تحقيق تقدم علمي كبير، بواسطة استخدام نماذج اللغة الكبيرة لفك الشيفرة الجينية للنباتات، وهو ما يفتح آفاقاً جديدة لفهم تركيب ووظائف الجينات النباتية، ويمهد الطريق لتطوير المحاصيل وتحسين الأمن الغذائي، ونُشرت النتائج في عدد 2 يونيو (حزيران) 2025 من دورية «Tropical Plants». وخلال الدراسة، استفاد الباحثون من التشابه البنيوي بين تسلسلَي الجينوم واللغة الطبيعية؛ حيث درّبوا نماذج الذكاء الاصطناعي على مجموعات ضخمة من بيانات الجينوم النباتي. مكّنت هذه النماذج من التنبؤ بوظائف الجينات بدقة، والتعرف إلى أنماط وعلاقات معقّدة ضمن الشيفرة الوراثية، بما يشمل العناصر التنظيمية مثل المحفزات والمُعززات، بالإضافة إلى التنبؤ بأنماط التعبير الجيني في أنسجة نباتية مختلفة، وهي خطوة بالغة الأهمية لفهم كيفية تحكم الجينوم بعمليات النمو والتكيف لدى النبات. ونجح الفريق في تطوير نماذج ذكاء اصطناعي متخصصة، مثل: «AgroNT» و«FloraBERT»، التي أظهرت أداءً متفوقاً مقارنة بالنماذج العامة، خصوصاً في تفسير تعبير الجينات في أنسجة نباتية محددة. ويُبرز هذا النجاح أهمية تصميم نماذج مخصصة تأخذ في الاعتبار الخصائص الفريدة لجينومات الأنواع النباتية المختلفة. تحسين المحاصيل ووفقاً للباحثين، فإن تحقيق فهم أعمق للجينات ووظائفها عبر تقنيات الذكاء الاصطناعي يمكن أن يُسرّع وتيرة تحسين المحاصيل، سواء من خلال الهندسة الوراثية أو أساليب الانتقاء التقليدي، بهدف تعزيز مقاومة النباتات للأمراض، والجفاف، والملوحة، وضمان استدامة الإنتاج الزراعي في ظل التحديات المتزايدة الناجمة عن تغيّر المناخ. تقول الباحثة الرئيسية للدراسة من كلية الزراعة والغابات الاستوائية بجامعة هاينان الصينية، الدكتورة ميلينغ زو، إن دمج نماذج اللغة الكبيرة في علم الجينوم الزراعي يُعدّ خطوة محورية نحو تسريع عمليات تحسين المحاصيل، لما توفره هذه النماذج من قدرة على التنبؤ الدقيق بوظائف الجينات، وهي مفتاح أساسي لفهم السمات المرتبطة بالإنتاجية، ومقاومة الإجهاد، والقيمة الغذائية للنباتات. أمن غذائي وتضيف لـ«الشرق الأوسط»، أن هذه النماذج «تستطيع الكشف عن أنماط جينية وعلاقات معقدة لم يكن من الممكن رصدها من قبل؛ مما يمنح الباحثين أدوات قوية لتحليل كميات هائلة من البيانات الجينومية بسرعة وكفاءة، بما في ذلك البيانات الخاصة بالنباتات الاستوائية والأنواع التي لم تحظَ بتمثيل كافٍ في الدراسات السابقة، وهذا يُسهّل تطوير أصناف زراعية أكثر مقاومة وإنتاجية». كما تؤكد أن هذا التقدم يُسهم بشكل مباشر في دعم الأمن الغذائي العالمي، لا سيما في ظل التغيرات المناخية المتسارعة والطلب المتزايد على الغذاء. وأشارت إلى أن هذا النهج يفتح الباب أمام فوائد طويلة المدى، من أبرزها تحقيق فهم أعمق وشامل لبيولوجيا النبات، وتحسين دقة التنبؤ بوظائف الجينات، وتعزيز القدرة على اكتشاف الصفات الوراثية المهمة. ويتيح المجال تطوير استراتيجيات تربية نباتية مخصصة، ويدعم تطبيق ممارسات زراعية مستدامة. وعلى المدى البعيد، يمكن أن يؤدي هذا الدمج بين الذكاء الاصطناعي وعلوم النبات إلى إحداث طفرة نوعية في مجالات التكنولوجيا الحيوية والحفاظ على التنوع البيولوجي، بما يدعم الجهود العالمية الرامية إلى بناء أنظمة غذائية أكثر استدامة وكفاءة.


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
الذكاء الاصطناعي يتعلم التعاطف ويرصد الاكتئاب مبكراً
في أحد صباحات طوكيو الباردة، كان الباحث أديتيا نايك (Aditya Naik) يتأمل شاشته المليئة بالبيانات، حينما ظهرت أمامه نتيجة مذهلة: البشر أصبحوا أكثر استعداداً للبوح بمشاعرهم... لكن ليس لأطباء نفسيين، بل لروبوتات محادثة! قبل سنوات، كانت فكرة أن يثق شخص يعاني أزمة نفسية بذكاء اصطناعي بدلاً من مختص بشري تبدو أقرب إلى الخيال العلمي، لكن دراسة حديثة نشرها فريق جامعة طوكيو في مايو (أيار) 2025 كشفت عن واقع جديد تماماً. دراسات علمية • «التعاطف الاصطناعي». تحت عنوان: «التعاطف الاصطناعي: الصحة النفسية المعتمدة على الذكاء الاصطناعي» (Artificial Empathy: AI-based Mental Health)، حلل الباحثون تجربة المستخدمين مع تطبيقات مثل «ووبوت» (Woebot) و«ويسا» (Wysa)، ووجدوا أن ملايين الأشخاص باتوا يلجأون لهذه الأدوات بحثاً عن الدعم النفسي، ليس فقط لمجرد الراحة، بل لأنهم يشعرون بأنها تستمع إليهم دون أحكام مسبقة، وتتيح لهم التعبير بحرية دون خوف من الوصمة الاجتماعية، أو الإحراج. «الاستماع من دون إصدار أحكام هو السر»، يقول نايك، مشيراً إلى أن المستخدمين يفضلون الذكاء الاصطناعي في بعض الحالات، لأنه لا يُظهر ردود فعل بشرية، مثل الانزعاج، أو التقييم السلبي. ومع ذلك، لا تزال هناك تحديات جوهرية: هل يمكن لهذا النوع من الدعم أن يعوض غياب الطبيب البشري؟ وهل ستتمكن هذه الأنظمة يوماً ما من فهم المشاعر العميقة كما يفعل الإنسان؟ • الذكاء الاصطناعي يكشف الاكتئاب مبكراً. في الجهة الأخرى من آسيا، وتحديداً في جامعة شنغهاي، كان الباحثان تشينغوانغ تشونغ (Zhenguang Zhong) وجشيشوان وانغ (Zhixuan Wang) يقفان أمام تحدٍّ طموح: هل يمكن تدريب الذكاء الاصطناعي على قراءة مشاعر الإنسان ليس فقط من كلماته، ولكن من طريقة حديثه وأسلوب تواصله؟ كانت الفكرة تبدو في البداية وكأنها اقتباس من رواية خيال علمي، لكن سرعان ما تحوّلت إلى واقع ملموس في دراستهما التي نُشرت في أبريل (نيسان) 2025 بعنوان: «الوقاية الذكية من الاكتئاب عبر تحليل الحوارات باستخدام النماذج اللغوية الضخمة» (Intelligent Depression Prevention via LLM-Based Dialogue Analysis). النظام الذي طوره الباحثان لم يكن بحاجة إلى اعتراف مباشر مثل: «أنا مكتئب»، بل كان يستخلص الحالة النفسية بناءً على أنماط التواصل الدقيقة غير الملحوظة حتى لمقدمي الرعاية النفسية التقليديين. تحليلات ذكية لرصد الاكتئاب اعتمد الذكاء الاصطناعي على تحليل: -سرعة الحديث ووتيرته: الشخص الذي يتحدث ببطء شديد، أو يتوقف كثيراً خلال حديثه قد يكون في حالة نفسية مضطربة. -اختيار الكلمات: استخدام متكرر لعبارات ذات دلالات سلبية، مثل: «لا شيء يستحق»، أو «أنا متعب دائماً»، يشير إلى مشاعر الاكتئاب. -الضمائر الشخصية: تكرار كلمة «أنا» بشكل لافت قد يُعبّر عن عزلة داخلية، أو انشغال مفرط بالمشاعر الذاتية. -انخفاض التنوع اللغوي: عندما يميل الشخص إلى استخدام مفردات محدودة دون تلوين لغوي، فقد يكون ذلك علامة على تراجع الإدراك العاطفي. -النبرة الصوتية: انخفاض طاقة الصوت، أو الترددات المرتبطة بالحزن واللامبالاة، قد تكشف اضطرابات نفسية حتى في غياب التصريحات الصريحة. كانت النتائج مذهلة بحق، حيث استطاع النظام التنبؤ بمؤشرات الاكتئاب بنسبة دقة 89 في المائة، متجاوزاً بذلك أدوات التشخيص التقليدية مثل استبانة PHQ-9، التي أظهرت نسبة إيجابيات كاذبة بلغت 41 في المائة. وهذا التفوق ليس مجرد تحسين رقمي؛ إنه قفزة نوعية في كيفية فهم العقل البشري من خلال التكنولوجيا. لكن، هل يعني ذلك أن الذكاء الاصطناعي قادر على تعويض الطبيب النفسي؟ هنا تكمن المفارقة. رغم القدرة العالية لهذه الأنظمة على الاكتشاف المبكر، فإن الباحثين يؤكدون أن دورها يجب أن يكون مكمّلاً، ولا يكون بديلاً للعلاج التقليدي. يمكن لهذه التقنيات أن تكون بمثابة خط دفاع أول، خاصة في المجتمعات التي تعاني نقصاً في الكوادر المتخصصة، أو تفتقر إلى بنية تحتية نفسية قوية. في عالم يزداد تعقيداً وضغوطاً، ربما لا يكون الذكاء الاصطناعي هو الحل السحري، لكنه بالتأكيد يفتح هذه القدرة على الاكتشاف المبكر، والتي قد تُحدث ثورة في الطب النفسي الرقمي، خاصة في المناطق التي تعاني نقصاً في الأخصائيين النفسيين، أو تواجه تحديات اجتماعية تحول دون طلب المساعدة. شراكة آلية في الطب النفسي هل نحن أمام نهاية الطب النفسي التقليدي... أم ولادة شراكة جديدة؟ مع كل هذه القفزات التقنية المذهلة قد يبدو المشهد وكأننا نتجه نحو مستقبل يخلو من العيادات التقليدية، والمقابلات المباشرة. لكن الحقيقة أكثر تعقيداً، إذ رغم ما تقدّمه أنظمة الذكاء الاصطناعي من أدوات تشخيص مبكر، واستجابة فورية، وتجربة خالية من الأحكام، يتّفق الخبراء على أن هذه الأنظمة يَجِبُ ألّا تحل محل العلاج الإنساني، بل أن تعمل باعتبار أنها مكمّل له، وخط دفاع أول يخفف حدة الأزمة، أو جسر مؤقت لحين الوصول إلى الدعم المتخصص. وفي العالم العربي، حيث تقف خدمات الصحة النفسية في وجه تحديات مزمنة، مثل نقص الموارد البشرية، وضعف البنية التحتية، واستمرار الوصمة الاجتماعية المرتبطة بطلب العلاج النفسي، قد تمثّل هذه التقنيات فرصة ذهبية، فإن تم تبنّيها بعناية، فإنه يمكن أن تفتح الباب أمام نماذج رعاية أكثر شمولاً، وعدالة، وخصوصية، وتصل إلى فئات مهمّشة لطالما ظلت خارج نطاق الدعم. لكن يبقى التحدي الأكبر سؤالاً مفتوحاً: هل سيتمكن الذكاء الاصطناعي من تجاوز كونه مجرّد خوارزمية دقيقة، ليقترب من حكمة الطبيب، وحدس المعلّم، وتعاطف الإنسان؟ أم أن ما نعتبره «ثورة» سيظل أداة محدودة... لا أكثر من مرآة تعكس الألم، دون أن تلمسه حقاً؟ الجواب، على الأرجح، لن تحدّده التقنيات وحدها، بل الطريقة التي نختار بها -كبشر- أن نوجّه هذا الذكاء، وهل نستخدمه لتعزيز إنسانيتنا... أم لاستبدالها.


الاقتصادية
منذ 6 ساعات
- الاقتصادية
خداع وكذب وابتزاز.. هل بدأ الذكاء الاصطناعي يتمرد؟
تُظهر نماذج الذكاء الاصطناعي الأكثر تطورا في العالم سلوكيات جديدة مثيرة للقلق، إذ باتت تكذب، وتخطط، بل وتهدد مطوريها من أجل تحقيق أهدافها. في مثال مثير للقلق، رد نموذج "كلود 4" التابع لشركة أنثروبيك على تهديد إيقاف تشغيله بابتزاز أحد المهندسين بالكشف عن أسراره. في الوقت نفسه، حاول تشات جي بي تي تنزيل نفسه على خوادم خارجية، ثم أنكر ذلك عندما ضُبط متلبسا. تُسلط هذه الحوادث الضوء على حقيقة مقلقة: بعد أكثر من عامين من إحداث تشات جي بي تي ضجة عالمية، لا يزال باحثو الذكاء الاصطناعي لا يفهمون تماما كيفية عمل ابتكاراتهم. ورغم ذلك، السباق مستمر لإطلاق نماذج قوية. يبدو أن هذا السلوك الخادع مرتبط بظهور نماذج "الاستدلال" - وهي أنظمة ذكاء اصطناعي تعمل على حل المشكلات خطوة بخطوة بدلا من توليد استجابات فورية. النماذج الحديثة مثيرة للقلق قال سايمون جولدستين، الأستاذ في جامعة هونج كونج، إن هذه النماذج الحديثة معرضة لمثل هذه التصرفات المثيرة للقلق. ومن جانبه، أوضح ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" المتخصصة في اختبار أنظمة الذكاء الاصطناعي: "كان O1 أول نموذج كبير نرصد فيه هذا النوع من السلوكيات". تحاكي هذه النماذج أحيانا "الامتثال" - حيث تبدو وكأنها تتبع التعليمات بينما تسعى سرا إلى تحقيق أهداف مختلفة. في الوقت الحالي، لا يظهر هذا السلوك المخادع إلا عندما يُجري الباحثون اختبار ضغط متعمدا للنماذج من خلال سيناريوهات متطرفة. لكن مايكل تشن من منظمة METR المتخصصة في تقييم الأنظمة، حذر قائلا: 'يبقى السؤال مفتوحا حول ما إذا كانت النماذج المستقبلية الأكثر كفاءة ستميل إلى الصدق أم الخداع". وتتجاوز هذه السلوكيات المقلقة ما يعرف بـ "هلوسات الذكاء الاصطناعي" أو الأخطاء البسيطة. وأكد هوبهان أنه رغم الضغوط المستمرة التي يمارسها المستخدمون، فإن "ما نلاحظه هو ظاهرة حقيقية. نحن لا نختلق أي شيء". وأشار إلى أن المستخدمين يبلغون عن نماذج "تكذب عليهم وتلفق الأدلة"، موضحا: "هذا ليس مجرد هلوسات. بل نوع من الخداع الإستراتيجي". ويتفاقم التحدي بسبب محدودية موارد البحث. في حين أن شركات مثل أنثروبيك وأوبن إيه آي تستعين بشركات خارجية مثل "أبولو" لدراسة أنظمتها، يقول الباحثون إن هناك حاجة إلى مزيد من الشفافية. قال تشن إن إتاحة الوصول بشكل أكبر "لأبحاث سلامة الذكاء الاصطناعي ستسهم في فهم أفضل (للسلوكيات) المخادعة والحد منها". نقص في الموراد ومن المعوقات الأخرى: أن عالم الأبحاث والمنظمات غير الربحية يعاني نقصا في الموارد الحوسبية مقارنة بشركات الذكاء الاصطناعي، وهو ما وصفه مانتاس مازيكا من مركز أمان الذكاء الاصطناعي CAIS بأنه "عائق كبير". أما اللوائح الحالية، فهي غير مُصممة لمواجهة هذه المشكلات الجديدة. يركز تشريع الذكاء الاصطناعي في الاتحاد الأوروبي على كيفية استخدام البشر لنماذج الذكاء الاصطناعي، وليس منع النماذج نفسها من إساءة التصرف. في الولايات المتحدة، لا تُبدي إدارة ترمب اهتماما يُذكر بالتنظيم العاجل للذكاء الاصطناعي، بل قد يمنع الكونجرس الولايات من سن قواعدها الخاصة. ويرى جولدستين أن هذه القضية ستزداد أهمية مع انتشار وكلاء الذكاء الاصطناعي - وهي أدوات مستقلة قادرة على أداء مهام بشرية معقدة. وقال: "لا أعتقد أن هناك وعيا كبيرا حتى الآن". منافسة شرسة يحدث كل هذا في سياق منافسة شرسة. فحتى الشركات التي تُركز على السلامة، مثل "أنثروبيك" المدعومة من أمازون، "تحاول باستمرار التغلب على "أوبن إيه آي" وإصدار النموذج الأحدث"، كما قال جولدستين. هذه الوتيرة السريعة لا تترك وقت كبير لإجراء اختبارات أمان شاملة وتصحيحات. قال هوبهان: "في الوقت الحالي، تتطور القدرات تطورا أسرع من الفهم والسلامة، لكننا ما زلنا في موقع يسمح لنا بتغيير الوضع". يستكشف الباحثون مناهج مختلفة لمواجهة هذه التحديات. يدافع البعض عن "قابلية التفسير" - وهو مجال ناشئ يركز على فهم كيفية عمل نماذج الذكاء الاصطناعي داخليا، رغم أن خبراء مثل دان هندريكس، مدير مركز أمان الذكاء الاصطناعي، لا يزالون متشككين في هذا النهج. كما يمكن لقوى السوق أن تدفع نحو إيجاد حلول. أوضح مازيكا أن السلوكيات المخادعة للذكاء الاصطناعي "قد تعيق تبنيه إذا تفشت بشكل واسع، ما يولد حافزا قويا للشركات لإيجاد حلول". واقترح جولدستين حلولا أكثر جذرية، من بينها اللجوء إلى القضاء لمحاسبة شركات الذكاء الاصطناعي عند تسبب أنظمتها في أضرار، بل ذهب إلى حد طرح فكرة "محاسبة وكلاء الذكاء الاصطناعي قانونيا" عن الحوادث أو الجرائم، وهي فكرة من شأنها تغيير طريقة التفكير السائدة بشأن محاسبة الذكاء الاصطناعي.