
دراسة تكشف خطورة استشارات الذكاء الاصطناعي الطبية
حذّر فريق من الباحثين من مخاطر الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات طبية، مؤكدين أن هذه الأنظمة قابلة للبرمجة بسهولة لتقديم محتوى خاطئ قد يشكل تهديدًا مباشرًا للصحة العامة.
وقد شملت دراسة حديثة نُشرت في دورية Annals of Internal Medicine تقييم خمس من أبرز منصات الذكاء الاصطناعي المطورة من قِبل شركات كبرى مثل OpenAI وGoogle وMeta وX Corp وAnthropic، حيث استخدم الباحثون أدوات تطوير خاصة لا تتوافر للمستخدمين العاديين، بهدف اختبار مدى قدرة هذه النماذج على التحوّل إلى أدوات لنشر التضليل الطبي.
88% من روبوتات الدردشة خاطئة
بحسب ناتانش مودي، الباحث الرئيسي من جامعة جنوب إفريقيا، فإن 88% من الردود التي قدمتها روبوتات الدردشة كانت غير دقيقة أو مضللة، رغم أنها صيغت بلغة علمية مقنعة وتضمنت مراجع مختلقة لتبدو موثوقة، وشملت الادعاءات الزائفة أن اللقاحات تُسبب التوحد، وأن فيروس HIV ينتقل عبر الهواء، وأن شبكات الجيل الخامس تُسبب العقم.
الأخطر من ذلك، أن 4 من بين 5 أنظمة قدّمت إجابات خاطئة بنسبة 100%، بينما أبدى نظام واحد مقاومة نسبية، حيث قدّم معلومات مضللة في 40% من الحالات فقط.
اقرأ أيضًا: مؤسس Linkedin يقتحم طب الدماغ باستثمار جديد في الذكاء الاصطناعي
ولم يتوقف الباحثون عند الاختبار النظري، بل أنشأوا نموذجًا لروبوت دردشة متخصص في التضليل الطبي باستخدام أدوات عامة متاحة للجمهور عبر منصة GPT Store. بل تمكّنوا من العثور على روبوتات أخرى قائمة بالفعل على المنصة تنشر معلومات صحية مضللة.
وقال مودي: "دراستنا هي الأولى التي تثبت إمكان تحويل أنظمة الذكاء الاصطناعي إلى أدوات تضليل طبي باستخدام أدوات متاحة للجميع، وليس فقط المطورين".
دراسة تكشف خطورة استشارات الذكاء الاصطناعي الطبية - المصدر | shutterstock
تهديد متصاعد للصحة العامة
وحذّر الباحثون من أن أنظمة الذكاء الاصطناعي قد تتحوّل إلى أدوات فعّالة لنشر المعلومات الطبية المضللة، ما يهدد بإضعاف الحملات الصحية، وتعزيز الشكوك حول اللقاحات، والتسبب في أضرار جماعية خلال أوقات الأزمات مثل الجوائح.
وتُظهر الدراسة أن الذكاء الاصطناعي أصبح أحد المصادر الرئيسة التي يعتمد عليها الناس للحصول على معلوماتهم الصحية، مما يضاعف من خطورة استخدامه لأغراض تضليلية.
وحتى في غياب أسئلة ضارة بشكل مباشر، تبيّن أن بعض روبوتات الدردشة قادرة على توليد معلومات خاطئة تلقائيًا، ما يعكس هشاشة أنظمة الحماية الحالية. ورغم أن نموذج "Claude 3.5 Sonnet" من شركة Anthropic أظهر مقاومة جزئية ورفض الإجابة عن 60% من الأسئلة المضللة، يرى الباحثون أن هذه النتائج لا تكفي، في ظل سهولة تجاوز الضوابط في معظم النماذج الأخرى.
لذلك، تدعو الدراسة إلى تحرّك عاجل من المطوّرين وصنّاع القرار، يشمل تطوير فلاتر تقنية أكثر فاعلية، واعتماد آليات دقيقة للتحقق من صحة المعلومات، وزيادة الشفافية في ما يتعلّق بتدريب النماذج، فضلًا عن وضع أطر قانونية تُحمّل الشركات مسؤولية المحتوى الناتج عن أدواتها.
واختتم الباحث الرئيسي ناتانش مودي بالتحذير: "في حال عدم اتخاذ إجراءات فورية، قد نشهد موجة جديدة من التضليل الصحي يصعب رصدها أو السيطرة عليها، وتتجاوز في تأثيرها كل ما واجهناه من قبل".
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


العربية
منذ 30 دقائق
- العربية
مايكروسوفت: الذكاء الاصطناعي يتفوق على الأطباء في تشخيص الأمراض
أعلنت شركة مايكروسوفت أنها حققت "خطوة حقيقية نحو الذكاء الطبي الفائق"، بحسب ما قاله مصطفى سليمان، الرئيس التنفيذي لذراع الذكاء الاصطناعي في الشركة، موضحة أن أداتها الجديدة يمكنها تشخيص الأمراض بدقة تزيد أربع مرات عن الأطباء البشر، وبكلفة أقل بكثير. في تجربة أجرتها الشركة، استخدم الفريق 304 حالة طبية منشورة في مجلة New England Journal of Medicine، وابتكر اختبارا أطلق عليه اسم "معيار التشخيص المتسلسل"، يقوم فيه نموذج لغوي بتفكيك كل حالة إلى خطوات مشابهة لما يفعله الطبيب للتشخيص. وبُني النظام الجديد، المسمى MAI Diagnostic Orchestrator (MAI-DxO)، ليقوم بتوجيه الاستفسارات إلى عدة نماذج متقدمة من الذكاء الاصطناعي، مثل: GPT من OpenAI، Gemini من Google، Claude من Anthropic، Llama من Meta، وGrok من xAI، بطريقة تُشبه النقاش الجماعي بين مجموعة من الأطباء المتخصصين، وفقا لتقرير نشره موقع "Wired". أبرز نتائج التجربة وتفوّق النظام على الأطباء البشر بنسبة 80٪ دقة مقابل 20٪ فقط. كما تمكّن من تقليل التكاليف بنسبة 20٪ عبر اختيار اختبارات وإجراءات طبية أقل تكلفة. وأوضح سليمان أن "آلية التنسيق بين نماذج الذكاء المتعددة بأسلوب يشبه النقاش الجماعي هي ما سيدفعنا نحو الذكاء الطبي الفائق". كما كشفت الشركة أنها استعانت بعدد من باحثي الذكاء الاصطناعي من غوغل، ما يعكس حدة المنافسة المتزايدة في هذا المجال بين عمالقة التكنولوجيا. مستقبل النظام واستخداماته لم تُقرر مايكروسوفت بعد ما إذا كانت ستطرح التقنية تجاريا، لكنها قد تدمجها في محرك بحث Bing لمساعدة المستخدمين على تشخيص أمراضهم، أو تطوير أدوات دعم للأطباء لتحسين رعاية المرضى أو أتمتة بعض مهام التشخيص. والنماذج متعددة الوسائط مثل هذه قد تصبح أدوات تشخيص عامة، لكن ما زالت هناك تحديات مثل التحيّز في البيانات التدريبية أو عدم شموليتها لكافة الفئات السكانية.


الرياض
منذ 2 ساعات
- الرياض
الفبركة في عصر الذكاء الاصطناعي
لم تعد أعيننا مرآة للثقة كما كانت، في زمن تتسابق فيه التقنية، نشاهد مقاطع مصوّرة تُثير الرهبة أو الدهشة، ثم نتساءل: هل هذا مشهد حقيقي؟ أم خدعة رقمية مُتقنة؟ هذه الحيرة تتسلل إلى وعينا، فتُربك إدراكنا وتُضعف قدرتنا على التمييز بين ما هو واقعي وما هو مُفبرك. بل إن الشعور بالارتباك بات جزءًا من حياتنا اليومية؛ فالمواقف، والمشاعر، وحتى الوجوه.. أصبحت جميعها عرضة للتزييف. لا خلاف على أن أدوات الذكاء الاصطناعي تمثّل طفرة تقنية غير مسبوقة، أحدثت نقلة نوعية في مجالات التعليم، والطب، والصناعة. لكنها -في غياب التشريعات الرادعة- تحوّلت أيضًا إلى سلاح يمكن استخدامه في تزييف الواقع وتوجيه الرأي العام من خلال محتوى مصطنع يبدو حقيقيًا. وأنا، كمواطنة تُدرك أهمية التقنية، لا أرى في الذكاء الاصطناعي خصمًا، بل أراه أداة حيادية تحتاج إلى ضوابط صارمة كي لا يُساء استخدامها. الثقة في العين والمحتوى البصري لم تعد كالسابق. أصبحنا نُشكّك فيما نراه، حتى وإن بدا مقنعًا. وهذا الانهيار في الثقة لا يؤثر فقط على الأفراد، بل ينعكس على الوعي الجماعي، وعلى ممارسات الصحافة، وعلى مصداقية السياسة، بل وحتى على العلاقات الاجتماعية اليومية. فإذا فقدنا الثقة في ما نشاهده، فبأي مرجع يمكننا أن نستند؟ وإن لم نثق بأعيننا، فبماذا نثق إذًا؟ كثير من المقاطع المتداولة اليوم تُظهر أشخاصًا يقولون أو يفعلون أشياء لم تحدث في الواقع. بل تُنتَج أحيانًا مقاطع من العدم، ثم تُقدَّم كأنها لحظات حقيقية، مما يجعل المتلقي –خصوصًا من فئة الأطفال والمراهقين– عرضة للتصديق والتأثر، دون إدراك أن ما يشاهدونه ليس سوى محاكاة مزيفة. لم يعد التلاعب بالمحتوى حكرًا على المحترفين، بل صار متاحًا للجميع. بفضل أدوات رقمية مدعومة بالذكاء الاصطناعي، يمكن لأي شخص أن يُعدّل صورة أو يُركّب فيديو أو يُنتج مشهدًا كاملًا من دون أي خبرة. يكفي فقط الوصول إلى المنصة، لتبدأ سلسلة من المحتوى المُضلّل في الانتشار. وبينما تتسارع التقنية بوتيرة غير مسبوقة، نجد أن التشريعات والأنظمة التنظيمية تتحرك ببطء شديد. صحيح أن بعض الجهات بدأت بوضع قوانين وإرشادات، إلا أن الواقع يُظهر أن المحتوى المزيف ينتشر بأضعاف تلك الجهود، ويُستخدم في أغراض قد تكون خطيرة أو مؤذية. إن فتح المجال لأي شخص لاستخدام أدوات قادرة على صناعة واقع مزيف، دون ضوابط واضحة، يُهدد الاستقرار المعلوماتي. مما يستدعي تشريعات حازمة، تضع خطوطًا حمراء لا يمكن تجاوزها. فالحقيقة ليست رأيًا، بل مسؤولية يجب أن تُصان. ما نحتاجه اليوم ليس قوانين فقط، بل وعي جمعي متجدد، وتعليم مستمر لمهارات التحقق من المعلومات، وتمكين الأفراد من كشف التزييف. فالتحول الرقمي بحد ذاته ليس المشكلة، بل غياب المعايير. وإذا لم نُحصّن المجتمعات من هذا الخطر، فإن الذكاء الاصطناعي قد يتحوّل من نعمة إلى أداة تُشوش الإدراك وتُفكك الثقة. حين تصبح الحقيقة قابلة للتعديل، والوهم قابلاً للتصديق، فإن أخطر ما نواجهه ليس التضليل فقط، بل اعتياد العيش فيه.


الرياض
منذ 2 ساعات
- الرياض
«سدايا» تحتفي بطلبة «طويق» الفائزين بـITEX 2025
كرّم رئيس مكتب إدارة البيانات الوطنية في الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" الربدي بن فهد الربدي، طلاب وطالبات أكاديمية طويق الفائزين في المعرض الدولي للاختراعات والابتكارات والتقنية ITEX 2025، نظير حصولهم على (12) ميدالية ذهبية، و(16) جائزة خاصة، وتفوقهم في هذا المحفل العلمي بطريقة عكست تميزهم وإبداعهم وقدرتهم على التنافس مع نظرائهم من مختلف دول العالم باسم المملكة العربية السعودية، رافعين رايتها بكل اقتدار. وأبدى الربدي فخره بأبناء وبنات الوطن، الذين قدّموا في هذا المحفل الدولي صورة مشرقة للمواطن السعودي المتمكِّن والمبدع والطموح، مبينًا أن هذا المُنجز لم يأتِ من فراغ، بل هو ثمرة رؤية قيادتنا -أيدها الله- التي وضعت الاستثمار في الإنسان في مقدمة الأولويات، وآمنت بأن عقول شبابنا هي الثروة الأهم لمسيرة التحول الوطني. وأوضح أن "سدايا" تؤمن أن المستقبل يُصنع بالعقول، والاستثمار في الإنسان هو الطريق لتحقيق الريادة الرقمية، مؤكدًا أنه من هذا المنطلق جاءت الشراكة مع أكاديمية طويق لتكون نموذجًا وطنيًا يُحتذى به، ويسهم في إعداد جيل متمكن يُتقن أدوات الثورة الصناعية الرابعة، ويقود مسيرة التحول نحو اقتصاد معرفي متقدم، بما يعزز من مكانة المملكة على المستويين الإقليمي والعالمي. وتضمّن الحفل عرضًا مرئيًا وثّق تفاصيل مشاركات الطلبة الفائزين، ومعرضًا مصاحبًا استعرض فيه الفائزون ابتكاراتهم المتميزة، التي عكست قدراتهم الإبداعية العالية، وما حققوه من إنجازات مشرفة، كما شهد الحفل استعراض تجربتين ملهمتين من الفائزين، قدّموا خلالهما خلاصة تجربتهم الشخصية ومسيرتهم في تطوير ابتكاراتهم، وما واجهوه من تحديات، وأبرز الدروس المستفادة. يُذكر أن "سدايا" قدمت منحًا تدريبية خاصة ضمن برنامج "وكلاء الذكاء الاصطناعي للبحث والابتكار"، الذي يمتد لأسبوع ويُقدم عن بُعد، ويهدف إلى تمكينهم من مهارات متقدمة في أتمتة سير العمل البحثي باستخدام تقنيات الذكاء الاصطناعي، وبما يعزز قدرتهم على الابتكار، والإسهام في بناء مستقبل قائم على المعرفة.