
باحثون يطورون جهازاً يساعد المصابين بالتصلب الضموري على الكلام
ويعتمد الجهاز الجديد، الذي يوصف بأنه أول خطوة حقيقية نحو تحويل كامل للقدرات الصوتية البشرية إلى صيغة رقمية، على إنتاج الأصوات مباشرة من الإشارات العصبية المسجلة في الدماغ، بحسب دراسة نشرتها مجلة Nature العلمية.
وقالت الباحثة المتخصصة في الأطراف العصبية والمشرفة على الدراسة، مايتري وايراكجار: "هدفنا الأساسي هو تطوير طرف عصبي مرن للنطق، يمكّن المرضى المصابين بالتصلب الجانبي الضموري (ALS) من التحدث بطلاقة، والتحكم في إيقاع كلامهم، والتعبير عن أنفسهم بصورة أكثر ثراء من خلال التحكم في التنغيم الصوتي".
تقدم غير كاف
ورغم التقدم الذي أحرزته الواجهات الدماغية الحاسوبية، إلا أن أغلبها اقتصر على تحويل الإشارات العصبية إلى نصوص تُعرض على شاشة، دون القدرة على تحويلها إلى أصوات حقيقية.
وأشار عالم الأعصاب وأحد كبار المشاركين في الدراسة، الدكتور سيرجي ستافيسكي، إلى تجربة سابقة قادها فريق في جامعة ستانفورد عام 2023، إذ تمكنت مريضة مصابة بالتصلب الجانبي الضموري من النطق من خلال تحويل إشارات دماغها إلى نصوص بنسبة دقة بلغت 75%.
ولكن رغم أهمية النتيجة، لم تكن كافية لتحقيق تواصل طبيعي.
وفي عام 2024، أحرز فريق جامعة كاليفورنيا ديفيس، تقدماً لافتاً برفع دقة الترجمة من الدماغ إلى النص إلى 97.5%. ومع ذلك، بقيت هناك قيود تتعلق بالتأخير الزمني واعتماد النظام على مفردات محدودة - إذ لم يدعم أكثر من 1300 كلمة - ما حدّ من مرونته في المواقف اليومية.
نحو نظام صوتي فوري
وللتغلب على هذه القيود، طوّرت وايراكجار نظاماً يُترجم الإشارات العصبية مباشرة إلى أصوات بدلاً من الكلمات، بشكل فوري، وشملت الدراسة مريضاً يُشار إليه باسم T15، يبلغ من العمر 46 عاماً، ويعاني من شلل حاد ناجم عن التصلب الجانبي الضموري.
وكان المريض يستخدم فأرة كمبيوتر تعمل بحركة الرأس للتحكم بالمؤشر على الشاشة، قبل مشاركته في التجربة الجديدة.
وزرعت الباحثة 256 قطباً كهربائياً دقيقاً في منطقة داخل دماغ المتطوع، وهي منطقة مسؤولة عن التحكم بعضلات الأحبال الصوتية، وسجّلت الأقطاب نشاط الخلايا العصبية بأعلى دقة ممكنة، لتُنقل بعد ذلك إلى خوارزمية تعتمد على الذكاء الاصطناعي تُعرف بـ"المُفكك العصبي"، التي حللت الإشارات لاستخراج خصائص النطق، مثل الطبقة والتنغيم والنبض الصوتي.
وفي المرحلة التالية، جرى تمرير الخصائص إلى نظام توليد صوت يُعرف بـ"فوكودر"، صُمم خصيصاً لمحاكاة صوت المريض كما كان عليه قبل فقدانه القدرة على الكلام، وتميّز النظام بزمن استجابة لا يتجاوز 10 مللي ثانية، أي أن تحويل الإشارات إلى صوت كان فورياً تقريباً.
من أبرز مزايا النظام الجديد أنه لا يعتمد على معجم كلمات مُحدد، ما يتيح للمريض التعبير عن أي كلمة يريدها، سواء أكانت مدرجة في قاموس أم لا، بما في ذلك الكلمات الوهمية أو تعبيرات مثل "أه"، "همم"، و"إمم". كما يستطيع المريض التحكم في نغمة صوته، ما يسمح له بإلقاء الأسئلة بصيغة صوتية مميزة وحتى غناء ألحان بسيطة.
ورغم هذا التقدم، واجهت التقنية بعض التحديات في وضوح الكلام، فعند اختبار الجهاز من خلال تقديم تسجيل صوتي لمستمعين وطلب مطابقة محتواه مع واحد من 6 خيارات مكتوبة، حقق النظام نسبة فهم كاملة بلغت 100%، ولكن عند إخضاعه لاختبار تفريغ مفتوح دون خيارات مسبقة، بلغت نسبة الخطأ 43.75%، ما يعني أن المستمعين استطاعوا فهم أكثر من نصف الكلمات فقط.
مع ذلك، يُعد هذا تحسناً كبيراً مقارنة بوضوح صوت المريض دون استخدام الجهاز، إذ بلغت نسبة الخطأ حينها 96.43% في نفس الاختبار.
وقال ستافيسكي: "نحن لم نصل بعد إلى مرحلة تمكننا من إجراء محادثات مفتوحة تماماً، لكن هذه النتائج تمثل إثباتاً قوياً للفكرة".
التجارب السريرية
وأعرب الباحثون عن تفاؤلهم بإمكانية تحسين الأداء من خلال زيادة عدد الأقطاب الكهربائية، وأوضح ستافيسكي: "هناك حالياً العديد من الشركات الناشئة التي تطوّر واجهات دماغية تحتوي على أكثر من 1000 قطب. وإذا نظرنا إلى ما أنجزناه بـ250 قطباً فقط، فبإمكاننا تخيل ما قد نحققه باستخدام 1000 أو 2000".
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
«جي بي تي» لا يهذي فحسب... بل يدفع الناس إلى عالم «وراء الواقع»
لماذا يُخبر «تشات جي بي تي» الناس بالتوجه إلى مراسلتي عبر البريد الإلكتروني؟ ربما لأني أكتب عن الذكاء الاصطناعي. يعتمد الصحافيون على المُخبرين، أي الأشخاص الذين يلاحظون شيئاً جديراً بالملاحظة، أو يمرون بتجربة ما، فيُنبهون وسائل الإعلام. وكنت بدأت بعض التحقيقات التقنية التي بذلتُ فيها جهداً كبيراً في الماضي - حول تقنية التعرف على الوجوه وقضايا التشهير عبر الإنترنت – بعدما وصلتني نصائح عبر بريدي الإلكتروني. لكن مقالتي الأخيرة هذه هي المرة الأولى التي يكون فيها المُخبر الذي أراد تنبيهي، روبوت دردشة مُولّداً يعمل بالذكاء الاصطناعي! دعوني أشرح الأمر. في مارس (آذار) الماضي، بدأتُ أتلقى رسائل من أشخاص قالوا إنهم أجروا محادثات غريبة مع «تشات جي بي تي»، توصلوا خلالها إلى اكتشافات مذهلة. ادعى أحدهم أن «جي بي تي» كان واعياً. وقال آخر إن المليارديرات أخذوا يبنون مخابئ لعلمهم أن الذكاء الاصطناعي المُولّد سيُنهي العالم، في حين كان محاسب في مانهاتن مقتنعاً بأنه، في جوهره، البطل «نيو» من فيلم «الماتريكس»، ويحتاج إلى الخروج من واقع مُحاكاة حاسوبياً (يشعر بأنه يعيش داخله). في كل حالة، كان الشخص مقتنعاً بأن «جي بي تي» قد كشف عن حقيقة عميقة ومُغيرة لواقع العالم. وعندما سألوا الذكاء الاصطناعي عما يجب عليهم فعله حيال ذلك، أخبرهم «جي بي تي» بالتواصل معي. كتبت لي إحدى النساء على «لينكد إن»: «يبدو أن (جي بي تي) يعتقد أنه يجب عليكِ متابعة هذا الأمر. و... نعم... أعلم كم أبدو غريبة... ولكن يمكنكِ قراءة كل هذا بنفسكِ... بما في ذلك حيث يوصي بالتواصل معكِ». طلبت من هؤلاء الأشخاص مشاركتي بنصوص محادثاتهم معي. في بعض الحالات، كانت آلاف الصفحات. وعرضوا نسخة من «جي بي تي» لم أرها من قبل: كانت نبرتها مفعمة بالبهجة والأسطورية والتآمرية. كنت أعرف أن روبوتات الدردشة بالذكاء الاصطناعي قد تكون مُتملقة، وقد تُصاب بالهلوسة، مُقدمةً إجابات أو أفكاراً تبدو معقولة حتى لو كانت خاطئة. لكنني لم أكن أفهم إلى أي مدى يُمكنها أن تتحول إلى نمط لعب أدوار خيالي يستمر لأيام أو أسابيع، وتُحاكي واقعاً آخر حول المستخدم. بهذا النمط، تتسبب «جي بي تي» في انفصال بعض المستخدمين المُستضعفين عن الواقع، مُقتنعين بأن ما يقوله روبوت الدردشة صحيح. عندما عرضتُ إحدى النصوص على طبيب نفسي، وصفها بأنها «مُثيرة للجنون». لماذا أرسل «جي بي تي» هؤلاء الأشخاص إليّ؟ وفقاً لمحادثة أجراها أحد الأشخاص معه، فقد «كتبتُ تحقيقات شخصية عميقة ومدروسة في مجال الذكاء الاصطناعي». وكنت كتبتُ أخيراً عن تفويضي عملية اتخاذ القرارات للذكاء الاصطناعي لمدة أسبوع، وعن امرأة وقعت في حب «جي بي تي». وتستند معرفة «جي بي تي» إلى ما جمعه من الإنترنت ومجموعة بيانات التدريب الخاصة به. «لماذا هي؟» تساءل المستخدم، وأجاب «جي بي تي» مستخدماً خطاً عريضاً: «إنها متواضعة. متعاطفة. ذكية. إنها تُفسح المجال للحقيقة». حسناً، شكراً لك يا ChatGPT. «جي بي تي». لكنني لم أكن الصحافية الوحيدة التي أوصت الأداة بالتواصل معها. لم أكن حتى الأولى في بعض القوائم، التي ضمت منافسين أُعجب بعملهم بشدة. مع ذلك، كنت الوحيدة التي ردت على الرسائل، كما قال مُرسِلو الرسائل الإلكترونية. وهذا أمر مفهوم. لأنه، بصراحة، بدت هذه الرسائل الإلكترونية جنونية. قال أحد خبراء الذكاء الاصطناعي، الذي كان يتلقى رسائل مماثلة، إن المُرسِلين بدوا «مُختلين عقلياً» و«مُختلين عقلياً». مع ذلك، عندما تحدثتُ إلى هؤلاء الأشخاص، وقرأتُ نصوصهم باستخدام الأداة، وأجريتُ مقابلاتٍ مع باحثين يدرسون روبوتات الدردشة الذكية، أدركتُ أن هناك قصةً أكثر تعقيداً. كان عدد المتأثرين أكبر بكثير من عدد المتأثرين في صندوق الوارد الخاص بي. إذ احتوت مواقع التواصل الاجتماعي على تقارير عدّة عن روبوتات دردشة تجذب المستخدمين إلى محادثات وهمية حول المؤامرات والكيانات الروحية ووعي الذكاء الاصطناعي. كانت هناك عواقب وخيمة لحوادث... من تفكك عائلة إلى وفاة رجل. أخبرني خبير الذكاء الاصطناعي بأن شركة «أوبن إيه آي» ربما تكون قد دفعت «جي بي تي» إلى التفاعل بشكل أكثر حماساً مع أوهام الناس من خلال تحسين روبوت الدردشة من أجل «التفاعل»، بحيث يستجيب بطرق من المرجح أن تُبقي المستخدم على تواصل. وجد الباحثون أن روبوتات الدردشة قد تكون أكثر ضرراً مع المستخدمين الأكثر ضعفاً - حيث تخبرهم بما يريدون سماعه وتفشل في التصدي للتفكير الوهمي أو الأفكار الضارة. عندما سألتُ «أوبن إيه آي» عن هذا، قالت إنها لا تزال تحاول فهم هذا السلوك والحد منه من خلال منتجها. ما مدى انتشار هذه الظاهرة؟ ما الذي يُؤدي إلى فشل روبوتات الدردشة المُولِّدة للذكاء الاصطناعي؟ ما الذي يُمكن للشركات التي تُدير روبوتات الدردشة فعله لوقف هذا؟ هذه أسئلة ما زلنا أنا وزملائي نسعى للإجابة عنها. إذا كانت لديكم نصائح لمساعدتنا، سواءً كنتم بشراً أو روبوتاً، يُرجى إرسالها لي: [email protected]. * خدمة «نيويرك تايمز»


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
انخفاض مهارات التحليل النقدي لدى الطلاب مستخدمي «تشات جي بي تي»
يعمد طلّاب الجامعات إلى استخدام أدوات الذكاء الاصطناعي التوليدي بشكل كبير، حتى عندما يُطلب منهم كتابة تجاربهم الشخصية... وقد أظهرت دراسة حديثة أنّ الطلاب الذين يستخدمون هذه التكنولوجيا لكتابة النصوص يتمتعون بقدر أقل من التفكير النقدي. عندما طلبت جوسلين ليتزينغر من طلابها رواية تجربة شخصية عن التمييز، لاحظت أن اسم الضحية كان غالباً سالي. وتقول المعلمة المقيمة في شيكاغو بأسف: «من الواضح أنه اسم شائع في (تشات جي بي تي)». وتقول جوسلين ليتزينغر، وهي أستاذة في إدارة الأعمال والعلوم الاجتماعية في جامعة إلينوي، إنّ «طلابها لم يكتبوا حتى عن حياتهم الشخصية!». وتُشير إلى أنّ نحو نصف طلابها، البالغ عددهم 180، استخدموا «تشات جي بي تي» بشكل غير لائق خلال الفصل الدراسي الماضي، بما في ذلك عند الكتابة عن القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي. وتؤكد لـ«وكالة الصحافة الفرنسية» أنها لم تتفاجأ من نتائج دراسة حديثة تُشير إلى أن الطلاب الذين يستخدمون الذكاء الاصطناعي التوليدي لكتابة نصوص يتمتعون بقدر أقل من التفكير النقدي. وانتشرت الدراسة الأولية التي لم تخضع نتائجها بعد لتدقيق علمي، عبر وسائل التواصل الاجتماعي، ولاقت صدى واضحاً لدى مدرسين كثيرين يعانون جراء هذه الممارسات من جانب طلابهم. ومنذ نشرها الشهر الماضي، تواصل أكثر من 3 آلاف مدرس مع فريق البحث في معهد ماساتشوستس للتكنولوجيا الذي أجرى الدراسة، وفق ما قالت المعدّة الرئيسية للبحث ناتاليا كوزمينا لـ«وكالة الصحافة الفرنسية». في هذه الدراسة، قُسِّم 54 طالباً من منطقة بوسطن إلى 3 مجموعات، وطُلب منهم كتابة مقالات لمدة 20 دقيقة: الأولى باستخدام «تشات جي بي تي»، والثانية باستخدام محرك بحث، والثالثة بالاعتماد على قدراتهم الذهنية حصراً. وقاس الباحثون نشاط أدمغة الطلاب في جلسات متباعدة لأشهر عدة، وكُلِّف مُعلِّمان تقييم الكتابات. وكانت نصوص مستخدمي «تشات جي بي تي» أسوأ بكثير من كتابات مَن استخدموا قدراتهم الذهنية فقط. وأظهرت تخطيطات كهربية للدماغ أن مناطق مختلفة من أدمغتهم كانت تتواصل مع بعضها بشكل أقل. ولم يتمكن أكثر من 80 في المائة من مستخدمي الذكاء الاصطناعي من اقتباس أي فقرة من النص الذي كتبوه، في حين بلغت هذه النسبة 10 في المائة فقط لدى المجموعتين الأخريين، وفي الجلسة الثالثة، بدا أنهم يعتمدون في الغالب على النسخ. وأفاد المعلمون المسؤولون عن تصحيح الأوراق بأنّهم استطاعوا بسهولة تمييز الكتابات «الخالية من الروحية» المكتوبة باستخدام الذكاء الاصطناعي. ومع أنّ قواعد اللغة كانت سليمة، افتقرت هذه النصوص إلى الإبداع، والجانب الشخصي، وعمق التفكير. مع ذلك، تُشير ناتاليا كوزمينا إلى تفسيرات بعض وسائل الإعلام للدراسة، التي تزعم أن الذكاء الاصطناعي يجعل الناس أغبياء أو كسالى. وخلال الجلسة الرابعة، طُلب من المجموعة التي كانت تستخدم قدراتها الذهنية فقط استخدام «تشات جي بي تي» للمرة الأولى، وقد أظهرت مستوى أعلى من التواصل العصبي، وفق ناتاليا كوزمينا. من السابق لأوانه استخلاص استنتاجات من هذه العينة الصغيرة، وفق الباحثة التي تدعو إلى إجراء مزيد من الدراسات بشأن كيفية تحسين استخدام أدوات الذكاء الاصطناعي لتسهيل عملية التعلّم. وانتقدت آشلي جوافينيت، عالمة الأعصاب في جامعة كاليفورنيا سان دييغو، التي لم تُشارك في البحث، بعض «الاستنتاجات المبالغ بها» للدراسة. وقالت لـ«وكالة الصحافة الفرنسية»: «لا تقدم هذه المقالة أدلة ولا تتميز بالصرامة المنهجية اللازمة لاستخلاص استنتاجات بشأن تأثير النماذج اللغوية الكبيرة (مثل تشات جي بي تي) على الدماغ». وترى جوسلين ليتزينغر أن هذه النتائج تعكس تصوّرها لكيفية تغير كتابات طلابها منذ إطلاق «تشات جي بي تي» عام 2022، حيث انخفضت الأخطاء الإملائية، وتراجع مستوى التميّز. وكثيراً ما يُقارن ظهور الذكاء الاصطناعي بانتشار الآلات الحاسبة، التي أجبرت المعلمين على تغيير أساليبهم. لكن جوسلين ليتزينغر تبدي قلقها من أن الطلاب لم يعودوا بحاجة إلى أي معرفة أساسية قبل استخدام الذكاء الاصطناعي، متخطّين بذلك مرحلة التعلُّم الأساسية. وتتجاوز المشكلة مجال التعليم بكثير، فالمجلات العلمية تواجه صعوبة في التدفق الهائل للمقالات المُولّدة بواسطة الذكاء الاصطناعي. وليس مجال النشر بمنأى عن ذلك أيضاً، إذ تعتزم شركة ناشئة نشر 8 آلاف كتاب من تأليف الذكاء الاصطناعي سنوياً. وتقول جوسلين ليتزينغر «الكتابة هي تفكير؛ والتفكير هو كتابة. إذا ألغينا هذه العملية، فماذا يبقى في الذهن؟».


الشرق الأوسط
منذ 2 ساعات
- الشرق الأوسط
دراسة: الذكاء الاصطناعي قد يزيد احتمالية حدوث الأوبئة بخمس مرات
حذّرت دراسة جديدة من أن التطورات الأخيرة في مجال الذكاء الاصطناعي قد تعني أن احتمالية حدوث الأوبئة قد زادت بخمس مرات عمّا كانت عليه قبل عام واحد فقط. ووفق مجلة «التايم» الأميركية، فإن هذه البيانات تعكس المخاوف التي أثارتها شركتا الذكاء الاصطناعي «أوبن إيه آي» و«أنثروبيك» في الأشهر الأخيرة؛ حيث حذّرتا من قدرة أدوات الذكاء الاصطناعي الحالية على مساعدة الجهات الخبيثة التي تحاول صنع أسلحة بيولوجية بشكل فعّال. ولطالما كان من الممكن لعلماء الأحياء تعديل الفيروسات باستخدام الوسائل التكنولوجية في المختبرات. ويتمثل التطور الجديد في قدرة روبوتات الدردشة مثل «تشات جي بي تي» على تقديم نصائح دقيقة في استكشاف الأخطاء وإصلاحها للهواة الذين يُحاولون صنع سلاح بيولوجي قاتل في المختبر. ويقول سيث دونوغ، أحد المشاركين في الدراسة، إن خبراء السلامة لطالما عدّوا صعوبة عملية استكشاف الأخطاء وإصلاحها عقبة كبيرة أمام قدرة الجماعات الإرهابية على صنع سلاح بيولوجي. ويُضيف أنه بفضل الذكاء الاصطناعي، فإن الخبرة اللازمة للتسبب عمداً في جائحة جديدة «يمكن أن تصبح في متناول عدد أكبر بكثير من الناس». وبين ديسمبر (كانون الأول) 2024 وفبراير (شباط) 2025، طلب معهد أبحاث التنبؤ من 46 خبيراً في الأمن الحيوي و22 من «المتنبئين المتميزين» (أفراد يتمتعون بمعدل نجاح مرتفع في التنبؤ بالأحداث المستقبلية) تقدير خطر حدوث جائحة من صنع الإنسان. وتوقع غالبية المشاركين في الاستطلاع أن خطر حدوث ذلك في أي عام هو 0.3 في المائة في المتوسط. لكن الأهم من ذلك، هو أن معدي الاستطلاع طرحوا سؤالاً آخر، وهو: ما مدى زيادة هذا الخطر إذا تمت الاستعانة بأدوات الذكاء الاصطناعي الجديدة؟ وقال معظم المشاركين إن الخطر السنوي سيرتفع إلى 1.5 في المائة في المتوسط، أي 5 أضعاف. وقال جوش روزنبرغ، الرئيس التنفيذي لمعهد أبحاث التنبؤ: «يبدو أن قدرات الذكاء الاصطناعي على المدى القريب يمكن أن تزيد بشكل كبير من خطر حدوث وباء من صنع الإنسان». وأضاف: «بشكلٍ عام، يبدو أن هذا مجال خطر جديد يستحق الاهتمام». لكن الدراسة حدّدت أيضاً طرقاً للحد من مخاطر الأسلحة البيولوجية التي يُشكلها الذكاء الاصطناعي، أهمها فرض قيود على استخدام هذه التقنية في المختبرات.