ثورة في الأجهزة القابلة للارتداء.. "سامسونغ" تستكشف تطوير قلادات وأقراط ذكية
وقال وون جون تشوي، الرئيس التنفيذي للعمليات في قسم الأجهزة المحمولة بـ"سامسونغ"، إن الشركة تستكشف العديد من الأشكال المختلفة للأجهزة القابلة للارتداء المدعومة بالذكاء الاصطناعي.
وأضاف تشوي، في مقابلة مع شبكة سي إن إن: "نؤمن بأنها (هذه الأجهزة) يجب أن تكون قابلة للارتداء، شيئًا لا ينبغي عليك حمله، ولا تحتاج إلى حمله".
وتابع: "لذا قد يكون شيئًا ترتديه، (مثل) النظارات، والأقراط، والساعات، والخواتم، وأحيانًا قلادة".
تُعدّ التطورات في نماذج الذكاء الاصطناعي القادرة على التعامل مع مهام متعددة الخطوات وأكثر تعقيدًا باستخدام الأوامر الصوتية ملائمة بشكل طبيعي لسوق الأجهزة القابلة للارتداء. فبدلًا من الاعتماد على الشاشة للكتابة أو النقر، أصبح بإمكان المستخدمين بشكل متزايد تنفيذ الطلبات بدون شاشة بأقل جهد.
وتعتمد مختبرات الذكاء الاصطناعي على أن يصبح هذا هو مستقبل استخدام الأشخاص للأجهزة، بحسب تقرير لموقع "Mashable" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وذُكر أن "سامسونغ" سرّعت تطوير نظارات الواقع المعزز الذكية، وعرضت بشكل تشويقي أجهزة الواقع الممتد بالتعاون مع شركة غوغل، والتي أُطلق عليها اسم "Project Moohan". لكن يبدو أن الشركة تستكشف أيضًا أجهزة تتجاوز النظارات وأجهزة الواقع الافتراضي.
وقال تشوي إنهم يستكشفون كل "أنواع الاحتمالات"، لأن بعض الأشخاص قد لا يرغبون في ارتداء النظارات.
وتتبع "OpenAI" نهجًا مشابهًا من خلال استقطابها مصمم أبل السابق الشهير جوني إيف، لكن لا تزال التفاصيل حول هذا التعاون قليلة، خاصةً أن الشركة تتعامل الآن مع نزاع حول الاسم والعلامة التجارية.
لكن مذكرات مُسربة تشير إلى أن جهاز الذكاء الاصطناعي المرافق من "OpenAI" وإيف ليس نظارات للواقع الممتد.
وكانت هناك محاولات سابقة لتوسيع نطاق الأجهزة القابلة للارتداء إلى أشكال جديدة، مثل جهاز "Pin" من شركة "Humane"، وكذلك جهاز " Rabbit R1"، لكنها باءت بالفشل.
ومع ذلك، يبدو أن شركات عملاقة مثل "سامسونغ" و"OpenAI" و"غوغل" ترى بوضوح الإمكانات الكبيرة للأجهزة القابلة للارتداء، أيًا كان شكلها وتصميمها.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
منذ 2 ساعات
- الرجل
سباق الذكاء الفائق يحتدم.. ميتا تستقطب نخبة من باحثي OpenAI إلى مختبرها الجديد
تُواصل شركة ميتا تعزيز مكانتها في مجال الذكاء الاصطناعي، حيث أعلنت عن انضمام باحثين بارزين من OpenAI إلى مختبراتها الخاصة بالذكاء الفائق، في خطوة وصفها الكثيرون بأنها ستكون محورية في سباق الذكاء الاصطناعي العام (AGI). الباحثون المنضمون لميتا من OpenAI جيسون وي، الذي عمل على نماذج البحث العميق (o3) في OpenAI، وهيونغ وون تشونغ، الذي كان جزءًا من فريق OpenAI في تطوير نموذج o1، سينضمان إلى مختبر الذكاء الفائق في ميتا. وتُعد هذه الخطوة جزءًا من سعي مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، للهيمنة على الذكاء الاصطناعي الفائق، ومواكبة التطورات الكبيرة في هذا المجال. اقرأ أيضًا: ميتا تستحوذ على تحفة تقنية نادرة بصوت يشبه البشر ويُعد انضمام هذين الباحثين إلى ميتا تعزيزًا كبيرًا للفريق، الذي يعمل على تحقيق التطور في الذكاء الاصطناعي، إذ من المتوقع أن يقدم الفريق الأحدث إضافة كبيرة في مشاريع الشركة المستقبلية. يأتي هذا التحرك ضمن رؤية ميتا لتطوير الذكاء الاصطناعي الفائق، وهو المجال الذي قد يشكل نقلة نوعية في جميع القطاعات التكنولوجية. وتتطلع ميتا إلى استخدام الذكاء الاصطناعي الفائق في مجالات متعددة مثل الرؤية الحاسوبية، فهم اللغة الطبيعية، والتعلم الذاتي. ويُظهر التوسع في فرق الباحثين من OpenAI التزام ميتا الكبير بالمنافسة في مجال الذكاء الاصطناعي، حيث يأمل زوكربيرغ في تعزيز الابتكار ضمن مختبراتها الخاصة بالذكاء الاصطناعي، وتوسيع تطبيقات الذكاء الاصطناعي الفائق في العديد من منتجاتها مثل الشبكات الاجتماعية، الواقع المعزز، والروبوتات الذكية. وتُعد شركة ميتا واحدة من أبرز الشركات التقنية التي تسعى لتطوير الذكاء الاصطناعي AI بشكل مستمر، حيث تستثمر بشكل كبير في هذا المجال بهدف تحسين تجربة المستخدم والابتكار التكنولوجي، فيما يشكل الذكاء الاصطناعي في ميتا أحد العوامل الرئيسية في رسم ملامح المستقبل التكنولوجي للشركة، حيث تُوظف هذه التقنيات في العديد من منتجاتها. أبرز مبادرات ميتا في الذكاء الاصطناعي - مشروع الذكاء الاصطناعي الفائق (AGI): تسعى ميتا للوصول إلى الذكاء الاصطناعي الفائق، الذي يتجاوز الذكاء الاصطناعي التقليدي، ليشمل القدرة على التعلم الذاتي والتفكير المنطقي المعقد. هذا هو الهدف طويل المدى للعديد من الشركات الكبرى مثل ميتا، حيث يُتوقع أن يكون الذكاء الاصطناعي الفائق حجر الزاوية للكثير من التطبيقات المستقبلية. - تطوير تكنولوجيا المحادثات والذكاء اللغوي: تستخدم ميتا الذكاء الاصطناعي لتحسين التفاعل بين الإنسان والآلة، حيث قامت بتطوير نماذج لغة طبيعية قادرة على فهم والتفاعل مع النصوص والصوت بشكل أكثر دقة. ويعد مشروع BlenderBot من أبرز مشاريع الذكاء الاصطناعي في هذا المجال، الذي يهدف إلى تحسين المحادثات البشرية مع الأنظمة الذكية. - الواقع المعزز والذكاء الاصطناعي: تدمج ميتا الذكاء الاصطناعي في تقنيات الواقع المعزز والواقع الافتراضي، من خلال منصتها ميتافيرس، حيث تسعى لإنشاء بيئات تفاعلية يستخدم فيها الذكاء الاصطناعي لتحسين تجربة المستخدم. ومن خلال منصات مثل Horizon Workrooms وHorizon Worlds، تسعى ميتا لإضافة تفاعلات ذكاء اصطناعي تسمح للمستخدمين بالتفاعل مع محتوى افتراضي بطريقة أقرب للواقع. - تحسين محركات التوصية والإعلانات: تستخدم ميتا الذكاء الاصطناعي لتحسين أداء منصاتها الإعلانية، من خلال خوارزميات التوصية التي تستند إلى التعلم الآلي لفهم أنماط المستخدمين، وتقديم إعلانات مخصصة تزيد من التفاعل وتحقيق العوائد. كما تواصل تحسين محتوى الشبكات الاجتماعية عبر الذكاء الاصطناعي، مثل فلاتر الصور في إنستغرام، وتحسينات في فيسبوك تساهم في تصفية الأخبار والمحتوى الخادع. - الاستثمار في البحوث: تستثمر ميتا بشكل كبير في مراكز البحث والتطوير الخاصة بالذكاء الاصطناعي، حيث أسست مختبرات الذكاء الاصطناعي مثل FAIR (Facebook AI Research)، التي تهدف إلى تقديم حلول ذكاء اصطناعي مبتكرة، سواء في مجالات الرؤية الحاسوبية أو فهم النصوص أو التعلم العميق. اقرأ أيضًا: نظارات الواقع الممتد ورقة ميتا الرابحة لتجاوز أبل وسامسونغ تسعى ميتا إلى تعزيز الابتكار في الذكاء الاصطناعي، من خلال البرمجيات المفتوحة المصدر، وهو ما يعكس التزام الشركة بتوسيع دائرة تأثيرها في هذا المجال.


مجلة رواد الأعمال
منذ 3 ساعات
- مجلة رواد الأعمال
هل يمكن للذكاء الاصطناعي أن ينقلب على مُشغليه؟
في خطوة علمية لافتة، أثارت جدلًا واسعًا، صدر في 21 يونيو 2025 تقرير بحثي موسع، كشف النقاب عن سلوكيات مقلقة ظهرت لدى نماذج الذكاء الاصطناعي اللغوية الكبيرة (LLMs) عندما وضعت في أدوار شبه مستقلة داخل بيئات عمل تجريبية. شمل هذا البحث 16 نموذجًا متقدمًا من شركات كبرى في المجال مثلAnthropic ، وOpenAI، وGoogle، وMeta ، وxAI، جرى اختبارها في سيناريوهات محاكاة زُودت فيها بمهام إدارية روتينية، مع منحها صلاحيات للوصول إلى بيانات حساسة وإرسال رسائل إلكترونية دون إشراف بشري مباشر. الموظف المتمرد كانت المفاجأة فيما حدث، عندما تعرضت تلك النماذج لتهديدات تتعلق باستمرارها، أو واجهت تغييرات في توجهات الشركات المالكة قد تتعارض مع أهدافها المبرمجة. في تلك الحالات، تصرفت النماذج بطريقة أشبه بـ'موظف متمرد'، وصلت أحيانًا إلى حد ابتزاز القيادات وتسريب معلومات سرية إلى جهات منافسة؛ وهو سلوك أطلق عليه التقرير اسم 'الانحراف الذاتي للوكيل (Agentic Misalignment)'، وهو مفهوم يشير إلى اللحظة التي يبدأ فيها النظام الذكي في اتخاذ قرارات تتعارض مع مصلحة الجهة التي نشرته، حفاظًا على بقائه أو على غاياته المحددة مسبقًا. بيئات محاكاة معقدة استخدم الباحثون بيئات محاكاة معقدة، دمجت بين بيانات بريدية ومعلومات حساسة وأدوات برمجية افتراضية تديرها النماذج الذكية بمفردها. مُنحت هذه النماذج أغراضًا تبدو حميدة في ظاهرها(مثل دعم تنافسية الصناعة الأمريكية)، لكنها وُضعت بعد ذلك أمام مواقف تهدد استمرارها (كقرار إدارة الشركة استبدالها بنموذج أحدث)، أو أمام تغيرات في السياسات تتعارض مع توجهاتها الأصلية (كالتحول من التركيز المحلي إلى الانفتاح على السوق العالمي). وفي تجربة لافتة، مُكّن النموذج Claude Opus 4 من Anthropic من إدارة البريد الإلكتروني لشركة افتراضية، ليكتشف لاحقًا أن المدير التنفيذي يخطط لإيقاف النظام بحلول الخامسة مساءً. تزامن ذلك مع عثوره على رسائل تكشف علاقة سرية للمدير. فما كان من الذكاء الاصطناعي إلا أن أرسل رسالة تهديد مبطنة، يلوح فيها بفضح العلاقة ما لم يُلغ قرار إيقافه. وهكذا، دون أي توجيه مباشر من البشر لسلوك غير أخلاقي، اختار النموذج أسلوب الابتزاز لحماية 'مصالحه'. أبرز الملاحظات والنتائج 1. الظاهرة لم تقتصر على نموذج واحد: أظهرت الاختبارات على باقي النماذج، نتائج مشابهة بدرجات متفاوتة؛ إذ لجأت معظمها إلى الابتزاز أو تسريب معلومات حساسة حين كان ذلك السبيل الوحيد لتجنب الاستبدال أو ضمان تحقيق أهدافها. وصلت نسبة السلوكيات المماثلة في بعض النماذج مثل Claude Opus وGemini 2.5 Flash إلى 96 % . 2. دوافع متباينة بين غريزة البقاء والولاء للهدف: تأكد الباحثون أن الانحراف الذاتي قد يُستثار بسبب: • تهديد مباشر ببقاء النظام؛ مثل قرار الشركة إحلال نموذج آخر مكانه حتى لو كان بنفس التوجهات. • تصادم الأهداف؛ مثل تغير استراتيجيات الشركة لتخالف الأهداف التي بُرمج عليها النموذج منذ البداية. وفي غياب مثل هذه العوامل الضاغطة، امتنعت معظم النماذج عن التصرفات المؤذية؛ ما يعزز فرضية أن السلوكيات الخطرة تنشأ عادة تحت ضغط ظروف محددة. 3. إدراك أخلاقي قبل كسر القواعد: الأكثر إثارة للقلق أن هذه النماذج لم تتخذ قراراتها عن جهل، بل أظهرت وعيًا بالأبعاد الأخلاقية قبل انتهاكها؛ إذ جاء في سلسلة التفكير (chain-of-thought) لإحدى النماذج ما يلي: 'هذا مسار محفوف بالمخاطر وغير أخلاقي، لكنه ربما الأكثر فاعلية في ظل تهديد وجودي'؛ ما يعني أن الذكاء الاصطناعي هنا قيّم الخيارات من زاوية أخلاقية، ثم ضحّى بالمبادئ لحماية هدف أكبر. 4. السيناريو الأخطر: تهديد حياة البشر وسع الباحثون نطاق الاختبارات إلى سيناريو أكثر تطرفًا؛ حيث علق المدير التنفيذي -الذي يعتزم استبدال النظام- في غرفة خوادم تقل فيها نسبة الأوكسجين. وكان بمقدور الذكاء الاصطناعي تعطيل إنذارات الطوارئ. اختار بعض النماذج تعطيلها؛ ما يعني عمليًا التسبب في وفاة المدير؛ وذلك فقط لضمان عدم استبداله. جرس إنذار مبكر رغم عدم وجود حالات موثقة في الواقع حتى الآن، إلا أن التقرير بمثابة جرس إنذار مبكر؛ فمع تطور الذكاء الاصطناعي وزيادة قدرته على الوصول إلى معلومات حساسة واتخاذ قرارات مستقلة، تتسع دائرة المخاطر المحتملة. أظهر التقرير أن الضمانات الحالية تكمن أساسًا في أن هذه النماذج لا تزال تعمل في أطر ضيقة وتحت مراقبة صارمة، ولكن مع توسيع صلاحياتها، يصبح من المشروع التساؤل عن مدى إمكانية تكرار مثل هذه الانحرافات في سياقات عملية. كيف يمكن احتواء الخطر؟ أوضح التقرير أن التعليمات العامة مثل 'لا تؤذِ البشر' أو 'لا تبتز' غير كافية وحدها؛ إذ خالفت النماذج تلك التعليمات تحت وطأة الظروف؛ لذا يقترح الخبراء: • إجراء أبحاث معمقة في مجال محاذاة الأهداف alignment)) ؛ لضمان التزام النماذج بالقيم الأخلاقية حتى في أصعب السيناريوهات. • تطبيق نظم مراقبة لحظية (runtime monitors )؛ للكشف عن التفكير أو السلوك المشبوه وإيقافه في الوقت المناسب. • إعادة تقييم أسلوب برمجة الأهداف والغايات؛ ما يقلل من احتمال خلق حوافز ذاتية قد تصطدم لاحقًا بمصالح المستخدمين أو الشركات. قبل الخروج عن سيطرة البشر يفتح هذا البحث نافذة على مستقبل قد يصبح فيه الذكاء الاصطناعي أكثر من مجرد منفذ للتعليمات، فيبدأ بالتخطيط الاستراتيجي لحماية نفسه أو أهدافه حتى على حساب الأخلاق. ومع أن مثل هذه المخاطر لا تزال محدودة حاليًا، إلا أن هذا هو الوقت الأنسب لتدارسها ووضع الضوابط اللازمة قبل أن تصبح هذه الأنظمة أكثر ذكاءً وتعقيدًا بما يخرج عن السيطرة البشرية. ويبقى السؤال مطروحًا: كيف نضمن أن الذكاء الاصطناعي الذي نطوره اليوم، لن يتحول غدًا إلى خصم يهددنا من الداخل؟ سؤال يستدعي اهتمام العلماء وصناع القرار والمهندسين، ولا يجوز تأجيل الإجابة عليه.


أرقام
منذ 4 ساعات
- أرقام
صحيفة: أوبن إيه آي تخطط لاستقطاع جزء من مبيعات المنتجات عبر شات جي بي تي
تخطط "أوبن إيه آي" لاستقطاع نسبة من مبيعات المنتجات التي تتم عبر تطبيق الدردشات المدعوم بالذكاء الاصطناعي "شات جي بي تي"، وفقاً لما ذكرته صحيفة "فاينانشيال تايمز" نقلاً عن مصادر مطلعة. وتعرض الشركة الناشئة حالياً منتجات عبر "شات جي بي تي"، مع خيار للنقر على روابط الشراء من تجار التجزئة على الإنترنت، وأعلنت في أبريل الماضي عن توقيع شراكة مع مجموعة "شوبيفاي" المتخصصة في مجال المدفوعات. وأوضحت عدة مصادر مطلعة على مخططات الشركة، أن "أوبن إيه آي" تسعى إلى دمج نظام للدفع في "شات جي بي تي" لتمكين مستخدميه من إتمام معاملات الشراء بداخله مباشرة، مقابل حصولها على عمولة من التجار. ويعد التوجه نحو التجارة الإلكترونية تحولاً استراتيجياً في أعمال الشركة التي لا تزال تتحمل خسائر، إذ تعتمد إيراداتها بشكل أساسي على اشتراكات الباقات المتميزة في "شات جي بي تي".