
مؤسس تويتر يُطلق تطبيق 'Bitchat' للتراسل عبر بلوتوث دون إنترنت
ويعتمد التطبيق على تقنية بلوتوث المنخفض الطاقة Bluetooth Low Energy ضمن شبكات مِشبكية (Mesh Networks) لإرسال رسائل مشفرة مباشرة بين الأجهزة القريبة، مما يوفر وسيلة اتصال آمنة، ومقاومة لتعطل البنى التحتية المركزية.
وقال دورسي في منشور له عبر حسابه في منصة GitHub: 'إن Bitchat يلبّي الحاجة إلى وسيلة تواصل خاصة ومرنة لا تعتمد على البنية التحتية المركزية. ومن خلال استخدام الشبكات المِشبكية المنخفضة الطاقة عبر البلوتوث، يتيح التطبيق التواصل المباشر بين الأشخاص ضمن النطاق الجغرافي القريب، مع إمكانية تمديد نطاق الإرسال من خلال ميزة إعادة توجيه الرسائل تلقائيًا'.
ويُظهر التطبيق في صوره الأولية، التي نشرها دورسي، أنه لا يعتمد على إنشاء حسابات أو خوادم مركزية أو جمع بيانات المستخدمين، بل يقدّم مزايا خصوصية متقدمة مثل القنوات المحمية بكلمة مرور، ووضع خاص يُسمى 'Panic Mode'، يمكّن المستخدم من حذف كافة البيانات فورًا بمجرد النقر ثلاث مرات على الشعار.
ويُقارن 'Bitchat' بتطبيقات مراسلة مماثلة عبر البلوتوث مثل Bridgefy، وهي تطبيقات تُستخدم عادةً لتجنب الرقابة والتتبع. ويوفر تطبيق Bridgefy مدى يصل إلى 100 متر، في حين يقدّم Bitchat نطاقًا يتجاوز 300 متر، مع خطط مستقبلية لتوسيع النطاق وتحسين السرعة عبر دعم Wi-Fi Direct.
ويتوفّر التطبيق حاليًا لمجموعة محدودة من المختبرين عبر منصة TestFlight في متجر آب ستور التابع لآبل، لكن السعة وصلت إلى الحد الأقصى البالغ 10,000 مستخدم. وأكد دورسي أن التطبيق ما زال قيد المراجعة استعدادًا لإطلاقه الرسمي لاحقًا.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البوابة العربية للأخبار التقنية
منذ 3 ساعات
- البوابة العربية للأخبار التقنية
ChatGPT يختبر ميزة غامضة للمساعدة في الدراسة
بدأ عدد من مشتركي ChatGPT ملاحظة ظهور أداة جديدة ضمن قائمة الأدوات المتاحة تحمل اسم 'المذاكرة معًا Study Together'، في خطوة تُشير إلى توجه OpenAI نحو تعزيز استخدام المنصة في مجال التعليم بطريقة أكثر تفاعلية. وبحسب التجارب الأولية، فإن هذه الميزة لا تقدم إجابات مباشرة كالمعتاد، بل تعتمد على توجيه الأسئلة للمستخدم ودفعه إلى الإجابة، على غرار أسلوب التعلم النشط، مما يجعلها أقرب إلى دور المعلم أو الشريك الدراسي، لا مجرد أداة للإجابات السريعة. ورجح بعض المستخدمين أن الميزة قد تدعم لاحقًا انضمام أكثر من مستخدم في جلسة جماعية للدراسة، لكنها ما زالت في مراحلها التجريبية. ولم تعلن OpenAI رسميًا توفر ميزة 'الدراسة معًا Study Together' أو إذا كانت ستُتاح لكافة المستخدمين أو فقط لمشتركي الخطط المأجورة. وتأتي هذه الخطوة في وقت أصبح فيه ChatGPT أداة شائعة في الأوساط التعليمية، إذ يستخدمه المعلمون لإعداد الدروس، في حين يعتمد عليه الطلاب كوسيلة للمذاكرة أو أحيانًا لكتابة المهام نيابةً عنهم، مما أثار جدلًا حول تأثيره في التعليم الأكاديمي. وقد تعد تلك الميزة ردًا من OpenAI على مبادرة جوجل التعليمية 'LearnLM' التي تهدف أيضًا إلى جعل الذكاء الاصطناعي أكثر فاعلية في عملية التعلم والدراسة. ويعكس هذا الاتجاه المتزايد تنافسًا جديدًا بين كبرى شركات الذكاء الاصطناعي على مستقبل التعليم الذكي. ويُحتمل أن تكون هذه الميزة الجديدة محاولة لتوجيه استخدام الذكاء الاصطناعي نحو الممارسات التعليمية الإيجابية، وتقليل فرص استخدامه في الغش أو التحايل.


البوابة العربية للأخبار التقنية
منذ 4 ساعات
- البوابة العربية للأخبار التقنية
صراع العقول.. ميتا تخطف العقل المدبّر لنماذج آبل الذكية بعرض خيالي
أفاد تقرير نشرته وكالة بلومبرغ بأن رومينغ بانغ، كبير المهندسين ومدير فريق نماذج الذكاء الاصطناعي الأساسية (Foundation Models) في شركة آبل، قرر مغادرة الشركة والانضمام إلى وحدة 'الذكاء الخارق' الجديدة في ميتا، في خطوة تُعد من أبرز التحولات القيادية في قسم الذكاء الاصطناعي في آبل منذ إطلاق مبادرة 'Apple Intelligence'. وكان بانغ يشرف على تطوير نماذج اللغة الكبيرة التي تُستخدم لتشغيل مزايا مثل توليد الوجوه التعبيرية Genmoji وتلخيص الرسائل الإلكترونية والإشعارات ذات الأولوية في أجهزة آبل. وقد انضم إلى آبل قادمًا من جوجل في عام 2021، وقاد فريقًا يضم نحو 100 مهندس، وكان من المقرر أن تبدأ آبل في يونيو إتاحة هذه النماذج للمطورين الخارجيين لأول مرة. وبحسب مصادر بلومبرغ، فقد قدمت ميتا عرضًا مغريًا لبانغ تضمن حزمة مكافآت سنوية بملايين الدولارات من أجل استقطابه إلى وحدة 'الذكاء الفائق' التي تركز على بناء أنظمة ذكاء اصطناعي متقدمة. ويسلط رحيل بانغ الضوء على الضغوط المتزايدة داخل فريق نماذج الذكاء الاصطناعي في آبل، إذ تدرس الإدارة العليا حاليًا الاعتماد جزئيًا على نماذج خارجية من شركات مثل OpenAI أو أنثروبيك من أجل تطوير نسخة محسّنة من المساعد الصوتي سيري، وهو توجّه أثار حالة من الإحباط في أوساط الفريق الداخلي. وكشف التقرير أن عددًا من مهندسي الفريق يفكرون بالفعل في مغادرة الشركة باتجاه ميتا. وتأتي خطوة ميتا ضمن حملة توظيف واسعة في مجال الذكاء الاصطناعي، إذ ضمّت الشركة حديثًا عددًا من الأسماء البارزة، منهم ألكسندر وانغ، مؤسس شركة Scale AI بعد الاستحواذ عليها، ودانيال غروس ونات فريدمان ويوانتشي لي من OpenAI، بالإضافة إلى أنتون باختين من أنثروبيك. وتشير تقارير بلومبرغ إلى أن ميتا بدأت استقطاب باحثين من OpenAI منذ الشهر الماضي، في إطار إستراتيجية وضعها مارك زوكربيرج، الرئيس التنفيذي لميتا، لجعل شركته تحتل موقعًا رياديًا في سوق أنظمة الذكاء الاصطناعي بعد إخفاق أحدث نماذجها في تلبية توقعات الجمهور. وتُظهر هذه التطورات حجم التنافس المتصاعد بين شركات التكنولوجيا الكبرى في استقطاب الكفاءات في مجال الذكاء الاصطناعي، في وقت يتسارع فيه سباق بناء النماذج المتقدمة وتطبيقاتها التجارية.


البوابة العربية للأخبار التقنية
منذ 5 ساعات
- البوابة العربية للأخبار التقنية
OpenAI تستنفر دفاعاتها السيبرانية خوفًا من تجسس الشركات الصينية
كثّفت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، تدابيرها الأمنية خلال الأشهر الماضية لحماية ملكيتها الفكرية، في أعقاب مزاعم تعرضها لمحاولات تجسس من شركات منافسة صينية، وعلى رأسها شركة DeepSeek، وفقًا لتقرير جديد نشرته صحيفة فايننشال تايمز. وبحسب مصادر مطّلعة، فقد فرضت الشركة قيودًا صارمة على تداول المعلومات الحساسة، إلى جانب تعزيز إجراءات فحص الموظفين، في إطار تحركات متسارعة لمواجهة محاولات تقليد تقنياتها أو سرقتها. وأشارت المصادر إلى أن OpenAI كثفت جهودها الأمنية منذ العام الماضي، لكن الإجراءات أصبحت أكثر صرامة عقب إطلاق DeepSeek، وهو نموذج ذكاء اصطناعي منافس في يناير الماضي، ويُشتبه بأنه استند إلى تقنيات مستنسخة من OpenAI باستخدام أسلوب يُعرف باسم 'التقطير Distillation'. ولم تُعلّق شركة DeepSeek على هذه المزاعم حتى الآن. وأكد أحد أعضاء فريق الأمن في OpenAI أن الحادثة دفعت الشركة إلى التحول إلى نهج أكثر صرامة وحذرًا، مضيفًا أن الشركة تعمل على توسيع فرق الأمن السيبراني وتطبيق سياسات أكثر تشددًا لحماية البيانات الحساسة. ومنذ صيف العام الماضي، بدأت OpenAI تنفيذ ما يُعرف بسياسة 'تظليل المعلومات information tenting' داخل مكاتبها، وهي سياسة تهدف إلى حصر الاطلاع على المشاريع التقنية الحساسة بعدد محدود من الموظفين. وفي إطار جهودها لحماية الأصول التقنية، بدأت OpenAI بتخزين العديد من تقنياتها في بيئات معزولة وغير متصلة بالإنترنت، واستخدمت أنظمة دخول تعتمد على البصمة البيومترية لتحديد من يمكنه دخول غرف معينة داخل مقر الشركة. ولحماية أوزان النماذج (Model weights)، وهي المعاملات التي تتحكم في طريقة استجابة النموذج للمدخلات، فقد تبنّت الشركة سياسة 'منع الاتصال الخارجي بنحو افتراضي'، مما يعني أن أي اتصال بالشبكة يُمنع تلقائيًا ما لم يُوافق عليه صراحة. ووفقًا لمصادر الصحيفة، فقد شددت OpenAI أيضًا إجراءات الأمن المادي في مراكز البيانات التابعة لها، كما كثّفت فحص خلفيات الموظفين والمترشحين الجدد، في خطوة تتماشى مع توجه أوسع في الشركات التقنية الأمريكية لمواجهة تصاعد التهديدات من عمليات تجسس صينية. وعيّنت OpenAI في أكتوبر الماضي 'دين ستاكي' رئيسًا لأمن المعلومات، وهو القادم من شركة Palantir المعروفة بعملها مع المؤسسات العسكرية والحكومية. ويعمل ستاكي مع مات نايت، نائب رئيس OpenAI لمنتجات الأمن، الذي يُشرف على تطوير حلول دفاعية جديدة باستخدام نماذج الذكاء الاصطناعي الخاصة بالشركة لتعزيز صدّ الهجمات السيبرانية. وانضم الجنرال الأميركي المتقاعد بول ناكاسوني، الرئيس السابق للقيادة السيبرانية في الجيش الأميركي، إلى مجلس إدارة OpenAI العام الماضي للإشراف على خطط الحماية من التهديدات الإلكترونية. وقالت الشركة إنها تستثمر بنحو مكثف في برامج الخصوصية والأمن السيبراني، بهدف وضع معايير جديدة في هذا المجال داخل قطاع الذكاء الاصطناعي. وأضافت أن التغييرات الأمنية التي أُجريت في الأشهر الأخيرة لم تكن نتيجة لحادث محدد، بل ضمن إستراتيجية وقائية متقدمة. وتأتي هذه التطورات في وقتٍ فرضت فيه الولايات المتحدة قيودًا متزايدة على تصدير التكنولوجيا إلى الصين، ضمن منافسة تُوصف بأنها سباق تسلح رقمي، في حين تُطرح تساؤلات داخلية حول إذا كانت هذه السياسة تؤثر سلبًا في بيئة العمل والتنوع داخل الشركات التقنية الأمريكية.