أعلنت Tether، مُصدرة العملة المستقرة USDT، عن إطلاق ما وصفته بأنه أول إطار عمل للضبط الدقيق لـ LoRA عبر المنصات مصمم لنماذج Microsoft BitNet، والتي تعتمد على بنية نموذج لغوي كبير بـ 1 بت. تم دمج هذه القدرة في نظام QVAC Fabric الخاص بها، ويُفاد أنها تقلل بشكل كبير من استخدام الذاكرة والمتطلبات الحسابية. وفقًا للشركة، يتيح هذا التطور ضبط نماذج اللغة واسعة النطاق، بما في ذلك تلك التي تحتوي على مليارات المعلمات، باستخدام أجهزة المستهلكين المتاحة على نطاق واسع مثل أجهزة الكمبيوتر المحمولة ووحدات معالجة الرسومات القياسية والهواتف الذكية الحديثة.
تطلب تطوير وصيانة أنظمة الذكاء الاصطناعي تقليديًا أجهزة على مستوى المؤسسات، خاصة البنية التحتية المتخصصة من NVIDIA أو البيئات السحابية. ساهمت هذه المتطلبات في ارتفاع التكاليف التشغيلية، مما حد من الوصول إلى تطوير الذكاء الاصطناعي المتقدم بشكل أساسي للمؤسسات الكبيرة ذات الموارد المالية الكبيرة والوصول إلى أنظمة الحوسبة المتخصصة.
ذكرت Tether أن نموذج اللغة الكبير QVAC Fabric، المعزز بإطار العمل المعتمد على BitNet الذي تم طرحه حديثًا، يعالج هذه القيود من خلال دعم الضبط الدقيق لـ LoRA عبر المنصات وتسريع الاستنتاج عبر مجموعة من وحدات معالجة الرسومات الاستهلاكية غير المتجانسة. وتشمل هذه الأجهزة من Intel وAMD وApple Silicon، من بين أمور أخرى. ونتيجة لذلك، يمكن للمستخدمين تدريب وتخصيص نماذج الذكاء الاصطناعي مباشرة على أجهزة المستهلكين المتاحة بشكل شائع بدلاً من الاعتماد على البنية التحتية المركزية.
أفادت الشركة أن فريقها الهندسي نجح في إظهار الضبط الدقيق لـ BitNet على وحدات معالجة الرسومات المحمولة لأول مرة، بما في ذلك منصات مثل Adreno وMali ووحدات معالجة الرسومات Apple Bionic. أشار الاختبار الداخلي إلى أن نموذج BitNet بـ 125 مليون معلمة يمكن ضبطه بدقة في حوالي عشر دقائق على جهاز Samsung S25 مزود بوحدة معالجة رسومات Adreno باستخدام مجموعة بيانات طبية حيوية تتكون من حوالي 300 وثيقة، أو حوالي 18,000 رمز. بالنسبة لنموذج بمليار معلمة، تطلبت نفس مجموعة البيانات ما يقرب من ساعة وثماني عشرة دقيقة على Samsung S25 وساعة وخمس وأربعين دقيقة على iPhone 16. كما أفادت الشركة أنها تمكنت من توسيع الاختبار إلى نماذج كبيرة تصل إلى 13 مليار معلمة على iPhone 16 في ظل ظروف السعة القصوى للجهاز.
تشير النتائج الإضافية إلى أن إطار العمل يمكنه دعم الضبط الدقيق للنماذج التي يصل حجمها إلى ضعف حجم نماذج non-BitNet المماثلة التي تعمل تحت تكميم Q4 على الأجهزة الطرفية. ويُعزى هذا الناتج إلى البصمة المخفضة للذاكرة المرتبطة ببنية BitNet.
بالإضافة إلى التحسينات في التدريب، يُظهر إطار العمل أيضًا أداء استنتاج محسّنًا. أشارت الاختبارات التي أُجريت على الأجهزة المحمولة إلى أن نماذج BitNet تعمل بشكل أسرع بكثير عند تنفيذها على وحدات معالجة الرسومات، مع سرعات معالجة تتراوح من ضعفين إلى أحد عشر ضعفًا أعلى من التنفيذ المعتمد على وحدة المعالجة المركزية. تشير هذه النتائج إلى أن وحدات معالجة الرسومات المحمولة أصبحت قادرة بشكل متزايد على التعامل مع أحمال العمل التي كانت تتطلب سابقًا أجهزة متخصصة أو موارد على مستوى مركز البيانات.
يُظهر النظام أيضًا مكاسب ملحوظة في كفاءة الذاكرة. تشير بيانات المعايير إلى أن نموذج BitNet-1B باستخدام تكوين TQ1_0 يتطلب ما يصل إلى 77.8 بالمائة أقل من VRAM مقارنة بنموذج Gemma-3-1B بـ 16 بت و65.6 بالمائة أقل من نموذج Qwen3-0.6B بـ 16 بت أثناء عمليات الاستنتاج والضبط الدقيق لـ LoRA. توفر هذه التخفيضات قدرة إضافية لتشغيل نماذج أكبر وتمكين ميزات التخصيص على الأجهزة التي كان من الممكن اعتبارها غير كافية في السابق.
أشارت Tether كذلك إلى أن إطار العمل يقدم قدرات الضبط الدقيق لـ LoRA لنماذج اللغة الكبيرة بـ 1 بت على أجهزة non-NVIDIA لأول مرة، مما يوسع التوافق مع منصات AMD وIntel وApple Silicon ووحدات معالجة الرسومات المحمولة. من خلال تقليل الاعتماد على البنية التحتية المتخصصة والخدمات السحابية، يسمح هذا النهج بالاحتفاظ بالبيانات الحساسة مخزنة محليًا على أجهزة المستخدمين. لاحظت الشركة أن هذه الكفاءة قد تدعم أيضًا تطوير أنظمة التعلم الفدرالي، حيث يمكن تدريب النماذج بشكل تعاوني عبر الأجهزة الموزعة مع الحفاظ على خصوصية البيانات وتقليل الاعتماد على الأنظمة المركزية.
ظهر المنشور Tether تطلق إطار عمل BitNet LoRA عبر المنصات لتمكين تدريب واستنتاج الذكاء الاصطناعي بمليارات المعلمات على أجهزة المستهلكين لأول مرة على Metaverse Post.

