Hugging Face هي شركة أمريكية مسجلة بموجب قانون الشركات العامة في ولاية ديلاوير ومقرها مدينة نيويورك، تعمل على تطوير أدوات الحوسبة لبناء التطبيقات باستخدام التعلم الآلي. وهي تشتهر بمكتبة المحولات المصممة لتطبيقات معالجة اللغة الطبيعية ومنصتها التي تسمح للمستخدمين بمشاركة نماذج التعلم الآلي ومجموعات البيانات وعرض أعمالهم.
التاريخ
تأسست الشركة في عام 2016 على يد رواد الأعمال الفرنسيين كليمنت ديلانج وجوليان شوموند وتوماس وولف في مدينة نيويورك، في الأصل كشركة طورت تطبيق دردشة آلي يستهدف المراهقين. سميت الشركة على اسم رمز تعبيري U+1F917 🤗 HUGGING FACE. بعد إتاحة النموذج وراء برنامج الدردشة الآلي مفتوح المصدر، تحولت الشركة للتركيز على كونها منصة للتعلم الآلي.
في مارس 2021، جمعت Hugging Face مبلغ 40 مليون دولار أمريكي في جولة تمويلية من الفئة B.
في 28 أبريل 2021، أطلقت الشركة ورشة عمل BigScience Research بالتعاون مع العديد من مجموعات البحث الأخرى لإصدار نموذج لغوي كبير مفتوح. وفي عام 2022، اختتمت الورشة بالإعلان عن BLOOM، وهو نموذج لغوي كبير متعدد اللغات يحتوي على 176 مليار معلمة.
في ديسمبر 2022، استحوذت الشركة على Gradio، وهي مكتبة مفتوحة المصدر مصممة لتطوير تطبيقات التعلم الآلي في Python.
في 5 مايو 2022، أعلنت الشركة عن جولتها التمويلية من الفئة C بقيادة Coatue وSequoia. وحصلت الشركة على تقييم بقيمة 2 مليار دولار.
في 3 أغسطس 2022، أعلنت الشركة عن Private Hub، وهي نسخة مؤسسية من Hugging Face Hub العام الذي يدعم نشر SaaS أو في الموقع.

| نوع الشركة | خاص |
| الصناعة | الذكاء الاصطناعي، التعلم الآلي، تطوير البرمجيات |
| تأسست | 2016 |
| المقر الرئيسي | مانهاتن، مدينة نيويورك |
| المنطقة التي يتم تقديم الخدمة لها | في جميع أنحاء العالم |
| الأشخاص الرئيسيون | كليمان ديلانج (CEO) جوليان شوموند (CTO) توماس وولف (CSO) |
| المنتجات | Models, datasets, spaces |
| الربح | |
| عدد الموظفين | 170 (2023) |
| الموقع الإلكتروني | huggingface.co |
في فبراير 2023، أعلنت الشركة عن شراكة مع Amazon Web Services (AWS) والتي ستسمح لمنتجات Hugging Face المتاحة لعملاء AWS باستخدامها كعناصر بناء لتطبيقاتهم المخصصة. وقالت الشركة أيضًا إن الجيل التالي من BLOOM سيتم تشغيله على Trainium، وهي شريحة تعلم آلي خاصة تم إنشاؤها بواسطة AWS.
في أغسطس 2023، أعلنت الشركة أنها جمعت 235 مليون دولار في تمويل من الفئة D، بتقييم 4.5 مليار دولار. وقد قادت Salesforce التمويل، وجاءت المشاركة البارزة من Google وAmazon وNvidia وAMD وIntel وIBM وQualcomm.
إقرأ أيضاً: مراجعة Hostinger: الإيجابيات والسلبيات والميزات التي تم اختبارها
في يونيو 2024، أعلنت الشركة، إلى جانب Meta وScaleway، عن إطلاق برنامج جديد لتسريع الذكاء الاصطناعي للشركات الناشئة الأوروبية. تهدف هذه المبادرة إلى مساعدة الشركات الناشئة على دمج نماذج الأساس المفتوح في منتجاتها، وتسريع نظام الذكاء الاصطناعي في الاتحاد الأوروبي. سيستمر البرنامج، الذي يتخذ من STATION F في باريس مقرًا له، من سبتمبر 2024 إلى فبراير 2025. ستتلقى الشركات الناشئة المختارة التوجيه والوصول إلى نماذج وأدوات الذكاء الاصطناعي وقوة الحوسبة الخاصة بـ Scaleway.
في 23 سبتمبر 2024، لتعزيز العقد الدولي للغات الأصلية، تعاونت Hugging Face مع Meta واليونسكو لإطلاق مترجم لغة جديد عبر الإنترنت مبني على نموذج الذكاء الاصطناعي مفتوح المصدر No Language Left Behind من Meta، مما يتيح ترجمة نصية مجانية عبر 200 لغة، بما في ذلك العديد من اللغات ذات الموارد المنخفضة.
الخدمات والتقنيات
مكتبة Transformers
مكتبة Transformers عبارة عن حزمة Python تحتوي على تطبيقات مفتوحة المصدر لنماذج المحولات لمهام النصوص والصور والصوت. وهي متوافقة مع مكتبات التعلم العميق PyTorch وTensorFlow وJAX وتتضمن تطبيقات لنماذج بارزة مثل BERT وGPT-2. كانت المكتبة تسمى في الأصل “pytorch-pretrained-bert” والتي تمت إعادة تسميتها بعد ذلك إلى “pytorch-transformers” وأخيرًا “transformers”.
تم أيضًا تطوير إصدار javascript (transformers.js)، مما يسمح بتشغيل النماذج مباشرة في المتصفح.
Hugging Face Hub
The Hugging Face Hub عبارة عن منصة (خدمة ويب مركزية) لاستضافة:
- مستودعات التعليمات البرمجية المستندة إلى Git، بما في ذلك المناقشات وطلبات السحب للمشاريع.
- النماذج، أيضًا مع مجموعات بيانات التحكم في الإصدار المستندة إلى Git.
- datasets بشكل أساسي في النصوص والصور والصوت.
- تطبيقات الويب (“المساحات” و”الأدوات”)، المخصصة للعروض التوضيحية صغيرة الحجم لتطبيقات التعلم الآلي.
هناك العديد من النماذج المدربة مسبقًا والتي تدعم المهام الشائعة في طرق مختلفة، مثل:
- معالجة اللغة الطبيعية: تصنيف النصوص، التعرف على الكيانات المسماة، الإجابة على الأسئلة، نمذجة اللغة، التلخيص، الترجمة، الاختيار من متعدد، وتوليد النص.
- الرؤية الحاسوبية: تصنيف الصور، واكتشاف الكائنات، وتقسيمها.
- الصوت: التعرف التلقائي على الكلام وتصنيف الصوت.
مكتبات أخرى
بالإضافة إلى Transformers وHugging Face Hub، يحتوي نظام Hugging Face على مكتبات لمهام أخرى، مثل معالجة مجموعة البيانات (“مجموعات البيانات”) وتقييم النموذج (“التقييم”) وعروض التعلم الآلي (“Gradio”).
Safetensors
تم تطوير تنسيق safetensors حوالي عام 2021 لحل المشكلات المتعلقة بتنسيق pickle في بايثون. تم تصميمه لحفظ وتحميل الموتر. بالمقارنة مع تنسيق pickle، فإنه يسمح بالتحميل البطيء ويتجنب مشاكل الأمان. بعد تدقيق الأمان، أصبح التنسيق الافتراضي في عام 2023
تنسيق الملف:
- حجم الرأس: 8 بايت، عدد صحيح غير موقّع بصيغة Little-endian مكون من 64 بت.
- الرأس: سلسلة JSON UTF-8، بتنسيق {“TENSOR_NAME”: {“dtype”: “F16”, “shape”: [1, 16, 256], “data_offsets”: [BEGIN, END]}, “NEXT_TENSOR_NAME”: {…}, …}.






اترك تعليقاً