Gemma.. غوغل تعلن عن نموذج ذكاء اصطناعي جديد
كشفت شركة "غوغل" مؤخرا عن نموذج ذكاء اصطناعي جديد تحت اسم "Gemma"، موجه بشكل خاص للباحثين الذين يرغبون في تشغيل نماذج (AI) على أجهزتهم الخاصة بدلاً من الاعتماد على خدمات السحابة.
ويشترك نموذج Gemma في بعض المكونات التقنية والبنية التحتية مع نموذج Gemini الأكبر، وتم طرحه من قبل غوغل في اثنين من الطرز: "Gemma 2B وGemma 7B".
- أفضل 10 هواتف ذكية مبيعا في 2023.. أرقام قياسية لـ«أبل»
- ميتا تختبر إمكانية وجود ميزة «الترند» في تطبيق ثريدز
ويتيح للباحثين الوصول إلى نماذج Gemma المدربة مسبقا ومعايرتها للحصول على التعليمات، ويمكن تشغيلها محليا على أجهزة الكمبيوتر المكتبية والمحمولة، أو يمكن الوصول إليها من خلال السحابة.
وقامت غوغل بتحسين النموذج الجديد Gemma للعمل على بطاقات معالجة الرسومات من شركة إنفيديا، بالإضافة إلى معالجات Google Cloud TPUs، التي تعمل على مهام الذكاء الاصطناعي في خدمة Google Cloud.
وأفادت شركة غوغل بأن نموذج Gemma بإصداريه يعد أصغر حجما من النماذج اللغوية الكبيرة الأخرى "LLMs"، كما أنه يفوقها بشكل ملحوظ في المقاييس الرئيسية، بما في ذلك نموذج Llama 2 من شركة ميتا.
وتعمل غوغل حاليا على توفير نموذج Gemma للباحثين مجانا من خلال منصتي Kaggle وColab التابعتين لها، وتوفر أيضا رصيدا مجانيا للاستخدام السحابي للنموذج من خلال خدمة Google Cloud.
وفي وقت سابق من الشهر الجاري، قامت الشركة بإطلاق نموذج Gemini وتوفير تطبيق مجاني يحمل نفس الاسم، بالإضافة إلى اشتراكات مدفوعة تقدم مزايا متقدمة.
وأكدت Google أن نموذج Gemma، الذي يحتوي على 2 مليار معلمة، يعمل على وحدات المعالجة المركزية "CPU" لتطبيقات الجهاز والتطبيقات الطرفية مثل الحواسيب المحمولة، وأنه يحتوي على 7 مليارات وحدة معالجة رسومات ووحدات TPU.
ويمكن الوصول أيضا إلى النماذج عبر منصة Vertex AI الخاصة بخدمة Google Cloud وGoogle Kubernetes Engine.
وتسمح شركة غوغل بالاستخدام التجاري "المسؤول" لنموذج Gemma وتوزيعه على المؤسسات بجميع أحجامها. وبالمقابل، تقيد شركة "ميتا" استخدام مجموعة نماذج اللغات Llama 2 المجانية للمؤسسات التي لديها أقل من 700 مليون مستخدم نشط شهريًا، وعلى غير ذلك، يتعين عليها الحصول على ترخيص للاستخدام.