Google het die Gemma AI-model ontdek, gebaseer op tegnologieë wat algemeen is aan die Gemini-kletsbot

Google het die publikasie van Gemma aangekondig, 'n groot masjienleertaalmodel wat gebou is met tegnologie wat gebruik word om die Gemini-kletsbot-model te bou, wat poog om met ChatGPT te kompeteer. Die model is beskikbaar in vier variante, wat 2 en 7 miljard parameters dek, in basiese en dialoog-geoptimaliseerde aansigte. Opsies met 2 miljard parameters is geskik vir gebruik in verbruikerstoepassings en het genoeg SVE om dit te verwerk. Opsies met 7 miljard parameters vereis kragtiger hardeware en 'n GPU of TPU.

Onder die toepassingsareas van die Gemma-model is die skepping van dialoogstelsels en virtuele assistente, teksgenerering, generering van antwoorde op vrae wat in natuurlike taal gevra word, opsomming en veralgemening van inhoud, verduideliking van die essensie van konsepte en terme, regstelling van foute in die teks, hulp met die aanleer van tale. Dit ondersteun die skepping van verskeie soorte teksdata, insluitend poësie, kode in programmeertale, herskryf van werke met ander woorde, en generering van briewe met behulp van 'n sjabloon. Terselfdertyd het die model 'n relatief klein grootte, wat dit moontlik maak om op jou eie toerusting met beperkte hulpbronne gebruik te word, byvoorbeeld op gewone skootrekenaars en rekenaars.

Die modellisensie laat gratis gebruik en verspreiding toe, nie net in navorsing en persoonlike projekte nie, maar ook in kommersiële produkte. Die skepping en publikasie van gewysigde weergawes van die model word ook toegelaat. Terselfdertyd verbied die gebruiksvoorwaardes die gebruik van die model om kwaadwillige handelinge uit te voer en vereis, waar moontlik, om die nuutste weergawe van Gemma in jou produkte te gebruik.

Ondersteuning vir die werk met Gemma-modelle is reeds by die Transformers-gereedskapstel en die Responsible Generative AI Toolkit gevoeg. Om die model te optimaliseer, kan jy die Keras-raamwerk en backends vir TensorFlow, JAX en PyTorch gebruik. Dit is ook moontlik om Gemma met die MaxText-, NVIDIA NeMo- en TensorRT-LLM-raamwerke te gebruik.

Die grootte van die konteks wat deur die Gemma-model in ag geneem word, is 8 duisend tekens (die aantal tekens wat die model kan verwerk en onthou wanneer teks gegenereer word). Ter vergelyking is die konteksgrootte vir die Gemini- en GPT-4-modelle 32 duisend tokens, en vir die GPT-4 Turbo-model is dit 128 duisend. Die model ondersteun slegs Engels. Wat werkverrigting betref, is die Gemma-7B-model effens minderwaardig as die LLama 2 70B Chat-model en effens voor die DeciLM-7B-, PHI-2 (2.7B) en Mistral-7B-v0.1-modelle. In die Google-vergelyking is die Gemma-7B-model effens voor die LLama 2 7B/13B en Mistral-7B.

Google het die Gemma AI-model ontdek, gebaseer op tegnologieë wat algemeen is aan die Gemini-kletsbot


Bron: opennet.ru

Voeg 'n opmerking