Google hat it Gemma AI-model ûntdutsen, basearre op technologyen mienskiplik foar de Gemini chatbot

Google hat de publikaasje fan Gemma oankundige, in grut masine-leartaalmodel boud mei technologyen dy't brûkt wurde om it Gemini-chatbot-model te bouwen, dat besiket te konkurrearjen mei ChatGPT. It model is te krijen yn fjouwer farianten, dy't 2 en 7 miljard parameters befetsje, yn basis- en dialooch-optimisearre werjeften. Opsjes mei 2 miljard parameters binne geskikt foar gebrûk yn konsumintapplikaasjes en hawwe genôch CPU om se te ferwurkjen. Opsjes mei 7 miljard parameters fereaskje machtiger hardware en in GPU as TPU.

Under de tapassingsgebieten fan it Gemma-model binne de skepping fan dialoochsystemen en firtuele assistinten, tekstgeneraasje, generearjen fan antwurden op fragen steld yn natuerlike taal, gearfetting en generalisaasje fan ynhâld, útlis fan 'e essinsje fan begripen en termen, korreksje fan flaters yn de tekst, help by it learen fan talen. It stipet it oanmeitsjen fan ferskate soarten tekstgegevens, ynklusyf poëzij, koade yn programmeartalen, werskriuwen fan wurken mei oare wurden, en it generearjen fan brieven mei in sjabloan. Boppedat hat it model in relatyf lytse grutte, wêrtroch it kin wurde brûkt op jo eigen apparatuer mei beheinde middels, bygelyks op gewoane laptops en PC's.

De modellisinsje lit fergees gebrûk en distribúsje net allinich yn ûndersyk en persoanlike projekten, mar ek yn kommersjele produkten. It oanmeitsjen en publisearjen fan feroare ferzjes fan it model is ek tastien. Tagelyk ferbiede de gebrûksbetingsten it gebrûk fan it model om kweade aksjes út te fieren en easkje, wannear mooglik, de lêste ferzje fan Gemma yn jo produkten te brûken.

Stipe foar it wurkjen mei Gemma-modellen is al tafoege oan 'e Transformers toolkit en de Responsible Generative AI Toolkit. Om it model te optimalisearjen kinne jo it Keras-ramt en backends brûke foar TensorFlow, JAX en PyTorch. It is ek mooglik om Gemma te brûken mei de MaxText, NVIDIA NeMo en TensorRT-LLM-frameworks.

De grutte fan 'e kontekst dy't rekkene wurdt troch it Gemma-model is 8 tûzen tokens (it oantal tokens dat it model kin ferwurkje en ûnthâlde by it generearjen fan tekst). Foar fergeliking is de kontekstgrutte foar de modellen Gemini en GPT-4 32 tûzen tokens, en foar it GPT-4 Turbo-model is it 128 tûzen. It model stipet allinich Ingelsk. Wat prestaasjes oanbelanget, is it Gemma-7B-model wat minder as it LLama 2 70B Chat-model en in bytsje foarút fan 'e DeciLM-7B, PHI-2 (2.7B) en Mistral-7B-v0.1-modellen. Yn 'e Google-fergeliking is it Gemma-7B-model in bytsje foarút fan' e LLama 2 7B / 13B en Mistral-7B.

Google hat it Gemma AI-model ûntdutsen, basearre op technologyen mienskiplik foar de Gemini chatbot


Boarne: opennet.ru

Add a comment