Google je objavil novo družino obsežnih jezikovnih modelov, Gemma 4, ki temelji na modelu Gemini 3. Gemma 4 se distribuira pod licenco Apache v različicah z 2.3, 4.5, 25.2 in 30.7 milijarde parametrov (E2B, E4B, 31B in 26B A4B). Različici E2B in E4B sta primerni za uporabo na mobilnih napravah, sistemih interneta stvari (IoT) in ploščah, podobnih Raspberry Pi, medtem ko so druge različice primerne za uporabo na delovnih postajah in sistemih s potrošniškimi grafičnimi procesorji. Velikost konteksta, ki jo upošteva model, je 128 žetonov za modela E2B in E4B ter 256 žetonov za modela 31B in 26B A4B.
Modeli so večjezični in multimodalni: že vnaprej je podprtih 35 jezikov (med učenjem je bilo uporabljenih več kot 140 jezikov), besedilo in slike pa se lahko obdelujejo kot vhodni podatki (modela E2B in E4B dodatno podpirata obdelavo zvoka). Model 26B A4B temelji na arhitekturi mešanice strokovnjakov (MoE), v kateri je model razdeljen na vrsto ekspertnih omrežij (generiranje odzivov lahko uporabi le 3.8 milijarde parametrov, vendar je hitrost bistveno višja kot pri klasičnih velikih modelih), medtem ko druge različice uporabljajo klasično monolitno arhitekturo.
Modeli podpirajo sklepanje in prilagodljive načine premisleka ter podpirajo sistemsko vlogo za obdelavo navodil (pravil, omejitev) ločeno od podatkov. Modele je mogoče uporabiti za pisanje kode, prepoznavanje objektov na slikah, analizo videoposnetkov po posameznih sličicah, razčlenjevanje dokumentov in PDF-jev, optično prepoznavanje znakov (OCR) tiskanega in ročno napisanega besedila, prepoznavanje govora in prevajanje med jeziki. Uporabljajo se lahko tudi kot avtonomni agenti, ki komunicirajo z različnimi orodji in API-ji.
V večini testov so modeli Gemma 4 znatno prekašali model Gemma 3 z 27 milijardami parametrov. Gemma 4 podpira LiteRT-LM, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM in NeMo, LM Studio, Unsloth, SGLang, Cactus, Basetan, MaxText, Tunix in Keras.


Vir: opennet.ru
