Natuklasan ng Google ang modelong Gemma AI, batay sa mga teknolohiyang karaniwan sa Gemini chatbot

Inanunsyo ng Google ang paglalathala ng Gemma, isang malaking modelo ng wika sa pag-aaral ng machine na binuo gamit ang mga teknolohiyang ginamit upang bumuo ng modelo ng Gemini chatbot, na sumusubok na makipagkumpitensya sa ChatGPT. Available ang modelo sa apat na variant, na sumasaklaw sa 2 at 7 bilyong parameter, sa mga basic at dialog-optimized na view. Ang mga opsyon na may 2 bilyong parameter ay angkop para sa paggamit sa mga application ng consumer at may sapat na CPU upang iproseso ang mga ito. Ang mga opsyon na may 7 bilyong parameter ay nangangailangan ng mas malakas na hardware at isang GPU o TPU.

Kabilang sa mga lugar ng aplikasyon ng modelo ng Gemma ay ang paglikha ng mga sistema ng diyalogo at virtual na katulong, pagbuo ng teksto, pagbuo ng mga sagot sa mga tanong sa natural na wika, buod at pangkalahatan ng nilalaman, paliwanag ng kakanyahan ng mga konsepto at termino, pagwawasto ng mga pagkakamali sa teksto, tulong sa pag-aaral ng mga wika. Sinusuportahan nito ang paglikha ng iba't ibang uri ng data ng teksto, kabilang ang tula, code sa mga programming language, muling pagsusulat ng mga gawa sa ibang salita, at pagbuo ng mga titik gamit ang isang template. Kasabay nito, ang modelo ay may medyo maliit na sukat, na pinapayagan itong magamit sa iyong sariling kagamitan na may limitadong mga mapagkukunan, halimbawa, sa mga ordinaryong laptop at PC.

Ang lisensya ng modelo ay nagbibigay-daan sa libreng paggamit at pamamahagi hindi lamang sa pananaliksik at mga personal na proyekto, kundi pati na rin sa mga komersyal na produkto. Ang paglikha at paglalathala ng mga binagong bersyon ng modelo ay pinapayagan din. Kasabay nito, ipinagbabawal ng mga tuntunin ng paggamit ang paggamit ng modelo upang magsagawa ng mga nakakahamak na aksyon at nangangailangan, hangga't maaari, na gamitin ang pinakabagong bersyon ng Gemma sa iyong mga produkto.

Ang suporta para sa pagtatrabaho sa mga modelo ng Gemma ay naidagdag na sa toolkit ng Transformers at sa Responsible Generative AI Toolkit. Upang i-optimize ang modelo, maaari mong gamitin ang Keras framework at mga backend para sa TensorFlow, JAX at PyTorch. Posible ring gamitin ang Gemma sa MaxText, NVIDIA NeMo at TensorRT-LLM frameworks.

Ang laki ng konteksto na isinasaalang-alang ng modelong Gemma ay 8 libong mga token (ang bilang ng mga token na maaaring iproseso at tandaan ng modelo kapag bumubuo ng teksto). Para sa paghahambing, ang laki ng konteksto para sa mga modelong Gemini at GPT-4 ay 32 libong mga token, at para sa modelong GPT-4 Turbo ito ay 128 libo. English lang ang sinusuportahan ng modelo. Sa mga tuntunin ng pagganap, ang modelong Gemma-7B ay bahagyang mas mababa sa modelo ng LLama 2 70B Chat at bahagyang nauuna sa mga modelong DeciLM-7B, PHI-2 (2.7B) at Mistral-7B-v0.1. Sa paghahambing ng Google, ang modelong Gemma-7B ay bahagyang nauuna sa LLama 2 7B/13B at Mistral-7B.

Natuklasan ng Google ang modelong Gemma AI, batay sa mga teknolohiyang karaniwan sa Gemini chatbot


Pinagmulan: opennet.ru

Magdagdag ng komento