Google ka zbuluar modelin Gemma AI, bazuar në teknologjitë e zakonshme për chatbotin Gemini

Google ka njoftuar publikimin e Gemma, një model i madh i gjuhës së mësimit të makinerive i ndërtuar duke përdorur teknologjitë e përdorura për të ndërtuar modelin chatbot Gemini, i cili përpiqet të konkurrojë me ChatGPT. Modeli është i disponueshëm në katër variante, që mbulojnë 2 dhe 7 miliardë parametra, në pamje themelore dhe të optimizuara për dialog. Opsionet me 2 miliardë parametra janë të përshtatshëm për përdorim në aplikacionet e konsumatorit dhe kanë mjaftueshëm CPU për t'i përpunuar ato. Opsionet me 7 miliardë parametra kërkojnë pajisje më të fuqishme dhe një GPU ose TPU.

Ndër fushat e aplikimit të modelit Gemma janë krijimi i sistemeve të dialogut dhe asistentëve virtualë, gjenerimi i tekstit, gjenerimi i përgjigjeve për pyetjet e bëra në gjuhën natyrore, përmbledhja dhe përgjithësimi i përmbajtjes, shpjegimi i thelbit të koncepteve dhe termave, korrigjimi i gabimeve. në tekst, ndihmë në mësimin e gjuhëve. Ai mbështet krijimin e llojeve të ndryshme të të dhënave tekstuale, duke përfshirë poezinë, kodin në gjuhët e programimit, rishkrimin e veprave me fjalë të tjera dhe gjenerimin e shkronjave duke përdorur një shabllon. Për më tepër, modeli ka një madhësi relativisht të vogël, duke e lejuar atë të përdoret në pajisjet tuaja me burime të kufizuara, për shembull, në laptopë dhe PC të zakonshëm.

Licenca model lejon përdorimin dhe shpërndarjen falas jo vetëm në projekte kërkimore dhe personale, por edhe në produkte komerciale. Lejohet gjithashtu krijimi dhe publikimi i versioneve të modifikuara të modelit. Në të njëjtën kohë, kushtet e përdorimit ndalojnë përdorimin e modelit për të kryer veprime keqdashëse dhe kërkojnë, kurdoherë që është e mundur, të përdorni versionin më të fundit të Gemma në produktet tuaja.

Mbështetja për të punuar me modelet Gemma tashmë është shtuar në paketën e veglave "Transformers" dhe "Paketa e veglave AI gjeneruese përgjegjëse". Për të optimizuar modelin, mund të përdorni kornizën Keras dhe mbështetësit për TensorFlow, JAX dhe PyTorch. Është gjithashtu e mundur të përdoret Gemma me kornizat MaxText, NVIDIA NeMo dhe TensorRT-LLM.

Madhësia e kontekstit të marrë në konsideratë nga modeli Gemma është 8 mijë shenja (numri i argumenteve që modeli mund të përpunojë dhe mbajë mend kur gjeneron tekst). Për krahasim, madhësia e kontekstit për modelet Gemini dhe GPT-4 është 32 mijë argumente, dhe për modelin GPT-4 Turbo është 128 mijë. Modeli mbështet vetëm anglisht. Për sa i përket performancës, modeli Gemma-7B është pak inferior ndaj modelit LLama 2 70B Chat dhe pak përpara modeleve DeciLM-7B, PHI-2 (2.7B) dhe Mistral-7B-v0.1. Në krahasimin e Google, modeli Gemma-7B është pak më përpara se LLama 2 7B/13B dhe Mistral-7B.

Google ka zbuluar modelin Gemma AI, bazuar në teknologjitë e zakonshme për chatbotin Gemini


Burimi: opennet.ru

Shto një koment