ʻO ka hiki ʻole o ke komo ʻana o FPGA i nā kikowaena data

ʻO ka hiki ʻole o ke komo ʻana o FPGA i nā kikowaena data
ʻAʻole pono ʻoe e lilo i mea hoʻolālā chip no ka papahana no nā FPGA, e like me ʻoe ʻaʻole pono e lilo i polokalamu C++ e kākau i nā code ma Java. Eia naʻe, ma nā hihia ʻelua e pono paha ia.

ʻO ka pahuhopu o ke kālepa ʻana i nā ʻenehana Java a me FPGA e hōʻole i ka ʻōlelo hope. ʻO ka nūhou maikaʻi no nā FPGA - me ka hoʻohana ʻana i nā ʻāpana abstraction kūpono a me nā mea hana, i nā makahiki he 35 i hala iho nei mai ka wā i hoʻokumu ʻia ai ka polokalamu logic programmable, e hana ana i nā algorithms a me nā kahe ʻikepili no nā FPGA ma kahi o nā CPUs, DSPs, GPUs a i ʻole kekahi ʻano ASIC maʻamau. maʻalahi.

ʻIke ʻia ka manawa kupaianaha o kā lākou hana ʻana i ka wā i hiki ʻole ai i nā CPU ke noho i ka module computing wale nō o nā kikowaena data e hana i nā hana he nui - no nā kumu like ʻole - ua hoʻokō nā FPGA i ko lākou pono, hāʻawi i ka wikiwiki, haʻahaʻa haʻahaʻa, hiki i ka pūnaewele. a me ka hoʻomanaʻo - heterogeneous computing hiki o kēia wā FPGA SoCs, ʻaneʻane piha piha piha. Eia naʻe, ua hui pū ʻia nā FPGA me nā mea hana ʻē aʻe i nā ʻōnaehana hybrid, a, i ko mākou manaʻo, ke hoʻomaka nei lākou e ʻimi i ko lākou wahi kūpono i ka hierarchy computing.

ʻO ia ke kumu i hoʻonohonoho ai mākou i ka hālāwai kūkā FPGA Platform ma San Jose ma Ianuali 22nd. ʻO ka mea maʻamau, ʻo Xilinx kekahi o nā mea hoʻolako FPGA nui ma ka honua a he paionia ma kēia wahi. Ua haʻi ʻo Ivo Bolsens, ka hope pelekikena kiʻekiʻe a me ka luna ʻenehana nui ma Xilinx, i ka ʻaha kūkā a hāʻawi mai iā mākou i kona mau manaʻo i kēia lā e pili ana i ke kōkua ʻana o Xilinx i ka hana ʻana i nā ʻōnaehana computing loli no nā kikowaena data.

Ua lawe i nā mea hoʻolālā pūnaewele a me nā polokalamu polokalamu i ka manawa nui e hele mai me kahi kikowaena data heterogeneous, e hōʻike ana i nā ʻano like ʻole o ka mana kamepiula e hoʻonā i nā pilikia i ka helu ʻana, mālama a me ka pūnaewele. Pono kēia ma muli o ka lilo ʻana o ka paʻakikī o ka hahai ʻana i ke kānāwai o Moore me ka hoʻohana ʻana i nā polokalamu CMOS like ʻole. I kēia manawa, ʻoi aku ka CPU-centric o kā mākou ʻōlelo, a ke kamaʻilio nei mākou e pili ana i ka "application acceleration," ʻo ia hoʻi ka holo ʻana o nā polokalamu ma mua o ka mea hiki ke hana ma nā CPU wale nō. I ka wā lōʻihi, e lilo nā kikowaena ʻikepili i mau hōʻiliʻili o ka mana computing, mālama ʻikepili, a me nā protocols e hoʻopili ai i nā mea āpau, a e hoʻi mākou i nā huaʻōlelo e like me "computing" a me "nā noi." E lilo ana ka hoʻopili helu Hybrid i mea maʻamau e like me nā lawelawe kapuaʻi o kēia lā e holo ana ma ka papapihi a i ʻole nā ​​mīkini virtual, a i kekahi manawa e hoʻohana wale mākou i ka huaʻōlelo "computing" e wehewehe i kā lākou hana. I kekahi manawa—a e kōkua paha nā FPGA i ka hoʻomaka ʻana i kēia au—e kapa hou mākou iā ia i ka hoʻoili ʻikepili.

ʻO ka hoʻokomo ʻana i nā FPGA i nā kikowaena data e koi i ka hoʻololi ʻana i ka noʻonoʻo. "I ka noʻonoʻo ʻana i nā ala e wikiwiki ai i nā noi o kēia lā, pono ʻoe e iho i lalo i ke kumu o ka holo ʻana, he aha nā kumuwaiwai i hoʻohana ʻia, kahi i hoʻohana ʻia ai ka manawa," wehewehe ʻo Bolsens. - Pono ʻoe e aʻo i ka pilikia maʻamau āu e hoʻāʻo nei e hoʻoponopono. Nui nā noi e holo ana ma nā kikowaena ʻikepili i kēia lā e hoʻopau i ka nui o nā kumuwaiwai. E lawe i ka aʻo ʻana i ka mīkini, no ka laʻana, e hoʻohana ana i kahi helu nui o nā node computing. Akā ke kamaʻilio nei mākou e pili ana i ka wikiwiki, pono mākou e noʻonoʻo ʻaʻole wale no ka wikiwiki ʻana i ka computing, akā no ka wikiwiki ʻana i ka ʻoihana.

No ka laʻana, ma ke ʻano o nā hana aʻo mīkini a Bolsens i aʻo ai ma ka hoʻomaʻamaʻa ʻana, ma kahi o 50% o ka manawa i hoʻolilo ʻia i ka hoʻoili ʻana i ka ʻikepili i hope a i waho ma waena o ka mana computing dispersed, a ʻo ke koena hapa o ka manawa e hoʻopau ʻia ma ka helu ʻana iā lākou iho.

"ʻO kēia kahi aʻu e manaʻo ai e hiki ke kōkua ʻo FPGA, no ka mea hiki iā mākou ke hōʻoia i ka hoʻopaʻa ʻia ʻana o nā ʻano helu helu a me nā kamaʻilio o ka noi. A hiki iā mākou ke hana i kēia ma ka pae ʻenehana holoʻokoʻa, a ma ka pae chip. ʻO kēia kekahi o nā pōmaikaʻi nui o nā FPGA, e ʻae iā ʻoe e hana i nā pūnaewele kamaʻilio no nā pono noi kikoʻī. Ma muli o nā hiʻohiʻona maʻamau o ka neʻe ʻana o ka ʻikepili i nā hana hana AI, ʻaʻole wau ʻike i ka pono o kahi hoʻolālā hoʻololi paʻakikī. Hiki iāʻoe ke kūkulu i kahi pūnaewele me kahi kaheʻikepili nui. Hoʻohana like ia i nā hana hoʻomaʻamaʻa neural network - hiki iā ʻoe ke kūkulu i kahi pūnaewele mesh me nā nui packet e hoʻololi i kahi hana kikoʻī. Me ka hoʻohana ʻana i kahi FPGA, hiki ke hoʻohālikelike ʻia nā protocols transfer data a me nā topologies circuit i kahi kikoʻī kikoʻī. A ma ke ʻano o ke aʻo ʻana o ka mīkini, maopopo nō hoʻi ʻaʻole pono mākou i nā helu lana ʻelua kikoʻī, a hiki iā mākou ke hoʻoponopono i kēlā. "

ʻO ka ʻokoʻa ma waena o ka FPGA a me ka CPU a i ʻole ka ASIC maʻamau ʻo ia ka mea i hoʻolālā ʻia ma ka hale hana, a ma hope o ia mea ʻaʻole hiki iā ʻoe ke hoʻololi hou i kou manaʻo e pili ana i nā ʻano o ka ʻikepili i helu ʻia a i ʻole nā ​​​​mea i helu ʻia, a i ʻole ke ʻano o ka ʻikepili. kahe ma ka mea hana. ʻAe nā FPGA iā ʻoe e hoʻololi i kou manaʻo inā loli nā kūlana hana.

I ka wā ma mua, ua loaʻa kēia pōmaikaʻi ma ke kumukūʻai, i ka wā ʻaʻole ʻo ka polokalamu FPGA no ka nāwaliwali o ka naʻau. ʻO ka pono e wehe i nā mea hoʻopili FPGA e hoʻohui maikaʻi me nā mea hana papahana e hoʻohana ai e kākau i nā noi CPU-parallel ma C, C ++, a i ʻole Python, a e hoʻopuka i kekahi o nā hana i nā hale waihona puke e wikiwiki i nā kaʻina hana ma FPGA. ʻO kēia ka mea a ka Vitis machine learning stack, e hoʻohana ana i nā platform ML e like me Caffe a me TensorFlow, me nā hale waihona puke no ka holo ʻana i nā hiʻohiʻona AI maʻamau a i ʻole ka hoʻohui ʻana i nā mana FPGA i nā hana e like me ka transcoding wikiō, ka ʻike ʻana i nā mea wikiō, a me ka ʻikepili ʻikepili. - nā hale waihona puke pāʻina.

ʻAʻole ʻokoʻa loa kēia manaʻo mai ka papahana CUDA a Nvidia, i hoʻokuʻu ʻia i hoʻokahi mau makahiki i hala aku nei, e hoʻopau ana i ka computing parallel i ka GPU accelerators, a i ʻole mai ka mea hana ROCm o AMD, a i ʻole mai ka ʻōlelo hoʻohiki o ka papahana OneAPI a Intel, e holo ana ma nā CPU like ʻole, GPU a me FPGA.

ʻO ka nīnau wale nō pehea e hoʻopili ʻia ai kēia mau mea hana a pau i hiki i kēlā me kēia kanaka ke hoʻolālā i kahi pūʻulu o nā mana helu e like me ko lākou manaʻo. He mea nui kēia no ka mea ua ʻoi aku ka paʻakikī o nā FPGA, ʻoi aku ka paʻakikī ma mua o nā CPU i loaʻa. Hana ʻia lākou me ka hoʻohana ʻana i nā kaʻina hana kiʻekiʻe loa a me nā ʻenehana hōkeo chip hou loa. A e ʻike lākou i kā lākou niche, ʻoiai ʻaʻole hiki iā mākou ke hoʻopau i ka manawa, ke kālā, ka ikaika a me ka naʻauao - he kumu waiwai nui kēia.

"Hāʻawi nā FPGA i nā pono ʻenehana," wahi a Bolsens. - A ʻaʻole kēia ka hoʻolaha maʻamau e pili ana i ka adaptability a me ka reconfigurability. Ma nā noi koʻikoʻi - ke aʻo ʻana i ka mīkini, ka nānā ʻana i ka pakuhi, kālepa wikiwiki wikiwiki, etc. - hiki iā lākou ke hoʻololi i kahi hana kikoʻī ʻaʻole wale ke ala hoʻoili ʻikepili, akā ʻo ka hoʻomanaʻo hoʻomanaʻo hoʻi - pehea ka neʻe ʻana o ka ʻikepili i loko o ka chip. ʻOi aku ka nui o ka hoʻomanaʻo i kūkulu ʻia i loko o lākou ma mua o nā mea hana ʻē aʻe. Pono e noʻonoʻo ʻia inā ʻaʻole kūpono kahi hana i hoʻokahi FPGA, hiki iā ʻoe ke hoʻonui iā ia ma waena o nā pahu he nui me ka ʻole o ka loaʻa ʻana o nā hemahema e kali nei iā ʻoe i ka wā e hoʻonui ai i nā hana ma waena o nā CPU a i ʻole GPU.

Source: www.habr.com

Pākuʻi i ka manaʻo hoʻopuka