D'Inévitabilitéit vun der FPGA Pénétratioun an Datenzenteren

D'Inévitabilitéit vun der FPGA Pénétratioun an Datenzenteren
Dir musst keen Chip Designer sinn fir FPGAs ze programméieren, sou wéi Dir kee C++ Programméierer braucht fir Code am Java ze schreiwen. Wéi och ëmmer, a béide Fäll wäert et wahrscheinlech nëtzlech sinn.

D'Zil fir béid Java an FPGA Technologien ze kommerzialiséieren ass déi lescht Fuerderung ze widderhuelen. Gutt Noriicht fir FPGAs - déi richteg Abstraktiounsschichten an Toolset ze benotzen, an de leschten 35 Joer zënter der Erfindung vum programméierbare Logikapparat, Algorithmen an Datefloss fir FPGAs erstellen anstatt CPUs, DSPs, GPUs oder all aner Form vu personaliséierten ASICs ass ginn ëmmer méi gemeinsam.einfach.

Déi erstaunlech Zäitlechkeet vun hirer Kreatioun ass evident an der Tatsaach, datt just wann CPUs net méi deen eenzegen Rechenmodul vun Datenzentere konnte bleiwen fir vill Aufgaben auszeféieren - aus verschiddene Grënn - FPGAs hunn hir Effektivitéit erreecht, mat Geschwindegkeet, niddereg latency, Netzwierkfäegkeeten ubidden. an Erënnerung - heterogen Rechenzäit Kënnen vun modern FPGA SoCs, déi bal voll-vollwäerteg Rechenzäit Systemer sinn. Wéi och ëmmer, FPGAs ginn och erfollegräich kombinéiert mat aneren Apparater an Hybridsystemer, an eiser Meenung no fänken se just un hir richteg Plaz an der Informatikhierarchie ze fannen.

Dofir hu mir The Next FPGA Plattform Konferenz zu San Jose den 22. Januar organiséiert. Natierlech ass ee vun den Haapt FPGA Liwweranten op der Welt an e Pionéier an dësem Beräich Xilinx. Den Ivo Bolsens, Senior Vice President a Chief Technology Officer bei Xilinx, huet op der Konferenz geschwat an huet eis haut seng Gedanken ginn iwwer wéi Xilinx hëlleft fir verännerlech Rechensystemer fir Datenzenteren ze kreéieren.

Et huet Systemarchitekten a Programméierer vill Zäit gedauert fir mat engem heterogenen Datenzenter ze kommen, deen verschidden Aarte vu Computerkraaft wäert hunn, déi Probleemer am Informatik, Lagerung an Netzwierk léisen. Dëst schéngt néideg wéinst der Tatsaach datt et ëmmer méi schwéier gëtt dem Moore säi Gesetz mat verschiddene CMOS-Geräter ze verfollegen. Fir de Moment ass eis Sprooch nach ëmmer CPU-zentresch, a mir schwätzen ëmmer nach iwwer "Applikatiounsbeschleunigung", dat heescht datt Programmer besser lafen wéi dat wat op CPUs eleng gemaach ka ginn. Mat der Zäit wäerten d'Datenzentren Sammlunge vu Rechenkraaft, Datelagerung a Protokoller ginn, déi alles matenee verbannen, a mir wäerten zréck op Begrëffer wéi "Informatik" an "Applikatiounen". Hybrid Computing wäert esou normal ginn wéi haut Cloud Servicer déi op Desktop oder virtuelle Maschinnen lafen, an iergendwann benotze mir einfach d'Wuert "Computing" fir ze beschreiwen wéi se funktionnéieren. Irgendwann - an et ass méiglecherweis datt FPGAs hëllefe fir dës Ära z'informéieren - nenne mir et erëm Datenveraarbechtung.

D'Adoptioun vun FPGAs an Datenzenteren erfuerdert eng Ännerung vum Mentalitéitswiessel. "Wann Dir iwwer Weeër denkt fir d'Applikatiounen vun haut ze beschleunegen, musst Dir op d'Grondlage kommen wéi se lafen, wéi eng Ressourcen benotzt ginn, wou Zäit verbruecht gëtt", erkläert Bolsens. - Dir musst den allgemenge Problem studéieren deen Dir probéiert ze léisen. Vill Applikatiounen, déi haut an Datenzenter lafen, skaléieren fir grouss Quantitéite vu Ressourcen ze konsuméieren. Huelt Maschinn Léieren, zum Beispill, déi eng riesech Unzuel u Rechenknäppchen benotzt. Awer wa mir iwwer Beschleunigung schwätzen, musse mir net nëmmen iwwer d'Beschleunigung vum Computer denken, awer och iwwer d'Infrastruktur beschleunegen.

Zum Beispill, an der Aart vu Maschinnléieroperatiounen, déi Bolsens an der Praxis studéiert hunn, gëtt ongeféier 50% vun der Zäit verbruecht fir Daten zréck an zréck tëscht verspreeter Rechenkraaft ze transferéieren, an nëmmen déi reschtlech Halschent vun der Zäit gëtt op d'Berechnungen selwer verbruecht.

"Dëst ass wou ech mengen datt FPGA hëllefe kann, well mir kënne suergen datt souwuel de computational wéi och d'Kommunikatiounsaspekter vun der Applikatioun optimiséiert sinn. A mir kënnen dat um allgemengen Infrastrukturniveau, an um Chipniveau maachen. Dëst ass ee vun de grousse Virdeeler vun FPGAs, wat Iech erlaabt Kommunikatiounsnetzwierker fir spezifesch Applikatiounsbedürfnisser ze kreéieren. Baséierend op typesch Mustere vun der Datebewegung an AI Workloads, gesinn ech net de Besoin fir eng komplex Schalter-baséiert Architektur. Dir kënnt en Netzwierk mat engem groussen Datefloss bauen. Datselwecht gëllt fir neural Netzwierk Trainingsaufgaben - Dir kënnt e Mesh-Netzwierk mat Paketgréissten bauen, déi sech un eng spezifesch Aufgab upassen. Mat enger FPGA kënnen Datenübertragsprotokoller a Circuittopologien ganz präzis skaléiert a fir eng spezifesch Applikatioun ugepasst ginn. An am Fall vu Maschinnléieren ass et och kloer datt mir keng duebel Präzisioun Floating Point Zuelen brauchen, a mir kënnen dat och upassen.

Den Ënnerscheed tëscht enger FPGA an enger CPU oder personaliséierter ASIC ass datt déi lescht an der Fabréck programméiert sinn, an duerno kënnt Dir net méi Äert Gedanken änneren iwwer d'Zorte vun Daten déi berechent ginn oder Elementer déi berechent ginn, oder iwwer d'Natur vun den Daten duerch den Apparat fléissen. FPGAs erlaben Iech Äert Gedanken z'änneren wann d'Betribsbedéngungen änneren.

An der Vergaangenheet ass dëse Virdeel op Käschte komm, wann FPGA Programméierung net fir déi liichtschwaache war. De Besoin ass FPGA Compileren opzemaachen fir besser mat den Tools ze integréieren déi Programméierer benotze fir CPU-parallel Uwendungen an C, C++ oder Python ze schreiwen, an e puer vun der Aarbecht u Bibliothéiken auszeginn, déi Prozeduren op FPGAs beschleunegen. Dëst ass wat de Vitis Maschinnléierstack mécht, ML Plattforme wéi Caffe an TensorFlow ze bedreiwen, mat Bibliothéike fir konventionell AI Modeller auszeféieren oder FPGA Fäegkeeten un Aufgaben wéi Videotranscodéierung, Videoobjekterkennung an Datenanalyse ze addéieren. , Finanzrisikomanagement an all Drëtt -Partei Bibliothéiken.

Dëst Konzept ass net vill anescht wéi dem Nvidia säi CUDA Projet, lancéiert virun engem Joerzéngt, deen parallel Computing op GPU Beschleuniger ofléisst, oder vum AMD ROCm Toolkit, oder vum Versprieche vum Intel OneAPI Projet, deen op verschiddene CPUs, GPUs a FPGA soll lafen.

Déi eenzeg Fro ass wéi all dës Tools matenee verbonne sinn, sou datt all Persoun e Set vu Rechenmuechten no hirem Diskretioun programméiere kann. Dëst ass wichteg well FPGAs méi komplex ginn, vill méi komplex wéi all vun de verfügbaren CPUs. Si gi mat de fortgeschrattste Fabrikatiounsprozesser an de modernsten Chipverpackungstechnologien hiergestallt. A si wäerten hir Nisch fannen, well mir kënnen net méi Zäit, Suen, Energie an Intelligenz verschwenden - all dat sinn ze deier Ressourcen.

"FPGAs bidden technologesch Virdeeler", seet Bolsens. - An dëst ass net nëmmen déi üblech Reklamm iwwer Adaptabilitéit an Rekonfigurabilitéit. An all wichtegen Uwendungen - Maschinnléieren, Grafikanalyse, Héichgeschwindeg Handel, asw. - si hunn d'Fäegkeet fir eng spezifesch Aufgab unzepassen net nëmmen den Dateverdeelungswee, awer och d'Erënnerungsarchitektur - wéi d'Donnéeën am Chip bewegt. FPGAs hunn och vill méi Erënnerung agebaut wéi aner Apparater. Et sollt och berécksiichtegt ginn datt wann eng Aufgab net an eng FPGA passt, Dir kënnt et iwwer verschidde Chips skaléieren ouni d'Nodeeler ze begéinen déi op Iech waarden wann Dir Aufgaben iwwer verschidde CPUs oder GPUs skaléieren.

Source: will.com

Setzt e Commentaire