Site icon TechAddikt

A QNAP bemutatja a Mustang sorozatú számítási gyorsítókártyákat Intel VPU és FPGA megoldással

A QNAP az AI mély tanulás következtetéseire tervezett, két számítási gyorsítókártyát mutatott be, a Mustang-V100(VPU alapú) és a Mustang-F100 (FPGA alapú) gyorsítókártyákat.

A PCIe alapú gyorsítókártyákat behelyezhetjük Intel® alapú szerverbe, PC-be, vagy QNAP NAS rendszerbe, amely biztosítja a modern számítógépes víziót és az AI alkalmazások gyártási, állapot-ellenőrzési, intelligens kiskereskedelmi, videómegfigyelési és más magas munkaterhelésű rendszerekbe.

„A számítási sebesség az AI-alkalmazások telepítésének hatékonyságának egyik fő eleme” – mondta Dan Lin, a QNAP termékmenedzsere. „Miközben a QNAP Mustang-V100 és Mustang-F100 gyorsítókártyák az OpenVINO™ architektúrára optimalizálták és a folyamatos nagy terhelés kiegészíthető a maximális teljesítményt nyújtó Intel hardverekkel, a QNAP OpenVINO munkafolyamat-konszolidációs eszközével a számítási gyorsítás tovább növelhető, hogy a lehető legrövidebb idő alatt teljesítsék a munkamenetet.”

Mind a Mustang-V100, mind a Mustang-F100 gazdaságos gyorsítási megoldásokat kínál az AI következtetésre, amely az OpenVINO eszköztárral is együttműködhet, hogy optimalizálja a képosztályozás és a számítógépes vízió következtetéseinek terhelését. Az Intel által kifejlesztett OpenVINO eszköztár segíti a nagyteljesítményű számítógépes vízió és mély tanulás fejlesztését a vizuális alkalmazásokban. Tartalmazza a modelloptimalizálót és a következtetési motort, így optimalizálható az előre kiképzett mélytanulási modell, például a Caffe, a Tensorflow az IR bináris fájlba, majd az Intel® hardverben heterogén módon hajtja végre a következtetést, mint például a CPU, GPU, PGA és VPU.

Mivel a QNAP NAS az alkalmazások szélesebb körének (beleértve a felügyeletet, a virtualizációt és az AI-t) támogatása köré épült, a nagy tároló és a PCIe bővíthetőség kombinációja előnyös az AI potenciális használatához. A QNAP kifejlesztette az OpenVINO munkafolyamat-konszolidációs eszközt (OWCT), amely kihasználja az Intel OpenVINO eszköztár technológiáját. A QWCT használatakor az Intel-alapú QNAP NAS ideális inferencia szerver megoldást kínál a szervezetek számára a következtetési rendszerek gyors építése érdekében. Az AI fejlesztők képzett modelleket telepíthetnek a QNAP NAS-ra, továbbá a Mustang-V100 vagy a Mustang-F100 gyorsító kártya segítségével elérhetik az optimális teljesítményt.

Exit mobile version