[Edited 1:26 PM GMT+5] It would appear that the press release was a bit misleading. The actual comparison here is between a 2P system housing two 22-core Xeon CPUs with hyperthreading disabled vs one single Tesla V100. It is still an absolutely substantial speedup and the ramifications are more or less the same but I apologise for the error. Changes have been made in the original text wherever needed. Something that will almost certainly be followed very closely by investors and professionals alike just occurred during a collaboration between Rice University and Intel Corporation. In what appears to be an […]
ผลก็คือ สามารถ ประหยัดค่าใช้ Server ได้อย่างมาก
แต่สำหรับ Dev ทั่วไป ยังคงไปใช้ SLIDE algorithm ไม่ได้ ได้แค่คาดหวังว่า Tensorflow version ต่อไปจะ รองรับ SLIDE algorithm
ดังนั้นวันนี้ Dev ในสายที่ใช้ CPU server ที่มีอยู่แล้ว จึงมีทางเลือก แค่ Tensorflow with AVX 512 ในการคำนวน server ส่วน ถ้าจะ คำนวนบน desktop สำหรับ ขั้น devก็ใช้ Tensorflow with Cuda
ซึ่งในโลกของ AI ไม่มีอะไรที่เกี่ยวข้องกับ AMD เลยแม้แต่น้อย ส่วน dev คนไหน อินดี้ พยายามใช้ CHIP AMD ทำ AI ก็ขอให้โชคดี
ปล ก็ไม่รู้ว่าทำไม ต้องมาพิมพ์เรื่อง ai in real wolrd
ทั้งๆที่แค่มาบอกว่า game ไม่เกี่ยวกับ AVX 512 เลย
ปล ตอนนี้ กำลัง ทำงานวิจัย เรื่อง Server AVX 2 vs Server avx 512 vs Cuda desktop for AI computing
[Edited 1:26 PM GMT+5] It would appear that the press release was a bit misleading. The actual comparison here is between a 2P system housing two 22-core Xeon CPUs with hyperthreading disabled vs one single Tesla V100. It is still an absolutely substantial speedup and the ramifications are more or less the same but I apologise for the error. Changes have been made in the original text wherever needed. Something that will almost certainly be followed very closely by investors and professionals alike just occurred during a collaboration between Rice University and Intel Corporation. In what appears to be an […]
ผลก็คือ สามารถ ประหยัดค่าใช้ Server ได้อย่างมาก
แต่สำหรับ Dev ทั่วไป ยังคงไปใช้ SLIDE algorithm ไม่ได้ ได้แค่คาดหวังว่า Tensorflow version ต่อไปจะ รองรับ SLIDE algorithm
ดังนั้นวันนี้ Dev ในสายที่ใช้ CPU server ที่มีอยู่แล้ว จึงมีทางเลือก แค่ Tensorflow with AVX 512 ในการคำนวน server ส่วน ถ้าจะ คำนวนบน desktop สำหรับ ขั้น devก็ใช้ Tensorflow with Cuda
ซึ่งในโลกของ AI ไม่มีอะไรที่เกี่ยวข้องกับ AMD เลยแม้แต่น้อย ส่วน dev คนไหน อินดี้ พยายามใช้ CHIP AMD ทำ AI ก็ขอให้โชคดี
ปล ก็ไม่รู้ว่าทำไม ต้องมาพิมพ์เรื่อง ai in real wolrd
ทั้งๆที่แค่มาบอกว่า game ไม่เกี่ยวกับ AVX 512 เลย
ปล ตอนนี้ กำลัง ทำงานวิจัย เรื่อง Server AVX 2 vs Server avx 512 vs Cuda desktop for AI computing
งานวิจัยน่าสนใจครับ แนว HPC ส่วนตัวผมมองว่า AVX512 น่าจะมีประโยชน์กับพวกอุปกรณ์ IoT นะครับ เช่นพวกทำ Image Processing ที่ทุกวันนี้ถ้าเล่นท่ายาก ๆ ก็ส่งข้อมูลผ่าน API กลับไปประมวลผลที่ Server
แต่ถ้า เราจะ process ภาพ จาก กล้อง วงจรปิดทั้งติด ว่าใครเข้าออกบ้าง
ซึ่งปกติ กล้อง พวกนี้ ภาพที่ ส่งจาก กล้อง ก็ถูกส่งไป บันทึกที่ Server อยู่แล้ว
แล้วถ้า server สามารถ process ภาพ และ classification ทั้งจำนวนคนเข้าออก รวมถึงใครเข้าออกห้องไหนบ้าง
มันคือ smart building ที่จะเกิด ต่อก็เหลือแค่ว่า เอาไป process ที่ไหน
จริงๆ คนทำ ML ก็รู้ดีอยู่แล้ว ว่าการ เทรน model กับการ deploy process classification มันคนละเครื่องกัน
จะ เทรน Model ด้วย GPU Nvidia แล้วไป run classification บน server แล้วถ้า server มี AVX512 แล้วทำ ไมไม่ ใช้ runtime ด้วย AVX512
Last edited by best0032001; 17 May 2020, 00:37:00.
Comment