Announcement

Collapse
No announcement yet.

New Tigerlake CPU (Willow Cove Microarchitect) Update from CES 2020

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • -
    Last edited by ssk; 20 Mar 2020, 13:13:38.

    Comment


    • ส่วนเรื่องความเข้าใจใน CPU ผมว่าผมรู้อยู่นะ ไม่งั้นคงไม่แยก Unit กับ สัดส่วนชุดคำสั่งเฉพาะไม่ได้หรอก
      แล้วก็เรื่อง AVX-FPU 512 Bits wide กับ SPU 32 Bits wide มันก็ตามนั้นเพราะมันต้องทด 16-32 Cycle Per task
      ถ้า GPU MAIN TASK เป็น 128/256/512 BITS มันก็จะพัฒนาตาม หลักๆก็แค่จับ มา Multiply แล้วใส่ Controller 128/256/512 ลงไป
      ถ้า 3048 CUDA รวมเป็น 512 ก็ได้ ราวๆ 128 Block 512 FPU แล้วไม่ต้องทด ทำงาน 1:1 เหมือนๆกัน มันก็เยอะกว่า 18x4 อยู่ดี
      เข้าใจผิดแล้วครับผม AVX512 Unit ไม่ได้ทำงานอย่างนั้นครับ และ NVIDIA SM Processor ก็ไม่ได้ทำงานอย่างที่ท่านเข้าใจนะครับ
      มันคนละแนวทางกันเลยครับในการทำงานจริง และท่านไม่สามารถที่จะนำมา Multiply แล้วใส่ Controller ได้อย่างที่ท่านอธิบายนะครับ
      คุณต้องเข้าใจก่อนว่ารีจิสเตอร์ขนาด 32 bit กับ 512 bit มันมีความแตกต่างกันอย่างมาก คุณสามารถที่จะใช้ CPU ที่มีรีจิสเตอร์ขนาดกว้าง
      512 bit มาคำนวนข้อมูลชนิด 8/16/32/64/128/256/512 bit ได้ แต่ในทางตรงกันข้าม คุณจะเอารีจิสเตอร์ขนาด 32-bit มาคำนวน
      ข้อมูลชนิด 64/128/256/512 bit ไม่ได้ เพราะขนาดความกว้างรีจิสเตอร์ไม่เพียงพอ ตรงนี้ต้องเข้าใจก่อนนะครับดูภาพข้างล่างจะเข้าใจ



      รีจิสเตอร์ที่มีความกว้างมากกว่า สามารถประมวลผลข้อมูลในระดับความกว้างที่ต่ำกว่าได้
      แต่รีจิสเตอร์ขนาดความกว้างน้อยกว่าไม่สามารถประมวลผลข้อมูลในระดับความกว้างที่สูงกว่าได้


      และการทำงานของ CUDA Core ใน NVIDIA นั้นเขาจะไม่มีการ Fused Register ของ GPU เหมือนกรณี AVX512 ตรงกันข้าม
      เขาจะเน้นการกระจายการทำงานของแต่และ SM Processor ให้ได้มากที่สุด แนวทางที่ท่านคาดเดามามันไม่ใช่นะครับ
      ที่ว่าจะทดแทนกันได้ในอัตรา 1:1 ยิ่งไม่ใช่เลยครับ Output AVX512 ผลลัพธ์ข้อมูลคือ 512-bit แต่ Output SM ผลลัพธ์คือ 32-bit
      ครับ

      Comment


      • ผมทำน้า Comlow ลำบากอธิบายแท้ๆ 555

        ขอโทษด้วยนะน้า อิๆ

        Comment


        • อันนี้ก็ผิดอีกครับ การพัฒนาจะมองที่ LOAD โดยรวมของงานทั้งระบบว่าขั้นต่ำคืออะไร ก็ทดสอบ Optimized ที่ Step นั้น
          ถ้าขั้นต่ำคือ 4 Thread ก็ใช้ CPU 2/4 TEST ถ้าขั้นต่ำ 4/4 ก็ใช้ 4 core TEST ถามว่า 2 Core เล่นได้มั้ย
          ได้แต่ประสิทธิภาพมันก้ได้แค่ครึ่งเดียวของมัน ก็เห็นๆอยู่ว่าเกมมันจะมี Frame rate ได้แค่ใหน
          เอาแค่ผมหมุนงาน 500 Object ด้วย 200GE กับ R3-1200
          ที่นั่งทำอยู่นี่ก็เห็นๆแล้วๆ ครับ
          ผมเข้าใจว่าท่านเล่นเกมส์มากไปครับ จินตนาการเลยเยอะกว่า Fact อย่างที่อธิบายไปครับ ต้องดู ระบบปฏิบัติการ เป็นหลักก่อนนะครับ
          เกมส์ที่ท่านอ้าง ล้วนทำงานบนระบบปฏิบัติการทั้งสิ้น ไม่ได้ทำงานเดี่ยวๆ ถามว่าระบบปฏิบัติการกับเกมส์ อันไหนควรเอามาวัดเป็นบรรทัดฐาน?
          ไม่มีเกมส์ ระบบปฏิบัติการสามารถทำงานได้ครับ แต่เกมส์ถ้าไม่มีระบบปฏิบัติการมันทำงานไม่ได้ ตรงนี้ท่านคงพอจะเข้าใจนะครับ

          การมองสถาปัตยกรรมและเทคโนโลยี ต้องมองที่ระบบปฏิบัติการให้เข้าใจก่อนนะครับ สถาปัตยกรรม CPU และสถาปัตยกรรมระบบปฏิบัติการ
          เป็นของที่พัฒนามาคู่กันเสมอ และท่านต้องศึกษาเรื่องวิศวกรรมซอฟต์แวร์ให้เข้าใจก่อนว่า GOAL ของซอฟต์แวร์คืออะไร
          ุถ้าพัฒนาซอฟต์แวร์ที่มีประสิทธิภาพสูงกับระบบที่มีทรัพยากรน้อยได้ มันย่อมทำงานกับระบบที่มีทรัพยากรมากกว่าได้เป็นอย่างดีและแพร่หลาย
          ตรงกันข้าม ซอฟต์แวร์ที่พัฒนาแล้วต้องอาศัยทรัพยากรระบบสูงมากๆ ก็ไม่สามารถทำงานกับระบบที่มีทรัพยากรต่ำกว่าได้ หรือ ได้แต่ก็ช้ามาก
          ก็ย่อมไม่เป็นที่นิยมแพร่หลายนั่นเอง

          Comment


          • Originally posted by ToehNarak View Post
            ผมทำน้า Comlow ลำบากอธิบายแท้ๆ 555

            ขอโทษด้วยนะน้า อิๆ
            ไม่เป็นไรครับ สนุกดี เห็นความคิดและมุมมองของแฟนๆ AMD เขาก็ฮาดีไปอีกแบบครับ ถือว่าแลกเปลี่ยนกันคลายเหงาเป็นสีสัน

            Comment


            • -
              Last edited by ssk; 20 Mar 2020, 13:13:45.

              Comment



              • อันนี้จากหน้าแรก ซึ่งมันสอดคล้อง กับสิ่งที่ผมพูด อย่างนึง
                คือ 512 Bits = 64 ฺByte ซึ่งการขยายขนาด CACHE LINE
                ก็เพื่อรองรับคำสั่งขนาด 512 Bits Word แแบบนี้ครับ
                ที่ต้องขยายก็เพื่อให้รองรับ Header ของชุดคำสั่งว่าเป็นอะไร
                จึงต้องมีขนาด 2 Word ( header+DATA = 64+64 = 128 Byte )
                ก็แค่ Copy Chace Line 64 byte อีกตัวไปวางข้างๆ แค่นั้นเอง
                ไม่ได้ยกเครื่องอะไร Fect Line เองก็ขยับขึ้นมารองรับ 256 Bits
                เพื่อแยกงงาน ที่ไม่ใช่ 512 BITS ให้ Flow ไปบน Block 512 ฺได้
                ถ้างานมาน้อย ก็เข้าช่องเดียว งานมาเยอะก็ผ่าน 2 ช่อง ไปเจอกันปลายทาง
                Last edited by ssk; 30 Jan 2020, 11:48:49.

                Comment


                • น้า Comlow ตามอ่านมาตั่งแต่หน้าแรกสุดยอดครับแต่ก็เข้าใจบ้างไม่เข้าใจบ้าง แต่อยากจะถามโง่ๆหน่อยครับน้าไม่เข้าใจจริงๆ gpu ทำไมไม่ผลิตมาเป็นซ็อกเก็ตมาแบบ cpu ครับเพราะเหตุผลการตลาด หรึ่อการเปลี่ยนการ์ดจอผ่าน pci แบบเดิมทำง่ายกว่า การ์ดจอผมดูแล้วคล้าย cpu ต้องมี ram ของตัวเองใช้พักขอมูล แล้วใช้ gpu มันประมวลผลข้อมูลร่วมกับชุดคำสังของมัน พอเข้าใจการทำงานของมันบ้างแล้ว ผมไปฟัง https://www.youtube.com/watch?v=MHdEXxbP2dU พี่บังมา แถมต้องกับมาประมวลร่วมกับ cpu อีก ผ่าน pci ทำงานผ่านกันไปผ่านกันมา หน้าจะให้มันเชื่อมต่อผ่านกันใด้โดยตรงจะได้ทำงานใวไม้ต้องรอข้อมูลกันไปมาอีกคลิปหนึ่งของพี่บังผมหาไม่เจอแล้ว พี่บังบอก cpuประมวณผลเสร็จส่งมาให้ gpuผ่านทาง pci ยิ่ง pci line น้อยยิ่งส่งขอมูลช้าต้องพักข้อมูลไว้ที่แรมอีก กับกัน gpu ทำงานเสร็จกับส่งมาให้ cpu อีก เชื่อมต่อผ่านกันใด้โดยตรง คงดีไม่น้อย

                  Comment


                  • ไม่ครับ คำสั่งมันสามารถทำได้ครับ ถ้าคุณรู้เรื่อง Hardware จริงๆ คุณจะไม่พูดแบบนี้ครับ
                    เพราะชุดคำสั่ง X86-64 ก็สามารถ Execute 32 Bit Instruture ได้ครับ
                    555+ ก็แน่นอนสิครับ X86-64 ความกว้างรีจิสเตอร์ 64-bit ทำไมจะไม่สามารถประมวลผลข้อมูล 32-bit ได้ล่ะครับ คุณก็เริ่มเข้าใจแล้วนี่
                    ตรงกันข้าม คุณเอา CPU 32-bit แบบ 486 หรือ Pentium Classic มารันคำสั่ง 64-bit มันรันได้ไหมล่ะ นั่นละสิ่งที่ผมบอก

                    ผมถึงยังไม่ตอยทันที รอคุณเอาอันนี้แหละมา
                    มันแค่ ส่ง BIT-0 ไปจนครับทั้ง Word ครับ แล้วประมวลผลแค่ 32 Bits ครับ
                    คุณเองก็เห็น AIDA TEST ว่าทำไม GPU ถึงประมวลผล Float 64 BITS ได้
                    เพราะมันใช้หลักการทดครับ ทด และ รอ ผมถึงบอกว่ามันต้องใช้ 16-32 cycle ในการจัดการ
                    ซึ่งชุดคำสั่งทุกตัว เมื่อขยาย Word band จาก 8 - 16 -32 - 64-128-256-512 มันก็ต้องใช้ Register ที่รองรับขนาดเข้ามา
                    แต่ Instruction Block architecture มันเป็น BASE ที่ 8 Bits ( BYTE SIZE ) ครับ อันนี้พื้นฐานของพื้นฐานเลย
                    คนทำ PLC จะรู้ดี ว่าถ้าทำงาน Float 16/32 Bits มันจะต้องการพื้นที่ 2-4 Byte ใน Memmory Register
                    ซึ่ง PLC CPU มันประมวลผล 16 BITS ถ้า FPU 31 ฺมันจะกินเวลา 2-4 Scan Time
                    ถึงขนาดรอเลยเหรอครับ 555+ วิธีที่คุณเล่ามามันไม่ได้ครอบจักรวาลนะครับ ถ้าอย่างนั้น CPU รุ่นอื่นๆ
                    ก็คงสามารถประมวลผลข้อมูล AVX512 512-bit กันได้ทั้งหมดแล้ว โดยไม่ต้องมีขนาดรีจิสเตอร์ 512-bit แต่อย่างใด
                    คุณก็ลองเทส CPU Z 1.90.1 x64 AVX512 กับ CPU ที่ไม่สนับสนุนดูสิครับว่ามันทำงานได้ไหม ?

                    ในส่วนการทดสอบ GPGPU ของ AIDA64 นั้นทดสอบผ่าน OpenCL API ครับ ไม่ใช่ Native หรือ Assembly นะครับ
                    มันย่อมมีผลทดสอบตัวเลขที่ได้ออกมาจากการประมาณด้วยตัวคูณของผู้ผลิต Benchmark เขาเป็นสำคัญ ถ้าคุณ RUN ตรงๆ
                    มันย่อมไม่สามารถทำงานได้ เนื่องจากข้อจำกัดของความกว้างรีจิสเตอร์

                    Comment


                    • VGA ondies มันไม่ได้ของใหม่อะไร มันมีมานานแล้วอย่าง Cyrix Media GX
                      ส่วนที่ VGA มันทำไมมาแบบนั้น ก็มันทำงานคนละแบบกับ GPU ครับ
                      LAN network chip กับ Soundchip ก็เหมือนกัน

                      อีกทั้งผู้ผลิตเค้าออกแบบระบบไว้ทั้งหมดในแต่ละ Tier ของเค้าแล้ว
                      ว่าประมาณใหน ให้เหมาะกับระดับราคาและการตลาดครับ
                      การให้ทำงานผ่าน BUS ก็เพื่อให้ยืดหยุ่นกับ VGA แต่ละ TIER ครับ
                      เราไม่ได้ใช้ VGA CARD เท่าๆกันสักตัว มีงบเท่าไหร่ก็จัดไปตามนั้น
                      จริงๆอุปกรณ์บน DIES เองก็เชื่อมผ่าน BUS นะครับ ไม่ได้รวมกันกับ CPU จริงๆ
                      แต่เป็นคนละ Branch คนละ LEVEL กันเท่านั้นครับ
                      แล้ว BUS capacities เค้าออกแบบรองรับเผื่อไว่ 2-3 ปีอยู่แล้วครับ

                      Comment


                      • อ่านแล้วเพลินดีนะแต่สงสัยอย่างเวลาฝั่งนู้นตั้งมู้สกิดฝั่งนี้ไม่เห็นมีคนไปแย้งเหมือนทางนี้บ้างเลยอะ

                        Comment


                        • -
                          Last edited by ssk; 20 Mar 2020, 13:13:55.

                          Comment


                          • เพิ่ม มันเป็นเรื่องทางคณิตศาตรง่ายๆ ครับ
                            พวก Com scine รู้ดี

                            อย่างเรา คูณเลข 1000 ด้วย 10 <*---- นี่ 4 ฺBits นะ ให้พอเข้าใจ
                            มันจะได้ 10000 เป็น 5 Bits ก็เกินชุดคำสังไปแระ มันเก็บยังไง
                            ก็เก็บ แบบนี้ 1 0000 แล้วเวลาจะลบทำไง อย่างลบด้วย 100
                            ก็เอา 1-100 =-99 ก่อน + 1 ฺBits State
                            แล้วเอา 0000 - -99 = +99
                            แล้วเอามาคูณ 1000 = 9900
                            หมดนี่ ใช้ 2 x 4 Bits + 1 state
                            วน 3 รอบ

                            แต่ถ้า 8 BITS ล่ะ
                            ก็ 10000-100 = 9900
                            ก็ ทำรอบเดียวจบ มันก็ไวกว่า

                            มันเจอเรื่องแบบนี้มานามากแล้ว
                            จนเค้าแก้ปัญหาเรื่องการ Execute คำสั่ง หรือ
                            ข้อมูลที่โตกว่า Word Size แบบนี้มานานโครตๆแล้ว
                            ผมถึงบอกไง จะใหญ่จะเล็กมันไม่ใช่สาระ มันอยู่ที่ว่ายอมรอ
                            3-4 Turnหรือจะให้จบใน Turn เดียว

                            ผมก็ยก Software decode สมัย 4K ออกใหม่ๆมาทีนึงล่ะ ว่ามันก็ถอดได้นี่ แต่ CPU แทบใหม้?
                            ลืมรึเปล่า
                            Last edited by ssk; 30 Jan 2020, 13:10:18.

                            Comment


                            • น้า Comlow ตามอ่านมาตั่งแต่หน้าแรกสุดยอดครับแต่ก็เข้าใจบ้างไม่เข้าใจบ้าง แต่อยากจะถามโง่ๆหน่อยครับน้าไม่เข้าใจจริงๆ gpu ทำไมไม่ผลิตมาเป็นซ็อกเก็ตมาแบบ cpu ครับเพราะเหตุผลการตลาด หรึ่อการเปลี่ยนการ์ดจอผ่าน pci แบบเดิมทำง่ายกว่า การ์ดจอผมดูแล้วคล้าย cpu ต้องมี ram ของตัวเองใช้พักขอมูล แล้วใช้ gpu มันประมวลผลข้อมูลร่วมกับชุดคำสังของมัน พอเข้าใจการทำงานของมันบ้างแล้ว ผมไปฟัง https://www.youtube.com/watch?v=MHdEXxbP2dU พี่บังมา แถมต้องกับมาประมวลร่วมกับ cpu อีก ผ่าน pci ทำงานผ่านกันไปผ่านกันมา หน้าจะให้มันเชื่อมต่อผ่านกันใด้โดยตรงจะได้ทำงานใวไม้ต้องรอข้อมูลกันไปมาอีกคลิปหนึ่งของพี่บังผมหาไม่เจอแล้ว พี่บังบอก cpuประมวณผลเสร็จส่งมาให้ gpuผ่านทาง pci ยิ่ง pci line น้อยยิ่งส่งขอมูลช้าต้องพักข้อมูลไว้ที่แรมอีก กับกัน gpu ทำงานเสร็จกับส่งมาให้ cpu อีก เชื่อมต่อผ่านกันใด้โดยตรง คงดีไม่น้อย
                              เหตุผลที่ GPU ทำไมไม่ผลิตมาเป็นซ็อกเก็ตมาแบบ CPU เพื่อให้อัพเกรดได้ง่ายๆ เหมือน CPU คงจะมาจากเหตุผลทางด้านการตลาดของผู้ผลิต GPU เป็นสำคัญครับ
                              ถ้าผลิต GPU ในรูป Socket ออกมา ผลกำไรที่จะได้รับอาจจะไม่คุ้มค่าเหมือนการผลิตเป็น Extension Card แบบในปัจจุบัน ในกราฟิกการ์ด 1 ใบ ถ้าเราพิจารณาดีๆ จะพบ
                              องค์ประกอบหลักๆ หลายอย่างที่สามารถเอื้อประโยชน์ในการทำกำไรให้กับผู้ผลิต GPU ได้มาก ไม่ว่าจะเป็นภาคจ่ายไฟ Video RAM ชุด DAC (Digital Analog Converter)
                              พัดลม ฮีตซิงค์ ฯลฯ ตัวแพกเกจชิพ GPU เพียวๆ อาจจะมีราคาหลักพัน แต่เมื่อรวมส่วนประกอบทั้งหมดออกมาเป็นกราฟิกการ์ดอาจจะอัพราคาไปถึงหลักหมื่นหลักแสนบาท
                              กันเลยก็มีในท้องตลาดครับ

                              สำหรับแนวทางที่ท่าน pingee กล่าวมาก็มีการผลิตออกมาเหมือนกันครับ เช่น iGPU ของ Intel หรือ Vega8 ใน Ryzen G แต่ข้อจำกัดของการพัฒนาชิพในลักษณะ iGPU และ
                              APU นี้ก็มีเหมือนกันครับ คือ ถ้าเราสังเกตุให้ดีกราฟิกการ์ดในลักษณะนี้มักมีประสิทธิภาพค่อนข้างต่ำ และมันไม่สามารถที่จะเอาสถาปัตยกรรม GPU ขนาดใหญ่ที่ซับซ้อนมายุบรวม
                              วงจรกับ CPU ที่ซับซ้อนมากๆ ในแพกเกจเดียวกันได้ หรือต่อให้สามารถจะทำได้จริงๆ ความเร็วในการทำงานก็จะต่ำมากๆ เนื่องจากหากจะดันให้ทำงานที่ความเร็วสูงมากๆ ความร้อน
                              ที่จะเกิดขึ้นก็จะมากขึ้นเป็นเงาตามตัว ความเสี่ยงที่วงจรการทำงานของ CPU หรือ GPU จะเสียหายถาวรอย่างรวดเร็วก็จะตามมานั่นเอง ยอดเคลม CPU ในลักษณะนี้ก็จะสูงตามมา
                              ทำให้ผลกำไรของผู้ผลิตลดลงอย่างมีนัยยะเลยทีเดียวครับ

                              และถ้าสังเกตุให้ดีๆ อีกอย่าง ส่วนใหญ่ APU หรือ iGPU แม้ว่าจะ Integrated วงจรเข้ากับตัว CPU Die ดังภาพข้างล่างนี้ แทนที่ความเร็วทำงานจะเพิ่มขึ้นเท่ากับตัว CPU Clock
                              กลับกลายเป็นว่าความเร็วในการทำงานของตัว GPU กลับต่ำกว่ากราฟิกการ์ดที่มี GPU ระดับเดียวกันแยกจำหน่ายเสียอีก ทั้งๆ ที่ CPU Die และ GPU Die อยู่ใกล้ๆ กันแนบสนิทดังภาพ



                              ตัวอย่าง Ryzen G จาก AMD ครับ


                              ตัวอย่าง Icelake Core i7 1065G7 จาก Intel ครับ

                              ที่กล่าวมานี้จึงน่าจะเป็นเหตุผลหลักๆ ที่ผู้พัฒนา GPU และผู้ผลิตกราฟิกการ์ดส่วนใหญ่ ไม่นิยมผลิตกราฟิกชิพประสิทธิภาพสูงในรูปแบบ integrated graphic ออกจำหน่ายครับ

                              Comment


                              • ทำงานได้ครับ ถ้าใช้ VM Emulate ครับ พูดแบบนี้แปลว่าคุณไม่รู้ว่าการพัฒนาชุดคำสั่งเค้าทดสอบด้วย VM Emulate ทั้งนั้นครับ
                                ยิ่งพวก RISC อย่าง ARM นี่ใช้ Software Emulate ชุดคำสั่งซักบซ้อนอื่นๆทั้งนั้นครับ
                                รบกวนลองให้ชมเป็นขวัญตาด้วยครับแบบในภาพนี้สักเล็กน้อยครับ คงไม่ยากเกินไปนะครับ ขอเป็น CPU AMD รุ่นไหนก็ได้ครับ



                                พี่น้องชาว Intel ทุกท่าน เรากำลังจะได้พบความมหัศจรรย์กันแล้วครับจากท่าน SSK โดยท่านได้กล่าวว่า CPU AMD หรือ CPU รุ่นอื่นๆ ที่ไม่สนับสนุน
                                คำสั่ง AVX512 สามารถทำงานกับ CPU-Z AVX512 Benchmark ได้ผ่าน VM Emulate เดี๋ยวมารอชมภาพประวัติศาสตร์จากท่าน SSK กันนะครับ


                                ซึ่งถ้า เราเขียน VM ให้ 486 Emulate ได้ มันก็ทำได้ เพียงแต่ไม่มีครทำกัน การพัฒนา Hardware มันไม่ใช่การ
                                สร้างชุดคำสั่งขึ้นมาทันทีครับ ไม่มีไครทำนานแล้ว เค้าแค่เขียน VM ให้ CPU ที่มี AVX 256 ทำการจำลองการทำงาน
                                พระเจ้าช่วย !!! เขียน VM ให้ 486 Emulate ให้สามารถประมวลผลคำสั่ง AVX512 ได้ โอโห้ 486 เป็น CPU ที่ยังไม่ได้เป็น Super Scalar เลยนะครับพี่น้อง สามารถประมวลผล
                                คำสั่ง AVX256 AVX512 ได้เลย ผมฟังแล้วขนลุก
                                ท่าน SSK 555+ กินยาผิดซองไหมครับเนี่ย

                                ก็ Nvidia เค้ารองรับ Open CL นี่ครับ งงตรงใหน? คำสั่ง Open CL มันครอบคลุม Float 64 Bits อยู่แล้ว
                                มันไม่ได้ไปกะเกณท์แบบที่คุณว่า แต่มันสั่งให้ GPU คำนวนตามชุดคำสั่งไปครับ แล้ววัดผล Out PUT
                                มัน RUN ได้ครับ ทำได้มานานแล้วด้วย ตั้งแต่ยุค 8088/8086 แล้วครับท่าน
                                ผมก็บอกแล้วว่าสมัยนี้มันไม่มีไครเขียนโปรแกรมเข้าถึว Microcode มันเรียกผ่าน VM ทั้งนั้นครับ
                                ผมยกตัวอย่าง PLC มาเพราะมันยังใช้ภาษาบราณอย่าง Ladder ที่ต้องเข้าใจ MAchine Charecter ของชุดคำสั่ง
                                เพราะมันเป็นการเขียนสั่งงานอุปกรณ์โดยครง ไกล้เคียง Assembly ที่สุดแล้วครับ

                                ซึ่งมันต้องรอจริงๆครับ จนกว่าสถานะ Process ของแต่ละส่วนจะ Done มันถึงจะส่งข้อมูลกลับไปทำงานขั้นต่อไป
                                นี่คือของจริงครับ ไม่งั้น 8 BIts Micro controller จะประมวลผลคำสั่ง 16 Bits ได้ยังไง มันมีหลักการคำนวนกร่อนค่ากันอยู่ครับ
                                ง่ายๆเหมือนเราคิดเลขนั่นแหละ มีการทดลงใน Bits State ครับ ต้องทำซ้ำตามลำดับถัดไปจนหมด ชุดข้อมูล

                                ผมอธิบายอย่างละเอียดแล้วครับ ลองกลับไปอ่านดู รวมทั้งบอกถึงเหตุผลที่เขาทำไมต้องขาย Chace lane อื่นๆครบถ้วน
                                555+ ผมละทึ่งจริงๆ เหมือนดูหนัง ยิปมัน ปะทะ หวงเฟยหง ปะทะ เฉินเจิน เลยครับ

                                ผมขอปูเสื่อรอชม VM Emulate รัน CPUZ 1.90.1 AVX512 จากท่าน SSK ล่ะครับ
                                Last edited by Comlow; 30 Jan 2020, 13:26:03.

                                Comment

                                Working...
                                X