Tech Trending

‘ชิปซิลิคอน’ อีกหนึ่งตัวแปรสำคัญที่ผู้ให้บริการคลาวด์ใช้แข่งขันในตลาด

Published : September 21, 2023Time : 5 min read

บทความนี้แปลจากบทความ "The future of the cloud sure looks like it'll be paved in even more custom silicon" ของ Tobias Mann

อุตสาหกรรมคลาวด์และ datacenter ถือกำเนิดมาเป็นระยะเวลาเกือบ 20 ปีแล้ว โดยมี AWS เป็นผู้นำในท้องตลาด ซึ่งก่อตั้งขึ้นในเดือนมีนาคม ปี ค.ศ. 2006 ในปัจจุบันบริษัทเหล่านี้เติบโตจนมีขนาดใหญ่มากขึ้น ทำให้การลดต้นทุนเพียงเล็กน้อยอาจจะส่งผลต่อกำไรสุทธิในปริมาณมาก โจทย์ที่บริษัทเหล่านี้พบเจอมากขึ้นคือ จะทำอย่างไรให้สามารถรักษาประสิทธิภาพที่ดีและมีต้นทุนที่ต่ำลงได้

ในวงการเทคโนโลยีคลาวด์ล่าสุด มีการเลือกใช้แร่ซิลิคอนผลิตสารกึ่งตัวนำ (semiconductor) หรือชิป ซึ่งแร่ซิลิคอนนี้ถือเป็นวัตถุดิบชั้นดีในการผลิต CPU เนื่องจากมีความทนทานต่ออุณหภูมิที่สูง นำประจุไฟฟ้าได้ดี และเป็นที่นิยมอย่างสูง สามารถพบเห็นได้ในอุปกรณ์คอมพิวเตอร์ อุปกรณ์อิเล็กทรอนิกส์ และหน่วยประมวลผลกลางอย่าง CPU ข้อเท็จจริงนี้เผยให้เห็นผ่านผู้ให้บริการคลาวด์รายใหญ่ที่มีการใช้งานชิปดังกล่าวภายในองค์กรหลากหลายรูปแบบ ตั้งแต่การประมวลผลทั่วไป (general compute) เครือข่าย (networking) การเก็บข้อมูล (storage) และการพัฒนา AI

Baron Fung นักวิเคราะห์จาก Dell’Oro ระบุว่าเทรนด์นี้มีแนวโน้มที่จะเร่งตัวขึ้นในอีกไม่กี่ปีข้างหน้า เนื่องจากผู้ให้บริการคลาวด์และ hyperscaler ต้องการจะลดความเสี่ยงจาก supply chain ของตัวเอง อย่างไรก็ตาม การพัฒนายังอยู่ในช่วงเริ่มต้นและยังคาดเดาไม่ได้ว่าชิปรูปแบบไหนจะกลายมาเป็นส่วนประกอบหลักของธุรกิจ โดยมี Graviton ที่คาดว่าจะเข้ามาแทนที่ instance บน EC2 นำร่องไปก่อน 20% แต่ AWS ไม่ใช่ผู้ให้บริการเพียงรายเดียวที่ทำเช่นนี้

ในเวลาเดียวกันนี้เอง Google ก็ได้เปิดตัวตัวเร่ง AI/ML รุ่นที่ห้า ที่มีชื่อว่า Tensor Processing Unit (TPU) ส่วนทางด้านจีนนำโดย Alibaba Cloud, Baidu และ Tencent ก็กำลังดำเนินการนำซิลิคอนมาปรับใช้ ตั้งแต่การเร่งการใช้งาน AI ไปจนถึงการเพิ่มประสิทธิภาพการประมวลผลข้อมูล รวมไปถึง ARM CPU โดยล่าสุดมีข่าวว่า Microsoft เปิดรับสมัครวิศวกรไฟฟ้าหลายอัตราเพื่อพัฒนาชิปสำหรับ datacenter ซึ่งมีความคาดหวังว่าจะสามารถแข่งขันกับ Graviton ได้

คลาวด์ซิลิคอนจำนวนมากจะกลายเป็นชิปหลังบ้าน

ขณะที่ชิปอย่าง Graviton เป็นตัวอย่างสำคัญที่แสดงให้เห็นว่า hyperscaler ต้องการเพิ่มประสิทธิภาพของ compute infrastructure แต่ชิปกลับกลายสิ่งที่ผิดแผกไปจากกลุ่ม ชิปส่วนใหญ่พัฒนาโดยผู้ให้บริการคลาวด์รายใหญ่และออกแบบมาเพื่อการใช้งานภายในองค์กรเท่านั้น โดยปราศจากความคิดเห็นและมุมมองจากฝั่งลูกค้าหรือผู้ใช้งาน

หน่วยประมวลผลข้อมูล (data processing unit : DPU) และ smartNICs เป็นตัวอย่างสำคัญที่ผู้ให้บริการคลาวด์และ hyperscaler เกือบทุกรายในตลาดได้พัฒนา NIC ที่สามารถปรับแต่งเองได้และใช้งานร่วมกับเซิร์ฟเวอร์เพื่อลดการประมวลผล IO (input/output)

AWS นั้นมี Nitro Card เป็นของตัวเอง ขณะที่ Google ได้รับ smartNICs รุ่นพิเศษจาก Intel smartNICs แบบปรับแต่งเองได้ ซึ่งสามารถขับเคลื่อน Accelerated Networking stack ของ Microsoft Azure และบริษัทที่เข้าซื้อกิจการสตาร์ทอัป DPU Fungible ในช่วงเดือนมกราคม 2023 โดยหน้าที่หลักของอุปกรณ์เหล่านี้คือป้องกันไม่ให้บริการ storage, networking และ security ถูกรบกวนจากวงจรของ CPU ที่อาจส่งผลต่อการใช้งานของผู้ใช้บริการ

ในบางกรณี ฟีเจอร์ที่ลูกค้าใช้อย่าง high-speed storage network หรือ cryptographic offload เช่น AWS Nitro TPM อาจเชื่อมโยงถึง instance ที่การ์ดเหล่านี้สนับสนุนอยู่ อย่างไรก็ตาม ผู้ใช้งานปลายทาง (end user) แทบจะไม่รู้เรื่องการทำงานอะไรเลยของชิปเหล่านี้ เนื่องจากเป็นการปรับแต่งค่าหลังบ้าน ซึ่งฟุงกล่าวว่าขณะที่ลูกค้าสามารถใช้งานคลาวด์จากชิปเหล่านี้ ก็จะมีการปรับให้เหมาะสมกับปริมาณงานภายในของผู้ให้บริการคลาวด์ก่อน

และขณะที่การเทรน LLM ที่สามารถปรับจูนได้เพื่อให้เหมาะกับการขับเคลื่อนแชตบอต เช่น ChatGPT อย่าง Google Bard หรือ Bing Chat กำลังได้รับความนิยมอย่างมากในขณะนี้ แต่ผู้ให้บริการคลาวด์ก็ได้ใช้ประโยชน์จากฟังก์ชันของ Machine Learning มาหลายปีแล้ว เช่น เครื่องมือแนะนำและการประมวลผลภาษาที่เป็นธรรมชาติ (natural language processing)

“เรามีกรรมสิทธิ์ภายในมากมาย อย่างการวิเคราะห์ด้วยเสียงของ Alexa บน Inferentia การค้นหาในเว็บ amazon.com ก็รันอยู่บน Inferentia คำแนะนำที่คุณเห็นในเว็บ amazon.com เกี่ยวกับสินค้าและสิ่งของต่าง ๆ ที่คุณอาจสนใจ ก็รันอยู่บน Inferentia” Chetan Kapoor ผู้อำนวยการฝ่ายการจัดการผลิตภัณฑ์สำหรับ Amazon EC2 กล่าว

ชิปซิลิคอนจะยังไม่แทนที่ชิปในท้องตลาด

สำหรับชิปซิลิคอนที่สามารถปรับจูนได้ ไม่ว่าจะเป็นโพรเซสเซอร์ทั่วไปอย่าง Graviton ของ AWS หรือชิป ML ที่สร้างขึ้นตามวัตถุประสงค์อย่าง TPU ของ Google เพื่อให้เกิดความสมเหตุสมผลในด้านของต้นทุนและค่าใช้จ่าย การจะเกิดความคุ้มค่าได้จำเป็นต้องมีการใช้งานขนาดใหญ่ระดับผู้ให้บริการ hyperscaler

นอกจากนี้ ฟุงยังกล่าวอีกว่า “สำหรับอุปกรณ์ที่ใช้งานทั่วไปบางอย่าง เช่น CPU และ NIC การสร้างอุปกรณ์เหล่านี้ขึ้นมาเองเมื่อธุรกิจสามารถขยายจนถึงขนาดที่สามารถมองเห็นความคุ้มค่าแล้ว ก็เป็นสิ่งที่สมเหตุสมผล”

ฟุงวางจุดเปลี่ยนไว้ที่ประมาณหนึ่งล้านหน่วยต่อปี อย่างไรก็ตาม เขาตั้งข้อสังเกตว่าสำหรับผลิตภัณฑ์ประมวลผลเฉพาะกลุ่ม (niche) ผู้ให้บริการคลาวด์อาจได้รับแรงจูงใจมากขึ้นจากการมี supply chain ที่กว้างขึ้น และต้องการที่จะกระจายความเสี่ยงจากการมีหลากหลายฮาร์ดแวร์ stack

กล่าวอีกนัยหนึ่งก็คือ ชิปซิลิคอนนี้เป็นเหมือนวิธีการป้องกันความเสี่ยงให้กับผู้ให้บริการคลาวด์ โดยเฉพาะอย่างยิ่งในตลาดที่ครอบงำโดยผู้จำหน่ายรายเดียว เช่น Nvidia เมื่อมองไปในอนาคตข้างหน้า “ผมคิดว่าเราจะได้เห็นการใช้งานตัวเร่งแบบกำหนดเองมากขึ้น” ฟุงเสริม

อย่างไรก็ตาม เขาไม่ได้คาดหวังว่าชิปซิลิคอนจะเข้ามาแทนที่ผู้ผลิตชิปอย่าง Intel, AMD หรือ Nvidia แม้ว่า Nvidia จะสร้างกระแสมากมายเกี่ยวกับ GPU ที่เกิดจากระบบนิเวศซอฟต์แวร์ที่แข็งแกร่ง ด้วยเหตุนี้ โมเดลภาษาขนาดใหญ่ส่วนใหญ่ในปัจจุบันจึงทำงานบนฮาร์ดแวร์ของ Nvidia

ดังนั้น จึงไม่น่าแปลกใจเลยที่ผู้ให้บริการระบบคลาวด์ไม่เพียงแค่ลงทุนเพื่อการผลิตชิปของตัวเองเท่านั้น แต่ยังซื้อชิปรุ่น A100 และ H100 ของ Nvidia ในปริมาณมหาศาลอีกด้วย ทางด้าน Google เองก็มีการวางแผนที่จะปรับใช้ GPU H100 จำนวน 6,569 เครื่อง เพื่อขับเคลื่อนซูเปอร์คอมพิวเตอร์ A3 และ AI ซึ่งในที่สุดจะขยายเป็น 26 ExaFLOPS ของสิ่งที่เราถือว่าเป็นประสิทธิภาพ FP8

ในขณะเดียวกัน Microsoft กำลังใช้งาน "GPU Nvidia A100 และ H100 นับหมื่น" เพื่อขับเคลื่อนการให้บริการ AI ศูนย์วิจัย AI ของ Meta ใช้ Nvidia A100 จำนวน 16,000 เครื่อง และมีรายงานจากโซเชียลเน็ตเวิร์กว่ามีกำลังซื้อ H100 จำนวนมหาศาลเพื่อใช้ในแพลตฟอร์มเซิร์ฟเวอร์ Grand Teton

จากที่กล่าวไว้ข้างต้น กาปูร์กล่าวว่าความต้องการฮาร์ดแวร์สำหรับ generative AI กำลังผลักดันการเติบโตของตัวเร่งที่สามารถกำหนดเองได้ของ AWS เป็นอย่างมาก “เราเริ่มเห็นความสนใจที่คล้ายคลึงกันจากลูกค้าที่ใช้การประมวลผลขนาดใหญ่ในปัจจุบัน และรู้สึกตื่นเต้นกับโอกาสในการลดต้นทุนหรือการเข้าถึงความสามารถในการประมวลผลโดยทั่วไป” เขากล่าวถึง Trainium

อนาคตของคลาวด์ซิลิคอน

เมื่อมองไปในอนาคต ฟุงคาดหวังว่าปัจจัยหลายประการจะขับเคลื่อนการพัฒนาคลาวด์ซิลิคอน ตั้งแต่ข้อจำกัดด้านพลังงานและพื้นที่ ความต้องการ AI และปัญหาทางภูมิรัฐศาสตร์

ในสหรัฐอเมริกา ฟุงคาดการณ์ว่าการพัฒนาจำนวนมากจะมุ่งเน้นไปที่ตัวเร่ง AI ซึ่งส่วนใหญ่จะเป็นกลุ่ม hyperscaler และผู้ให้บริการคลาวด์รายใหญ่ที่สุด เขาคาดว่าผู้เล่นรายเล็กมีแนวโน้มที่จะยึดติดกับซิลิคอนในท้องตลาดจากผู้ผลิตชิปรายใหญ่อยู่

ฟุงไม่ได้คาดหวังว่าที่จะมีคู่แข่งขันจำนวนมากนักสำหรับ CPU Graviton ของ AWS ที่มาจากผู้ให้บริการระบบคลาวด์ “มีข่าวลือเกี่ยวกับ hyperscaler ที่พัฒนา ARM CPU ของตัวเองอยู่เสมอ แต่ตอนนี้มีทางเลือกอื่น” เขากล่าว โดยชี้ไปที่ ARM CPU ที่พร้อมใช้งานจาก Ampere และการพัฒนาที่เป็นไปได้จาก Qualcomm และ Marvell ตลาด CPU จะมีความแตกต่างมากกว่าแต่ก่อน หลังจากที่ AWS เปิดตัว Graviton ในปี ค.ศ. 2018

ข้อยกเว้นเพียงอย่างเดียวคือประเทศจีน ความกดดันทางภูมิรัฐศาสตร์จากตะวันตกได้ผลักดันผู้ให้บริการคลาวด์รายใหญ่หลายรายและผู้ปรับขนาดเว็บ (webscaler) ให้พัฒนาซิลิคอนแบบปรับแต่งเองได้ทุกรูปแบบ เนื่องจากกลัวว่าจะถูกตัดขาดจากชิปที่พัฒนาโดยสหรัฐฯ “เราน่าจะได้เห็นการติดตั้ง ARM แบบกำหนดเองมากขึ้นในจีนเป็นพิเศษ” เขากล่าว

ฤดูใบไม้ร่วงที่แล้ว เราได้เรียนรู้ว่า Alibaba Cloud วางแผนที่จะเปลี่ยนระบบประมาณหนึ่งในห้าไปใช้โพรเซสเซอร์ Yitian 710 ของบริษัท ย้อนกลัวไปในปี ค.ศ. 2021 ประกาศว่าชิปมีคอร์ Armv9 จำนวน 128 คอร์ ความเร็วสัญญาณนาฬิกา (clock speed) 3.2GHz และรองรับ DDR5 และ 96 PCIe 5.0 เลน

อย่างไรก็ตาม ดังที่ ARM ได้ระบุไว้ในการยื่น IPO ที่ผ่านมาว่ามีความเป็นไปได้ว่ากฎระเบียบของสหรัฐฯ อาจจำกัดความสามารถในการทำธุรกิจที่สหราชอาณาจักรกลางเพิ่มเติม บริษัทถูกห้ามไม่ให้ออกใบอนุญาตศูนย์ข้อมูล Neoverse ที่ได้รับความนิยมสูงสุดในประเทศแล้ว

จีนตระหนักดีถึงความเป็นไปได้นี้ ในเดือนธันวาคม มีรายงานว่ารัฐบาลจีนได้ใช้ Alibaba และ Tencent เพื่อออกแบบชิป RISC-V ที่ป้องกันการคว่ำบาตร

ที่มา

https://www.theregister.com/2023/09/12/the_future_of_the_cloud/?td=keepreading

AUTHOR
Author
Sorawit Pakdeeasa
Content Writer

A passive(-aggressive) learner & a ramyeon lover