สถาบันข้อมูลขนาดใหญ่ (องค์การมหาชน)

Logo BDI For web

Cloud กับการประมวลผลขนาดยักษ์ สร้าง HPC ขึ้นมาใหม่ได้อย่างไร

Apr 11, 2022
เทคโนโลยี Cloud-HPC คือ อะไร
Cloud กับการประมวลผลขนาดยักษ์ สร้าง HPC ได้อย่างไร

ก่อนอื่นเรามารู้จักกันก่อนว่า HPC คืออะไร HPC นั้นย่อมาจาก High-Performance Computing เป็นเทคโนโลยีเพื่อการคำนวณและประมวลผลด้วยความเร็วสูง ซึ่งโครงการที่ใช้การประมวลผลระดับสูงนั้นต้องใช้ทรัพยากรในการประมวลผลอย่างมาก การทำ Simulation การหาฮาร์ดแวร์ที่ใช้เฉพาะทาง ผนวกกับพลังแห่งระบบ Cloud นี่แหละที่จะขับเคลื่อนอนาคต ( เทคโนโลยี Cloud-HPC คือ อะไร )

เมื่อประมาณ 25 ปีที่แล้ว เทคโนโลยี Open Source บางอย่างถูกเอามาใช้รวมกันเพื่อสร้างระบบ E-commerce ที่แข็งแกร่ง ซึ่งในที่สุดมันก็กลายเป็นธุรกิจและมันก็จะดูดเงินคุณด้วย ถูกขนานนามว่า LAMP stack (ชุดของ Software 4 ตัวที่มารวมกันเพื่อทำ Web Server ที่เราใช้กันอยู่นี่แหละ ซึ่งประกอบด้วย Linux, Apache HTTP Server, MySQL และ PHP / Perl / Python) การรวม Open Source นี้กลายเป็นชุดมาตรฐานสำหรับนักพัฒนารุ่นสู่รุ่น

แต่อย่าดูเพียงแค่ในปัจจุบัน เพราะเราอาจจะอยู่ในจุดบนสุดของ LAMP stack อีกยุคนึง อย่างไรก็ตาม คราวนี้เราไม่ได้โฟกัสที่จะหาวิธีสร้างเว็บขายอาหารสุนัขออนไลน์ในรูปแบบใหม่ แต่เรากำลังอยู่ในยุคเรเนซองส์ ยุคแห่งการจัดการกับปริมาณงานขนาดใหญ่ที่ซับซ้อน ซึ่งใช้ทรัพยากรในการประมวลผลมหาศาล การสร้างวัคซีน COVID-19, เครื่องบินเจ็ตความเร็วเหนือเสียงรูปแบบใหม่, ยานยนต์ไร้คนขับ โลกของวิทยาศาสตร์และวิศวกรรมกำลังนำเสนอนวัตกรรมใหม่ ๆ  ด้วยความเร็วที่แทบไม่เคยเห็น หรือเป็นมาก่อน

จุดเริ่มต้นของ ‘การประมวลผลขนาดใหญ่’ หรือ ‘เทคโนโลยีขั้นสูง’

Cloud อาจเป็นคำอธิบายที่ง่ายเกินไป สำหรับสิ่งที่เกิดขึ้น เราไม่ได้จดบันทึกอย่างหลักแหลมเพื่อการเปลี่ยนแปลงนี้ เช่น LAMP stack สำหรับอินเทอร์เน็ต บางสิ่งที่เป็นเรื่องซับซ้อนระดับความรู้ปริญญาเอกได้ถูกปลดปล่อย เพื่อนำไปสู่การคิดค้นเครื่องมือประมวลผลที่มีความซับซ้อนมหาศาล เพื่อขับเคลื่อนงานด้วย Algorithm มันเปลี่ยนชีวิตของเราในวิถีที่ลึกซึ้งกว่า Friendster รุ่นแรกที่เป็น Social Network สมัย 10-20 ปีที่แล้วหรือ Pets.com เคยทำไว้

เทคโนโลยี Cloud-HPC คือ อะไร
หน้าเว็บไซต์ Friendster (Marketing Oops!, 2008)

HPC เป็นสิ่งที่พบบ่อยที่สุดเมื่อพูดถึงเรื่องทำงานที่ต้องประมวลผลมาก ๆ ก่อนหน้าที่ Public Cloud จะกลายเป็นแพลตฟอร์มที่ใช้งานได้สำหรับแอปพลิเคชันใหม่เหล่านี้ เมื่อเราลองสแกนรายชื่อซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลก 500 อันดับแรก แล้วคุณจะเห็นจำนวนเพิ่มขึ้นเรื่อย ๆ ขึ้นอยู่กับระบบ Cloud ไม่ทั้งหมดนี้ใช่เรื่องบังเอิญ: ซูเปอร์คอมพิวเตอร์ในองค์กรและกลุ่ม Linux ขนาดใหญ่มีมานานหลายทศวรรษแล้ว มีมาก่อนหน้ายุค E-Commerce ด้วยซ้ำ เทรนด์ใหม่นี้บางครั้งก็เรียกว่า “การประมวลผลขนาดใหญ่” หรือ “เทคโนโลยีขั้นสูง” ก็ขึ้นอยู่กับ Cloud

บริษัทที่ปรึกษา BCG กล่าว “พลังประมวลผลที่เพิ่มขึ้นกับต้นทุนที่ลดลงและการเพิ่มขึ้นของแพลตฟอร์มเทคโนโลยีเป็นปัจจัยสำคัญที่สุด ซึ่ง Cloud Computing ก็กำลังปรับปรุงประสิทธิภาพอย่างต่อเนื่องและขยายขอบเขตการใช้งาน”

แต่ Stack หรือชุดซอฟท์แวร์อันใหม่นี้ไม่ได้เกี่ยวกับ Cloud เท่านั้น แต่ยังขึ้นอยู่กับ 3 เทคโนโลยีเมกะเทรนด์ที่เติบโตอย่างรวดเร็ว นั่นคือ ซอฟต์แวร์จำลองสถานการณ์เสมือนจริง (Simulation Software), ฮาร์ดแวร์ที่ถูกออกแบบมาเฉพาะด้าน (Specialized Hardware), และระบบ Cloud ซึ่งสิ่งเหล่านี้คือโครงสร้างทางเทคโนโลยีที่ทีมวิจัยและทีมวิทยาศาสตร์ที่มีการปรับตัวอยู่ตลอดเวลากำลังใช้ประโยชน์อยู่ทุกวันนี้ และเป็นเหตุผลที่บริษัท Startup หลายร้อยรายได้ปรากฏตัวขึ้นเพื่อเขย่าอุตสาหกรรมที่มีมายาวนานเมื่อสิบกว่าปีที่แล้ว

สิ่งนี้แหละที่จะช่วยให้โลกวิศวกรเคลื่อนเร็วขึ้น

เช่นเดียวกับช่วงเวลาที่ LAMP สร้างความมหัศจรรย์ในโลกอินเทอร์เน็ตในอดีต ช่วงเวลาแห่งการประมวลผลขนาดใหญ่ / เทคโนโลยีชั้นสูงของวันนี้ล้วนเกี่ยวข้องกับประสิทธิผลทางวิศวกรรม ซึ่ง Cloud ก็เป็นปัจจัยสำคัญ แม้ว่าเพียงแค่ Cloud อย่างมันจะยังไม่พอก็ตาม

ยกตัวอย่างเช่น การบินและอวกาศ ตามปกติแล้ว วิศวกรด้านการบินและอวกาศจะพึ่งพากลุ่ม HPC ภายในองค์กรเพื่อจำลองตัวแปรที่จำเป็นทั้งหมดเกี่ยวข้องกับการขึ้นและลงจอด เพื่อออกแบบเครื่องบินไอพ่นความเร็วเหนือเสียง ในทางตรงกันข้ามบริษัทด้านการบินและอวกาศที่เพิ่งเริ่มต้นมุ่งตรงไปที่ Cloud ด้วยโครงสร้างพื้นฐานที่ยืดหยุ่น ซึ่งช่วยให้พวกเขาสร้างแบบจำลองและจำลองแอปพลิเคชัน โดยไม่ต้องเข้าคิวรอที่จะใช้ฮาร์ดแวร์ HPC พิเศษตามบริษัทอื่น เท่านั้นยังไม่พอเวลาในการสร้างและบำรุงรักษาฮาร์ดแวร์ก็น้อยลง ทำให้เรามีเวลาทดลองมากขึ้น นั่นคือความงดงามของแนวทางการประมวลผลของ Cloud ขนาดใหญ่

ควบคู่ไปกับซอฟต์แวร์จำลอง Simulation ที่หลากหลายช่วยให้เราสามารถสร้างโมเดลนวัตกรรมใหม่ ๆ ก่อนที่จะต้องสร้างต้นแบบที่มีความซับซ้อนทางกายภาพขึ้นมาจริง ๆ ฮาร์ดแวร์เฉพาะทางที่สร้างขึ้นในวันที่กฎของมัวร์ไม่เป็นจริง (Moore’s Law runs out of gas) ซึ่งเป็นตัวขับเคลื่อนการจำลองที่ซับซ้อนด้วย Algorithm และด้วยเทคโนโลยี Cloud นี่แหละที่ช่วยให้เราหลุดจากการต้องใช้ซูเปอร์คอมพิวเตอร์และกลุ่มในองค์กร เพราะจากเดิมที่เราต้องสร้างซูเปอร์คอมพิวเตอร์กับฮาร์ดแวร์เอง เราก็เปลี่ยนมาใช้ Cloud แทน มันทำให้ง่ายต่อการสร้างและเรียกใช้โมเดล ทำซ้ำ และปรับปรุง และเรียกใช้อีกครั้งก่อนที่จะสร้างต้นแบบทางกายภาพ (ขอชี้แจงก่อน ว่าจุดหมายส่วนใหญ่ของการประมวลผลขนาดใหญ่หรือเทคโนโลยีชั้นสูง คือการสร้างสิ่งของที่จับต้องได้จริง ๆ ไม่ใช่ซอฟต์แวร์)

สิ่งที่ยุ่งยากตรงนี้คือการปรับเปลี่ยนฮาร์ดแวร์และซอฟต์แวร์เพื่อให้มันทำงานและสร้างกระบวนการที่ซับซ้อนเองได้ เพื่อให้เกิดประสิทธิภาพสูงสุดในตัวซอฟท์แวร์และฮาร์ดแวร์เอง ประเภทของงานที่อัดแน่นด้วย Algorithm เหล่านี้ต้องการ GPU ที่เป็นหน่วยประมวลผลกราฟิก (Graphics Processing Unit) ที่เชี่ยวชาญเป็นพิเศษและสถาปัตยกรรมชิปที่ใหม่กว่า เหล่าบริษัทที่จ้างคนระดับดอกเตอร์แพงหูฉี่มาออกแบบเครื่องยนต์กังหันหรือไอพ่นรุ่นใหม่ที่เป็นความลับสุดยอด ไม่ต้องการที่จะทำให้พวกเขาต้องเสียเวลาโดยบังคับมาเรียนรู้วิธีจัดการซอฟต์แวร์จำลองและฮาร์ดแวร์รวมกัน

“สิบห้าปีที่แล้ว บริษัทไหนก็ตามที่ทำ HPC สร้างความแตกต่างโดยพิจารณาจากประสิทธิภาพของฮาร์ดแวร์ภายในองค์กร โดยวางเดิมพันตามกฎของมัวร์ (ที่บอกว่าคอมพิวเตอร์จะมีประสิทธิภาพดีขึ้นสองเท่าในทุก ๆ หนึ่งปีครึ่ง) ที่เชื่อว่าคอมพิวเตอร์จะยังคงให้ประสิทธิภาพที่ดีขึ้นอย่างต่อเนื่อง บนสถาปัตยกรรม x86 ทุกปี” (x86 เป็นสถาปัตยกรรมคอมพิวเตอร์ที่เริ่มถูกออกแบบตั้งแต่ยุค ค.ศ. 1980 และผ่านการพัฒนาประสิทธิภาพอย่างต่อเนื่องโดย Intel และ AMD) Joris ซีอีโอของ Rescale กล่าว “วันนี้สิ่งที่สำคัญที่สุดคือความเร็วและความยืดหยุ่น—แน่ใจก่อนว่าพนักงานวุฒิปริญญาเอกของคุณใช้ซอฟต์แวร์จำลองสถานการณ์ที่ดีที่สุดในงานของพวกเขาแล้ว ปล่อยให้เขาเป็นอิสระ อย่าให้เขาต้องมาเรียนเป็นผู้เชี่ยวชาญในการจัดการระบบประมวลผลขนาดยักษ์ และเขาจะตอบแทนคุณด้วยการสร้างนวัตกรรมที่เร็วขึ้น”

ซูเปอร์คอมพิวเตอร์ในงานเฉพาะทาง

ในที่สุดทุกบริษัทจะใช้การจำลองและฮาร์ดแวร์เฉพาะทางในระบบ Cloud หรือไม่? ไม่น่าจะใช่ เพราะวันนี้เรื่องฮาร์ดแวร์เฉพาะด้าน ยังอยู่กับจรวด การขับเคลื่อน ชีววิทยาเชิงคำนวณ ระบบขนส่ง และ 1% ของความท้าทายด้านการคำนวณที่ยากที่สุดในโลก แต่ขณะที่ใช้การประมวลผลข้อมูลขนาดใหญ่ยังคงถูกใช้ในโจทย์ปัญหาเฉพาะด้านในวันนี้ มันอาจนำไปสู่คลื่นลูกใหม่ของ Disruption ในวันหน้า เหมือนกับที่ Netflix ได้โค่นล้ม Blockbusters ของโลกโดยใช้การรวม “LAMP Stack” ยุคใหม่ ซึ่งประกอบด้วย Cloud, ซอฟต์แวร์จำลองสถานการณ์เสมือนจริง, และฮาร์ดแวร์ที่ถูกออกแบบมาเฉพาะด้าน

บทความโดย Matt Asay
เนื้อหาจากบทความของ InfoWorld
แปลและเรียบเรียงโดย วิน เวธิต
ตรวจทานและปรับปรุงโดย ปพจน์ ธรรมเจริญพร

Waythit Puangpakisiri

Position Technology Solution Principal, IT division

© Big Data Institute | Privacy Notice