Ericsson launches ‘EricssonEdge Academia Program’ to develop young telecom talent

Ericsson launches ‘EricssonEdge Academia Program’ to develop young telecom talent

Ericsson launches ‘EricssonEdge Academia Program’ to develop young telecom talent

Ericsson (NASDAQ: ERIC), a global leader in telecommunications, today announced the launch of the ‘EricssonEdge Academia Program’ that aims to revolutionize early career talent development in the telecom sector across Southeast Asia, Oceania, and India.

With rapid advancements in technologies such as 5G, AI and IoT, and studies showing that majority of the fastest growing roles worldwide are technology-related roles, Ericsson has created a talent development program to support young talent who will be joining the telecommunications sector and as part of Ericsson’s graduate recruitment across Southeast Asia, Oceania and India. 

The EricssonEdge Academia Program is designed to equip students with essential knowledge and skills in 5G, Cloud, and AI technologies, preparing them to thrive and lead in the evolving telecom landscape. Over the course of 6 months, the program will provide in-depth learning experiences to pre-final year students of over 40 top universities from India, Australia, Thailand, Indonesia, Singapore, Brunei, Philippines, Malaysia and Vietnam.

The program begins with a blend of in -person, instructor-led sessions led by Ericsson’s industry experts, and web-based learning modules in the second and third months. Regular assessments will be conducted to ensure continuous progress and understanding. These modules will enrich the participants’ experience, offering a comprehensive understanding of cutting-edge technologies and preparing them for careers in the telecom industry. Students who complete the program will be eligible for consideration for the Ericsson Graduate Recruitment Program in the region.

Priyanka Anand, Vice President and Head of People for Southeast Asia, Oceania & India at Ericsson, says, “The EricssonEdge Academia Program exemplifies how the industry can collaborate with academia to develop the next generation of telecom professionals. By equipping students with the skills they need to succeed, we are not only enhancing their career prospects but also ensuring the continued advancement and competitiveness of the industry.”

The program benefits both students and the broader telecom ecosystem by enhancing employability and advancing industry capabilities. By providing students with access to Ericsson educational content and direct exposure to industry leaders, the EricssonEdge Academia Program builds a strong foundation for a future-ready workforce.

”We are committed to shaping the future of ICT talent by engaging with students in their academic journey,’ says Anand. “The program sparks curiosity, drives innovation, and ignites a passion for technology.”

อีริคสันเปิดตัว ‘EricssonEdge Academia Program’ ตั้งเป้าพัฒนาบุคลากรรุ่นใหม่ในอุตสาหกรรมโทรคมนาคม

อีริคสันเปิดตัว 'EricssonEdge Academia Program' ตั้งเป้าพัฒนาบุคลากรรุ่นใหม่ในอุตสาหกรรมโทรคมนาคม

อีริคสันเปิดตัว 'EricssonEdge Academia Program' ตั้งเป้าพัฒนาบุคลากรรุ่นใหม่ในอุตสาหกรรมโทรคมนาคม

อีริคสัน (NASDAQ: ERIC) ผู้นำด้านโทรคมนาคมระดับโลก ประกาศเปิดตัว ‘EricssonEdge Academia Program’ โครงการซึ่งมีเป้าหมายเพื่อเสริมสร้างอาชีพและพัฒนาบุคลากรรุ่นใหม่รองรับภาคโทรคมนาคมทั่วเอเชียตะวันออกเฉียงใต้ โอเชียเนีย และอินเดีย

จากความก้าวหน้าอย่างรวดเร็วของเทคโนโลยีต่าง ๆ อาทิ 5G, AI และ IoT และจากผลการศึกษาที่แสดงให้เห็นว่าตำแหน่งงานด้านเทคโนโลยีเข้ามามีบทบาทสำคัญและเติบโตอย่างรวดเร็วทั่วโลก อีริคสันจึงได้ริเริ่มโครงการพัฒนาบุคลากรเพื่อสนับสนุนคนรุ่นใหม่ที่จะเข้าไปทำงานในภาคโทรคมนาคม พร้อมเป็นส่วนหนึ่งของการคัดสรรบัณฑิตของอีริคสันทั่วเอเชียตะวันออกเฉียงใต้ โอเชียเนีย และอินเดีย

EricssonEdge Academia Program ได้รับการออกแบบมาเพื่อเสริมสร้างความรู้และเพิ่มพูนทักษะที่จำเป็นด้านเทคโนโลยี 5G, Cloud และ AI ให้กับนักศึกษา เพื่อเตรียมความพร้อมสำหรับการเติบโตและก้าวเป็นผู้นำในภูมิทัศน์ของตลาดโทรคมนาคมที่กำลังเปลี่ยนแปลง ตลอดระยะเวลา 6 เดือน โครงการนี้จะมอบประสบการณ์การเรียนรู้เชิงลึกให้กับนักศึกษาชั้นปีสุดท้ายของมหาวิทยาลัยชั้นนำกว่า 40 แห่ง จากอินเดีย ออสเตรเลีย ไทย อินโดนีเซีย สิงคโปร์ บรูไน ฟิลิปปินส์ มาเลเซีย และเวียดนาม

โครงการนี้จะเป็นการผสมผสานการเรียนแบบตัวต่อตัวร่วมกับผู้เชี่ยวชาญในอุตสาหกรรมของอีริคสัน และการเรียนรู้แบบออนไลน์ช่วงเดือนที่สองและสาม ซึ่งจะมีการประเมินผลอย่างสม่ำเสมอเพื่อให้มั่นใจว่าบุคลากรจะได้รับความก้าวหน้าและมีความเข้าใจที่ต่อเนื่อง โดยการเรียนรู้ในลักษณะนี้จะช่วยเพิ่มพูนประสบการณ์แก่ผู้เข้าเรียน พร้อมยังนำเสนอความเข้าใจที่ครอบคลุมเกี่ยวกับเทคโนโลยีและเตรียมพร้อมสำหรับอาชีพในอุตสาหกรรมโทรคมนาคม โดยนักศึกษาที่จบหลักสูตรจะมีสิทธิ์ได้รับการพิจารณาคัดสรรเป็นบัณฑิตในโครงการของอีริคสันในระดับภูมิภาค

ปริยันกา อานันท์ รองประธานและหัวหน้าฝ่ายทรัพยากรบุคคล เอเชียตะวันออกเฉียงใต้ โอเชียเนีย และอินเดียของอีริคสัน กล่าวว่า “EricssonEdge Academia Program เป็นตัวอย่างที่ดีของความร่วมมือระหว่างภาคอุตสาหกรรมและสถาบันการศึกษาเพื่อมุ่งพัฒนาบุคลากรรุ่นใหม่ ๆ ในด้านโทรคมนาคม ด้วยการเสริมสร้างทักษะที่จำเป็นให้กับนักศึกษาเพื่อนำไปต่อยอดสู่ความสำเร็จ และเราไม่เพียงแต่เพิ่มโอกาสทางอาชีพให้กับพวกเขา แต่ยังเพิ่มความมั่นใจในด้านความก้าวหน้าและความสามารถทางการแข่งขันของอุตสาหกรรมนี้อย่างต่อเนื่อง”

โครงการนี้เป็นประโยชน์ทั้งต่อนักศึกษาและระบบนิเวศโทรคมนาคมวงกว้าง โดยเพิ่มโอกาสการจ้างงานและพัฒนาขีดความสามารถในด้านอุตสาหกรรม การเปิดโอกาสให้นักศึกษาสามารถเข้าถึงเนื้อหาการเรียนรู้ของอีริคสัน และได้สัมผัสโดยตรงกับผู้นำในอุตสาหกรรม โดย EricssonEdge Academia Program ได้สร้างรากฐานที่แข็งแกร่งสำหรับแรงงานที่พร้อมรับมือกับอนาคต

เรามุ่งมั่นกำหนดอนาคตของบุคลากรด้าน ICT ด้วยการสร้างการมีส่วนร่วมให้กับนักศึกษาบนเส้นทางด้านวิชาการของพวกเขา โครงการนี้จะช่วยจุดประกายการเรียนรู้ ขับเคลื่อนนวัตกรรม และเพิ่มการใฝ่รู้ด้านเทคโนโลยีได้เป็นอย่างดี” อานันท์ กล่าวเพิ่มเติม

Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

RHEL AI combines open, more efficient models with accessible model alignment, extending the possibilities of AI innovation across the hybrid cloud

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the general availability of Red Hat Enterprise Linux (RHEL) AI across the hybrid cloud. RHEL AI is Red Hat’s foundation model platform that enables users to more seamlessly develop, test and run generative AI (gen AI) models to power enterprise applications. The platform brings together the open source-licensed Granite large language model (LLM) family and InstructLab model alignment tools, based on the Large-scale Alignment for chatBots (LAB) methodology, packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud.

While gen AI’s promise is immense, the associated costs of procuring, training and fine-tuning LLMs can be astronomical, with some leading models costing nearly $200 million to train before launch. This does not include the cost of aligning for the specific requirements or data of a given organization, which typically requires data scientists or highly-specialized developers. No matter the model selected for a given application, alignment is still required to bring it in-line with company-specific data and processes, making efficiency and agility key for AI in actual production environments.

Red Hat believes that over the next decade, smaller, more efficient and built-to-purpose AI models will form a substantial mix of the enterprise IT stack, alongside cloud-native applications. But to achieve this, gen AI needs to be more accessible and available, from its costs to its contributors to where it can run across the hybrid cloud. For decades, open source communities have helped solve similar challenges for complex software problems through contributions from diverse groups of users; a similar approach can lower the barriers to effectively embracing gen AI.

An open source approach to gen AI

These are the challenges that RHEL AI intends to address – making gen AI more accessible, more efficient and more flexible to CIOs and enterprise IT organizations across the hybrid cloud. RHEL AI helps:

  • Empower gen AI innovation with enterprise-grade, open source-licensed Granite models, and aligned with a wide variety of gen AI use cases.
  • Streamline aligning gen AI models to business requirements with InstructLab tooling, making it possible for domain experts and developers within an organization to contribute unique skills and knowledge to their models even without extensive data science skills.
  • Train and deploy gen AI anywhere across the hybrid cloud by providing all of the tools needed to tune and deploy models for production servers wherever associated data lives. RHEL AI also provides a ready on-ramp to Red Hat OpenShift AI for training, tuning and serving these models at scale while using the same tooling and concepts.

RHEL AI is also backed by the benefits of a Red Hat subscription, which includes trusted enterprise product distribution, 24×7 production support, extended model lifecycle support and Open Source Assurance legal protections.

RHEL AI extends across the hybrid cloud

Bringing a more consistent foundation model platform closer to where an organization’s data lives is crucial in supporting production AI strategies. As an extension of Red Hat’s hybrid cloud portfolio, RHEL AI will span nearly every conceivable enterprise environment, from on-premise datacenters to edge environments to the public cloud. This means that RHEL AI will be available directly from Red Hat, from Red Hat’s original equipment manufacturer (OEM) partners and to run on the world’s largest cloud providers,including Amazon Web Services (AWS), Google Cloud, IBM Cloud and Microsoft Azure. This enables developers and IT organizations to use the power of hyperscaler compute resources to build innovative AI concepts with RHEL AI.

Availability

RHEL AI is generally available today via the Red Hat Customer Portal to run on-premise or for upload to AWS and IBM Cloud as a “bring your own subscription” (BYOS) offering. Availability of a BYOS offering on Azure and Google Cloud is planned in Q4 2024 and RHEL AI is also expected to be available on IBM Cloud as a service later this year. 

Red Hat plans to further expand the aperture of RHEL AI cloud and OEM partners in the coming months, providing even more choice across hybrid cloud environments.

Supporting Quotes

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

“For gen AI applications to be truly successful in the enterprise, they need to be made more accessible to a broader set of organizations and users and more applicable to specific business use cases. RHEL AI provides the ability for domain experts, not just data scientists, to contribute to a built-for-purpose gen AI model across the hybrid cloud, while also enabling IT organizations to scale these models for production through Red Hat OpenShift AI.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM is committed to helping enterprises build and deploy effective AI models, and scale with speed. RHEL AI on IBM Cloud is bringing open source innovation to the forefront of gen AI adoption, allowing more organizations and individuals to access, scale and harness the powerof AI. With RHEL AI bringing together the power of InstructLab and IBM’s family of Granite models, we are creating gen AI models that will help clients drive real business impact across the enterprise.”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

“The benefits of enterprise AI come with the sheer scale of the AI model landscape and the inherent complexities of selecting, tuning, and maintaining in-house models. Smaller, built-to-purpose, and more broadly accessible models can make AI strategies more achievable for a much broader set of users and organizations, which is the area that Red Hat is targeting with RHEL AI as a foundation model platform.”

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภาพกับเครื่องมือการจัดตำแหน่งโมเดล เพื่อนำนวัตกรรม AI ไปใช้บนไฮบริดคลาวด์ได้มากขึ้น

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด Red Hat Enterprise Linux (RHEL) AI ใช้งานบนไฮบริดคลาวด์ RHEL AI คือแพลตฟอร์ม foundation model ของเร้ดแฮทที่เป็นพื้นที่ให้ผู้ใช้ทำการพัฒนา ทดสอบ และรันโมเดล generative AI (gen AI) ต่าง ๆ ได้อย่างลงตัวมากขึ้น ส่งผลให้สามารถใช้แอปพลิเคชันต่าง ๆ ในองค์กรได้อย่างราบรื่น  แพลตฟอร์มนี้บูรณาการโมเดลด้านภาษาขนาดใหญ่ (LLM) ตระกูล Granite ที่เป็นไลเซนส์โอเพ่นซอร์ส และ InstructLab ซึ่งเป็นเครื่องมือปรับโมเดลที่อิงการทำงานตามวิธี  Large-scale Alignment for chatBots (LAB) ไว้ด้วยกันเป็น RHEL image ที่บู๊ตได้ตามความเหมาะสม เพื่อใช้งานกับเซิร์ฟเวอร์แต่ละตัวที่อยู่บนไฮบริดคลาวด์ทั้งหมดอย่างเป็นเอกเทศ

แม้ว่าความนิยมในการใช้ gen AI กำลังพุ่งสูงขึ้นมาก แต่ค่าใช้จ่ายที่เกี่ยวข้องกับการจัดหา การเทรน และการปรับแต่งโมเดล LLM ต่าง ๆ นั้นสูงมาก การเทรนโมเดลชั้นนำบางโมเดลก่อนจะเปิดตัวได้ มีค่าใช้จ่ายเกือบ 200 ล้านดอลลาร์ ซึ่งยังไม่รวมค่าใช้จ่ายในการปรับโมเดลให้สอดคล้องกับความต้องการหรือข้อมูลที่เฉพาะเจาะจงขององค์กร ที่มักต้องทำโดยนักวิทยาศาสตร์ข้อมูล (data scientists) หรือนักพัฒนาซอฟต์แวร์ที่มีความเชี่ยวชาญเฉพาะทางสูง อย่างไรก็ตาม ไม่ว่าจะเลือกโมเดลใดให้กับแอปพลิเคชันที่จะใช้ก็จำเป็นต้องปรับโมเดลให้สอดคล้องกับข้อมูลและกระบวนการเฉพาะของแต่ละบริษัท ดังนั้นการใช้ AI ในสภาพแวดล้อมการทำงานจริงจึงต้องการประสิทธิภาพและความคล่องตัวอย่างมาก

เร้ดแฮทเชื่อว่าในอีกสิบปีข้างหน้า โมเดล AI ที่เล็กลงแต่มีประสิทธิภาพมากขึ้น และเป็นโมเดลที่สร้างขึ้นเพื่อวัตถุประสงค์เฉพาะเจาะจง จะเป็นตัวทำให้เกิดการผสมผสาน IT stack ขององค์กรอย่างมีนัยสำคัญ ควบคู่กับแอปพลิเคชันแบบคลาวด์-เนทีฟ แต่การจะทำเช่นนั้นได้ ผู้ใช้จะต้องเข้าถึง gen AI ได้มากขึ้น และ gen AI ต้องพร้อมใช้งานมากขึ้น นั่นคือการพิจารณาด้านค่าใช้จ่ายต่าง ๆ ตลอดจนผู้มีส่วนร่วมในการพัฒนา gen AI ไปจนถึงทำให้สามารถรัน gen AI บนไฮบริดคลาวด์ได้ทั้งหมด ในมุมของโอเพ่นซอร์สคอมมิวนิตี้นั้น นับเป็นเวลาหลายสิบปีแล้วที่คอมมิวนิตี้นี้ได้ช่วยแก้ไขความท้าทายในลักษณะเดียวกันนี้ให้กับซอฟต์แวร์ที่ซับซ้อนต่าง ๆ ผ่านการมีส่วนร่วมส่งความรู้เข้าคอมมิวนิตี้จากผู้ใช้กลุ่มต่าง ๆ ที่หลากหลาย ซึ่งวิธีการเดียวกันนี้สามารถลดอุปสรรคในการใช้ gen AI ให้มีประสิทธิภาพมากขึ้นได้

แนวทางของโอเพ่นซอร์สต่อ gen AI

ความท้าทายที่กล่าวข้างต้นคือสิ่งที่ RHEL AI ต้องบริหารจัดการ เพื่อทำให้เข้าถึง gen AI ได้มากขึ้นบนไฮบริดคลาวด์ มอบความคล่องตัวและประสิทธิภาพมากขึ้นให้กับผู้บริหารด้านเทคโนโลยีสารสนเทศ (CIOs) และองค์กรด้านไอที ดังนี้

  • สนับสนุนนวัตกรรมด้าน gen AI ด้วยโมเดล Granite ที่เป็นไลเซนส์โอเพ่นซอร์สความสามารถระดับใช้งานในองค์กร และใช้งาน gen AI ได้หลายรูปแบบ
  • InstructLab ช่วยปรับโมเดล gen AI ให้สอดคล้องกับความต้องการของธุรกิจ ซึ่งเป็นการช่วยให้ผู้เชี่ยวชาญเฉพาะด้านและนักพัฒนาซอฟต์แวร์ขององค์กร ใช้ทักษะเฉพาะและความรู้ต่าง ๆ กับโมเดลของตนได้โดยไม่จำเป็นต้องมีทักษะด้านวิทยาศาสตร์ข้อมูล (data science)
  • เทรนและใช้ gen AI ได้ทุกที่บนไฮบริดคลาวด์ ผ่านเครื่องมือที่จำเป็นทั้งหมดที่มีให้เพื่อใช้ปรับแต่งและใช้โมเดลสำหรับเซิร์ฟเวอร์ที่ใช้งานในทุกแห่งที่มีข้อมูลที่เกี่ยวข้องวางอยู่ นอกจากนี้ยังมอบช่องทางเพื่อต่อยอดไปสู่การใช้งาน Red Hat OpenShift AI เพื่อเทรน ปรับแต่ง และให้บริการโมเดลเหล่านี้ในสเกลที่ใหญ่ขึ้นตามต้องการด้วยการใช้เครื่องมือและแนวทางเดียวกัน

RHEL AI ยังใช้สิทธิประโยชน์ของ Red Hat subscription ได้ ซึ่งรวมถึงการนำเสนอผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การให้บริการช่วยเหลือการทำงานตลอด 24 ชั่วโมงทุกวัน การสนับสนุนไลฟ์ไซเคิลของโมเดล และการคุ้มครองทางกฎหมายของ Open Source Assurance

ใช้ RHEL AI บนไฮบริดคลาวด์ทุกแห่ง

สิ่งที่สำคัญมากในการนำ AI ไปใช้ได้อย่างมีประสิทธิภาพ คือ การนำโมเดลที่ทำงานร่วมกันได้อย่างราบรื่นไปวางไว้ให้ใกล้จุดที่ข้อมูลขององค์กรวางอยู่ RHEL AI ซึ่งเป็นส่วนขยายของพอร์ตโฟลิโอไฮบริดคลาวด์ของเร้ดแฮท จะขยายข้ามไปใกล้สภาพแวดล้อมขององค์กรเกือบทุกรูปแบบ ไม่ว่าจะเป็นดาต้าเซ็นเตอร์ที่ติดตั้งภายในองค์กร สภาพแวดล้อม edge ไปจนถึงบนพับลิคคลาวด์ นั่นหมายถึง RHEL AI จะพร้อมให้ใช้งานได้ทั้งจากเร้ดแฮทโดยตรง จากพันธมิตร OEM ของเร้ดแฮท และรันอยู่บนบริการของผู้ให้บริการคลาวด์รายใหญ่ของโลก เช่น Amazon Web Services (AWS), Google Cloud, IBM Cloud และ Microsoft Azure ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์และองค์กรด้านไอที สามารถใช้พลังของทรัพยากรการประมวลผลแบบไฮเปอร์สเกลในการสร้างแนวคิดนวัตกรรมด้าน AI ด้วย RHEL AI

การจัดจำหน่าย

ขณะนี้ RHEL AI พร้อมให้บริการแล้วผ่าน Red Hat Customer Portal เพื่อรันบนระบบภายในองค์กร หรืออัปโหลดไปยัง AWS และ IBM Cloud ในรูปแบบ “bring your own subscription” (BYOS) สำหรับ Azure และ Google Cloud นั้นวางแผนไว้ว่าจะพร้อมให้ใช้บริการในรูปแบบ BYOS ในไตรมาสที่ 4 ของปี 2567 และคาดว่าจะพร้อมให้ใช้งานบน IBM Cloud ในรูปแบบ as a service ปลายปีนี้

เร้ดแฮทวางแผนขยาย RHEL AI cloud และพันธมิตร OEM เพิ่มเติมในอีกไม่กี่เดือนข้างหน้า เพื่อมอบทางเลือกการใช้งานบนสภาพแวดล้อมไฮบริดคลาวด์ให้มากขึ้น

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

การที่องค์กรจะประสบความสำเร็จในการใช้แอปพลิเคชัน AI ได้อย่างแท้จริงได้นั้น องค์กรและผู้ใช้จะต้องเข้าถึงแอปฯ เหล่านั้นได้ในวงกว้างมากขึ้น และสามารถนำแอปฯ เหล่านั้นไปใช้กับงานด้านต่าง ๆ ของธุรกิจได้อย่างเฉพาะเจาะจงมากขึ้น RHEL AI มอบความสามารถให้ผู้เชี่ยวชาญเฉพาะด้าน ซึ่งไม่เจาะจงเฉพาะกับนักวิทยาศาสตร์ข้อมูล (data scientist) ในการมีส่วนร่วมสร้างโมเดล AI เพื่อใช้งานตามวัตถุประสงค์เฉพาะ บนไฮบริดคลาวด์ ในขณะเดียวกันองค์กรด้านไอทีก็สามารถสเกลโมเดลเหล่านี้ให้เหมาะสมกับระบบงานจริงผ่าน Red Hat OpenShift AI”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM ให้คำมั่นที่จะช่วยองค์กรต่าง ๆ สร้างและใช้โมเดล AI ที่มีประสิทธิภาพ และสเกลได้อย่างรวดเร็ว RHEL AI on IBM Cloud คือการนำนวัตกรรมโอเพ่นซอร์สมาสู่แนวหน้าของการใช้ gen AI ช่วยให้องค์กรและผู้คนเข้าถึง สเกล และใช้พลังของ AI ได้มากขึ้น  การรวมพลังของ RHEL AI, InstructLab และโมเดลในตระกูล Granite ของ IBM นี้ เป็นสิ่งที่เรากำลังสร้างโมเดล gen AI ที่จะช่วยลูกค้าขับเคลื่อนผลทางธุรกิจอย่างแท้จริงตลอดทั้งองค์กร”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

ประโยชน์ของ AI ในองค์กรนั้นมาพร้อมกับแลนด์สเคปของโมเดล AI ขนาดมหึมา และมีความซับซ้อนโดยธรรมชาติ ไม่ว่าจะเป็นการเลือกใช้ การปรับแต่ง และการบำรุงรักษาโมเดลภายในองค์กร  กลยุทธ์ด้าน AI ของผู้ใช้และองค์กรที่มีความหลากหลาย จะประสบความสำเร็จได้มากขึ้นด้วยโมเดลที่มีขนาดเล็กลง เจาะจงสร้างตามวัตถุประสงค์ และเข้าถึงได้อย่างกว้างขวาง ซึ่งส่วนนี้คือเป้าหมายที่เร้ดแฮทจะใช้ RHEL AI เป็นแพลตฟอร์มสำหรับ foundational model”

Alibaba Cloud and KMUTT Collaborate to Cultivate Future Digital Talents for Thailand’s Workforce in a Rapidly Evolving Tech Landscape

อาลีบาบา คลาวด์ ร่วมมือกับ มจธ. เตรียมบุคลากรแห่งโลกอนาคตทางด้านเทคโนโลยีดิจิทัลสู่ตลาดแรงงานไทย ท่ามกลางการเปลี่ยนแปลงทางเทคโนโลยีที่เกิดขึ้นอย่างรวดเร็ว

Alibaba Cloud and KMUTT Collaborate to Cultivate Future Digital Talents for Thailand’s Workforce in a Rapidly Evolving Tech Landscape

  • Integration of hands-on skills development and opportunities to get Alibaba Cloud certificates.
  • Hundreds of computer engineering students to benefit from the partnership

Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, has announced partnership with King Mongkut’s University of Technology Thonburi (KMUTT), to equip and train students in cutting-edge cloud-based technologies. This collaboration reinforces Alibaba Cloud’s commitment to empowering local digital talents in Thailand.

The partnership commenced with a series of weekly public lectures in August designed to provide foundational cloud computing knowledge to university students, faculty, and staff. The inaugural session on the history of cloud computing started in late August. Beginning in late September, the program will offer advanced courses for computer engineering students, focusing on deployment and management skills related to Alibaba Cloud’s core products and architecture, with certification opportunities available. Additionally, the duo are planning to incorporate the training materials into an elective course on cloud computing for engineering students. This partnership aims to benefit hundreds of students in KMUTT’s Computer Engineering Department, preparing them to meet future demands in the digital workforce.

“As cloud computing transforms industries and reshapes our work environments, we are excited to collaborate with Alibaba Cloud to empower KMUTT’s students as vital contributors to our economy and national development. Our objective is to seamlessly integrate this cutting-edge expertise into the university’s curriculum, ensuring our students are well-prepared for the rapidly evolving labor market shaped by emerging technologies,” said Asst. Prof. Dr. Santitham Prom-on, Director of the Big Data Experience Center and Head of the Computer Engineering Department at KMUTT.

The Alibaba Cloud Academic Empowerment Program (AAEP) collaborates directly with accredited educational institutions to provide resources for students, educators, and researchers. Member educators will benefit from free training, opportunities to connect with global cloud industry leaders, and access to hands-on labs for practical knowledge application. Alibaba Cloud has partnered with more than 80 universities across 16 countries and regions outside the Chinese mainland, empowering future talents with cloud computing learning resources.

“Alibaba Cloud is dedicated to bringing digital intelligence to academic institutions worldwide including Thailand through our academic empowerment program. The program empowers students with online training in cloud computing with certification opportunities. We are excited to partner with KMUTT, a prominent institution known for its exceptional technological expertise. This collaboration aligns perfectly with our efforts to cultivate a skilled digital workforce that meets the evolving demands of the labor market,” said Selina Yuan, President of International Business at Alibaba Cloud Intelligence.

Globally, Gartner has highlighted Platform Engineering as a key trend for 2024, forecasting that by 2026, 80% of software engineering organizations will establish in-house platform teams.

According to an independent cloud survey Alibaba Cloud released in 2023, 95% majority of Thai businesses expected a sizeable increase in cloud investment, leading the pack of 8 surveyed Asian markets including Indonesia, the Philippines, and Singapore.

Asst. Prof. Dr. Santitham noted that the demand for cloud computing in Thailand is notably surging as businesses seek to migrate workloads to the cloud, benefiting from its flexibility, scalability, security, and cost-effectiveness. However, challenges such as legacy systems and vendor dependencies must be navigated carefully, necessitating a trusted technology partner for seamless migration. KMUTT, with its comprehensive IT facilities, is well-positioned to leverage cloud systems, opening new opportunities for projects requiring extensive online engagement.

The partnership offers a hybrid learning model with varying entry-level setups. The first phase, which started in late August, 2024, includes three sessions of public lectures led by an Alibaba Cloud Academy tutor with in-depth cloud computing expertise. These lectures introduce the history of cloud computing, key cloud computing technologies, and the economic aspects of cloud adoption. They are open for registration to all KMUTT students and faculty members. The first lecture kicked off on August 26th with a full house of more than 130 attendees. 

Following this, the second phase will launch from September to November with regular sessions focused on helping computer engineering students learn to deploy and manage Alibaba Cloud’s main cloud computing products such as elastic computing and storage and cloud architectures know-how. Students will be able to earn Alibaba Cloud certifications upon successfully passing the exams.

Alibaba Cloud Academy, the training and certification division of Alibaba Cloud, offers over 300 online and offline certification courses, 17 professional certifications, and 250 online hands-on labs with over 300 associated partners worldwide. Computer engineering students from KMUTT will have membership access to the online training resources to hone their skills in cloud computing, big data analytics, and artificial intelligence.