Ericsson showcases 5G Leadership and advanced solutions at Innovate Asia 2024

อีริคสันแสดงความเป็นผู้นำ 5G และโซลูชันขั้นสูง ในงาน Innovate Asia 2024

Ericsson showcases 5G Leadership and advanced solutions at Innovate Asia 2024

  • Highlights the evolution towards 5G Standalone, AI-powered automation, and strategic business evolution.
  • Announces the successful deployment of world’s first full-stack Digital Monetization Platform (DMP), benefitting around 100 million Indosat Ooredoo Hutchison (IOH) subscribers in Indonesia.
  • Signs MoUs with lead customers in the region -IoH and Grameenphone

Ericsson (NASDAQ: ERIC), a global leader in telecommunications technology, is demonstrating its pioneering role in shaping the future of connectivity at Innovate Asia 2024, being held at the Centara Grand Hotel, Bangkok between 5-7 November 2024. The event provides a platform for industry leaders, business innovators, and telecom operators to engage with the latest advancements in 5G, artificial intelligence (AI), and automation that are revolutionizing telecom networks across the globe.

At Innovate Asia 2024, Ericsson together with its customers from across the region, including Grameenphone, Indosat Ooredoo Hutchison (IOH), Singtel and Telstra are discussing topics like the 5G network evolution to 5G Standalone and high performance, programmable networks. Ericsson will also discuss real-world strategies for overcoming automation challenges, scaling operations, and leveraging AI in networks. Ericsson’s participation in the event will also see the company engage with Thai partners and developers to explore how 5G, AI, and automation can address Thailand’s unique needs, such as advancing smart city initiatives, supporting digital infrastructure and building sustainable, future-ready networks.

IOH and Ericsson today announced that they have successfully collaborated to deploy the world’s first full-stack Digital Monetization Platform (DMP), benefitting around 100 million IOH subscribers in Indonesia. In just 18 days, over 83 million prepaid subscribers were seamlessly migrated without disruption or impact on customer experience. DMP is part of Ericsson’s Telecom Business Support System (BSS) portfolio, designed to accelerate IOH’s digital services, including 5G readiness and advanced B2B experience. This new system enables faster service creation, better customer engagement, and greater flexibility for future business models.

The DMP stack, which includes the migration of prepaid subscribers, was completed by 23 August 2024, showcasing a robust leap forward in advancing Indonesia’s digital capabilities. As 5G is deployed, the platform will enable IOH to explore new business models like network slicing, which can tailor connectivity to specific customer needs, enhancing both consumer and enterprise experiences.

During Innovate Asia 2024, Ericsson and IOH signed a memorandum of understanding to continue the collaboration in harnessing the potential of Generative Artificial Intelligence (Gen AI) and Machine Learning (AI/ML) in the realm of DMP and BSS. Through these initiatives, they intend to accelerate DMP monetization and co-create innovative products that will enhance revenue uplift and improve time-to-market.

Bangladesh’s largest mobile telecommunications operator, Grameenphone, also signed a Memorandum of Understanding (MoU) with Ericsson to collaborate on advancing AI and Automation to drive innovation and sustainable transformation throughout Bangladesh. The MoU establishes a collaboration framework between Grameenphone and Ericsson, focusing on innovation and growth based on sharing global best practices, alignment of product roadmaps and launching pilot projects and lighthouses. It will entail joint efforts to develop and test new technologies. Ericsson will introduce the latest features such as its award-winning AI-led intent-based operations capabilities into Grameenphone’s network operations that will allow for better customer service management, support and offerings.

The MoU signed during Innovate Asia 2024 will enhance and advance the partnership between Grameenphone and Ericsson, which commenced in 1998.

As 5G matures and more CSPs adopt 5G SA, the focus for many service providers is expected to shift towards developing differentiated connectivity offerings. Differentiated connectivity with predictable performance is made possible by 5G SA network capabilities such as network slicing, among others. Use cases like Fixed Wireless Access (FWA), cloud gaming, e-sports and live streaming will also benefit from these capabilities. Today even as service providers are delivering the benefits of 5G to consumers and enterprises, they have an opportunity to transform the network into a platform for innovation by making advanced 5G network capabilities available to the global developer community through open network application programming interfaces (APIs).

Speaking at a Fireside Chat on ‘Strategic Business Evolution’ during the event, Andres Vicente, Head of Southeast Asia, Oceania and India, Ericsson says,” The synergy of high-performance and programmable networks, combined with network APIs and a vibrant ecosystem of developers, will create a powerful network effect of growth and innovation for the telecom sector. And this represents a big opportunity also here in Thailand with its thriving startup ecosystem.”

“5G Standalone is not just about faster connectivity. It’s about creating new business models and expanding the possibilities for innovation across industries. By embracing 5G’s full potential, CSPs can offer differentiated services that not only meet the evolving needs of consumers but also open up new growth opportunities for the industry,” Andres concludes.

Ericsson is at the forefront of 5G around the world and is recognized as an industry leader by the Frost Radar™: Global 5G Network Infrastructure Market report. Maintaining top ranking in the Frost Radar™ report over the past years has shown that Ericsson’s investments in R&D and across a wide product portfolio – which includes all areas of 5G network infrastructure as well as previous generations of network infrastructure – is valued in a market where technology is constantly evolving.

อีริคสันแสดงความเป็นผู้นำ 5G และโซลูชันขั้นสูง ในงาน Innovate Asia 2024

อีริคสันแสดงความเป็นผู้นำ 5G และโซลูชันขั้นสูง ในงาน Innovate Asia 2024

อีริคสันแสดงความเป็นผู้นำ 5G และโซลูชันขั้นสูง ในงาน Innovate Asia 2024

  • นำเสนอวิวัฒนาการสู่ 5G Standalone, ระบบอัตโนมัติขับเคลื่อนด้วย AI และการพัฒนาธุรกิจเชิงกลยุทธ์
  • ประกาศความสำเร็จในการติดตั้งแพลตฟอร์ม Digital Monetization Platform (DMP) แบบครบวงจรเป็นรายแรกของโลก มอบประโยชน์แก่ผู้ใช้บริการ Indosat Ooredoo Hutchison (IOH) กว่า 100 ล้านราย ในอินโดนีเซีย
  • ลงนามบันทึกความเข้าใจ (MoU) ร่วมกับผู้ให้บริการหลักในภูมิภาค ได้แก่ IOH และ Grameenphone

อีริคสัน (NASDAQ: ERIC) ผู้นำเทคโนโลยีโทรคมนาคมระดับโลก ตอกย้ำให้เห็นถึงบทบาทสำคัญของการเป็นผู้บุกเบิกและกำหนดอนาคตการเชื่อมต่อ ภายในงาน Innovate Asia 2024 ซึ่งจัดขึ้นที่โรงแรมเซ็นทารา แกรนด์ ในกรุงเทพฯ ระหว่างวันที่ 5-7 พฤศจิกายน 2567 ซึ่งถือเป็นเวทีสำคัญสำหรับผู้นำอุตสาหกรรม นวัตกรทางธุรกิจ และผู้ให้บริการโทรคมนาคม เพื่อเข้าถึงความก้าวหน้าล่าสุดของเทคโนโลยี 5G, ปัญญาประดิษฐ์ (AI) และระบบอัตโนมัติที่กำลังปฏิวัติเครือข่ายโทรคมนาคมทั่วโลก

ในงานนี้ อีริคสันและผู้ให้บริการโทรคมนาคมจากทั่วภูมิภาค ได้แก่ Grameenphone, Indosat Ooredoo Hutchison (IOH), Singtel และ Telstra ได้ร่วมกันหารือเกี่ยวกับหัวข้อต่าง ๆ ที่น่าสนใจ อาทิ วิวัฒนาการเครือข่าย 5G ไปสู่ 5G Standalone และเครือข่ายประสิทธิภาพสูง รวมถึงเครือข่ายที่สามารถตั้งโปรแกรมได้ อีริคสันยังได้พูดคุยเกี่ยวกับกลยุทธ์ที่สามารถนำไปใช้ได้จริงเพื่อเอาชนะความท้าทายด้านระบบอัตโนมัติ การเพิ่มขีดความสามารถของการดำเนินงาน และการนำ AI มาเพิ่มประสิทธิภาพให้กับเครือข่าย ผ่านการทำงานร่วมกับทั้งพันธมิตรและนักพัฒนาชาวไทยเพื่อสำรวจว่า 5G, AI และระบบอัตโนมัติสามารถตอบโจทย์ความต้องการที่เฉพาะของประเทศไทยได้ เช่น การพัฒนาโครงการเมืองอัจฉริยะ การสนับสนุนโครงสร้างพื้นฐานดิจิทัล และการสร้างเครือข่ายที่ยั่งยืนพร้อมรับอนาคต

IOH และอีริคสันประกาศความสำเร็จในการร่วมมือกันติดตั้งแพลตฟอร์มการสร้างรายได้ดิจิทัล หรือ Digital Monetization Platform (DMP) แบบครบวงจรเป็นรายแรกของโลก เพื่อมอบประโยชน์ให้แก่ผู้ใช้บริการ IOH ในประเทศอินโดนีเซียที่มีอยู่ราว 100 ล้านราย ด้วยเวลาเพียง 18 วัน โดยผู้ใช้บริการเติมเงินของ IOH กว่า 83 ล้านราย จะได้รับการโอนย้ายอย่างราบรื่นโดยไม่มีการหยุดชะงักหรือมีผลกระทบต่อประสบการณ์ใช้งาน สำหรับแพลตฟอร์ม DMP เป็นส่วนหนึ่งของพอร์ตโฟลิโอระบบสนับสนุนธุรกิจโทรคมนาคม (BSS) ของอีริคสัน ที่ออกแบบมาเพื่อเร่งเสริมบริการดิจิทัลของ IOH รวมถึงความพร้อมสำหรับ 5G และประสบการณ์ B2B ขั้นสูง โดยระบบใหม่นี้ช่วยให้สามารถสร้างบริการได้เร็วขึ้น มีส่วนร่วมกับลูกค้าได้ดีขึ้น และมีความยืดหยุ่นมากขึ้นสำหรับโมเดลธุรกิจในอนาคต

การติดตั้ง DMP Stack ซึ่งรวมถึงการโอนย้ายฐานผู้ใช้บริการเติมเงิน เสร็จสิ้นเมื่อวันที่ 23 สิงหาคม 2567 แสดงให้เห็นถึงการพัฒนาขีดความสามารถทางดิจิทัลของอินโดนีเซียอย่างก้าวกระโดดและแข็งแกร่ง เมื่อเปิดการใช้งาน 5G แพลตฟอร์มนี้จะช่วยให้ IOH สามารถสำรวจโมเดลธุรกิจใหม่ ๆ เช่น Network Slicing โซลูชันที่สามารถปรับแต่งการเชื่อมต่อให้ตรงกับความต้องการเฉพาะของลูกค้า ยกระดับประสบการณ์การใช้งานได้ทั้งผู้บริโภคและองค์กร

ในระหว่างงานนี้ อีริคสันและ IOH ยังได้ลงนามบันทึกความเข้าใจ (MoU) ร่วมกันเพื่อสานต่อความร่วมมือสำหรับการใช้ประโยชน์จากศักยภาพของปัญญาประดิษฐ์เชิงสร้างสรรค์ (Gen AI) และการเรียนรู้ของเครื่อง (AI/ML) ทั้งในแพลตฟอร์ม DMP และระบบ BSS จากความร่วมมือเหล่านี้ ทั้งสองบริษัทมีความตั้งใจจะเร่งการสร้างรายได้จากแพลตฟอร์ม DMP และร่วมกันสร้างสรรค์นวัตกรรมด้านผลิตภัณฑ์ที่จะเพิ่มรายได้และย่นระยะเวลาการนำผลิตภัณฑ์ออกสู่ตลาด

Grameenphone ผู้ให้บริการโทรคมนาคมเคลื่อนที่รายใหญ่ที่สุดของบังกลาเทศ ได้ลงนามบันทึกความเข้าใจ (MoU) กับอีริคสัน เพื่อร่วมมือกันพัฒนาเทคโนโลยี AI และระบบอัตโนมัติสำหรับใช้ขับเคลื่อนนวัตกรรมและสร้างการเปลี่ยนแปลงอย่างยั่งยืนทั่วบังกลาเทศ โดย MoU ฉบับนี้ได้กำหนดกรอบความร่วมมือระหว่าง Grameenphone และอีริคสัน โดยทั้งสองบริษัทจะมุ่งเน้นด้านนวัตกรรมและการเติบโตที่ตั้งอยู่บนพื้นฐานการแบ่งปันแนวปฏิบัติที่ดีที่สุดระดับโลก การปรับแผนงานผลิตภัณฑ์ และการเปิดตัวโครงการนำร่อง รวมถึง Lighthouse Projects ต่าง ๆ ซึ่งจะเกี่ยวข้องกับความพยายามร่วมกันในการพัฒนาและทดสอบเทคโนโลยีใหม่ ๆ โดยอีริคสันยังเตรียมเปิดตัวฟีเจอร์ล่าสุด ได้แก่ ความสามารถใหม่ ๆ ในการใช้ AI หรือ AI-Led Intent-Based Operations Capabilities ซึ่งได้รับรางวัลการันตีคุณภาพ สำหรับเสริมประสิทธิภาพการดำเนินงานบนเครือข่ายให้กับ Grameenphone ในการช่วยจัดการบริการ สนับสนุน และมอบข้อเสนอที่ดียิ่งขึ้นให้กับลูกค้า

MoU ที่ลงนามระหว่างงาน Innovate Asia 2024 จะช่วยยกระดับและพัฒนาความร่วมมือระหว่าง Grameenphone และอีริคสัน ที่เริ่มต้นมาตั้งแต่ปี 2541

เมื่อ 5G พัฒนายิ่งขึ้นและมีผู้ให้บริการด้านการสื่อสารนำ 5G SA มาใช้มากขึ้น คาดว่าความสนใจของผู้ให้บริการหลายรายจะเปลี่ยนไปสู่การพัฒนาข้อเสนอการเชื่อมต่อที่แตกต่าง โดยการเชื่อมต่อที่โดดเด่นและมีประสิทธิภาพนี้เกิดขึ้นได้จากความสามารถของเครือข่าย 5G SA เช่น โซลูชัน Network Slicing และอื่น ๆ ยูสเคสการใช้งาน อย่างเช่น Fixed Wireless Access (FWA), Cloud Gaming, E-Sports  และ Live Streaming จะได้รับประโยชน์จากความสามารถเหล่านี้ด้วย ปัจจุบันแม้ว่าผู้ให้บริการกำลังส่งมอบประโยชน์ของ 5G ให้กับผู้บริโภคและองค์กร พวกเขามีโอกาสที่จะเปลี่ยนเครือข่ายให้เป็นแพลตฟอร์มเพื่อนวัตกรรม โดยทำให้ความสามารถของเครือข่าย 5G ขั้นสูงพร้อมใช้งานสำหรับชุมชนนักพัฒนาทั่วโลกผ่านเครือข่ายแบบเปิด (API)

แอนเดรส วิเซนเต้ หัวหน้าภูมิภาคเอเชียตะวันออกเฉียงใต้ โอเชียเนีย และอินเดียของอีริคสัน กล่าวระหว่างการพูดคุยในหัวข้อ ‘Strategic Business Evolution’ ว่า “การผสานพลังของเครือข่ายประสิทธิภาพสูงที่สามารถตั้งโปรแกรมได้ ร่วมกับ API เครือข่ายและระบบนิเวศของนักพัฒนาที่หลากหลาย จะสร้างเครือข่ายทรงพลังที่ช่วยสร้างการเติบโตและพัฒนานวัตกรรมสำหรับภาคโทรคมนาคม และยังเป็นโอกาสที่ยิ่งใหญ่ของประเทศไทยที่มีระบบนิเวศสตาร์ทอัพที่เพียบพร้อม”

“5G Standalone ไม่ใช่แค่การเชื่อมต่อที่รวดเร็วขึ้นเท่านั้น แต่เป็นการสร้างโมเดลธุรกิจใหม่และขยายโอกาสด้านนวัตกรรมให้กับทุกภาคส่วนของอุตสาหกรรม ด้วยการนำศักยภาพของ 5G มาใช้อย่างเต็มที่ โดยผู้ให้บริการด้านการสื่อสารสามารถนำเสนอบริการที่แตกต่าง ไม่เพียงแต่ตอบสนองความต้องการที่เปลี่ยนแปลงไปของผู้บริโภค แต่ยังเปิดโอกาสการเติบโตใหม่ ๆ ให้กับอุตสาหกรรมด้วย” แอนเดรสกล่าวสรุป

อีริคสันเป็นผู้นำ 5G ระดับโลกและได้รับการยอมรับในฐานะผู้นำอุตสาหกรรมจากรายงาน Frost Radar™: Global 5G Network Infrastructure Market ซึ่งการรักษาอันดับผู้นำสูงสุดในรายงาน Frost Radar™ ตลอดหลายปีที่ผ่านมานี้ได้ตอกย้ำให้เห็นว่าอีริคสันให้ความสำคัญกับการวิจัยและพัฒนา รวมถึงพอร์ตโฟลิโอผลิตภัณฑ์ที่หลากหลาย ซึ่งครอบคลุมทุกด้านของโครงสร้างพื้นฐานเครือข่าย 5G รวมถึงโครงสร้างพื้นฐานเครือข่ายในรุ่นก่อนหน้า มีคุณค่าในตลาดที่เทคโนโลยีมีการพัฒนาอย่างต่อเนื่อง

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

เบลนเดต้า (Blendata) บริษัทนวัตกรรมเทคโนโลยีคนไทยด้านบิ๊กดาต้าและแพลตฟอร์ม AI – hybrid big data ประกาศเปิดตัว “Blendata Cloud on Azure” บน Microsoft Azure Marketplace ร่วมกับไมโครซอฟท์ ประเทศไทย และ อินแกรม ไมโคร (ประเทศไทย) ตอบโจทย์ความต้องการ hybrid big data platform เพิ่มโอกาสเข้าถึงกลุ่มลูกค้า และตลาดที่กว้างขึ้นเพิ่มความเชื่อมั่นให้ลูกค้าในการใช้งานซอฟต์แวร์คุณภาพสูงที่พัฒนาโดยผู้ให้บริการภายในประเทศบนมาร์เก็ตเพลสที่ได้รับการยอมรับทั่วโลก เสริมศักยภาพให้ธุรกิจใช้พลังของบิ๊กดาต้าคว้าโอกาสเติบโตได้อย่างเต็มประสิทธิภาพ ด้วยค่าใช้จ่ายที่คุ้มค่า

ปัจจุบันธุรกิจไทยส่วนใหญ่มองเห็นประโยชน์ของการนำข้อมูลมหาศาลมาใช้ แต่ยังประสบปัญหาในการเริ่มต้น เนื่องจากโครงสร้างพื้นฐานที่ซับซ้อน ข้อมูลที่ไม่พร้อม และค่าใช้จ่ายที่สูงขึ้นเรื่อย ๆ คลาวด์เป็นหนึ่งในคำตอบสำหรับธุรกิจยุคดิจิทัล การศึกษาของการ์ทเนอร์ ชี้ให้เห็นว่า การลงทุนด้านคลาวด์ เช่น IaaS และ PaaS จะเป็นตัวขับเคลื่อนสำคัญในการยกระดับเทคโนโลยีของธุรกิจไทย AI และการวิเคราะห์ข้อมูลขนาดใหญ่เป็นเทรนด์หลักที่ผลักดันให้ตลาดคลาวด์เติบโตอย่างรวดเร็ว การใช้คลาวด์จะช่วยให้ธุรกิจทำงานได้อย่างรวดเร็ว ยืดหยุ่น และมีประสิทธิภาพ อย่างไรก็ดี data lakehouse คือเทคโนโลยีที่น่าสนใจนำมาใช้เพื่อวิเคราะห์ข้อมูล แต่ก็ยังเผชิญกับข้อจำกัดในการย้ายข้อมูลทั้งหมดขึ้นสู่คลาวด์

ผสานพลังทางเทคโนโลยีสร้าง Hybrid Big Data Platform

ความร่วมมือครั้งนี้เป็นการผสานจุดแข็งของ Blendata Cloud ซึ่งเป็นแพลตฟอร์ม data lakehouse เข้ากับแพลตฟอร์มคลาวด์ประสิทธิภาพสูงและยืดหยุ่นของ Microsoft Azure เพื่อยกระดับเป็นโซลูชัน hybrid big data platform ที่ตอบสนองต่อความต้องการขององค์กร ด้วยเทคโนโลยีด้านการประมวลผลและจัดการข้อมูลที่ล้ำสมัย มีการเชื่อมต่อระหว่างแพลตฟอร์มที่มีประสิทธิภาพและคุ้มค่าการลงทุน

Blendata Cloud สร้างขึ้นบนเทคโนโลยีสมัยใหม่ที่ได้รับความนิยมและเป็นมาตรฐานด้านข้อมูลเช่น Apache Spark โดยเป็นแพลตฟอร์มที่รวมศูนย์เทคโนโลยีการจัดเก็บ ประมวลผล และการวิเคราะห์ข้อมูลขนาดใหญ่ไว้ในที่เดียวกันในรูปแบบ low-code ได้รับการออกแบบเพื่อรองรับเวิร์กโหลดด้านการจัดการและการประมวลผลข้อมูลขนาดใหญ่ทุกรูปแบบ ตั้งแต่ข้อมูลที่มีโครงสร้าง (structured data) ไปจนถึงข้อมูลที่ไม่มีโครงสร้าง (unstructured data) เพื่อนำไปใช้ประโยชน์หลากหลาย ไม่ว่าจะเป็นการวิเคราะห์เชิงธุรกิจ (business intelligence) หรือการใช้งานร่วมกับเทคโนโลยีเกิดใหม่ เช่น AI

ซอฟต์แวร์ไทยจับมือพันธมิตรสู่เวทีระดับโลก

Microsoft Azure ผู้ให้บริการคลาวด์ระดับโลก และ อินแกรม ไมโคร (ประเทศไทย) ในฐานะตัวแทนจำหน่ายอย่างเป็นทางการของ Microsoft Azure ได้สนับสนุนในการเพิ่มขีดความสามารถให้กับแพลตฟอร์มของเบลนเดต้า ซึ่งเป็น ISV Success Partner อย่างเต็มที่ ช่วยให้การประมวลผลบิ๊กดาต้าเป็นไปอย่างรวดเร็วและมีประสิทธิภาพ นอกจากนี้ ยังรองรับการทำงานร่วมกับแมชชีนเลิร์นนิ่ง เพื่อพัฒนาและใช้งานโมเดล AI ได้อย่างไร้รอยต่อ ด้วยความสามารถในการรองรับข้อมูลแบบ multi-cloud และ on-premises ทำให้องค์กรสามารถจัดการข้อมูลได้อย่างยืดหยุ่นและปลอดภัย ช่วยให้ผู้ใช้งานแพลตฟอร์มของเบลนเดต้าสามารถเข้าถึงทรัพยากรและบริการของ Azure ได้อย่างเต็มรูปแบบ

นายณัฐนภัส รชตะวิวรรธน์ ประธานเจ้าหน้าที่บริหารและผู้ร่วมก่อตั้ง บริษัท เบลนเดต้า จำกัด กล่าวว่า “การร่วมมือกับ ไมโครซอฟท์ และ อินแกรม ไมโคร (ประเทศไทย) ซึ่งเป็นพันธมิตรสำคัญในการสร้างระบบนิเวศคลาวด์ที่แข็งแกร่ง และตอบความต้องการของธุรกิจในยุคดิจิทัลที่ไม่เพียงเพิ่มประสิทธิภาพและความยืดหยุ่นในการประมวลผลข้อมูลขนาดใหญ่เท่านั้น แต่ยังรวมถึงการที่ไมโครซอฟท์เห็นความสำคัญ และให้การสนับสนุนบริษัทพัฒนาโซลูชันระดับท้องถิ่นอย่างเต็มที่ ความแข็งแกร่งของระบบนิเวศของไมโครซอฟท์ ทำให้เบลนเดต้าสามารถเข้าถึงกลุ่มลูกค้าและตลาดที่ใหญ่ขึ้น พร้อมด้วยการสนับสนุนด้านเทคโนโลยี และการตลาดยังช่วยเพิ่มความเชื่อมั่นให้กับลูกค้าในการใช้งานผลิตภัณฑ์ที่พัฒนาโดยเบลนเดต้า”

นายธนวัฒน์ สุธรรมพันธุ์ กรรมการผู้จัดการใหญ่ ไมโครซอฟท์ ประเทศไทย กล่าวว่า “ไมโครซอฟท์ มุ่งมั่นสนับสนุนนักพัฒนาชาวไทยให้สามารถสร้างโอกาสเติบโตจากเทคโนโลยี AI และเข้าถึงลูกค้าของเราทั่วโลก ทั้งนี้ “Blendata Cloud on Azure” เป็นอีกหนึ่งความภูมิใจของเรา ด้วยโซลูชันวิเคราะห์ข้อมูลที่มีประสิทธิภาพและมอบความคุ้มค่าสูงสุด ตอบโจทย์ความต้องการองค์กรธุรกิจทั้งในไทยและต่างประเทศ สอดคล้องกับความตั้งใจจริงของเราที่ต้องการจะเสริมแกร่งให้ประเทศไทยจาก Made in Thailand เป็น Born in Thailand ส่งเสริมตลาดของผู้สร้างและผู้พัฒนา เพื่อการเติบโตอย่างยั่งยืนก้าวสู่เศรษฐกิจดิจิทัล
ในอนาคต”

Blendata Cloud บน Microsoft Azure Marketplace ครอบคลุมการให้บริการ ดังนี้

  • Blendata Cloud บน Microsoft Azure Marketplace: แพลตฟอร์มวิเคราะห์ข้อมูลขนาดใหญ่แบบ self-service ที่ยืดหยุ่นและปรับขนาดได้ตามความต้องการทางธุรกิจ
  • คิดค่าใช้จ่ายตามการใช้งานจริง (Pay-Per-Use) พร้อมฟังก์ชันด้านบิ๊กดาต้า และ advanced analytics ครบวงจร
  • รองรับการประมวลผลข้อมูลขนาดใหญ่ด้วยความเร็วสูง ด้วยรูปแบบที่ใช้งานง่ายเหมาะสำหรับทีมเทคนิคและทีมที่ไม่มีทักษะการเขียนโค้ด
  • ใช้เทคโนโลยี Apache Spark และ Delta Lake รองรับการเชื่อมต่อแบบไฮบริด และเป็นแพลตฟอร์มเปิดที่ไม่ผูกติดกับเวนเดอร์ใดเวนเดอร์หนึ่ง
  • ให้บริการบน Microsoft Azure พร้อมการจัดการทรัพยากรอย่างไร้รอยต่อ 

การวางจำหน่าย

เบลนเดต้าเปิดให้บริการ “Blendata Cloud บน Microsoft Azure Marketplace” ในรูปแบบ Bring Your Own License (BYOL) ซึ่งสามารถทำการสั่งซื้อผ่าน Azure Marketplace ได้แล้วตั้งแต่ไตรมาส 4 ปีนี้ ซึ่ง Azure Marketplace ได้รับการยอมรับจากองค์กรธุรกิจทั่วโลกว่าเป็นผู้นำในตลาดคลาวด์ที่มีพอร์ตโฟลิโอโซลูชันต่างๆ จากเครือข่ายพันธมิตรกว่า 400,000 รายทั่วโลก รวมถึงบริษัทพัฒนาระบบสัญชาติไทยด้วย นอกจากนี้จะเปิดให้บริการในรูปแบบ Managed Software (PaaS) ภายในต้นปี พ.ศ. 2568 โดยคาดว่าการเปิดตัวนี้จะช่วยขยายโอกาสการเติบโตในภาคธุรกิจทั้งในและต่างประเทศ

สามารถสอบถามข้อมูลเพิ่มเติมหรือติดต่อเพื่อใช้บริการผลิตภัณฑ์ได้ที่ TH-MSCSP@ingrammicro.com, หรือโทร 02-012-2222

Addressing the complexity of AI and edge operationalization

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

Addressing the complexity of AI and edge operationalization

Article by Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge at Red Hat

With today’s artificial intelligence (AI) hype, there can be a lot to digest. Each day brings a new product, new model or a new promise of fault detection, content generation or other AI-powered solution. When it comes to operationalizing an AI/machine learning (ML) model, however, bringing it from training to deployment at the edge is not a trivial task. It involves various roles, processes and tools, as well as a well-structured operations organization and a robust IT platform to host it on.

AI models are now flourishing everywhere but this raises the question: how many of them are operationalized solutions with a robust AI model training, versioning and deployment backend?

How long does operationalization take?

This question is not new. According to a recent Gartner survey, it could take organizations anywhere between 7 – 12 months to operationalize AI/ML from concept to deployment. Technical debt, maintenance costs and system-level risks are just a few things that must be managed throughout the operationalizing process.

Key challenges in AI/ML operationalization

Operationalizing an AI/ML model from a proof-of-concept phase to an industrial solution is full of challenges. This operationalization is very similar to the creation of a high-quality industrial product. Specifically, a chain of trust needs to be created to create a reliable and high quality solution.

EN_Challenges

Data quality

Creating a robust AI model includes having clean and relevant data for training and testing. At its core, the underlying requirement is having a strong data governance, which includes data privacy, security and compliance with all relevant regulations. This can add an enormous amount of complexity and increased infrastructure needs.

Model deployment and integration

Integrating AI/ML models within existing systems and workflows can be technically challenging, as most modern software relies on a continuous integration and continuous deployment (CI/CD) approach. Due to this, it is important to implement pipelines for AI models that include extensive automation and monitoring facilities.

Infrastructure scalability, monitoring and performance

Making sure that AI/ML models are trained in scaling to handle large volumes of data and high-velocity data streams is critical. For that, an architecture which both data scientists and IT operations can monitor and maintain will mean that the platform can be fixed or upgraded when needed. This includes tooling for building and maintaining the necessary infrastructure—including computational resources, data storage and ML platforms—and selecting and integrating the right tools for data processing, model development, deployment and monitoring.

Collaboration and skill gaps

Bridging the gap between data scientists, engineers and business stakeholders is key to fostering alignment and effective collaboration.

The widespread use of specialized tools for different functions can impede this process. Each group often relies on unique tools and terminology, which can create barriers to integration, especially in machine learning operations (MLOps). In an ideal world, models will move smoothly through the process from training through to deployment out to edge devices. It may even be tempting to utilize a single system or platform to achieve this ideal process. To foster more effective collaboration, however, it may be a better approach to create platforms and tools that integrate well with each other, so each team can use their preferred systems over a single solution that may not fit their specific needs. 

Bridging skill gaps is also crucial in this process. Organizations will often have a division of expertise where data scientists, engineers and business stakeholders possess distinct skills and knowledge. This division can cause problems when models are transferred between teams, as the necessary skills and understanding may not be uniformly distributed. Addressing these gaps requires ongoing education and cross-training, so all team members have a basic understanding of each other’s roles and tools. By investing in cross-team skill building and training, model development and deployment processes will be smoother and more effective.

Ethics and bias

Making sure that AI/ML models are fair and do not perpetuate existing biases present in the data involves implementing ethical guidelines and frameworks to govern the use of AI/ML. Then the ethics and bias guidelines must be implemented as metrics in order to create a reliable infrastructure for evaluation and monitoring. The quality of a model has to be evaluated against these metrics and the results be compared to pre-defined references.

Roles involved in the AI/ML lifecycle

Operationalizing AI/ML involves various roles, each contributing critical skills and knowledge. These roles differ from regular IT DevOps ones as they are demanding consumers of IT infrastructures, using specific tools for the AI modeling and facing the same challenges in delivering the AI models like delivering a new software version.

One of the more well-known ones is the data scientist. This term however, is too generic, and the tasks for AI/ML deployment splits to different individuals with specific skills. For the data collection, cleaning, and preparation for model training, it would require a data scientist. 

An MLOps engineer would specialize in the deployment and maintenance of AI models. This role involves specific skills and tools that are not necessarily the same as those used in AI model training. This is generally where a company struggles to operationalize their AI model, when very skilled data scientists are asked to deploy AI models. Deployment specifically is a skill that falls under that of a MLOps engineer, as well as monitoring, scaling models into production and maintaining performance.

Creating an AI/ML model involves an AI engineer, which will train and deploy models running the latest algorithms created by AI scientists. Once the model is created it is pushed into a storage system to be available for containerized application.

App developers integrate AI/ML models into applications, ensuring seamless interaction with other components.

IT operations manage the infrastructure, ensuring necessary computational resources are available and efficiently utilized.

Business leadership sets goals, aligns AI/ML initiatives with business objectives and ensures necessary resources and support exist to continue operationalizing AI/ML solutions.

As you can imagine, coordinating these roles effectively is crucial for managing the complexities and technical debt associated with AI/ML operations. This coordination cannot be done just by defining procedures and abstract workflows. This needs to rely on a common set of tools with specific user interfaces for each role to give a shared but readable view on the AI operations.

How Red Hat can help

Red Hat OpenShift AI provides a flexible, scalable AI/ML platform that helps you create and deliver AI-enabled applications at scale across hybrid cloud environments.

Built using open source technologies, OpenShift AI provides trusted, operationally consistent capabilities for teams to experiment, serve models and deliver innovative apps.

We’ve combined the proven capabilities of OpenShift AI with Red Hat OpenShift to create a single AI application platform that can help bring your teams together and help them collaborate more effectively. Data scientists, engineers and app developers can work together on a single platform that promotes consistency, improves security, and simplifies scalability.

Red Hat Device Edge is a flexible platform that consistently supports different workloads across small, resource-constrained devices at the farthest edge and provides operational consistency across workloads and devices, no matter where they are deployed.

Red Hat Device Edge combines:

  • Red Hat Enterprise Linux

Generate edge-optimized OS images to handle a variety of use cases and workloads with Red Hat’s secure and stable operating system.

  • MicroShift

Red Hat’s build of MicroShift is a lightweight Kubernetes container orchestration solution built from the edge capabilities of Red Hat OpenShift.

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform helps you quickly scale device and application lifecycle management.

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

บทความโดย Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge, เร้ดแฮท

กระแสของปัญญาประดิษฐ์ (AI) ในปัจจุบัน มีเรื่องที่ต้องทำความเข้าใจหลายแง่มุม ในแต่ละวันจะมีผลิตภัณฑ์และบริการใหม่ โมเดลใหม่ การสร้างเนื้อหาหรือโซลูชันที่ขับเคลื่อนด้วย AI อื่น ๆ เกิดขึ้นมากมาย เมื่อพูดถึงการทำงานเกี่ยวกับโมเดล AI/machine learning (ML) ตั้งแต่การเทรนโมเดลไปจนถึงการนำไปใช้งานที่ edge นั้น ไม่ใช่เรื่องง่ายเลย เพราะเป็นเรื่องที่ต้องข้องเกี่ยวกับบทบาทหน้าที่ของทีมงานด้านต่าง ๆ กระบวนการ และเครื่องมือมากมาย รวมถึงองค์กรจะต้องมีโครงสร้างการทำงานที่ดี และโมเดลเหล่านั้นจะต้องโฮสต์อยู่บนแพลตฟอร์มไอทีที่แข็งแกร่ง

โมเดล AI ได้รับความนิยมทุกแห่งหน คำถามคือจะมีโมเดลใดบ้างที่เป็นโซลูชันที่ใช้งานได้จริงที่ได้รับการเทรนมาอย่างดี, มีการทำ versioning และมีวิธีการ deploy ที่เหมาะสมมีประสิทธิภาพ

ต้องใช้เวลานานเท่าใดจึงจะใช้งานได้

คำถามนี้ไม่ใช่เรื่องใหม่ จากการสำรวจล่าสุดของการ์ทเนอร์ องค์กรอาจใช้เวลาในการศึกษาค้นคว้า AI/ML จากแนวคิดไปสู่การใช้งานจริง ประมาณ 7-12 เดือน ซึ่งจะต้องจัดการกับความท้าทายต่าง ๆ เช่น หนี้ทางเทคนิค ค่าบำรุงรักษา และความเสี่ยงของระบบ ฯลฯ ตลอดกระบวนการทำงาน

ความท้าทายใหญ่ ๆ ในการทำงานด้าน AI/ML

การนำโมเดล AI/ML ไปใช้จริง นับจากขั้นตอนการพิสูจน์แนวคิด ไปจนถึงกลายเป็นโซลูชันทางอุตสาหกรรมนั้นเต็มไปด้วยความท้าทาย การทำงานนี้คล้ายกับการสร้างผลิตภัณฑ์อุตสาหกรรมคุณภาพสูง และจำเป็นต้องสร้างซัพพลายเชนที่เชื่อถือได้ เพื่อสร้างโซลูชันที่ไว้ใจได้และมีคุณภาพสูง

TH_Challenges

คุณภาพของข้อมูล

การสร้างโมเดล AI ที่ทรงประสิทธิภาพจะต้องมีข้อมูลที่ถูกต้องเหมาะสมและเกี่ยวข้องกัน เพื่อใช้ในการเทรนและทดสอบ หัวใจหลักที่เป็นสิ่งสำคัญพื้นฐาน คือการกำกับดูแลข้อมูลที่รัดกุม เช่น ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และปฏิบัติตามกฎระเบียบที่เกี่ยวข้องทั้งหมด ซึ่งอาจเพิ่มความซับซ้อนได้อย่างมหาศาล รวมถึงความต้องการด้าน infrastructure จะเพิ่มขึ้นอย่างมาก

การนำไปใช้และการบูรณาการโมเดล

การบูรณาการโมเดล AI/ML เข้ากับระบบและเวิร์กโฟลว์ที่ใช้อยู่ เป็นความท้าทายทางเทคนิค เนื่องจากซอฟต์แวร์รุ่นใหม่ ๆ พึ่งพาแนวทางการพัฒนาซอฟต์แวร์อย่างต่อเนื่อง เช่นการทำ continuous integration และ continuous deployment (CI/CD) ดังนั้นการใช้ไปป์ไลน์สำหรับโมเดล AI ที่มีระบบอัตโนมัติและการตรวจสอบที่ครอบคลุมจึงเป็นเรื่องสำคัญ

Infrastructure ที่สเกลได้ ติดตามตรวจสอบได้ และมีสมรรถนะ

ความมั่นใจว่าโมเดล AI/ML ทั้งหลายได้รับการเทรนให้สามารถปรับขนาดเพื่อรับมือกับข้อมูลปริมาณมากและสตรีมข้อมูลด้วยความเร็วสูงได้นั้นเป็นเรื่องสำคัญมาก ดังนั้นสถาปัตยกรรมหนึ่ง ๆ ที่นักวิทยาศาสตร์ข้อมูล (data scientist) และคนทำงานด้านไอทีสามารถมอนิเตอร์และดูแลได้นั้น จะหมายถึงแพลตฟอร์มที่สามารถแก้ไขหรืออัปเกรดได้เมื่อจำเป็น ซึ่งรวมถึงเครื่องมือที่ใช้ในการสร้างและดูแล infrastructure ที่จำเป็น (เช่น ทรัพยากรที่ใช้ในการคำนวณ พื้นที่จัดเก็บข้อมูล และแพลตฟอร์ม ML ต่าง ๆ) การเลือกและบูรณาการเครื่องมือต่าง ๆ ที่เหมาะสมทั้งกับการประมวลผลข้อมูล การพัฒนาโมเดล การใช้และการมอนิเตอร์

ช่องว่างทางทักษะและการทำงานร่วมกัน

การปิดช่องว่างทางทักษะและการทำงานร่วมกันระหว่าง data scientists วิศวกร (engineers) และผู้มีส่วนได้เสียทางธุรกิจ เป็นเรื่องสำคัญที่จะช่วยส่งเสริมให้เกิดทำงานร่วมกันอย่างมีประสิทธิภาพและเป็นไปในทิศทางเดียวกัน

การใช้เครื่องมือเฉพาะทางหลายอย่างกับฟังก์ชันการทำงานที่ต่างกัน อาจเป็นอุปสรรคต่อแนวทางนี้ได้ ทีมงานแต่ละทีมมักใช้เครื่องมือเฉพาะและศัพท์เฉพาะทาง ซึ่งอาจทำให้เกิดอุปสรรคในการบูรณาการ โดยเฉพาะในการทำงานของแมชชีนเลิร์นนิ่ง (machine learning operations: MLOps) โดยหลักการแล้วโมเดลต่าง ๆ จะถูกจัดการอย่างราบรื่นตลอดกระบวนการทำงาน ตั้งแต่การเทรน การ deploy ไปยังอุปกรณ์ที่ติดตั้งอยู่ที่ edge สิ่งเหล่านี้อาจเป็นสิ่งกระตุ้นให้ใช้ระบบหรือแพลตฟอร์มเดียวเพื่อให้บรรลุหลักการนี้ แต่การสร้างแพลตฟอร์มและเครื่องมือที่ทุกทีมสามารถทำงานร่วมกันได้ดี อาจเป็นวิธีที่ดีกว่าในการส่งเสริมการทำงานร่วมกันให้มีประสิทธิภาพมากขึ้น เพื่อให้ทีมงานแต่ละทีมสามารถใช้ระบบที่ตนต้องการได้ แทนที่จะต้องใช้โซลูชันเดียวที่อาจไม่ตรงตามความต้องการเฉพาะทางของแต่ละทีม 

การแก้ปัญหาช่องว่างทางทักษะยังคงเป็นเรื่องสำคัญในกระบวนการนี้ องค์กรต่าง ๆ มักมีกลุ่มหรือทีมที่เชี่ยวชาญทักษะและความรู้เฉพาะทางที่ต่างกัน รวมกันอยู่ในแผนกเดียวกัน เช่น data scientists, engineers และผู้มีส่วนได้เสียทางธุรกิจ ซึ่งเมื่อมีการถ่ายโอนโมเดลต่าง ๆ  ระหว่างทีมก็อาจทำให้เกิดปัญหาได้ เนื่องจากไม่สามารถเข้าถึงทักษะและความเข้าใจที่จำเป็นต้องใช้ ได้อย่างทั่วถึง

การแก้ไขช่องว่างเหล่านี้ต้องมีการให้ความรู้และการอบรมข้ามสายงานอย่างต่อเนื่อง เพื่อให้สมาชิกทุกคนในทุกทีมมีความเข้าใจพื้นฐานเกี่ยวกับบทบาทและเครื่องมือที่แต่ละทีมใช้งาน การลงทุนในการสร้างและอบรมทักษะต่าง ๆ ข้ามทีม จะช่วยให้กระบวนการพัฒนาและใช้โมเดลเป็นไปอย่างราบรื่นและมีประสิทธิภาพมากขึ้น

จริยธรรมและความไม่เป็นกลาง

องค์กรต้องมั่นใจว่าโมเดล AI/ML มีความเท่าเทียม และขจัดความไม่เป็นกลางของข้อมูลไม่ให้ไปเกี่ยวข้องกับการนำแนวทางและเฟรมเวิร์กด้านจริยธรรมไปใช้ควบคุมการใช้งาน AI/ML จากนั้นต้องนำแนวปฏิบัติด้านจริยธรรมและความไม่เป็นกลางมาใช้เป็นตัวชี้วัด เพื่อสร้าง infrastructure ที่เชื่อถือได้สำหรับใช้ในการประเมินและการติดตาม คุณภาพของโมเดลหนึ่ง ๆ ต้องได้รับการประเมินกับตัวชี้วัดเหล่านี้ และต้องเปรียบเทียบผลการประเมินกับข้อมูลอ้างอิงที่กำหนดไว้ล่วงหน้าแล้ว

บทบาทหน้าที่ต่าง ๆ ที่เกี่ยวข้องกับไลฟ์ไซเคิลของ AI/ML

การใช้ AI/ML เกี่ยวข้องกับคนและทีมงานที่มีบทบาทหน้าที่มากมาย แต่ละบทบาทต้องการทักษะและความรู้อย่างมาก บทบาทเหล่านี้ต่างจากบทบาทของ IT DevOps ทั่ว ๆ ไป เพราะต้องใช้ IT infrastructure จำนวนมาก ต้องใช้เครื่องมือเฉพาะสำหรับการสร้างโมเดล AI และต้องประสบกับความท้าทายในการส่งมอบโมเดล AI เช่นเดียวกับความท้าทายในการส่งมอบซอฟต์แวร์เวอร์ชันใหม่ บทบาทที่เป็นที่รู้จักกันดีคือ data scientist ซึ่งคำว่า data scientist นี้ดูจะกินความหมายกว้างเกินไป งานต่าง ๆ ที่เกี่ยวกับการนำ AI/ML ไปใช้ แบ่งแยกย่อยออกไปและต้องการบุคคลที่มีทักษะเฉพาะทางที่แตกต่างกัน เช่น หากเป็นด้านการรวบรวมข้อมูล การทำข้อมูลให้ถูกต้องเหมาะสม และการเตรียมเทรนโมเดลนั้น ต้องการคนที่มีบทบาทเป็น data scientist

MLOps engineer จะเชี่ยวชาญในการนำโมเดล AI ต่าง ๆ ไปใช้และการดูแลรักษาซึ่งต้องมีทักษะเฉพาะและใช้เครื่องมือเฉพาะทาง ที่ไม่จำเป็นต้องเหมือนกับทักษะและเครื่องมือที่ใช้ในการเทรนโมเดล AI จุดนี้เป็นปัญหาให้กับบริษัทหนึ่ง ๆ ที่เมื่อต้องการใช้โมเดล AI ของตนแต่ไปร้องขอให้ data scientist เป็นผู้ทำหน้าที่ปรับใช้โมเดล AI ซึ่งการปรับใช้โมเดล AI เป็นทักษะเฉพาะทางของ MLOps engineer และยังรวมถึงการมอนิเตอร์ การสเกลโมเดลไปสู่การใช้งานจริง และการดูแลรักษาประสิทธิภาพการทำงานของโมเดล

การสร้างโมเดล AI/ML เกี่ยวข้องกับ AI engineer ซึ่งจะเทรนและใช้โมเดลบนอัลกอริธึมล่าสุดที่สร้างโดย AI scientists เมื่อสร้างเสร็จแล้ว โมเดลจะถูกผลักเข้าไปในระบบสตอเรจ พร้อมให้ containerized application ใช้งาน

นักพัฒนาแอปพลิเคชันผสานรวมโมเดล AI/ML เข้ากับแอปพลิเคชันต่าง ๆ และต้องมั่นใจได้ว่าจะมีการใช้งานร่วมกันกับระบบอื่นได้อย่างไม่ติดขัด

ฝ่ายปฏิบัติการด้านไอทีจะบริหารจัดการ infrastructure เพื่อให้มั่นใจว่าทรัพยากรที่จำเป็นต้องใช้มีพร้อมใช้และนำไปใช้งานอย่างมีประสิทธิภาพ

ผู้นำองค์กรธุรกิจมีบทบาทในการกำหนดเป้าหมาย ผสาน AI/ML ให้สอดคล้องกับวัตถุประสงค์ทางธุรกิจ และทำให้มั่นใจว่า จะมีทรัพยากรและการสนับสนุนช่วยเหลือที่จำเป็นในการใช้โซลูชัน AI/ML ต่าง ๆ ได้อย่างต่อเนื่อง 

การประสานงานบทบาทหน้าที่เหล่านี้อย่างมีประสิทธิภาพเป็นสิ่งสำคัญมากสำหรับการบริหารจัดการความซับซ้อนต่าง ๆ และหนี้ทางเทคนิค ที่เกี่ยวข้องกับการดำเนินงาน AI/ML และไม่อาจทำได้ด้วยการกำหนดขั้นตอนและเวิร์กโฟลว์ที่เป็นนามธรรมเท่านั้น แต่จำเป็นต้องพึ่งพาชุดเครื่องมือมาตรฐานที่มีอินเทอร์เฟซเฉพาะสำหรับผู้ใช้งานแต่ละบทบาทหน้าที่ เพื่อให้มีมุมมองในการทำงานด้าน AI มุมมองเดียวกัน ที่ผู้ทำงานในแต่ละทีมสามารถเข้าใจได้

เร้ดแฮทช่วยได้อย่างไร

Red Hat OpenShift AI มอบแพลตฟอร์ม AI/ML ที่สเกลได้และยืดหยุ่น เพื่อช่วยองค์กรสร้างและสามารถนำแอปพลิเคชันที่ใช้ AI ไปใช้ในวงกว้างในสภาพแวดล้อมไฮบริดคลาวด์ทั้งหมด OpenShift AI สร้างจากเทคโนโลยีโอเพ่นซอร์ส มอบความสามารถต่าง ๆ ที่เชื่อถือได้ และการทำงานที่สอดคล้องกัน ให้กับทีมงานต่าง ๆ ใช้ในการทดลอง ให้บริการโมเดล และให้บริการแอปพลิเคชันรุ่นใหม่ ๆ เร้ดแฮทได้ผสานรวมความสามารถต่าง ๆ ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ของ OpenShift AI เข้ากับ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มแอปพลิเคชัน AI หนึ่งแพลตฟอร์ม ที่สามารถช่วยให้ทีมที่ทำงานต่าง ๆ ขององค์กรมาทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ผู้ที่มีบทบาทหน้าที่ด้านต่าง ๆ เช่น data scientists, engineers และนักพัฒนาแอปพลิเคชันทุกคนสามารถทำงานร่วมกันบนแพลตฟอร์มเดียวกัน ที่มีประสิทธิภาพทั้งความคงเส้นคงวา สอดคล้องกัน มีความปลอดภัยมากขึ้น และสเกลได้ง่าย

Red Hat Device Edge เป็นแพลตฟอร์มที่มีความยืดหยุ่น รองรับเวิร์กโหลดประเภทต่าง ๆ ในทิศทางเดียวกัน ไม่ว่าจะเป็นเวิร์กโหลดที่อยู่บนอุปกรณ์ขนาดเล็กที่มีทรัพยากรจำกัดติดตั้งอยู่ที่ edge และมอบความสม่ำเสมอในการดำเนินงานกับเวิร์กโหลดและอุปกรณ์ทุกประเภท ไม่ว่าจะนำไปใช้งาน ณ ที่ใดก็ตาม ทั้งนี้ Red Hat Device Edge ประกอบด้วย

  • Red Hat Enterprise Linux

สร้าง edge-optimized OS images เพื่อรองรับกรณีใช้งานและเวิร์กโหลดหลากหลาย ด้วย ระบบปฏิบัติการที่มีความปลอดภัยและความเสถียรของเร้ดแฮท

  • MicroShift

MicroShift ของเร้ดแฮท เป็นโซลูชัน lightweight Kubernetes container orchestration ที่สร้างจากความสามารถด้าน edge ของ Red Hat OpenShift

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform ช่วยให้องค์กรสเกลอุปกรณ์ได้อย่างรวดเร็ว และช่วยบริหารจัดการไลฟ์ไซเคิลของแอปพลิเคชัน