From space missions to smart factories

จากภารกิจห้วงอวกาศสู่โรงงานอัจฉริยะ

From space missions to smart factories

By Joseph Kong, Head of Digital Industries, Siemens Thailand

Personal computers, GPS, mobile phones, digital cameras, the internet: many of the technologies in our lives today are older than we might think. They originate from concepts from the 1960s and 70s – an enormously creative, innovative period.

Another innovation on everyone’s mind is the digital twin which many scientists and engineers today describe as the backbone of a new industrial revolution.  A digital twin is a virtual representation of a physical object. This digital counterpart enables real-time monitoring, diagnostics and predictive maintenance, which significantly increases operational efficiency.

Physical models of NASA spacecrafts – the precursors of digital twin

The initial idea of this technology has its origins in NASA – National Aeronautics and Space Administration space missions around 60 years ago. Space missions were expensive and risky, so people preferred to simulate on safe ground what they would have to be prepared for in space.

A simple idea was born, and this is still the key benefit of digital twin today. The term itself was only popularized late, in 2010 to be precise, by NASA´s Michael Grieves and John Vickers. Thereby marking its transition from a tool used in space exploration to an industrial revolution.

The rise of the digital twin and the IoT

If the digital twin is the backbone of the industry of the future, then data is the life blood of the digital twin. The more data, the more precise the digital representation and the more opportunities arise. IoT (Internet of Things) devices, which are being deployed everywhere in our world in exploding numbers, provide precisely this data, which is used intelligently for digital twin.

According to Statista, there are already 15.9 billion IoT devices in use worldwide, and this figure is expected to more than double by 2033. Many of these are already being used in industrial plants and production facilities enabling engineers to simulate every aspect in the virtual environment, from the products themselves to the machines and entire production lines.

Siemens drives the development forward since the early days

Siemens has played a significant role in space exploration through its software and digital solutions which have since found transformative applications in manufacturing.

In the 1970s, Siemens was already focusing on data processing technologies and since then its early technological advancements such as automation and control systems and digitalization laid the foundation for the technologies that power the IoT today. Digital twin technology was originally designed to simulate and monitor complex systems in space. By creating a digital replica of physical assets, engineers could predict how spacecraft components would respond to the extreme conditions of space.

Today, Siemens applies digital twin in manufacturing to optimize production lines, anticipate maintenance needs, and reduce downtime. By enabling virtual testing and refinement of systems, manufacturers can improve efficiency, reduce waste, and achieve high precision without risking costly real-world trial-and-error.

In 2012, Siemens collaborated with NASA on the Mars mission “Curiosity.” The company provided the software solutions that were used to develop, simulate, and test the Mars rover. In 2015, Siemens introduced the concept of digital twin for industrial use at Hannover Fair in Germany and presented the technology for different branches of industry, including the process industries and machine building.

The foundation of Industry 4.0 and the future of smart, sustainable factories

Digital twin is now at the heart of the much talked about Industry 4.0 – the culmination of the digitalization of industrial processes. Digital twin is not only relevant during ongoing operations, but also from the very first minute an idea or business model is created.

Today, a smart factory is first created as a digital twin and only much later in the real world. Precise simulations not only make it possible to avoid roadblocks and foresee dangers, but also to design all processes as efficiently as possible so that the factory of the future is not only productive, but above all highly sustainable.

And yet this is just the beginning: the combination of digital twin and AI will enable computers to independently design optimized products and processes and proactively support decision-makers in industries in their innovations and planning, operations and maintenance.

Combining the real and the digital worlds

The digital twin is a prime example of what it means to connect the real with the digital worlds to create a sustainable impact. By creating digital replicas of physical assets, businesses gain insights that allow them to optimize processes, predict challenges, and innovate responsibly.

For all, it is important to understand that physical reality and the human being at its center will always be the point of reference. Digitalization, like AI, is never a purpose, but no more but also no less than a powerful enabler to transform the everyday for the better.

Experience firsthand Siemens’ pioneering software solutions for aerospace industry at Thailand Space Week 2024 during 7-9 November 2024 at IMPACT Muang Thong Thani.

Organized by the Geo-Informatics and Space Technology Development Agency (GISTDA) under the theme “Converging Technologies, Connecting People”, Siemens will showcase technology from the open digital business platform #SiemensXcelerator, including a comprehensive suite of software products supporting all areas of aerospace development, from System Design, Simulation & Testing, and Product Lifecycle Management (PLM) to Manufacturing Process Management, under the Model-Based Systems Engineering (MBSE) and Digital Threads concepts. These solutions play a vital role in linking every step from design to production in satellite systems and space technology development.

จากภารกิจห้วงอวกาศสู่โรงงานอัจฉริยะ

จากภารกิจห้วงอวกาศสู่โรงงานอัจฉริยะ

จากภารกิจห้วงอวกาศสู่โรงงานอัจฉริยะ

โดย โจเซฟ คง หัวหน้ากลุ่มธุรกิจอุตสาหกรรมดิจิทัล ซีเมนส์ ประเทศไทย

คอมพิวเตอร์, ระบบนำทาง GPS, โทรศัพท์มือถือ, กล้องดิจิทัล, อินเทอร์เน็ต และอีกหลากหลายเทคโนโลยีที่เราใช้ในชีวิตประจำวันวันนี้ แท้จริงแล้วมีอายุมากกว่าที่เราคิด แนวคิดของเทคโนโลยีเหล่านี้เริ่มขึ้นตั้งแต่ช่วงทศวรรษ 1960 และ 1970 ซึ่งเป็นยุคแห่งการสร้างนวัตกรรม

นวัตกรรมหนึ่งในนั้นก็คือเทคโนโลยีดิจิทัลทวิน (Digital Twin) ที่นักวิทยาศาสตร์และวิศวกรในปัจจุบันมองว่าเป็นหัวใจสำคัญของการปฏิวัติอุตสาหกรรมครั้งใหม่ โดย Digital Twin คือการสร้างคู่แฝดดิจิทัลของวัตถุทางกายภาพ ซึ่งการมีคู่แฝดดิจิทัลนี้ทำให้เราสามารถติดตาม ตรวจสอบ วินิจฉัยการทำงานของอุปกรณ์และระบบต่างๆ อีกทั้งสามารถคาดการณ์การบำรุงรักษาได้แบบเรียลไทม์ เป็นการเพิ่มประสิทธิภาพการดำเนินงานอย่างมีนัยสำคัญ

แบบจำลองทางกายภาพของยานอวกาศ NASA คือ จุดเริ่มต้นของ Digital Twin

แนวคิดเริ่มต้นของ Digital Twin มีรากฐานมาจากภารกิจในอวกาศขององค์การบริหารการบินและอวกาศแห่งชาติหรือ ‘นาซ่า’ (NASA) เมื่อประมาณ 60 ปีที่แล้ว เนื่องด้วยการปฏิบัติภารกิจในอวกาศมีค่าใช้จ่ายและความเสี่ยงสูงมาก ดังนั้นการจำลองสถานการณ์บนพื้นโลกเพื่อเตรียมความพร้อมก่อนเผชิญสถานการณ์จริงในอวกาศจึงเป็นภารกิจที่สำคัญ

แนวคิดที่เรียบง่ายนี้ยังคงเป็นประโยชน์หลักของ Digital Twin ในปัจจุบัน โดยคำว่า “Digital Twin” ได้เป็นที่แพร่หลายและรู้จักมากขึ้นใน ค.ศ. 2010 โดย Michael Grieves และ John Vickers จาก NASA และเป็นจุดเปลี่ยนจากเทคโนโลยีที่ใช้เฉพาะในการสำรวจอวกาศสู่การปฏิวัติอุตสาหกรรม

การเติบโตของ Digital Twin และ IoT

หาก Digital Twin เป็นหัวใจสำคัญของการปฏิวัติอุตสาหกรรมครั้งใหม่ ข้อมูล (Data) ก็เปรียบเสมือนเส้นเลือดที่ไปหล่อเลี้ยง Digital Twin ยิ่งมีข้อมูลมากการจำลองก็ถูกต้องและแม่นยำยิ่งขึ้น การเพิ่มขึ้นอย่างก้าวกระโดดของการใช้อุปกรณ์ IoT (Internet of Things) ทั่วทุกมุมโลก ยิ่งเสริมสร้างการเติบโตของการใช้ Digital Twin จากข้อมูลของ Statista พบว่ามีอุปกรณ์ IoT ที่ใช้อยู่ในการงานทั่วโลกถึง 18 พันล้านเครื่องในปี 2024 และคาดว่าจะเพิ่มขึ้นมากกว่าสองเท่าภายในปี 2033 โดยอุปกรณ์ IoT เหล่านี้จำนวนมากถูกนำไปใช้ในโรงงานทั้งภาคอุตสาหกรรมและภาคการผลิต ซึ่งช่วยให้วิศวกรสามารถจำลองกระบวนการการทำงานทุกแง่มุมในสภาพแวดล้อมดิจิทัลเสมือนจริง ตั้งแต่ตัวผลิตภัณฑ์ เครื่องจักรไปจนถึงสายการผลิตทั้งหมด

ซีเมนส์กับการขับเคลื่อนการพัฒนา IoT และ Digital Twin

ซีเมนส์ได้ให้ความสำคัญกับเทคโนโลยีการประมวลผลข้อมูลตั้งแต่ทศวรรษ 1970s และได้มีบทบาทสำคัญในภารกิจสำรวจอวกาศผ่านซอฟต์แวร์และโซลูชันดิจิทัล ซึ่งต่อมาได้ถูกนำมาประยุกต์ใช้และสร้างการเปลี่ยนแปลงอย่างมากในภาคการผลิต การพัฒนาทางเทคโนโลยี เช่น ระบบอัตโนมัติและระบบควบคุม และระบบดิจิทัล (Digitalization) ในยุคเริ่มแรกได้กลายเป็นรากฐานสำหรับเทคโนโลยีที่ขับเคลื่อน IoT ในปัจจุบัน

ด้านเทคโนโลยี Digital Twin นั้นเริ่มแรกถูกออกแบบมาเพื่อจำลองและติดตามระบบที่มีความซับซ้อนในกิจการอวกาศ โดยการสร้างคู่แฝดดิจิทัลของวัตถุทางกายภาพทำให้วิศวกรสามารถคาดการณ์ได้ว่าส่วนประกอบของยานอวกาศจะตอบสนองต่อสภาพสุดขั้วในอวกาศอย่างไร  ปัจจุบัน ซีเมนส์ได้นำ Digital Twin มาใช้ในภาคการผลิต ด้วยความสามารถในการทดสอบและปรับปรุงระบบอย่างมีความแม่นยำสูงในโลกเสมือนก่อนปฏิบัติจริงทำให้ผู้ประกอบการสามารถเพิ่มประสิทธิภาพของสายการผลิต คาดการณ์ความต้องการการบำรุงรักษาของเครื่องจักรและอุปกรณ์ ลดเวลาในการหยุดทำงาน (downtime) และลดของเสีย โดยไม่ต้องเสี่ยงกับการทดลองที่มีค่าใช้จ่ายสูงในโลกจริง

ในปี 2012 ซีเมนส์ได้ร่วมมือกับ NASA ในภารกิจสำรวจดาวอังคาร “Curiosity” โดยบริษัทฯ ได้จัดหาโซลูชันซอฟต์แวร์ที่ใช้ในการพัฒนา จำลอง และทดสอบยานสำรวจดาวอังคาร ต่อมาในปี 2015 ซีเมนส์ได้นำเสนอแนวคิด Digital Twin สำหรับใช้งานภาคอุตสาหกรรมที่งาน Hannover Messe ประเทศเยอรมนี พร้อมนำเสนอเทคโนโลยีสำหรับอุตสาหกรรมในสาขาต่างๆ รวมถึงอุตสาหกรรมการผลิตแบบต่อเนื่องและการสร้างเครื่องจักร

รากฐานของอุตสาหกรรม 4.0 และอนาคตของโรงงานอัจฉริยะที่ยั่งยืน

ปัจจุบัน Digital Twin เป็นหัวใจของการเปลี่ยนผ่านกระบวนการอุตสาหกรรมไปสู่ยุคดิจิทัลหรืออุตสาหกรรม 4.0  Digital Twin ไม่เพียงมีประโยชน์ในขั้นตอนกระบวนการดำเนินงาน แต่มีประโยชน์อย่างมากนับตั้งแต่เกิดไอเดียหรือโมเดลธุรกิจขึ้น

วันนี้การสร้างโรงงานอัจฉริยะจะเกิดในรูปแบบ Digital Twin ก่อนแล้วจึงค่อยก่อสร้างเป็นโรงงานจริงภายหลัง โดยการจำลองที่แม่นยำนี้ไม่เพียงช่วยเลี่ยงอุปสรรคที่อาจเกิดและเสริมสร้างความปลอดภัย แต่ยังช่วยในการออกแบบกระบวนการทั้งหมดให้ทำงานได้อย่างมีประสิทธิภาพสูงสุด เพื่อสร้างโรงงานแห่งอนาคตที่ให้ผลผลิตสูงและมีความยั่งยืน

นี่เป็นเพียงจุดเริ่มต้น ต่อไปการผสมผสานเทคโนโลยี Digital Twin กับ AI จะช่วยให้คอมพิวเตอร์สามารถออกแบบผลิตภัณฑ์และกระบวนการที่เหมาะสมได้อย่างอิสระ ซึ่งจะสนับสนุนผู้ประกอบการในอุตสาหกรรมในการตัดสินใจเกี่ยวกับนวัตกรรม วางแผน ดำเนินงาน และการบำรุงรักษาต่างๆ

การผสานโลกจริงและโลกดิจิทัลเข้าด้วยกัน

Digital Twin เป็นตัวอย่างของการเชื่อมต่อโลกจริงกับโลกดิจิทัลเพื่อสร้างผลลัพธ์ที่ยั่งยืน ด้วยการสร้างคู่แฝดดิจิทัลของวัตถุทางกายภาพ ธุรกิจจะได้ข้อมูลเชิงลึกที่ช่วยเพิ่มประสิทธิภาพการดำเนินงาน คาดการณ์ความท้าทายที่อาจเกิดขึ้น และสร้างนวัตกรรมอย่างมีความรับผิดชอบ

สิ่งสำคัญที่เราต้องตระหนักคือ โลกของความเป็นจริงและผู้คนยังคงเป็นศูนย์กลางของการตัดสินใจในการใช้เทคโนโลยีอยู่เสมอ เทคโนโลยีขั้นสูงอย่าง AI หรือเทคโนโลยีอื่นๆ ไม่ใช่จุดมุ่งหมายสุดท้ายในตัวมันเอง แต่จะเป็นเครื่องมือที่ทรงพลังที่จะช่วยให้โลกยั่งยืนและยกระดับชีวิตประจำวันของผู้คนให้ดียิ่งขึ้น

พบกับซีเมนส์ที่งาน #ThailandSpaceWeek 2024 ในวันที่ 7 – 9 พฤศจิกายน 2567 ที่อิมแพค เมืองทองธานี ภายใต้แนวคิด “Converging Technologies, Connecting People”  โดยซีเมนส์ได้นำเทคโนโลยีจากแพลตฟอร์มธุรกิจดิจิทัลแบบเปิด #SiemensXcelerator ร่วมจัดแสดง

ที่งาน #ThailandSpaceWeek 2024 ซึ่งจัดโดยสำนักงานพัฒนาเทคโนโลยีอวกาศและภูมิสารสนเทศ (องค์การมหาชน) หรือ #GISTDA ซีเมนส์จะนำเทคโนโลยีซึ่งครอบคลุมถึงชุดผลิตภัณฑ์ซอฟต์แวร์ที่รองรับการพัฒนากิจการอวกาศทุกด้าน ตั้งแต่การออกแบบเชิงระบบ (System Design), การทดสอบและจำลอง (Simulation & Testing), การบริหารวงจรชีวิตผลิตภัณฑ์ (PLM – Product Lifecycle Management) ไปจนถึงการจัดการกระบวนการผลิต (Manufacturing) ภายใต้แนวคิด Model-Based Systems Engineering (MBSE) และ Digital Threads ที่มีบทบาทสำคัญในการเชื่อมโยงทุกขั้นตอนเข้าด้วยกันตั้งแต่การออกแบบไปจนถึงการผลิตของการพัฒนาระบบดาวเทียมและเทคโนโลยีอวกาศ

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

Blendata เปิดตัว Blendata Cloud บน Microsoft Azure Marketplace ยกระดับโซลูชัน Big Data ไทยสู่ระดับโลก

เบลนเดต้า (Blendata) บริษัทนวัตกรรมเทคโนโลยีคนไทยด้านบิ๊กดาต้าและแพลตฟอร์ม AI – hybrid big data ประกาศเปิดตัว “Blendata Cloud on Azure” บน Microsoft Azure Marketplace ร่วมกับไมโครซอฟท์ ประเทศไทย และ อินแกรม ไมโคร (ประเทศไทย) ตอบโจทย์ความต้องการ hybrid big data platform เพิ่มโอกาสเข้าถึงกลุ่มลูกค้า และตลาดที่กว้างขึ้นเพิ่มความเชื่อมั่นให้ลูกค้าในการใช้งานซอฟต์แวร์คุณภาพสูงที่พัฒนาโดยผู้ให้บริการภายในประเทศบนมาร์เก็ตเพลสที่ได้รับการยอมรับทั่วโลก เสริมศักยภาพให้ธุรกิจใช้พลังของบิ๊กดาต้าคว้าโอกาสเติบโตได้อย่างเต็มประสิทธิภาพ ด้วยค่าใช้จ่ายที่คุ้มค่า

ปัจจุบันธุรกิจไทยส่วนใหญ่มองเห็นประโยชน์ของการนำข้อมูลมหาศาลมาใช้ แต่ยังประสบปัญหาในการเริ่มต้น เนื่องจากโครงสร้างพื้นฐานที่ซับซ้อน ข้อมูลที่ไม่พร้อม และค่าใช้จ่ายที่สูงขึ้นเรื่อย ๆ คลาวด์เป็นหนึ่งในคำตอบสำหรับธุรกิจยุคดิจิทัล การศึกษาของการ์ทเนอร์ ชี้ให้เห็นว่า การลงทุนด้านคลาวด์ เช่น IaaS และ PaaS จะเป็นตัวขับเคลื่อนสำคัญในการยกระดับเทคโนโลยีของธุรกิจไทย AI และการวิเคราะห์ข้อมูลขนาดใหญ่เป็นเทรนด์หลักที่ผลักดันให้ตลาดคลาวด์เติบโตอย่างรวดเร็ว การใช้คลาวด์จะช่วยให้ธุรกิจทำงานได้อย่างรวดเร็ว ยืดหยุ่น และมีประสิทธิภาพ อย่างไรก็ดี data lakehouse คือเทคโนโลยีที่น่าสนใจนำมาใช้เพื่อวิเคราะห์ข้อมูล แต่ก็ยังเผชิญกับข้อจำกัดในการย้ายข้อมูลทั้งหมดขึ้นสู่คลาวด์

ผสานพลังทางเทคโนโลยีสร้าง Hybrid Big Data Platform

ความร่วมมือครั้งนี้เป็นการผสานจุดแข็งของ Blendata Cloud ซึ่งเป็นแพลตฟอร์ม data lakehouse เข้ากับแพลตฟอร์มคลาวด์ประสิทธิภาพสูงและยืดหยุ่นของ Microsoft Azure เพื่อยกระดับเป็นโซลูชัน hybrid big data platform ที่ตอบสนองต่อความต้องการขององค์กร ด้วยเทคโนโลยีด้านการประมวลผลและจัดการข้อมูลที่ล้ำสมัย มีการเชื่อมต่อระหว่างแพลตฟอร์มที่มีประสิทธิภาพและคุ้มค่าการลงทุน

Blendata Cloud สร้างขึ้นบนเทคโนโลยีสมัยใหม่ที่ได้รับความนิยมและเป็นมาตรฐานด้านข้อมูลเช่น Apache Spark โดยเป็นแพลตฟอร์มที่รวมศูนย์เทคโนโลยีการจัดเก็บ ประมวลผล และการวิเคราะห์ข้อมูลขนาดใหญ่ไว้ในที่เดียวกันในรูปแบบ low-code ได้รับการออกแบบเพื่อรองรับเวิร์กโหลดด้านการจัดการและการประมวลผลข้อมูลขนาดใหญ่ทุกรูปแบบ ตั้งแต่ข้อมูลที่มีโครงสร้าง (structured data) ไปจนถึงข้อมูลที่ไม่มีโครงสร้าง (unstructured data) เพื่อนำไปใช้ประโยชน์หลากหลาย ไม่ว่าจะเป็นการวิเคราะห์เชิงธุรกิจ (business intelligence) หรือการใช้งานร่วมกับเทคโนโลยีเกิดใหม่ เช่น AI

ซอฟต์แวร์ไทยจับมือพันธมิตรสู่เวทีระดับโลก

Microsoft Azure ผู้ให้บริการคลาวด์ระดับโลก และ อินแกรม ไมโคร (ประเทศไทย) ในฐานะตัวแทนจำหน่ายอย่างเป็นทางการของ Microsoft Azure ได้สนับสนุนในการเพิ่มขีดความสามารถให้กับแพลตฟอร์มของเบลนเดต้า ซึ่งเป็น ISV Success Partner อย่างเต็มที่ ช่วยให้การประมวลผลบิ๊กดาต้าเป็นไปอย่างรวดเร็วและมีประสิทธิภาพ นอกจากนี้ ยังรองรับการทำงานร่วมกับแมชชีนเลิร์นนิ่ง เพื่อพัฒนาและใช้งานโมเดล AI ได้อย่างไร้รอยต่อ ด้วยความสามารถในการรองรับข้อมูลแบบ multi-cloud และ on-premises ทำให้องค์กรสามารถจัดการข้อมูลได้อย่างยืดหยุ่นและปลอดภัย ช่วยให้ผู้ใช้งานแพลตฟอร์มของเบลนเดต้าสามารถเข้าถึงทรัพยากรและบริการของ Azure ได้อย่างเต็มรูปแบบ

นายณัฐนภัส รชตะวิวรรธน์ ประธานเจ้าหน้าที่บริหารและผู้ร่วมก่อตั้ง บริษัท เบลนเดต้า จำกัด กล่าวว่า “การร่วมมือกับ ไมโครซอฟท์ และ อินแกรม ไมโคร (ประเทศไทย) ซึ่งเป็นพันธมิตรสำคัญในการสร้างระบบนิเวศคลาวด์ที่แข็งแกร่ง และตอบความต้องการของธุรกิจในยุคดิจิทัลที่ไม่เพียงเพิ่มประสิทธิภาพและความยืดหยุ่นในการประมวลผลข้อมูลขนาดใหญ่เท่านั้น แต่ยังรวมถึงการที่ไมโครซอฟท์เห็นความสำคัญ และให้การสนับสนุนบริษัทพัฒนาโซลูชันระดับท้องถิ่นอย่างเต็มที่ ความแข็งแกร่งของระบบนิเวศของไมโครซอฟท์ ทำให้เบลนเดต้าสามารถเข้าถึงกลุ่มลูกค้าและตลาดที่ใหญ่ขึ้น พร้อมด้วยการสนับสนุนด้านเทคโนโลยี และการตลาดยังช่วยเพิ่มความเชื่อมั่นให้กับลูกค้าในการใช้งานผลิตภัณฑ์ที่พัฒนาโดยเบลนเดต้า”

นายธนวัฒน์ สุธรรมพันธุ์ กรรมการผู้จัดการใหญ่ ไมโครซอฟท์ ประเทศไทย กล่าวว่า “ไมโครซอฟท์ มุ่งมั่นสนับสนุนนักพัฒนาชาวไทยให้สามารถสร้างโอกาสเติบโตจากเทคโนโลยี AI และเข้าถึงลูกค้าของเราทั่วโลก ทั้งนี้ “Blendata Cloud on Azure” เป็นอีกหนึ่งความภูมิใจของเรา ด้วยโซลูชันวิเคราะห์ข้อมูลที่มีประสิทธิภาพและมอบความคุ้มค่าสูงสุด ตอบโจทย์ความต้องการองค์กรธุรกิจทั้งในไทยและต่างประเทศ สอดคล้องกับความตั้งใจจริงของเราที่ต้องการจะเสริมแกร่งให้ประเทศไทยจาก Made in Thailand เป็น Born in Thailand ส่งเสริมตลาดของผู้สร้างและผู้พัฒนา เพื่อการเติบโตอย่างยั่งยืนก้าวสู่เศรษฐกิจดิจิทัล
ในอนาคต”

Blendata Cloud บน Microsoft Azure Marketplace ครอบคลุมการให้บริการ ดังนี้

  • Blendata Cloud บน Microsoft Azure Marketplace: แพลตฟอร์มวิเคราะห์ข้อมูลขนาดใหญ่แบบ self-service ที่ยืดหยุ่นและปรับขนาดได้ตามความต้องการทางธุรกิจ
  • คิดค่าใช้จ่ายตามการใช้งานจริง (Pay-Per-Use) พร้อมฟังก์ชันด้านบิ๊กดาต้า และ advanced analytics ครบวงจร
  • รองรับการประมวลผลข้อมูลขนาดใหญ่ด้วยความเร็วสูง ด้วยรูปแบบที่ใช้งานง่ายเหมาะสำหรับทีมเทคนิคและทีมที่ไม่มีทักษะการเขียนโค้ด
  • ใช้เทคโนโลยี Apache Spark และ Delta Lake รองรับการเชื่อมต่อแบบไฮบริด และเป็นแพลตฟอร์มเปิดที่ไม่ผูกติดกับเวนเดอร์ใดเวนเดอร์หนึ่ง
  • ให้บริการบน Microsoft Azure พร้อมการจัดการทรัพยากรอย่างไร้รอยต่อ 

การวางจำหน่าย

เบลนเดต้าเปิดให้บริการ “Blendata Cloud บน Microsoft Azure Marketplace” ในรูปแบบ Bring Your Own License (BYOL) ซึ่งสามารถทำการสั่งซื้อผ่าน Azure Marketplace ได้แล้วตั้งแต่ไตรมาส 4 ปีนี้ ซึ่ง Azure Marketplace ได้รับการยอมรับจากองค์กรธุรกิจทั่วโลกว่าเป็นผู้นำในตลาดคลาวด์ที่มีพอร์ตโฟลิโอโซลูชันต่างๆ จากเครือข่ายพันธมิตรกว่า 400,000 รายทั่วโลก รวมถึงบริษัทพัฒนาระบบสัญชาติไทยด้วย นอกจากนี้จะเปิดให้บริการในรูปแบบ Managed Software (PaaS) ภายในต้นปี พ.ศ. 2568 โดยคาดว่าการเปิดตัวนี้จะช่วยขยายโอกาสการเติบโตในภาคธุรกิจทั้งในและต่างประเทศ

สามารถสอบถามข้อมูลเพิ่มเติมหรือติดต่อเพื่อใช้บริการผลิตภัณฑ์ได้ที่ TH-MSCSP@ingrammicro.com, หรือโทร 02-012-2222

Addressing the complexity of AI and edge operationalization

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

Addressing the complexity of AI and edge operationalization

Article by Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge at Red Hat

With today’s artificial intelligence (AI) hype, there can be a lot to digest. Each day brings a new product, new model or a new promise of fault detection, content generation or other AI-powered solution. When it comes to operationalizing an AI/machine learning (ML) model, however, bringing it from training to deployment at the edge is not a trivial task. It involves various roles, processes and tools, as well as a well-structured operations organization and a robust IT platform to host it on.

AI models are now flourishing everywhere but this raises the question: how many of them are operationalized solutions with a robust AI model training, versioning and deployment backend?

How long does operationalization take?

This question is not new. According to a recent Gartner survey, it could take organizations anywhere between 7 – 12 months to operationalize AI/ML from concept to deployment. Technical debt, maintenance costs and system-level risks are just a few things that must be managed throughout the operationalizing process.

Key challenges in AI/ML operationalization

Operationalizing an AI/ML model from a proof-of-concept phase to an industrial solution is full of challenges. This operationalization is very similar to the creation of a high-quality industrial product. Specifically, a chain of trust needs to be created to create a reliable and high quality solution.

EN_Challenges

Data quality

Creating a robust AI model includes having clean and relevant data for training and testing. At its core, the underlying requirement is having a strong data governance, which includes data privacy, security and compliance with all relevant regulations. This can add an enormous amount of complexity and increased infrastructure needs.

Model deployment and integration

Integrating AI/ML models within existing systems and workflows can be technically challenging, as most modern software relies on a continuous integration and continuous deployment (CI/CD) approach. Due to this, it is important to implement pipelines for AI models that include extensive automation and monitoring facilities.

Infrastructure scalability, monitoring and performance

Making sure that AI/ML models are trained in scaling to handle large volumes of data and high-velocity data streams is critical. For that, an architecture which both data scientists and IT operations can monitor and maintain will mean that the platform can be fixed or upgraded when needed. This includes tooling for building and maintaining the necessary infrastructure—including computational resources, data storage and ML platforms—and selecting and integrating the right tools for data processing, model development, deployment and monitoring.

Collaboration and skill gaps

Bridging the gap between data scientists, engineers and business stakeholders is key to fostering alignment and effective collaboration.

The widespread use of specialized tools for different functions can impede this process. Each group often relies on unique tools and terminology, which can create barriers to integration, especially in machine learning operations (MLOps). In an ideal world, models will move smoothly through the process from training through to deployment out to edge devices. It may even be tempting to utilize a single system or platform to achieve this ideal process. To foster more effective collaboration, however, it may be a better approach to create platforms and tools that integrate well with each other, so each team can use their preferred systems over a single solution that may not fit their specific needs. 

Bridging skill gaps is also crucial in this process. Organizations will often have a division of expertise where data scientists, engineers and business stakeholders possess distinct skills and knowledge. This division can cause problems when models are transferred between teams, as the necessary skills and understanding may not be uniformly distributed. Addressing these gaps requires ongoing education and cross-training, so all team members have a basic understanding of each other’s roles and tools. By investing in cross-team skill building and training, model development and deployment processes will be smoother and more effective.

Ethics and bias

Making sure that AI/ML models are fair and do not perpetuate existing biases present in the data involves implementing ethical guidelines and frameworks to govern the use of AI/ML. Then the ethics and bias guidelines must be implemented as metrics in order to create a reliable infrastructure for evaluation and monitoring. The quality of a model has to be evaluated against these metrics and the results be compared to pre-defined references.

Roles involved in the AI/ML lifecycle

Operationalizing AI/ML involves various roles, each contributing critical skills and knowledge. These roles differ from regular IT DevOps ones as they are demanding consumers of IT infrastructures, using specific tools for the AI modeling and facing the same challenges in delivering the AI models like delivering a new software version.

One of the more well-known ones is the data scientist. This term however, is too generic, and the tasks for AI/ML deployment splits to different individuals with specific skills. For the data collection, cleaning, and preparation for model training, it would require a data scientist. 

An MLOps engineer would specialize in the deployment and maintenance of AI models. This role involves specific skills and tools that are not necessarily the same as those used in AI model training. This is generally where a company struggles to operationalize their AI model, when very skilled data scientists are asked to deploy AI models. Deployment specifically is a skill that falls under that of a MLOps engineer, as well as monitoring, scaling models into production and maintaining performance.

Creating an AI/ML model involves an AI engineer, which will train and deploy models running the latest algorithms created by AI scientists. Once the model is created it is pushed into a storage system to be available for containerized application.

App developers integrate AI/ML models into applications, ensuring seamless interaction with other components.

IT operations manage the infrastructure, ensuring necessary computational resources are available and efficiently utilized.

Business leadership sets goals, aligns AI/ML initiatives with business objectives and ensures necessary resources and support exist to continue operationalizing AI/ML solutions.

As you can imagine, coordinating these roles effectively is crucial for managing the complexities and technical debt associated with AI/ML operations. This coordination cannot be done just by defining procedures and abstract workflows. This needs to rely on a common set of tools with specific user interfaces for each role to give a shared but readable view on the AI operations.

How Red Hat can help

Red Hat OpenShift AI provides a flexible, scalable AI/ML platform that helps you create and deliver AI-enabled applications at scale across hybrid cloud environments.

Built using open source technologies, OpenShift AI provides trusted, operationally consistent capabilities for teams to experiment, serve models and deliver innovative apps.

We’ve combined the proven capabilities of OpenShift AI with Red Hat OpenShift to create a single AI application platform that can help bring your teams together and help them collaborate more effectively. Data scientists, engineers and app developers can work together on a single platform that promotes consistency, improves security, and simplifies scalability.

Red Hat Device Edge is a flexible platform that consistently supports different workloads across small, resource-constrained devices at the farthest edge and provides operational consistency across workloads and devices, no matter where they are deployed.

Red Hat Device Edge combines:

  • Red Hat Enterprise Linux

Generate edge-optimized OS images to handle a variety of use cases and workloads with Red Hat’s secure and stable operating system.

  • MicroShift

Red Hat’s build of MicroShift is a lightweight Kubernetes container orchestration solution built from the edge capabilities of Red Hat OpenShift.

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform helps you quickly scale device and application lifecycle management.

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

บทความโดย Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge, เร้ดแฮท

กระแสของปัญญาประดิษฐ์ (AI) ในปัจจุบัน มีเรื่องที่ต้องทำความเข้าใจหลายแง่มุม ในแต่ละวันจะมีผลิตภัณฑ์และบริการใหม่ โมเดลใหม่ การสร้างเนื้อหาหรือโซลูชันที่ขับเคลื่อนด้วย AI อื่น ๆ เกิดขึ้นมากมาย เมื่อพูดถึงการทำงานเกี่ยวกับโมเดล AI/machine learning (ML) ตั้งแต่การเทรนโมเดลไปจนถึงการนำไปใช้งานที่ edge นั้น ไม่ใช่เรื่องง่ายเลย เพราะเป็นเรื่องที่ต้องข้องเกี่ยวกับบทบาทหน้าที่ของทีมงานด้านต่าง ๆ กระบวนการ และเครื่องมือมากมาย รวมถึงองค์กรจะต้องมีโครงสร้างการทำงานที่ดี และโมเดลเหล่านั้นจะต้องโฮสต์อยู่บนแพลตฟอร์มไอทีที่แข็งแกร่ง

โมเดล AI ได้รับความนิยมทุกแห่งหน คำถามคือจะมีโมเดลใดบ้างที่เป็นโซลูชันที่ใช้งานได้จริงที่ได้รับการเทรนมาอย่างดี, มีการทำ versioning และมีวิธีการ deploy ที่เหมาะสมมีประสิทธิภาพ

ต้องใช้เวลานานเท่าใดจึงจะใช้งานได้

คำถามนี้ไม่ใช่เรื่องใหม่ จากการสำรวจล่าสุดของการ์ทเนอร์ องค์กรอาจใช้เวลาในการศึกษาค้นคว้า AI/ML จากแนวคิดไปสู่การใช้งานจริง ประมาณ 7-12 เดือน ซึ่งจะต้องจัดการกับความท้าทายต่าง ๆ เช่น หนี้ทางเทคนิค ค่าบำรุงรักษา และความเสี่ยงของระบบ ฯลฯ ตลอดกระบวนการทำงาน

ความท้าทายใหญ่ ๆ ในการทำงานด้าน AI/ML

การนำโมเดล AI/ML ไปใช้จริง นับจากขั้นตอนการพิสูจน์แนวคิด ไปจนถึงกลายเป็นโซลูชันทางอุตสาหกรรมนั้นเต็มไปด้วยความท้าทาย การทำงานนี้คล้ายกับการสร้างผลิตภัณฑ์อุตสาหกรรมคุณภาพสูง และจำเป็นต้องสร้างซัพพลายเชนที่เชื่อถือได้ เพื่อสร้างโซลูชันที่ไว้ใจได้และมีคุณภาพสูง

TH_Challenges

คุณภาพของข้อมูล

การสร้างโมเดล AI ที่ทรงประสิทธิภาพจะต้องมีข้อมูลที่ถูกต้องเหมาะสมและเกี่ยวข้องกัน เพื่อใช้ในการเทรนและทดสอบ หัวใจหลักที่เป็นสิ่งสำคัญพื้นฐาน คือการกำกับดูแลข้อมูลที่รัดกุม เช่น ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และปฏิบัติตามกฎระเบียบที่เกี่ยวข้องทั้งหมด ซึ่งอาจเพิ่มความซับซ้อนได้อย่างมหาศาล รวมถึงความต้องการด้าน infrastructure จะเพิ่มขึ้นอย่างมาก

การนำไปใช้และการบูรณาการโมเดล

การบูรณาการโมเดล AI/ML เข้ากับระบบและเวิร์กโฟลว์ที่ใช้อยู่ เป็นความท้าทายทางเทคนิค เนื่องจากซอฟต์แวร์รุ่นใหม่ ๆ พึ่งพาแนวทางการพัฒนาซอฟต์แวร์อย่างต่อเนื่อง เช่นการทำ continuous integration และ continuous deployment (CI/CD) ดังนั้นการใช้ไปป์ไลน์สำหรับโมเดล AI ที่มีระบบอัตโนมัติและการตรวจสอบที่ครอบคลุมจึงเป็นเรื่องสำคัญ

Infrastructure ที่สเกลได้ ติดตามตรวจสอบได้ และมีสมรรถนะ

ความมั่นใจว่าโมเดล AI/ML ทั้งหลายได้รับการเทรนให้สามารถปรับขนาดเพื่อรับมือกับข้อมูลปริมาณมากและสตรีมข้อมูลด้วยความเร็วสูงได้นั้นเป็นเรื่องสำคัญมาก ดังนั้นสถาปัตยกรรมหนึ่ง ๆ ที่นักวิทยาศาสตร์ข้อมูล (data scientist) และคนทำงานด้านไอทีสามารถมอนิเตอร์และดูแลได้นั้น จะหมายถึงแพลตฟอร์มที่สามารถแก้ไขหรืออัปเกรดได้เมื่อจำเป็น ซึ่งรวมถึงเครื่องมือที่ใช้ในการสร้างและดูแล infrastructure ที่จำเป็น (เช่น ทรัพยากรที่ใช้ในการคำนวณ พื้นที่จัดเก็บข้อมูล และแพลตฟอร์ม ML ต่าง ๆ) การเลือกและบูรณาการเครื่องมือต่าง ๆ ที่เหมาะสมทั้งกับการประมวลผลข้อมูล การพัฒนาโมเดล การใช้และการมอนิเตอร์

ช่องว่างทางทักษะและการทำงานร่วมกัน

การปิดช่องว่างทางทักษะและการทำงานร่วมกันระหว่าง data scientists วิศวกร (engineers) และผู้มีส่วนได้เสียทางธุรกิจ เป็นเรื่องสำคัญที่จะช่วยส่งเสริมให้เกิดทำงานร่วมกันอย่างมีประสิทธิภาพและเป็นไปในทิศทางเดียวกัน

การใช้เครื่องมือเฉพาะทางหลายอย่างกับฟังก์ชันการทำงานที่ต่างกัน อาจเป็นอุปสรรคต่อแนวทางนี้ได้ ทีมงานแต่ละทีมมักใช้เครื่องมือเฉพาะและศัพท์เฉพาะทาง ซึ่งอาจทำให้เกิดอุปสรรคในการบูรณาการ โดยเฉพาะในการทำงานของแมชชีนเลิร์นนิ่ง (machine learning operations: MLOps) โดยหลักการแล้วโมเดลต่าง ๆ จะถูกจัดการอย่างราบรื่นตลอดกระบวนการทำงาน ตั้งแต่การเทรน การ deploy ไปยังอุปกรณ์ที่ติดตั้งอยู่ที่ edge สิ่งเหล่านี้อาจเป็นสิ่งกระตุ้นให้ใช้ระบบหรือแพลตฟอร์มเดียวเพื่อให้บรรลุหลักการนี้ แต่การสร้างแพลตฟอร์มและเครื่องมือที่ทุกทีมสามารถทำงานร่วมกันได้ดี อาจเป็นวิธีที่ดีกว่าในการส่งเสริมการทำงานร่วมกันให้มีประสิทธิภาพมากขึ้น เพื่อให้ทีมงานแต่ละทีมสามารถใช้ระบบที่ตนต้องการได้ แทนที่จะต้องใช้โซลูชันเดียวที่อาจไม่ตรงตามความต้องการเฉพาะทางของแต่ละทีม 

การแก้ปัญหาช่องว่างทางทักษะยังคงเป็นเรื่องสำคัญในกระบวนการนี้ องค์กรต่าง ๆ มักมีกลุ่มหรือทีมที่เชี่ยวชาญทักษะและความรู้เฉพาะทางที่ต่างกัน รวมกันอยู่ในแผนกเดียวกัน เช่น data scientists, engineers และผู้มีส่วนได้เสียทางธุรกิจ ซึ่งเมื่อมีการถ่ายโอนโมเดลต่าง ๆ  ระหว่างทีมก็อาจทำให้เกิดปัญหาได้ เนื่องจากไม่สามารถเข้าถึงทักษะและความเข้าใจที่จำเป็นต้องใช้ ได้อย่างทั่วถึง

การแก้ไขช่องว่างเหล่านี้ต้องมีการให้ความรู้และการอบรมข้ามสายงานอย่างต่อเนื่อง เพื่อให้สมาชิกทุกคนในทุกทีมมีความเข้าใจพื้นฐานเกี่ยวกับบทบาทและเครื่องมือที่แต่ละทีมใช้งาน การลงทุนในการสร้างและอบรมทักษะต่าง ๆ ข้ามทีม จะช่วยให้กระบวนการพัฒนาและใช้โมเดลเป็นไปอย่างราบรื่นและมีประสิทธิภาพมากขึ้น

จริยธรรมและความไม่เป็นกลาง

องค์กรต้องมั่นใจว่าโมเดล AI/ML มีความเท่าเทียม และขจัดความไม่เป็นกลางของข้อมูลไม่ให้ไปเกี่ยวข้องกับการนำแนวทางและเฟรมเวิร์กด้านจริยธรรมไปใช้ควบคุมการใช้งาน AI/ML จากนั้นต้องนำแนวปฏิบัติด้านจริยธรรมและความไม่เป็นกลางมาใช้เป็นตัวชี้วัด เพื่อสร้าง infrastructure ที่เชื่อถือได้สำหรับใช้ในการประเมินและการติดตาม คุณภาพของโมเดลหนึ่ง ๆ ต้องได้รับการประเมินกับตัวชี้วัดเหล่านี้ และต้องเปรียบเทียบผลการประเมินกับข้อมูลอ้างอิงที่กำหนดไว้ล่วงหน้าแล้ว

บทบาทหน้าที่ต่าง ๆ ที่เกี่ยวข้องกับไลฟ์ไซเคิลของ AI/ML

การใช้ AI/ML เกี่ยวข้องกับคนและทีมงานที่มีบทบาทหน้าที่มากมาย แต่ละบทบาทต้องการทักษะและความรู้อย่างมาก บทบาทเหล่านี้ต่างจากบทบาทของ IT DevOps ทั่ว ๆ ไป เพราะต้องใช้ IT infrastructure จำนวนมาก ต้องใช้เครื่องมือเฉพาะสำหรับการสร้างโมเดล AI และต้องประสบกับความท้าทายในการส่งมอบโมเดล AI เช่นเดียวกับความท้าทายในการส่งมอบซอฟต์แวร์เวอร์ชันใหม่ บทบาทที่เป็นที่รู้จักกันดีคือ data scientist ซึ่งคำว่า data scientist นี้ดูจะกินความหมายกว้างเกินไป งานต่าง ๆ ที่เกี่ยวกับการนำ AI/ML ไปใช้ แบ่งแยกย่อยออกไปและต้องการบุคคลที่มีทักษะเฉพาะทางที่แตกต่างกัน เช่น หากเป็นด้านการรวบรวมข้อมูล การทำข้อมูลให้ถูกต้องเหมาะสม และการเตรียมเทรนโมเดลนั้น ต้องการคนที่มีบทบาทเป็น data scientist

MLOps engineer จะเชี่ยวชาญในการนำโมเดล AI ต่าง ๆ ไปใช้และการดูแลรักษาซึ่งต้องมีทักษะเฉพาะและใช้เครื่องมือเฉพาะทาง ที่ไม่จำเป็นต้องเหมือนกับทักษะและเครื่องมือที่ใช้ในการเทรนโมเดล AI จุดนี้เป็นปัญหาให้กับบริษัทหนึ่ง ๆ ที่เมื่อต้องการใช้โมเดล AI ของตนแต่ไปร้องขอให้ data scientist เป็นผู้ทำหน้าที่ปรับใช้โมเดล AI ซึ่งการปรับใช้โมเดล AI เป็นทักษะเฉพาะทางของ MLOps engineer และยังรวมถึงการมอนิเตอร์ การสเกลโมเดลไปสู่การใช้งานจริง และการดูแลรักษาประสิทธิภาพการทำงานของโมเดล

การสร้างโมเดล AI/ML เกี่ยวข้องกับ AI engineer ซึ่งจะเทรนและใช้โมเดลบนอัลกอริธึมล่าสุดที่สร้างโดย AI scientists เมื่อสร้างเสร็จแล้ว โมเดลจะถูกผลักเข้าไปในระบบสตอเรจ พร้อมให้ containerized application ใช้งาน

นักพัฒนาแอปพลิเคชันผสานรวมโมเดล AI/ML เข้ากับแอปพลิเคชันต่าง ๆ และต้องมั่นใจได้ว่าจะมีการใช้งานร่วมกันกับระบบอื่นได้อย่างไม่ติดขัด

ฝ่ายปฏิบัติการด้านไอทีจะบริหารจัดการ infrastructure เพื่อให้มั่นใจว่าทรัพยากรที่จำเป็นต้องใช้มีพร้อมใช้และนำไปใช้งานอย่างมีประสิทธิภาพ

ผู้นำองค์กรธุรกิจมีบทบาทในการกำหนดเป้าหมาย ผสาน AI/ML ให้สอดคล้องกับวัตถุประสงค์ทางธุรกิจ และทำให้มั่นใจว่า จะมีทรัพยากรและการสนับสนุนช่วยเหลือที่จำเป็นในการใช้โซลูชัน AI/ML ต่าง ๆ ได้อย่างต่อเนื่อง 

การประสานงานบทบาทหน้าที่เหล่านี้อย่างมีประสิทธิภาพเป็นสิ่งสำคัญมากสำหรับการบริหารจัดการความซับซ้อนต่าง ๆ และหนี้ทางเทคนิค ที่เกี่ยวข้องกับการดำเนินงาน AI/ML และไม่อาจทำได้ด้วยการกำหนดขั้นตอนและเวิร์กโฟลว์ที่เป็นนามธรรมเท่านั้น แต่จำเป็นต้องพึ่งพาชุดเครื่องมือมาตรฐานที่มีอินเทอร์เฟซเฉพาะสำหรับผู้ใช้งานแต่ละบทบาทหน้าที่ เพื่อให้มีมุมมองในการทำงานด้าน AI มุมมองเดียวกัน ที่ผู้ทำงานในแต่ละทีมสามารถเข้าใจได้

เร้ดแฮทช่วยได้อย่างไร

Red Hat OpenShift AI มอบแพลตฟอร์ม AI/ML ที่สเกลได้และยืดหยุ่น เพื่อช่วยองค์กรสร้างและสามารถนำแอปพลิเคชันที่ใช้ AI ไปใช้ในวงกว้างในสภาพแวดล้อมไฮบริดคลาวด์ทั้งหมด OpenShift AI สร้างจากเทคโนโลยีโอเพ่นซอร์ส มอบความสามารถต่าง ๆ ที่เชื่อถือได้ และการทำงานที่สอดคล้องกัน ให้กับทีมงานต่าง ๆ ใช้ในการทดลอง ให้บริการโมเดล และให้บริการแอปพลิเคชันรุ่นใหม่ ๆ เร้ดแฮทได้ผสานรวมความสามารถต่าง ๆ ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ของ OpenShift AI เข้ากับ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มแอปพลิเคชัน AI หนึ่งแพลตฟอร์ม ที่สามารถช่วยให้ทีมที่ทำงานต่าง ๆ ขององค์กรมาทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ผู้ที่มีบทบาทหน้าที่ด้านต่าง ๆ เช่น data scientists, engineers และนักพัฒนาแอปพลิเคชันทุกคนสามารถทำงานร่วมกันบนแพลตฟอร์มเดียวกัน ที่มีประสิทธิภาพทั้งความคงเส้นคงวา สอดคล้องกัน มีความปลอดภัยมากขึ้น และสเกลได้ง่าย

Red Hat Device Edge เป็นแพลตฟอร์มที่มีความยืดหยุ่น รองรับเวิร์กโหลดประเภทต่าง ๆ ในทิศทางเดียวกัน ไม่ว่าจะเป็นเวิร์กโหลดที่อยู่บนอุปกรณ์ขนาดเล็กที่มีทรัพยากรจำกัดติดตั้งอยู่ที่ edge และมอบความสม่ำเสมอในการดำเนินงานกับเวิร์กโหลดและอุปกรณ์ทุกประเภท ไม่ว่าจะนำไปใช้งาน ณ ที่ใดก็ตาม ทั้งนี้ Red Hat Device Edge ประกอบด้วย

  • Red Hat Enterprise Linux

สร้าง edge-optimized OS images เพื่อรองรับกรณีใช้งานและเวิร์กโหลดหลากหลาย ด้วย ระบบปฏิบัติการที่มีความปลอดภัยและความเสถียรของเร้ดแฮท

  • MicroShift

MicroShift ของเร้ดแฮท เป็นโซลูชัน lightweight Kubernetes container orchestration ที่สร้างจากความสามารถด้าน edge ของ Red Hat OpenShift

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform ช่วยให้องค์กรสเกลอุปกรณ์ได้อย่างรวดเร็ว และช่วยบริหารจัดการไลฟ์ไซเคิลของแอปพลิเคชัน