Zero Trust is complex, but getting started doesn’t have to be

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

Zero Trust is complex, but getting started doesn’t have to be

By: Kenneth Lai, Vice President, ASEAN at Cloudflare

Adopting Zero Trust is often recognized as a complex journey. In many ways, this reputation is well deserved.

Zero Trust requires work that Security and IT are justifiably cautious about. It involves rethinking default-allow policies and perimeter-based network architecture, enabling collaboration between functionally different teams, and trusting new security services.

Understandably, some organizations may postpone this transformation, citing the uncertainty involved in adopting Zero Trust across the organization. The wide variety of available vendor offerings, coupled with many different information sources, and potential disruption to current workflows, all may deter organizations from deploying Zero Trust security.

That said, the evolving threat landscape that businesses are faced with today is ridden with attackers using increasingly sophisticated methods to target unsuspecting victims. Cloudflare’s own data across its network, one of the world’s largest and most interconnected, revealed that an average of 7.7 billion[1] cyber threats per day targeted the Southeast Asia region in Q2 2024. 

In other words, a Zero Trust approach may no longer be an optional strategy in today’s digital age. Security leaders need to rise to the occasion and take charge of their organization’s security posture, or risk being vulnerable to cyber attacks.

Taking the first step towards Zero Trust adoption

What exactly does Zero Trust entail? In a networking context, Zero Trust security requires that every request moving into, out of, or within a corporate network is inspected, authenticated, encrypted, and logged. It’s based on the idea that no request should be implicitly trusted, no matter where it comes from or where it’s going. Every request must be validated.

Making early progress toward Zero Trust means establishing these capabilities where none are currently present. For organizations starting from scratch, this often means extending capabilities beyond a single ‘network perimeter.’

Here are five of the simplest Zero Trust adoption projects that focus on securing users, applications, networks, and Internet traffic. They won’t achieve comprehensive Zero Trust alone, but they do offer immediate benefits, create early momentum and lay the foundation for broader transformation.

  1. Multi-factor authentication for critical applications

In a Zero Trust approach, the network must be extremely confident that requests come from trusted entities. Organizations need to establish safeguards against user credentials being stolen via phishing or data leaks. Multi-factor authentication (MFA) is the best protection against such credential theft. While a complete MFA rollout may take significant time, focusing on the most critical applications is a simpler yet impactful win.

Organizations that already have an identity provider in place can set up MFA directly within that provider, through one-time codes or in-app push notifications sent to employee mobile devices. Even without an identity provider in place, organizations can opt for a different, simple route. Using social platforms such as Google, LinkedIn, and Facebook, or one-time passwords (OTP) sent to a mobile number, can help double-check user identities.

These are common ways to DIY access for third-party contractors without adding them to a corporate identity provider, and can also be applied within the company itself.

  1. Zero Trust policy enforcement for critical applications

Enforcing Zero Trust is more than simply verifying user identities. Applications must also be protected with policies that always verify requests, consider a variety of behavior and contextual factors before authenticating, and continuously monitor activity. As in Project 1, implementing these policies becomes simpler when applied to an initial list of critical applications.

  1. Monitor email applications and filter out phishing attempts

Email is the number one way most organizations communicate, the most-used SaaS application, and the most common entry point for attackers. Organizations need to ensure they apply Zero Trust principles to their email to complement their standard threat filters and inspections.

Additionally, security professionals should consider using an isolated browser to quarantine links that are not suspicious enough to completely block.

  1. Close all inbound ports open to the Internet for application delivery

Open inbound network ports are another common attack vector and should be given Zero Trust protection, only accepting traffic from known, trusted, verified sources.

These ports can be found using scanning technology. Then, A Zero Trust reverse proxy can securely expose a web application to the public Internet without opening any inbound ports. The application’s only publicly visible record is its DNS record — which can be protected with Zero Trust authentication and logging capabilities.

As an added layer of security, internal/private DNS can be leveraged using a Zero Trust Network Access solution.

  1. Block DNS requests to known threats or risky destinations

DNS filtering is the practice of preventing users from accessing websites and other Internet resources that are known or highly suspected to be malicious. It is not always included in the Zero Trust conversation because it does not involve traffic inspection or logging.

However, with DNS filtering in place, organizations can ensure there are safeguards as to where users (or groups of users) can transfer and upload data — which aligns well with the broader Zero Trust philosophy.

Understanding the broader Zero Trust picture

Implementing these five projects can be a relatively straightforward foray into Zero Trust. Any organization that completes these projects will have made significant progress toward better, more modern security, and established a sound foundation while doing so.

That said, broader Zero Trust adoption remains a complex topic for organizations today. Everyone’s journey will be slightly different, depending on business priorities, needs, and future plans.

Importantly, security leaders need to set out clear objectives in a Zero Trust roadmap to regain control of their IT environment. Malicious attacks are getting more creative than ever before, finding effective ways to infiltrate organizations and obfuscate security teams through the many digital touchpoints present today. Only with a clear plan can organizations make their employees, applications, and networks faster and more secure everywhere, while reducing complexity and cost.

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

โดย: เคนเนธ ไล รองประธาน ประจำภูมิภาคอาเซียน Cloudflare

บ่อยครั้งที่การนำกลยุทธ์ Zero Trust มาใช้ปกป้องความปลอดภัยในองค์กรถูกมองว่าเป็นเรื่องที่ซับซ้อน ซึ่งก็สมควรแล้วหากพิจารณาในหลาย ๆ ด้าน

กลยุทธ์ Zero Trust ต้องอาศัยการทำงานด้านความปลอดภัยและด้านไอทีอย่างระมัดระวังและเหมาะสม กลยุทธ์นี้เกี่ยวข้องกับการคิดใหม่ทำใหม่ของนโยบายเริ่มต้นของการใช้งานและสถาปัตยกรรมเครือข่ายที่พิจารณาขอบเขตเป็นสำคัญ การใช้การทำงานข้ามทีมร่วมกัน และความเชื่อมั่นในบริการใหม่ ๆ ด้านความปลอดภัย

เป็นที่เข้าใจได้ว่าองค์กรบางแห่งอาจเลื่อนการปรับใช้กลยุทธ์ความปลอดภัยนี้ โดยชี้ว่าการนำ Zero Trust มาใช้ทั่วทั้งองค์กรอาจทำให้เกิดความไม่แน่นอนได้ นอกจากนั้น ทั้งข้อเสนอและตัวเลือกมากมายจากผู้ขาย  ประกอบกับแหล่งข้อมูลที่แตกต่างกัน และแนวโน้มที่กระบวนการทำงาน ณ ตอนนั้นอาจหยุดชะงักได้ อาจเป็นประเด็นที่ทำให้องค์กรไม่กล้านำระบบรักษาความปลอดภัย Zero Trust มาปรับใช้

ดังที่กล่าวมาแล้วว่าธุรกิจต้องเผชิญกับภูมิทัศน์ภัยคุกคามที่เปลี่ยนไปอยู่ตลอด ซึ่งปัจจุบันนี้ผู้โจมตีใช้วิธีการที่ซับซ้อนมากขึ้นและพุ่งเป้าไปยังเหยื่อที่ไม่ทันตั้งตัว โดยข้อมูลทั้งหมดในเครือข่ายของ Cloudflare ซึ่งเป็นเครือข่ายที่ใหญ่ที่สุดและเชื่อมต่อกันมากที่สุดในโลกเครือข่ายหนึ่ง เปิดเผยว่าช่วงไตรมาส 2 ของปีนี้ มีภัยคุกคามทางไซเบอร์เกิดขึ้นในภูมิภาคเอเชียตะวันออกเฉียงใต้เฉลี่ย 7.7 พันล้านรายการต่อวัน

หรือกล่าวให้ชัดคือแนวทาง Zero Trust ไม่ใช่ทางเลือกด้านกลยุทธ์อีกต่อไปแล้วในยุคดิจิทัล แต่มันคือทางรอด โดยผู้บริหารด้านความปลอดภัยจำเป็นต้องลุกขึ้นมาและใช้โอกาสนี้จัดการความปลอดภัยขององค์กร มิฉะนั้นอาจเสี่ยงต่อการถูกโจมตีทางไซเบอร์

ก้าวแรกของการนำ Zero Trust มาใช้

แนวทาง Zero Trust ครอบคลุมอะไรบ้าง? ระบบรักษาความปลอดภัยแบบ Zero Trust ในบริบทของเครือข่าย กำหนดให้มีการตรวจสอบ ยืนยันข้อมูล เข้ารหัส และบันทึกทุกคำขอ-คำสั่งที่ป้อนเข้ามาและส่งออกไปภายในเครือข่ายองค์กร โดยแนวคิดที่ถือปฏิบัติคือไม่ควรไว้ใจคำขอหรือคำสั่งใด ๆ ทั้งสิ้น ไม่ว่าจะได้รับมาจากที่ใดหรือกำลังส่งต่อไปที่ใด โดยทุกคำขอจะต้องผ่านการตรวจสอบทั้งหมด

การเริ่มดำเนินการไปสู่ Zero Trust ช่วงเริ่มต้น หมายถึงการกำหนดและตั้งค่าความสามารถเหล่านี้ขึ้นในที่ที่จากเดิมนั้นไม่มีมาก่อน สำหรับองค์กรที่เริ่มต้นกระบวนการนี้จากศูนย์มักจะหมายถึงการขยายความสามารถให้เหนือกว่าขอบเขตของ “เครือข่ายพื้นฐานที่เพิ่มเข้ามาเพื่อความปลอดภัย หรือที่เรียกว่า Network Perimeter” เครือข่ายเดียว

ลองพิจารณา 5 โครงการการนำ Zero Trust มาใช้อย่างง่ายดายที่สุด โครงการเหล่านี้มุ่งเน้นไปที่การรักษาความปลอดภัยของผู้ใช้ แอปพลิเคชัน เครือข่าย และปริมาณการใช้งานอินเทอร์เน็ต โครงการทั้งหมดนี้อาจไม่สามารถบรรลุเป้าหมาย Zero Trust ได้อย่างสมบูรณ์ตามลำพัง แต่สามารถมอบประโยชน์ได้ในทันที พร้อมสร้างแรงขับเคลื่อนช่วงเริ่มต้น และวางรากฐานการเปลี่ยนแปลงให้ขยายครอบคลุมยิ่งขึ้นในลำดับถัดไป

  1. การยืนยันตัวตนแบบหลายปัจจัยสำหรับแอปพลิเคชันสำคัญ ๆ

ตามแนวทาง Zero Trust เครือข่ายจะต้องมั่นใจว่าคำขอหรือคำสั่งใด ๆ นั้นมาจากหน่วยงานที่มีตัวตนเชื่อถือได้ โดยองค์กรจำเป็นต้องสร้างมาตรการป้องกันการขโมยข้อมูลส่วนบุคคลของผู้ใช้ผ่านการฟิชชิ่งหรือการรั่วไหลของข้อมูล การยืนยันตัวตนแบบหลายปัจจัย (Multi-factor authentication หรือ MFA) ถือเป็นการป้องกันที่ดีที่สุดจากการขโมยข้อมูลส่วนบุคคล แม้ว่าการนำ MFA มาใช้อย่างสมบูรณ์แบบอาจใช้เวลานาน แต่การมุ่งเน้นไปที่แอปพลิเคชันสำคัญที่สุดก่อนนั้นถือเป็นวิธีการที่ง่ายกว่าและมีประสิทธิผลสูงกว่า

องค์กรที่มีผู้ให้บริการข้อมูลส่วนบุคคลอยู่แล้วสามารถกำหนดค่า MFA โดยตรงกับผู้ให้บริการนั้น ๆ ได้ โดยใช้รหัสครั้งเดียวหรือการแจ้งเตือนในแอปที่ส่งไปยังอุปกรณ์มือถือของพนักงาน ในกรณีขององค์กรที่ยังไม่มีผู้ให้บริการข้อมูลส่วนบุคคล องค์กรก็ยังสามารถเลือกใช้วิธีอื่นที่ง่ายกว่าได้ เช่น การใช้แพลตฟอร์มโซเชียล อย่าง Google, LinkedIn และ Facebook หรือเลือกรับรหัสผ่านครั้งเดียว (OTP) ที่ส่งไปยังหมายเลขโทรศัพท์มือถือ เพื่อตรวจสอบข้อมูลส่วนบุคคลของผู้ใช้ได้

ทั้งหมดนี้คือวิธีการเข้าถึงแบบ DIY สำหรับหน่วยงานบุคคลที่สามโดยไม่ต้องเพิ่มพวกเขาลงในกลุ่มผู้ให้บริการข้อมูลส่วนบุคคลขององค์กร และยังสามารถนำไปใช้ภายในบริษัทได้อีกด้วย

  1. การบังคับใช้นโยบายZero Trust ในแอปพลิเคชันสำคัญ

การบังคับใช้นโยบาย Zero Trust ไม่ได้หมายถึงการยืนยันตัวตนของผู้ใช้เพียงอย่างเดียว แอปพลิเคชันก็ต้องได้รับการปกป้องด้วยเช่นกันตามหลักการตรวจสอบและยืนยันคำขอเสมอ โดยจะมีการพิจารณาพฤติกรรมและปัจจัยในบริบทต่าง ๆ ก่อนการตรวจสอบและยืนยันความถูกต้องของข้อมูล และเฝ้าตรวจติดตามกิจกรรมอย่างต่อเนื่อง เช่นเดียวกับในโครงการแรก การนำนโยบายนี้ไปปรับใช้จะง่ายขึ้นเมื่อนำไปใช้ร่วมกับรายการเริ่มต้นของแอปพลิเคชันสำคัญ

  1. เฝ้าติดตามแอปพลิเคชันอีเมลและกรองการฟิชชิ่ง

อีเมลคือช่องทางการสื่อสารอันดับหนึ่งขององค์กรส่วนใหญ่ และเป็นแอปพลิเคชัน SaaS ที่ใช้งานมากที่สุด และพบการโจมตีบ่อยที่สุด ดังนั้นองค์กรจำเป็นต้องแน่ใจว่าได้นำหลัก Zero Trust มาใช้ร่วมกับอีเมลเพื่อเพิ่มประสิทธิภาพของการกรองและการตรวจสอบภัยคุกคามที่เป็นมาตรฐาน

นอกจากนี้ ผู้เชี่ยวชาญด้านความปลอดภัยควรพิจารณาการใช้เบราว์เซอร์แบบแยกอิสระหรือ Isolated Browser เพื่อกันลิงก์ที่ไม่น่าสงสัยออกมาไว้เพียงพอที่จะบล็อกได้อย่างสมบูรณ์

  1. ปิดพอร์ตขาเข้าทั้งหมดที่อยู่บนอินเทอร์เน็ตสำหรับการเปิดใช้แอปพลิเคชัน

การเปิดพอร์ตเครือข่ายขาเข้า หรือ Open Inbound Network Ports  เป็นอีกช่องทางการโจมตีโดยทั่วไปและควรได้รับการป้องกันแบบ Zero Trust โดยการยอมรับแค่การรับ-ส่งข้อมูลจากแหล่งที่มาที่รู้จัก เชื่อถือได้ และผ่านการตรวจสอบแล้วเท่านั้น

เทคโนโลยีการสแกนสามารถตรวจพบพอร์ตเหล่านี้ จากนั้นใช้พร็อกซีแบบย้อนกลับของ Zero Trust เปิดแอปพลิเคชันบนเว็บได้อย่างปลอดภัยผ่านอินเทอร์เน็ตสาธารณะโดยไม่ต้องเปิดพอร์ตขาเข้าใด ๆ และบันทึกรายการเดียวที่สาธารณะมองเห็นได้ของแอปพลิเคชันคือบันทึก DNS ที่เป็นคำขอหรือคำสั่งที่เก็บอยู่ในฐานข้อมูลของระบบ Domain Name System ซึ่งสามารถป้องกันได้โดยใช้การยืนยันสิทธิ์และความสามารถในการบันทึกข้อมูลแบบ Zero Trust เพื่อเพิ่มชั้นความปลอดภัยบันทึก DNS แบบภายในและแบบส่วนตัวมีประสิทธิภาพเพิ่มขึ้นได้จากการใช้ Zero Trust Network Access solution

  1. ปิดกั้นคำขอDNS ที่เป็นภัยคุกคามหรือมีความเสี่ยงกับปลายทาง

การกรองข้อมูล DNS หรือ DNS Filtering  คือแนวทางปฏิบัติที่นำมาใช้เพื่อป้องกันไม่ให้ผู้ใช้เข้าถึงเว็บไซต์และแหล่งข้อมูลอินเทอร์เน็ตอื่น ๆ ที่รู้หรือสงสัยว่าเป็นอันตราย โดยการกรอง DNS จะไม่ได้รวมอยู่ในการสื่อสารโต้ตอบของ Zero Trust เสมอไป เนื่องจากไม่เกี่ยวข้องกับการตรวจสอบหรือบันทึกการรับ-ส่งข้อมูล

อย่างไรก็ตาม เมื่อใช้ DNS Filtering แล้ว องค์กรสามารถสร้างความมั่นใจได้ว่ามีมาตรการป้องกันที่ผู้ใช้ (หรือกลุ่มผู้ใช้) สามารถโอนและอัปโหลดข้อมูลได้ สอดคล้องกับปรัชญา Zero Trust ที่กว้างยิ่งขึ้น

เข้าใจภาพ Zero Trust ให้กว้างกว่าเดิม

การนำโครงการทั้ง 5 นี้ไปใช้ถือเป็นการก้าวเข้าสู่โหมด Zero Trust อย่างชัดเจน โดยองค์กรใดก็ตามที่ดำเนินการเหล่านี้จนแล้วเสร็จจะมีความคืบหน้าในด้านการรักษาความปลอดภัยที่ดีขึ้นและทันสมัยยิ่งขึ้นอย่างมีนัยสำคัญ และสร้างรากฐานที่มั่นคงไปด้วยในขณะดำเนินการ

อย่างไรก็ตาม การนำ Zero Trust มาใช้อย่างกว้างขวางยังคงเป็นหัวข้อที่ดูซับซ้อนขององค์กรในยุคปัจจุบัน เนื่องจากเส้นทางของแต่ละองค์กรจะแตกต่างกันเล็กน้อยตามการจัดลำดับความสำคัญ ความต้องการ และแผนธุรกิจในอนาคต

ที่สำคัญก็คือ ผู้บริหารด้านความปลอดภัยจำเป็นต้องกำหนดวัตถุประสงค์ที่ชัดเจนในแผนงาน Zero Trust เพื่อให้สามารถกลับมาควบคุมสภาพแวดล้อมด้านไอทีของตนได้อีกครั้ง การโจมตีทางไซเบอร์ที่เป็นอันตรายมีความสร้างสรรค์มากขึ้นกว่าเดิม และมักหาวิธีที่มีประสิทธิภาพเพื่อแทรกซึมเข้าไปในองค์กรและทำให้ทีมงานด้านความปลอดภัยเกิดการสับสนผ่าน Digital Touchpoints มากมายที่มีอยู่ในปัจจุบัน มีเพียงการวางแผนที่ชัดเจนเท่านั้นที่จะช่วยให้องค์กรทำให้พนักงาน แอปพลิเคชัน และเครือข่ายของตนมีความรวดเร็วและปลอดภัยยิ่งขึ้นในทุกที่ พร้อม ๆ กับช่วยลดความซับซ้อนและต้นทุนค่าใช้จ่าย

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

  • The offering is the first to deliver supported, indemnified and open source-licensed IBM Granite LLMs under Red Hat’s flexible and proven enterprise subscription model
  • Adds open source InstructLab model alignment tools to the world’s leading enterprise Linux platform to simplify generative AI model experimentation and alignment tuning
  • Provides a supported, enterprise-ready model runtime environment across AMD, Intel and NVIDIA platforms for fueling AI innovation built on open source

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the launch of Red Hat Enterprise Linux AI (RHEL AI), a foundation model platform that enables users to more seamlessly develop, test and deploy generative AI (GenAI) models. RHEL AI brings together the open source-licensed Granite large language model (LLM) family from IBM Research, InstructLab model alignment tools based on the LAB (Large-scale Alignment for chatBots) methodology and a community-driven approach to model development through the InstructLab project. The entire solution is packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud and is also included as part of OpenShift AI, Red Hat’s hybrid machine learning operations (MLOps) platform, for running models and InstructLab at scale across distributed cluster environments.

The launch of ChatGPT generated tremendous interest in GenAI, with the pace of innovation only accelerating since then. Enterprises have begun moving from early evaluations of GenAI services to building out AI-enabled applications. A rapidly growing ecosystem of open model options has spurred further AI innovation and illustrated that there won’t be “one model to rule them all.” Customers will benefit from an array of choices to address specific requirements, all of which stands to be further accelerated by an open approach to innovation.

Implementing an AI strategy requires more than simply selecting a model; technology organizations need the expertise to tune a given model for their specific use case, as well as deal with the significant costs of AI implementation. The scarcity of data science skills are compounded by substantial financial requirements including:

  • Procuring AI infrastructure or consuming AI services 
  • The complex process of tuning AI models for specific business needs
  • Integrating AI into enterprise applications
  • Managing both the application and model lifecycle.

To truly lower the entry barriers for AI innovation, enterprises need to be able to expand the roster of who can work on AI initiatives while simultaneously getting these costs under control. With InstructLab alignment tools, Granite models and RHEL AI, Red Hat aims to apply the benefits of true open source projects – freely accessible and reusable, transparent and open to contributions – to GenAI in an effort to remove these obstacles.

Building AI in the open with InstructLab

IBM Research created the Large-scale Alignment for chatBots (LAB) technique, an approach for model alignment that uses taxonomy-guided synthetic data generation and a novel multi-phase tuning framework. This approach makes AI model development more open and accessible to all users by reducing reliance on expensive human annotations and proprietary models. Using the LAB method, models can be improved by specifying skills and knowledge attached to a taxonomy, generating synthetic data from that information at scale to influence the model and using the generated data for model training.

After seeing that the LAB method could help significantly improve model performance, IBM and Red Hat decided to launch InstructLab, an open source community built around the LAB method and the open source Granite models from IBM. The InstructLab project aims to put LLM development into the hands of developers by making, building and contributing to an LLM as simple as contributing to any other open source project.

As part of the InstructLab launch, IBM has also released a family of select Granite English language and code models in the open. These models are released under an Apache license with transparency on the datasets used to train these models. The Granite 7B English language model has been integrated into the InstructLab community, where end users can contribute the skills and knowledge to collectively enhance this model, just as they would when contributing to any other open source project. Similar support for Granite code models within InstructLab will be available soon.

Open source AI innovation on a trusted Linux backbone

RHEL AI builds on this open approach to AI innovation, incorporating an enterprise-ready version of the InstructLab project and the Granite language and code models along with the world’s leading enterprise Linux platform to simplify deployment across a hybrid infrastructure environment. This creates a foundation model platform for bringing open source-licensed GenAI models into the enterprise. RHEL AI includes:

  • Open source-licensed Granite language and code models that are supported and indemnified by Red Hat.
  • A supported, lifecycled distribution of InstructLab that provides a scalable, cost-effective solution for enhancing LLM capabilities and making knowledge and skills contributions accessible to a much wider range of users.
  • Optimized bootable model runtime instances with Granite models and InstructLab tooling packages as bootable RHEL images via RHEL image mode, including optimized Pytorch runtime libraries and accelerators for AMD Instinct™ MI300X, Intel and NVIDIA GPUs and NeMo frameworks.
  • Red Hat’s complete enterprise support and lifecycle promise that starts with a trusted enterprise product distribution, 24×7 production support and extended  lifecycle support.

As organizations experiment and tune new AI models on RHEL AI, they have a ready on-ramp for scaling these workflows with Red Hat OpenShift AI, which will include RHEL AI, and where they can leverage OpenShift’s Kubernetes engine to train and serve AI models at scale and OpenShift AI’s integrated MLOps capabilities to manage the model lifecycle.  IBM’s watsonx.ai enterprise studio, which is built on Red Hat OpenShift AI today, will benefit from the inclusion of RHEL AI in OpenShift AI upon availability, bringing additional capabilities for enterprise AI development, data management, model governance and improved price performance.

The cloud is hybrid. So is AI.

For more than 30 years, open source technologies have paired rapid innovation with greatly reduced IT costs and lowered barriers to innovation. Red Hat has been leading this charge for nearly as long, from delivering open enterprise Linux platforms with RHEL in the early 2000s to driving containers and Kubernetes as the foundation for open hybrid cloud and cloud-native computing with Red Hat OpenShift.

This drive continues with Red Hat powering AI/ML strategies across the open hybrid cloud, enabling AI workloads to run where data lives, whether in the datacenter, multiple public clouds or at the edge. More than just the workloads, Red Hat’s vision for AI brings model training and tuning down this same path to better address limitations around data sovereignty, compliance and operational integrity. The consistency delivered by Red Hat’s platforms across these environments, no matter where they run, is crucial in keeping AI innovation flowing.

RHEL AI and the InstructLab community further deliver on this vision, breaking down many of the barriers to experimenting with and building AI models while providing the tools, data and concepts needed to fuel the next wave of intelligent workloads.

Availability

Red Hat Enterprise Linux AI is now available as a developer preview. Building on the GPU infrastructure available on IBM Cloud, which is used to train the Granite models and support InstructLab, IBM Cloud will now be adding support for RHEL AI and OpenShift AI. This integration will allow enterprises to deploy generative AI more easily into their mission critical applications.

Supporting Quotes

Ashesh Badani, senior vice president and chief product officer, Red Hat

“GenAI presents a revolutionary leap forward for enterprises, but only if technology organizations are able to actually deploy and use AI models in a way that matches their specific business needs. RHEL AI and the InstructLab project, coupled with Red Hat OpenShift AI at scale, are designed to lower many of the barriers facing GenAI across the hybrid cloud, from limited data science skills to the sheer resources required, while fueling innovation both in enterprise deployments and in upstream communities.”

Ramine Roane, corporate vice president, AI Group, AMD

“AI is one of the most important shifts in technology in the past 50 years. To help accelerate broader adoption of AI, the models and tools used to build AI applications need to be made accessible to the enterprise. Built on a trusted Linux backbone with open source tooling and open source-licensed models, RHEL AI is one of the platforms that can provide this, and we’re pleased to support Red Hat’s effort in driving AI in the enterprise forward with our AMD technologies including Instinct AI accelerators.”

Jeremy Foster, senior vice President and general manager, Networking – Compute, Cisco

“The AI movement represents a seismic shift for enterprises, and many organizations are grappling with the best path forward. Cisco continues to work closely with Red Hat to advance AI adoption and RHEL AI will accelerate innovation by providing open-source enabled LLM models as part of an enterprise-ready Linux platform.”

Ihab Tarazi, senior vice president and chief technology officer, AI and Compute, Dell Technologies

“Customers are looking to capture the value that generative AI can provide to transform their businesses. Powered by GPU accelerated Dell PowerEdge Servers, RHEL AI combines the open source innovation and transparency of Granite models and the InstructLab project to deliver a foundation model platform that is accessible to a wider range of users and partners.”

Frances Guida, director, Compute Solutions and AI, Hewlett Packard Enterprise

“Hewlett Packard Enterprise has collaborated with Red Hat for two decades to provide industry-leading solutions that combine the HPE Compute platforms with RHEL. An open environment is critical to innovation in fast-growing technology categories like generative AI and we are looking forward to exploring new areas of collaboration with RHEL AI and Red Hat to help HPE customers find success.”

Darío Gil, senior vice president and director, Research, IBM

“Bringing true open source innovation to AI model development and harnessing the power of a broad community will change how enterprises think about their plans for AI adoption and scale. IBM has been a strong supporter of open source, backing influential communities like Linux, Apache, and Eclipse, and our collaboration with Red Hat represents a step forward in our open approach to building safe, responsible, and effective AI. RHEL AI and InstructLab, combined with IBM’s open source Granite family of models, will deliver new value and choice for clients who are looking to build fit for purpose models that address their use cases with their own data while minimizing cost across a diverse hybrid cloud environment.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“Many enterprises are looking to infuse AI into their mission-critical applications. The availability of RHEL AI and OpenShift AI on IBM Cloud will help transform how the community and companies build and leverage generative AI. We are enabling open collaboration, simplifying model customization and providing enterprise-quality supported models and tools for building AI into every application.”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel

“For AI adoption to scale, it needs to be fully open source, where community members contribute and create new applications and use cases.  By incorporating the open source Granite models and the InstructLab project, RHEL AI is poised to bring a significant change in how we interact with, tune and ultimately use AI models in production.”

Kirk Skaugen, president, Lenovo ISG

“Customers deploying AI-driven applications need to be able to test and experiment with potential models on a trusted and familiar but still innovative platform. Lenovo believes the future of AI is hybrid, and we see RHEL AI as a critical pathway for widespread hybrid AI innovation, and through Red Hat OpenShift AI, production scalability. We’re pleased to work with Red Hat in driving this hybrid AI innovation forward through joint testing on our ThinkSystem 8-GPU servers, providing a trusted hardware foundation for powering open source AI.”

Justin Boitano, vice president, Enterprise Products, NVIDIA

“Red Hat and NVIDIA have a long history of close collaboration, and Red Hat Enterprise Linux AI demonstrates our shared focus on bringing full-stack computing and software to the developers and researchers building the next wave of AI technology and applications.”

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

  • เป็นครั้งแรกที่มีการนำ IBM Granite LLMs เครื่องมือโอเพ่นซอร์ส-ไลเซนส์ (open source-licensed) ที่มาพร้อมการสนับสนุนทางเทคโนโลยีและให้การรับรองการใช้คอนเทนต์ต่าง ๆ มาให้ลูกค้าได้ใช้ผ่าน enterprise subscription model ที่ยืดหยุ่นและได้รับการพิสูจน์แล้วของ Red Hat 
  • เสริมด้วยการนำ InstructLab ซึ่งเป็นเครื่องมือ model alignment ที่เป็นโอเพ่นซอร์ส ไปทำงานบน Linux ซึ่งเป็นแพลตฟอร์มสำหรับใช้งานในองค์กรที่มีประสิทธิภาพระดับแนวหน้าของโลก เพื่อลดความซับซ้อนในการทดสอบ generative AI model และการปรับแต่งให้เหมาะสม
  • Red Hat Enterprise Linux AI มอบสภาพแวดล้อมโมเดลรันไทม์ (model runtime) ที่มาพร้อมการสนับสนุนทางเทคโนโลยี และพร้อมใช้งานในองค์กร บนแพลตฟอร์ม AMD, Intel และ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ที่สร้างบนโอเพ่นซอร์ส

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก เปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI) ได้อย่างราบรื่น RHEL AI เป็นที่รวมของโซลูชันทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็ครวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์ และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่าง ๆ และ InstructLab ในระดับความต้องการต่าง ๆ บนสภาพแวดล้อมที่เป็น distributed cluster  

การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมาก และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น

การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลัก ๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่ 

  • การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่าง ๆ
  • กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
  • การผสานรวม AI เข้ากับแอปพลิเคชันต่าง ๆ ขององค์กร
  • การบริหารจัดการแอปพลิเคชันและไลฟ์ไซเคิลของโมเดล

องค์กรต่าง ๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อม กันด้วย Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริง ๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้

สร้าง AI แบบโอเพ่น ด้วย InstructLab

IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส  แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้ โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่าง ๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่าง ๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล

หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่าย ๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่น ๆ

ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่าง ๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่าง ๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่น ๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็ว ๆ นี้

นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้

RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:

  • Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
  • A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่าง ๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
  • อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่าง ๆ ได้ ผ่านแพ็คเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
  • คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม

เมื่อใดที่องค์กรต่าง ๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่าง ๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร

คลาวด์ที่ใช่คือไฮบริด – AI ก็เช่นกัน

เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift 

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป

RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่าง ๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซปต์ต่าง ๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่

ความพร้อมใช้งาน

Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่าง ๆ ใช้ generative AI กับแอปพลิเคชันสำคัญ ๆ ของตนได้ง่ายมากขึ้น

คำกล่าวสนับสนุน

Ashesh Badani, senior vice president and chief product officer, Red Hat กล่าวว่า “GenAI ปฏิวัติองค์กรแบบก้าวกระโดดก็เฉพาะด้านที่องค์กรเทคโนโลยีสามารถปรับใช้และใช้ AI models ได้จริงในลักษณะที่ตรงกับความต้องการเฉพาะของแต่ละธุรกิจเท่านั้น แต่ RHEL AI และ InstructLab project ที่ทำงานร่วมกับ Red Hat OpenShift AI ออกแบบมาเพื่อลดอุปสรรคจำนวนมากที่ต้องเผชิญเมื่อจะนำ GenAI ไปใช้บนไฮบริดคลาวด์ ไม่ว่าจะเป็นทักษะด้านวิทยาศาสตร์ข้อมูลที่มีจำกัด ไปจนถึงทรัพยากรประสิทธิภาพสูงที่จำเป็นต้องใช้ ในขณะเดียวกันก็ช่วยเป็นพลังขับเคลื่อนนวัตกรรมให้กับการใช้งานในองค์กรและอัปสตรีมคอมมิวนิตี้”

Ramine Roane, corporate vice president, AI Group, AMD กล่าวว่า “AI เป็นหนึ่งในความเปลี่ยนแปลงทางเทคโนโลยีที่สำคัญที่สุดในรอบ 50 ปี ทั้งนี้ องค์กรจะต้องเข้าถึงโมเดลและเครื่องมือที่จำเป็นต้องใช้สร้าง AI applications ได้ เพื่อช่วยเร่งการนำ AI ไปใช้ในวงกว้างได้เร็วขึ้น RHEL AI สร้างบน Linux ที่เชื่อถือได้และมาพร้อมเครื่องมือที่เป็นโอเพ่นซอร์ส และ open source-licensed models ทำให้ RHEL AI เป็นหนึ่งในแพลตฟอร์มที่สามารถตอบโจทย์นี้ได้ เรารู้สึกยินดีที่ได้สนับสนุนความทุ่มเทของ Red Hat ในการขับเคลื่อนการใช้ AI ในองค์กร ด้วยเทคโนโลยีของ AMD ที่รวมอยู่ใน Instinct AI accelerators”

Darío Gil, senior vice president and director, Research, IBM กล่าวว่า “การใช้นวัตกรรมโอเพ่นซอร์สกับการพัฒนา AI model และการใช้พลังของคอมมิวนิตี้ที่กว้างใหญ่จะเปลี่ยนวิธีคิดเกี่ยวกับการวางแผนการใช้และสเกล AI ขององค์กรต่าง ๆ IBM เป็นผู้สนับสนุนโอเพ่นซอร์สอย่างแข็งขัน เราให้การสนับสนุนคอมมิวนิตี้ที่แข้มแข็งและมีบทบาทสำคัญต่าง ๆ เช่น Linux, Apache และ Eclipse ความร่วมมือกับ Red Hat นับเป็นก้าวต่อไปของวิถีโอเพ่นของเรา เพื่อสร้างความปลอดภัย ความรับผิดชอบ และสร้าง AI ที่ทรงประสิทธิภาพ เมื่อรวม RHEL AI และ InstructLab เข้ากับโมเดลในตระกูล Granite ของ IBM เราจะมอบคุณค่าและทางเลือกใหม่ให้กับลูกค้าที่กำลังมองหาการสร้างโมเดลที่เหมาะกับจุดประสงค์การใช้งาน ซึ่งตอบโจทย์กับกรณีใช้งานของลูกค้าด้วยดาต้าของลูกค้าเอง ในขณะเดียวกันก็ช่วยลดต้นทุนการใช้สภาพแวดล้อมไฮบริดคลาวด์ที่หลากหลาย”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure กล่าวว่า “องค์กรจำนวนมากต่างมองหาวิธีการนำ AI ไปใช้กับแอปพลิเคชันสำคัญ ๆ ของตน ความพร้อมใช้ของ RHEL AI และ OpenShift AI บน IBM Cloud จะช่วยทรานส์ฟอร์มวิธีการที่คอมมิวนีตี้และบริษัทต่าง ๆ สร้างและใช้ประโยชน์จาก generative AI เรากำลังเปิดให้มีการทำงานร่วมกันแบบโอเพ่น, ทำให้ปรับแต่งโมเดลได้อย่างไม่ยุ่งยาก รวมถึงมอบโมเดลและเครื่องมือคุณภาพระดับองค์กรที่สนับสนุนการนำ AI ไปใช้กับทุกแอปพลิเคชัน”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel กล่าวว่า “การนำ AI ไปใช้ในวงกว้างจะต้องเป็นโอเพ่นซอร์สอย่างสมบูรณ์ ซึ่งสมาชิกของคอมมิวนิตี้มีส่วนร่วมสนับสนุนและสร้างแอปพลิเคชันและกรณีใช้งานใหม่ ๆ การรวมโมเดลโอเพ่นซอร์ส Granite models และ InstructLab project เข้าด้วยกันทำให้ RHEL AI พร้อมนำการเปลี่ยนแปลงวิธีการโต้ตอบ ปรับแต่ง และการใช้ AI models ในการสร้างผลิตภัณฑ์ได้อย่างมีนัยสำคัญ”

Justin Boitano, vice president, Enterprise Products, NVIDIA กล่าวว่า “Red Hat และ NVIDIA ได้ร่วมมือกันอย่างใกล้ชิดมายาวนาน และ Red Hat Enterprise Linux AI แสดงให้เห็นโฟกัสเดียวกันของเราในการนำคอมพิวติ้งและซอฟต์แวร์ให้นักพัฒนาซอฟต์แวร์และนักวิจัยได้ใช้อย่างเต็มรูปแบบ เป็นการสร้างคลื่นลูกใหม่ให้กับเทคโนโลยี AI และแอปพลิเคชันต่าง ๆ”

Alibaba Cloud and Olympic Broadcasting Services Launch AI-Fueled OBS Cloud 3.0 for Paris 2024

Alibaba Cloud and Olympic Broadcasting Services Launch AI-Fueled OBS Cloud 3.0 for Paris 2024

Alibaba Cloud and Olympic Broadcasting Services Launch AI-Fueled OBS Cloud 3.0 for Paris 2024

  • Delivery of live signals over OBS Live Cloud becomes the main method of remote distribution to broadcasters – making another milestone in Olympic Games broadcasting
  • Content+ Portal ensures seamless delivery of content and Multi-Camera Replay Systems provides frame-freeze slow-motion replays

Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, and Olympic Broadcasting Services (OBS), has today announced the launch of OBS Cloud 3.0 for the Olympic Games Paris 2024 (Paris 2024). A combination of cloud technologies powered by AI, OBS Cloud 3.0 makes the work of OBS and Media Rights-Holders (MRHs) easier and more efficient. For Paris 2024, OBS Cloud 3.0 will serve as the backbone infrastructure supporting several critical functions, fully utilizing the benefits of cloud technologies including operational scalability and cost-efficiency, improved sustainability with enhanced remote working capabilities, effective real-time workflow collaboration, and more.

As part of OBS Cloud 3.0, OBS Live Cloud has become the main method of remote distribution to Media Rights-Holders (MRHs) for the first time in the history of the Olympic Games, taking over from satellite which was launched during the Olympics Games Tokyo 1964. For Paris 2024, two-thirds of booked remote services (across 54 broadcasters) are now using OBS Live Cloud including 2 Ultra High Definition (UHD) broadcasters. 379 video (11 UHD, 368 HD) and 100 audio feeds will be transmitted via the Live Cloud. With the benefits of low latency and high resilience, content transmission via cloud has outperformed other methods of distribution when it comes to scalability, flexibility and cost while increasing the stability and agility of worldwide broadcasting of the largest sports event.

Debuted at the Olympic Games Tokyo 2020 with an UHD broadcaster, OBS Live Cloud was offered as a standard service for the first time during the Olympic Winter Games Beijing 2022 with 22 subscribed broadcasters. Prior to this technology breakthrough, broadcasters had to rely on dedicated and more costly international telecommunication optical circuits and spend a considerate amount of time to set up the equipment, in order to send live footage halfway across the globe back to their home countries.

At the launch of the OBS Cloud 3.0 during the Alibaba Cloud International Broadcasting Centre (IBC) showcase opening, Yiannis Exarchos, OBS Chief Executive Officer, said, “With approximately half of the world’s population watching the Games, technologies like Alibaba Cloud help us tell the stories of the best athletes in the world, but also bring the world together in ways which are more exciting and inspirational. Broadcasting the Games is fundamental in trying to do that, and having partners like Alibaba that help us bring this dream to life are very valuable for us!”

A record-breaking 11,000 hours of Olympic Games content available via Content+ on the cloud

Content+, OBS’ content delivery platform remains fully hosted on Alibaba Cloud, and continues to simplify remote production workflows and ensures seamless content delivery including live sessions, athlete interviews, behind-the-scenes footage and social media content.

For Paris 2024, OBS will produce more than 11,000 hours of content – a 15% increase from Tokyo 2020. The streamlined approach of this cloud-based portal simplifies remote production workflows and ensures seamless content delivering without disruption during the Games.

New functionalities in Content+ allow MRHs to create their own highlights from any location in the world in far shorter turnaround time. Content can be downloaded in three different resolutions facilitating usage including linear, digital and/or social.

Offering worldwide MRHs access to the wealth of Games content produced by OBS, Content+ will deliver content in UHD for the first time through Alibaba Cloud’s robust global infrastructure. This empowers broadcasters to produce even more engaging and refined content, with new features like vertical screen compatibility for optimal viewing on mobiles or other devices.

Selina Yuan, President of International Business at Alibaba Cloud Intelligence, said, “We are very excited to see the evolution of Olympic broadcasting from Tokyo 2020 to Paris 2024, enabled by Alibaba Cloud’s extensive global infrastructure and proven AI technologies. The partnership between Alibaba Cloud and OBS amplifies our commitment to help transform the viewer experience at the Olympic Games, turning technology innovations into practical applications for tangible results. We are honored to support Paris 2024 as the most digitally compelling Olympics ever.”

AI-Enhanced Replay Systems Elevate Viewing Experience

During Paris 2024, the OBS Multi-Camera Replay Systems will provide frame-freeze slow-motion replays of athletes’ performances, allowing hardcore sports fans to access detailed information for deeper analysis of the athlete movements. For new viewers, these replays can serve as educational tools for better understanding of the Games at key moments.

All the multi-camera replay systems used at Paris 2024 will be provided by Alibaba Cloud. These include 17 systems across 14 venues covering 21 sports and disciplines – including rugby sevens; badminton; athletics track and field; basketball; beach volleyball; table tennis; wrestling; tennis; judo; breaking; BMX freestyle; and skateboarding. The footage will be sent to the cloud, where Alibaba Cloud’s AI-driven computing capabilities enable live spatial reconstruction and real-time 3D rendering, before the chosen moments are shared as a replay through live or non-live feeds. The seamless reconstruction of the most exciting moments only takes seconds to get ready in the cloud and integrated as part of the live coverage.

Additionally, OBS Olympic Video Player (OVP), an advanced multi-platform video player service, will also leverage Alibaba Cloud’s infrastructure to support UHD live streaming for the first time. The OVP service provides MRHs, especially small and medium-sized organizations, with a turnkey solution to deliver high-quality videos to their audiences without complex in-house development.

Joined as an Olympic Worldwide Partner in January 2017, Alibaba Cloud and OBS launched OBS Cloud in 2018. The leading cloud company supported Tokyo 2020 as the first Olympic Games to be broadcasted via the cloud and has been working with OBS since to help maintain the highest Olympic broadcasting standards with its proven cloud technologies.

B-roll link: The B-roll handout of the Alibaba Cloud IBC Showcase at Paris 2024 can be accessed at this link: https://www.alizila.com/media-resource/b-roll-alibaba-cloud-international-broadcasting-centre-showcase-paris-2024/