Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

RHEL AI combines open, more efficient models with accessible model alignment, extending the possibilities of AI innovation across the hybrid cloud

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the general availability of Red Hat Enterprise Linux (RHEL) AI across the hybrid cloud. RHEL AI is Red Hat’s foundation model platform that enables users to more seamlessly develop, test and run generative AI (gen AI) models to power enterprise applications. The platform brings together the open source-licensed Granite large language model (LLM) family and InstructLab model alignment tools, based on the Large-scale Alignment for chatBots (LAB) methodology, packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud.

While gen AI’s promise is immense, the associated costs of procuring, training and fine-tuning LLMs can be astronomical, with some leading models costing nearly $200 million to train before launch. This does not include the cost of aligning for the specific requirements or data of a given organization, which typically requires data scientists or highly-specialized developers. No matter the model selected for a given application, alignment is still required to bring it in-line with company-specific data and processes, making efficiency and agility key for AI in actual production environments.

Red Hat believes that over the next decade, smaller, more efficient and built-to-purpose AI models will form a substantial mix of the enterprise IT stack, alongside cloud-native applications. But to achieve this, gen AI needs to be more accessible and available, from its costs to its contributors to where it can run across the hybrid cloud. For decades, open source communities have helped solve similar challenges for complex software problems through contributions from diverse groups of users; a similar approach can lower the barriers to effectively embracing gen AI.

An open source approach to gen AI

These are the challenges that RHEL AI intends to address – making gen AI more accessible, more efficient and more flexible to CIOs and enterprise IT organizations across the hybrid cloud. RHEL AI helps:

  • Empower gen AI innovation with enterprise-grade, open source-licensed Granite models, and aligned with a wide variety of gen AI use cases.
  • Streamline aligning gen AI models to business requirements with InstructLab tooling, making it possible for domain experts and developers within an organization to contribute unique skills and knowledge to their models even without extensive data science skills.
  • Train and deploy gen AI anywhere across the hybrid cloud by providing all of the tools needed to tune and deploy models for production servers wherever associated data lives. RHEL AI also provides a ready on-ramp to Red Hat OpenShift AI for training, tuning and serving these models at scale while using the same tooling and concepts.

RHEL AI is also backed by the benefits of a Red Hat subscription, which includes trusted enterprise product distribution, 24×7 production support, extended model lifecycle support and Open Source Assurance legal protections.

RHEL AI extends across the hybrid cloud

Bringing a more consistent foundation model platform closer to where an organization’s data lives is crucial in supporting production AI strategies. As an extension of Red Hat’s hybrid cloud portfolio, RHEL AI will span nearly every conceivable enterprise environment, from on-premise datacenters to edge environments to the public cloud. This means that RHEL AI will be available directly from Red Hat, from Red Hat’s original equipment manufacturer (OEM) partners and to run on the world’s largest cloud providers,including Amazon Web Services (AWS), Google Cloud, IBM Cloud and Microsoft Azure. This enables developers and IT organizations to use the power of hyperscaler compute resources to build innovative AI concepts with RHEL AI.

Availability

RHEL AI is generally available today via the Red Hat Customer Portal to run on-premise or for upload to AWS and IBM Cloud as a “bring your own subscription” (BYOS) offering. Availability of a BYOS offering on Azure and Google Cloud is planned in Q4 2024 and RHEL AI is also expected to be available on IBM Cloud as a service later this year. 

Red Hat plans to further expand the aperture of RHEL AI cloud and OEM partners in the coming months, providing even more choice across hybrid cloud environments.

Supporting Quotes

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

“For gen AI applications to be truly successful in the enterprise, they need to be made more accessible to a broader set of organizations and users and more applicable to specific business use cases. RHEL AI provides the ability for domain experts, not just data scientists, to contribute to a built-for-purpose gen AI model across the hybrid cloud, while also enabling IT organizations to scale these models for production through Red Hat OpenShift AI.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM is committed to helping enterprises build and deploy effective AI models, and scale with speed. RHEL AI on IBM Cloud is bringing open source innovation to the forefront of gen AI adoption, allowing more organizations and individuals to access, scale and harness the powerof AI. With RHEL AI bringing together the power of InstructLab and IBM’s family of Granite models, we are creating gen AI models that will help clients drive real business impact across the enterprise.”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

“The benefits of enterprise AI come with the sheer scale of the AI model landscape and the inherent complexities of selecting, tuning, and maintaining in-house models. Smaller, built-to-purpose, and more broadly accessible models can make AI strategies more achievable for a much broader set of users and organizations, which is the area that Red Hat is targeting with RHEL AI as a foundation model platform.”

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภาพกับเครื่องมือการจัดตำแหน่งโมเดล เพื่อนำนวัตกรรม AI ไปใช้บนไฮบริดคลาวด์ได้มากขึ้น

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด Red Hat Enterprise Linux (RHEL) AI ใช้งานบนไฮบริดคลาวด์ RHEL AI คือแพลตฟอร์ม foundation model ของเร้ดแฮทที่เป็นพื้นที่ให้ผู้ใช้ทำการพัฒนา ทดสอบ และรันโมเดล generative AI (gen AI) ต่าง ๆ ได้อย่างลงตัวมากขึ้น ส่งผลให้สามารถใช้แอปพลิเคชันต่าง ๆ ในองค์กรได้อย่างราบรื่น  แพลตฟอร์มนี้บูรณาการโมเดลด้านภาษาขนาดใหญ่ (LLM) ตระกูล Granite ที่เป็นไลเซนส์โอเพ่นซอร์ส และ InstructLab ซึ่งเป็นเครื่องมือปรับโมเดลที่อิงการทำงานตามวิธี  Large-scale Alignment for chatBots (LAB) ไว้ด้วยกันเป็น RHEL image ที่บู๊ตได้ตามความเหมาะสม เพื่อใช้งานกับเซิร์ฟเวอร์แต่ละตัวที่อยู่บนไฮบริดคลาวด์ทั้งหมดอย่างเป็นเอกเทศ

แม้ว่าความนิยมในการใช้ gen AI กำลังพุ่งสูงขึ้นมาก แต่ค่าใช้จ่ายที่เกี่ยวข้องกับการจัดหา การเทรน และการปรับแต่งโมเดล LLM ต่าง ๆ นั้นสูงมาก การเทรนโมเดลชั้นนำบางโมเดลก่อนจะเปิดตัวได้ มีค่าใช้จ่ายเกือบ 200 ล้านดอลลาร์ ซึ่งยังไม่รวมค่าใช้จ่ายในการปรับโมเดลให้สอดคล้องกับความต้องการหรือข้อมูลที่เฉพาะเจาะจงขององค์กร ที่มักต้องทำโดยนักวิทยาศาสตร์ข้อมูล (data scientists) หรือนักพัฒนาซอฟต์แวร์ที่มีความเชี่ยวชาญเฉพาะทางสูง อย่างไรก็ตาม ไม่ว่าจะเลือกโมเดลใดให้กับแอปพลิเคชันที่จะใช้ก็จำเป็นต้องปรับโมเดลให้สอดคล้องกับข้อมูลและกระบวนการเฉพาะของแต่ละบริษัท ดังนั้นการใช้ AI ในสภาพแวดล้อมการทำงานจริงจึงต้องการประสิทธิภาพและความคล่องตัวอย่างมาก

เร้ดแฮทเชื่อว่าในอีกสิบปีข้างหน้า โมเดล AI ที่เล็กลงแต่มีประสิทธิภาพมากขึ้น และเป็นโมเดลที่สร้างขึ้นเพื่อวัตถุประสงค์เฉพาะเจาะจง จะเป็นตัวทำให้เกิดการผสมผสาน IT stack ขององค์กรอย่างมีนัยสำคัญ ควบคู่กับแอปพลิเคชันแบบคลาวด์-เนทีฟ แต่การจะทำเช่นนั้นได้ ผู้ใช้จะต้องเข้าถึง gen AI ได้มากขึ้น และ gen AI ต้องพร้อมใช้งานมากขึ้น นั่นคือการพิจารณาด้านค่าใช้จ่ายต่าง ๆ ตลอดจนผู้มีส่วนร่วมในการพัฒนา gen AI ไปจนถึงทำให้สามารถรัน gen AI บนไฮบริดคลาวด์ได้ทั้งหมด ในมุมของโอเพ่นซอร์สคอมมิวนิตี้นั้น นับเป็นเวลาหลายสิบปีแล้วที่คอมมิวนิตี้นี้ได้ช่วยแก้ไขความท้าทายในลักษณะเดียวกันนี้ให้กับซอฟต์แวร์ที่ซับซ้อนต่าง ๆ ผ่านการมีส่วนร่วมส่งความรู้เข้าคอมมิวนิตี้จากผู้ใช้กลุ่มต่าง ๆ ที่หลากหลาย ซึ่งวิธีการเดียวกันนี้สามารถลดอุปสรรคในการใช้ gen AI ให้มีประสิทธิภาพมากขึ้นได้

แนวทางของโอเพ่นซอร์สต่อ gen AI

ความท้าทายที่กล่าวข้างต้นคือสิ่งที่ RHEL AI ต้องบริหารจัดการ เพื่อทำให้เข้าถึง gen AI ได้มากขึ้นบนไฮบริดคลาวด์ มอบความคล่องตัวและประสิทธิภาพมากขึ้นให้กับผู้บริหารด้านเทคโนโลยีสารสนเทศ (CIOs) และองค์กรด้านไอที ดังนี้

  • สนับสนุนนวัตกรรมด้าน gen AI ด้วยโมเดล Granite ที่เป็นไลเซนส์โอเพ่นซอร์สความสามารถระดับใช้งานในองค์กร และใช้งาน gen AI ได้หลายรูปแบบ
  • InstructLab ช่วยปรับโมเดล gen AI ให้สอดคล้องกับความต้องการของธุรกิจ ซึ่งเป็นการช่วยให้ผู้เชี่ยวชาญเฉพาะด้านและนักพัฒนาซอฟต์แวร์ขององค์กร ใช้ทักษะเฉพาะและความรู้ต่าง ๆ กับโมเดลของตนได้โดยไม่จำเป็นต้องมีทักษะด้านวิทยาศาสตร์ข้อมูล (data science)
  • เทรนและใช้ gen AI ได้ทุกที่บนไฮบริดคลาวด์ ผ่านเครื่องมือที่จำเป็นทั้งหมดที่มีให้เพื่อใช้ปรับแต่งและใช้โมเดลสำหรับเซิร์ฟเวอร์ที่ใช้งานในทุกแห่งที่มีข้อมูลที่เกี่ยวข้องวางอยู่ นอกจากนี้ยังมอบช่องทางเพื่อต่อยอดไปสู่การใช้งาน Red Hat OpenShift AI เพื่อเทรน ปรับแต่ง และให้บริการโมเดลเหล่านี้ในสเกลที่ใหญ่ขึ้นตามต้องการด้วยการใช้เครื่องมือและแนวทางเดียวกัน

RHEL AI ยังใช้สิทธิประโยชน์ของ Red Hat subscription ได้ ซึ่งรวมถึงการนำเสนอผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การให้บริการช่วยเหลือการทำงานตลอด 24 ชั่วโมงทุกวัน การสนับสนุนไลฟ์ไซเคิลของโมเดล และการคุ้มครองทางกฎหมายของ Open Source Assurance

ใช้ RHEL AI บนไฮบริดคลาวด์ทุกแห่ง

สิ่งที่สำคัญมากในการนำ AI ไปใช้ได้อย่างมีประสิทธิภาพ คือ การนำโมเดลที่ทำงานร่วมกันได้อย่างราบรื่นไปวางไว้ให้ใกล้จุดที่ข้อมูลขององค์กรวางอยู่ RHEL AI ซึ่งเป็นส่วนขยายของพอร์ตโฟลิโอไฮบริดคลาวด์ของเร้ดแฮท จะขยายข้ามไปใกล้สภาพแวดล้อมขององค์กรเกือบทุกรูปแบบ ไม่ว่าจะเป็นดาต้าเซ็นเตอร์ที่ติดตั้งภายในองค์กร สภาพแวดล้อม edge ไปจนถึงบนพับลิคคลาวด์ นั่นหมายถึง RHEL AI จะพร้อมให้ใช้งานได้ทั้งจากเร้ดแฮทโดยตรง จากพันธมิตร OEM ของเร้ดแฮท และรันอยู่บนบริการของผู้ให้บริการคลาวด์รายใหญ่ของโลก เช่น Amazon Web Services (AWS), Google Cloud, IBM Cloud และ Microsoft Azure ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์และองค์กรด้านไอที สามารถใช้พลังของทรัพยากรการประมวลผลแบบไฮเปอร์สเกลในการสร้างแนวคิดนวัตกรรมด้าน AI ด้วย RHEL AI

การจัดจำหน่าย

ขณะนี้ RHEL AI พร้อมให้บริการแล้วผ่าน Red Hat Customer Portal เพื่อรันบนระบบภายในองค์กร หรืออัปโหลดไปยัง AWS และ IBM Cloud ในรูปแบบ “bring your own subscription” (BYOS) สำหรับ Azure และ Google Cloud นั้นวางแผนไว้ว่าจะพร้อมให้ใช้บริการในรูปแบบ BYOS ในไตรมาสที่ 4 ของปี 2567 และคาดว่าจะพร้อมให้ใช้งานบน IBM Cloud ในรูปแบบ as a service ปลายปีนี้

เร้ดแฮทวางแผนขยาย RHEL AI cloud และพันธมิตร OEM เพิ่มเติมในอีกไม่กี่เดือนข้างหน้า เพื่อมอบทางเลือกการใช้งานบนสภาพแวดล้อมไฮบริดคลาวด์ให้มากขึ้น

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

การที่องค์กรจะประสบความสำเร็จในการใช้แอปพลิเคชัน AI ได้อย่างแท้จริงได้นั้น องค์กรและผู้ใช้จะต้องเข้าถึงแอปฯ เหล่านั้นได้ในวงกว้างมากขึ้น และสามารถนำแอปฯ เหล่านั้นไปใช้กับงานด้านต่าง ๆ ของธุรกิจได้อย่างเฉพาะเจาะจงมากขึ้น RHEL AI มอบความสามารถให้ผู้เชี่ยวชาญเฉพาะด้าน ซึ่งไม่เจาะจงเฉพาะกับนักวิทยาศาสตร์ข้อมูล (data scientist) ในการมีส่วนร่วมสร้างโมเดล AI เพื่อใช้งานตามวัตถุประสงค์เฉพาะ บนไฮบริดคลาวด์ ในขณะเดียวกันองค์กรด้านไอทีก็สามารถสเกลโมเดลเหล่านี้ให้เหมาะสมกับระบบงานจริงผ่าน Red Hat OpenShift AI”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM ให้คำมั่นที่จะช่วยองค์กรต่าง ๆ สร้างและใช้โมเดล AI ที่มีประสิทธิภาพ และสเกลได้อย่างรวดเร็ว RHEL AI on IBM Cloud คือการนำนวัตกรรมโอเพ่นซอร์สมาสู่แนวหน้าของการใช้ gen AI ช่วยให้องค์กรและผู้คนเข้าถึง สเกล และใช้พลังของ AI ได้มากขึ้น  การรวมพลังของ RHEL AI, InstructLab และโมเดลในตระกูล Granite ของ IBM นี้ เป็นสิ่งที่เรากำลังสร้างโมเดล gen AI ที่จะช่วยลูกค้าขับเคลื่อนผลทางธุรกิจอย่างแท้จริงตลอดทั้งองค์กร”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

ประโยชน์ของ AI ในองค์กรนั้นมาพร้อมกับแลนด์สเคปของโมเดล AI ขนาดมหึมา และมีความซับซ้อนโดยธรรมชาติ ไม่ว่าจะเป็นการเลือกใช้ การปรับแต่ง และการบำรุงรักษาโมเดลภายในองค์กร  กลยุทธ์ด้าน AI ของผู้ใช้และองค์กรที่มีความหลากหลาย จะประสบความสำเร็จได้มากขึ้นด้วยโมเดลที่มีขนาดเล็กลง เจาะจงสร้างตามวัตถุประสงค์ และเข้าถึงได้อย่างกว้างขวาง ซึ่งส่วนนี้คือเป้าหมายที่เร้ดแฮทจะใช้ RHEL AI เป็นแพลตฟอร์มสำหรับ foundational model”

Red Hat OpenStack Services on OpenShift is Now Generally Available

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat OpenStack Services on OpenShift is Now Generally Available

Open source leader brings modern approach to OpenStack deployments, helping organizations build future-ready networks at massive scale

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the general availability of Red Hat OpenStack Services on OpenShift, the next major release of Red Hat OpenStack Platform. This is a significant step forward in how enterprises, particularly telecommunication service providers, can better unify traditional and cloud-native networks into a singular, modernized network fabric. Red Hat OpenStack Services on OpenShift opens up a new pathway for how organizations can rethink their virtualization strategies, making it easier for them to scale, upgrade and add resources to their cloud environments.

Typically operating at a massive scale, enterprises are consistently tasked with managing new levels of complexity as the industries that they serve transform. To do this more effectively, they need to build modern network infrastructures that can scale towards the edge with automated resource scaling providing a high performance architecture that has the ability to optimize resource usage wherever applications are located. To achieve these goals, the underlying infrastructures need to be able to meld traditional virtualized applications with more modern cloud-native applications.

With Red Hat OpenStack Services on OpenShift, organizations will be able to manage complexity for faster, simplified deployments of both virtualized and cloud-native applications from the core to the edge all in one place. Red Hat OpenStack Services on OpenShift can deploy compute nodes 4x faster than before when compared to Red Hat OpenStack Platform 17.1. Additional benefits include:

  • Accelerated time-to-market with Ansible integration;
  • A scalable OpenStack control plane that can manage Kubernetes-native pods running on Red Hat OpenShift;
  • Easier day 2 operations for control plane and lifecycle management;
  • Greater cost management and freedom to choose third party plug-ins and virtualize resources;
  • Improved security and compliance scanning of the control plane and Role-based Access Control encrypts communications and memory cache;
  • A deeper understanding about the health of your hybrid cloud with observability user interface, cluster observability operator and an OpenShift cluster logging operator;
  • AI-optimized infrastructure supports hardware acceleration technologies to help ensure seamless integration and efficient utilization of specialized hardware for AI tasks.

Red Hat’s commitment to and investment in OpenStack remains strong and remains the leading contributor at both the project and product levels. OpenStack continues to be a vital component for large IT infrastructures, especially in the telecommunication space, and this evolution can improve how these organizations deploy, manage, and maintain OpenStack footprints.

Trusted, reliable support for telecommunication service providers

To help telecommunication service providers accelerate their goals, Red Hat offers expertise at every stage of the deployment process. Whether customers are new to OpenStack or migrating from a legacy estate, Red Hat provides tailored training for customer teams to quickly build in-house technical expertise. Our consulting services help plan and deploy projects within the unique environments of telecommunication companies, focusing on minimizing operational risks. Additionally, Red Hat Technical Account Managers provide ongoing guidance and advice throughout the lifecycle of Red Hat OpenStack Services on OpenShift, helping ensure a smooth and secure implementation.

This landscape will only become more dynamic and complex over the next few years. By further blending Red Hat OpenStack Platform with Red Hat OpenShift, Red Hat will continue to help telecommunication service providers solve today’s problems while also preparing their environments to best capitalize on opportunities provided by intelligent networks that can leverage AI, flourish at the edge and scale on-demand. 94% of telecommunication companies in the Fortune 500 rely on Red Hat[3], underscoring our proven ability to support and modernize their networks. With Red Hat OpenStack Services on OpenShift, telecommunication service providers can expand new services, applications and revenue streams – propelling their business forward for 5G and beyond.

Supporting Quotes

Chris Wright, senior vice president of global engineering and chief technology officer, Red Hat

“Red Hat’s dedication to OpenStack is demonstrated through our extensive contributions to the project, our leadership in the OpenStack community and our focus on delivering enterprise-grade OpenStack solutions to our customers. This dedication must evolve as our customers’ needs change, and Red Hat OpenStack Services on OpenShift will help provide our OpenStack customers with a more unified, flexible application platform.”

Takeshi Maehara, deputy general manager, network and cloud platforms, KDDI

“KDDI has been a longstanding user of both Red Hat OpenStack Platform and Red Hat OpenShift and we’re excited about this next evolution. These solutions have enabled us to quickly and flexibly develop and deploy new services and applications. This integration will allow organizations like KDDI to modernize and manage complexity from the core to the edge.”

Nilay Rathod, technology automation and services lead, Spark New Zealand

“Spark is pleased Red Hat is continuing to evolve Red Hat OpenStack Platform. Red Hat OpenStack Services on OpenShift will help to further enhance our telecommunications infrastructure, providing even greater flexibility, scalability and resilience. Our collaboration with Red Hat continues to drive innovation, allowing us to deliver superior performance and reliability to our customers. Together, we are building the future of New Zealand’s wireless mobile networks.”

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat วางตลาด OpenStack Service on OpenShift

เพิ่มความล้ำสมัยให้ OpenStack พร้อมช่วยองค์กรสร้างเครือข่ายขนาดใหญ่ที่รองรับอนาคต

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด (general availability) Red Hat OpenStack Services on OpenShift ผลิตภัณฑ์ที่เป็นความเคลื่อนไหวครั้งสำคัญของแพลตฟอร์ม OpenStack ของเร้ดแฮท และเป็นการเดินหน้าครั้งสำคัญขององค์กรต่าง ๆ โดยเฉพาะผู้ให้บริการด้านโทรคมนาคมที่จะใช้วิธีการใหม่นี้ในการควบรวมเครือข่ายแบบดั้งเดิมและเครือข่ายที่เป็นคลาวด์-เนทีฟเข้าเป็นหนึ่งเดียวกัน บนโครงสร้างเครือข่ายที่ทันสมัยได้อย่างมีประสิทธิภาพมากขึ้น นอกจากนี้ Red Hat OpenStack Services on OpenShift เปิดเส้นทางสายใหม่ให้องค์กรต่าง ๆ สามารถทบทวนกลยุทธ์ด้านเวอร์ชวลไลเซชันของตน สามารถสเกล อัปเกรด และเพิ่มทรัพยากรให้กับสภาพแวดล้อมคลาวด์ของตนได้อย่างไม่ยุ่งยาก

องค์กรที่มีการทำงานสเกลใหญ่ต้องบริหารจัดการความซับซ้อนที่มีรูปแบบใหม่ ๆ เกิดขึ้นอย่างต่อเนื่องตามการเปลี่ยนแปลงของอุตสาหกรรมที่องค์กรนั้น ๆ ให้บริการอยู่ องค์กรเหล่านี้ต้องสร้างโครงสร้างพื้นฐานเครือข่ายที่ทันสมัยที่สามารถสเกลการทำงานไปที่ปลายทางของงาน (edge) ได้ จึงต้องการความสามารถในการปรับขนาดทรัพยากรได้โดยอัตโนมัติ เพื่อให้สามารถปรับการใช้ทรัพยากรให้เหมาะกับแอปพลิเคชันที่ทำงานอยู่บนสภาพแวดล้อมที่แตกต่างกันได้ ดังนั้นโครงสร้างพื้นฐานหลักที่รองรับการทำงานจะต้องสามารถผสานแอปพลิเคชันที่เป็นเวอร์ชวลไลซ์แบบเดิม เข้ากับแอปพลิเคชันแบบคลาวด์-เนทีฟที่ทันสมัยได้เป็นเนื้อเดียวกัน  

Red Hat OpenStack Services on OpenShift ช่วยให้องค์กรจัดการความซับซ้อนนี้ได้จากจุดเดียว ให้สามารถใช้งานแอปพลิเคชันทั้งสองรูปแบบนี้ได้อย่างรวดเร็ว ง่ายดาย ตั้งแต่การใช้งานที่ส่วนกลาง (core) ไปจนถึง edge ทั้งนี้ Red Hat OpenStack Services on OpenShift สามารถใช้โหนดการประมวลผลได้เร็วกว่าเดิมถึง 4 เท่า เมื่อเทียบกับ Red Hat OpenStack Platform 17.1 และมีคุณประโยชน์เพิ่มเติมดังนี้

  • โซลูชันนี้มี Ansible ซึ่งเป็นโซลูชันด้านระบบอัตโนมัติอยู่ด้วย จึงสามารถเร่งกระบวนการผลิตตั้งแต่ต้นจนวางตลาด (time-to-market) ให้เร็วขึ้น
  • ส่วนที่ทำหน้าที่ควบคุม (control plane) ของ OpenStack ที่สเกลได้ สามารถบริหารจัดการ Kubernetes-native pods ที่ทำงานอยู่บน Red Hat OpenShift
  • ดูแลจัดการส่วนควบคุมและบริหารจัดการไลฟ์ไซเคิล หลังจากผ่านช่วงการติดตั้งแล้ว (day 2 operations) ได้ง่ายขึ้น
  • จัดการค่าใช้จ่ายได้มีประสิทธิภาพมากขึ้น และมีอิสระในการเลือกว่าจะเชื่อมต่อใช้งานกับบุคคลที่สามรายใด รวมถึงมีอิสระในการเลือกใช้ทรัพยากรแบบเวอร์ชวลไลซ์ต่าง ๆ
  • ประสิทธิภาพในการตรวจตราความปลอดภัยและการปฏิบัติตามกฎระเบียบของส่วนควบคุมที่มากขึ้นบวกกับระบบควบคุมการเข้าใช้งานตามสิทธิ์ของแต่ละบุคคล (Role-based Access Control) จะทำการเข้ารหัสการสื่อสารต่าง ๆ และหน่วยความจำแคช (memory cache)
  • โซลูชันนี้เข้าใจสถานะและความสมบูรณ์ของไฮบริดคลาวด์ขององค์กรได้ลึกมากขึ้น ด้วยการวัดประสิทธิภาพของส่วนต่อประสานกับผู้ใช้ (user interface), การใช้ส่วนเสริมที่ช่วยให้ผู้ดูแลระบบ สามารถสร้างสแต็กการตรวจสอบแบบสแตนด์อโลนที่กำหนดค่าได้อย่างอิสระ (cluster observability operator) และ cluster logging operator ของ OpenShift
  • โครงสร้างพื้นฐานได้รับการปรับให้เหมาะกับการใช้ AI รองรับเทคโนโลยีที่ใช้ฮาร์ดแวร์เร่งการทำงาน เพื่อช่วยให้มั่นใจได้ว่าการผสานรวมเป็นไปอย่างราบรื่นและใช้ฮาร์ดแวร์เฉพาะทางสำหรับงานด้าน AI ได้อย่างมีประสิทธิภาพ

ความมุ่งมั่นและการลงทุนด้าน OpenStack ของเร้ดแฮทยังคงเข้มข้นต่อเนื่อง และเร้ดแฮทยังคงเป็นผู้นำในการมีส่วนร่วมส่งกลับความรู้ความก้าวหน้าให้กับคอมมิวนิตี้ทั้งระดับโปรเจกต์และระดับผลิตภัณฑ์ ทั้งนี้ OpenStack ยังคงเป็นส่วนประกอบสำคัญของโครงสร้างพื้นฐานไอทีขนาดใหญ่ โดยเฉพาะในแวดวงโทรคมนาคม การวางตลาด OpenStack Services on OpenShift ครั้งนี้จะช่วยให้วิธีการที่องค์กรใช้มีประสิทธิภาพมากขึ้น และสามารถบริหารจัดการฟุตพริ้นท์ของการใช้ OpenStack ได้อย่างต่อเนื่อง

การสนับสนุนที่เชื่อถือได้ พึ่งพาได้ แก่ผู้ให้บริการโทรคมนาคม

เร้ดแฮทนำเสนอบริการที่เชี่ยวชาญกระบวนการใช้งานทุกขั้นตอน เพื่อช่วยผู้ให้บริการโทรคมนาคมบรรลุเป้าหมายอย่างรวดเร็ว ให้การอบรมที่เจาะจงกับทีมงานของแต่ละลูกค้า เพื่อให้เกิดความเชี่ยวชาญทางเทคนิคในองค์กรอย่างรวดเร็ว ไม่ว่าจะเป็นลูกค้าที่เพิ่งเริ่มใช้ OpenStack หรือลูกค้าที่กำลังย้ายจากระบบเดิม ทั้งยังมีบริการให้คำปรึกษาเพื่อช่วยลูกค้าวางแผนและใช้โปรเจกต์ต่าง ๆ บนสภาพแวดล้อมของบริษัทด้านโทรคมนาคม โดยเน้นไปที่การลดความเสี่ยงในการปฏิบัติงานให้เหลือน้อยที่สุด นอกจากนี้ Red Hat Technical Account Managers ยังให้แนวทางและคำแนะนำอย่างต่อเนื่องตลอดไลฟ์ไซเคิลของ Red Hat OpenStack Services on OpenShift ช่วยให้การใช้งานราบรื่นและปลอดภัย

อย่างไรก็ตามลักษณะการดำเนินงานเหล่านี้จะมีการเคลื่อนไหวตลอดเวลาและซับซ้อนมากขึ้นในอีกไม่กี่ปีข้างหน้า เร้ดแฮทจะเดินหน้าผสาน Red Hat OpenStack Platform กับ Red Hat OpenShift เพิ่มเติมเพื่อช่วยให้ผู้ให้บริการโทรคมนาคมแก้ปัญหาที่พบในปัจจุบัน และเตรียมพร้อมใช้ประโยชน์จากโอกาสต่าง ๆ ที่เครือข่ายอัจฉริยะที่ใช้ AI จะมีให้ พร้อมกับการใช้งานที่ edge อย่างมีประสิทธิภาพ และขยายขนาดการใช้งานได้ตามต้องการ ทั้งนี้ 94% ของบริษัทโทรคมนาคมที่อยู่ใน Fortune 500 ใช้เร้ดแฮท[3]ซึ่งเป็นการย้ำถึงความสามารถที่ได้รับการพิสูจน์แล้วของเร้ดแฮทในการสนับสนุนและเพิ่มความทันสมัยให้กับเครือข่ายของผู้ให้บริการด้านนี้ Red Hat OpenStack Services on OpenShift ช่วยให้ผู้ให้บริการโทรคมนาคมสามารถขยายบริการใหม่ แอปพลิเคชันใหม่ และมีแหล่งรายได้ใหม่ ๆ เป็นการขับเคลื่อนธุรกิจสู่ 5G และอื่น ๆ ที่ก้าวไกลกว่าที่กำลังจะตามมา

คำกล่าวสนับสนุน

Chris Wright, senior vice president of global engineering and chief technology officer, Red Hat

ความทุ่มเทของเร้ดแฮทที่มีต่อ OpenStack เห็นได้จากการมีส่วนร่วมคืนความรู้สู่คอมมิวนิตี้อย่างกว้างขวางของเราต่อโปรเจกต์นี้ เราเป็นผู้นำในคอมมิวนิตี้ OpenStack และเราเน้นไปที่การมอบโซลูชัน OpenStack ที่ใช้ในระดับองค์กรให้กับลูกค้าของเรา แน่นอนว่าความทุ่มเทนี้ต้องพัฒนาต่อไปตามความต้องการของลูกค้าของเราที่เปลี่ยนแปลงไป และ Red Hat OpenStack Services on OpenShift จะช่วยมอบแพลตฟอร์มแอปพลิเคชันที่ยืดหยุ่นและเป็นหนึ่งเดียวให้กับลูกค้า OpenStack ของเรา”

Takeshi Maehara, deputy general manager, network and cloud platforms, KDDI

“KDDI ใช้ Red Hat OpenStack Platform และ Red Hat OpenShift มาอย่างยาวนาน และเรารู้สึกตื่นเต้นกับการวางตลาดของ Red Hat OpenStack Services on OpenShift ครั้งนี้ โซลูชันเหล่านี้ช่วยให้เราพัฒนาบริการใหม่ ๆ และใช้แอปพลิเคชันใหม่ ๆ ได้อย่างยืดหยุ่นและรวดเร็ว การบูรณาการนี้จะช่วยให้องค์กรต่าง ๆ รวมถึง KDDI สามารถบริหารจัดการ ปรับปรุงระบบและการให้บริการให้ทันสมัยได้จากส่วนกลาง (core) ไปจนถึง edge”

Nilay Rathod, technology automation and services lead, Spark New Zealand

“Spark ยินดีที่เร้ดแฮทพัฒนา Red Hat OpenStack Platform อย่างต่อเนื่อง Red Hat OpenStack Services on OpenShift จะช่วยให้โครงสร้างพื้นฐานโทรคมนาคมของเราให้มีประสิทธิภาพมากขึ้น มีความยืดหยุ่น มีความสามารถในการสเกลและความคล่องตัว ความร่วมมือกับเร้ดแฮทในการขับเคลื่อนนวัตกรรมอย่างต่อเนื่อง ทำให้เรามอบประสิทธิภาพและความเชื่อถือได้ให้กับลูกค้าของเรา และเรากำลังสร้างอนาคตของเครือข่ายไวเรสโมบายของนิวซีแลนด์ไปด้วยกัน”

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

  • The offering is the first to deliver supported, indemnified and open source-licensed IBM Granite LLMs under Red Hat’s flexible and proven enterprise subscription model
  • Adds open source InstructLab model alignment tools to the world’s leading enterprise Linux platform to simplify generative AI model experimentation and alignment tuning
  • Provides a supported, enterprise-ready model runtime environment across AMD, Intel and NVIDIA platforms for fueling AI innovation built on open source

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the launch of Red Hat Enterprise Linux AI (RHEL AI), a foundation model platform that enables users to more seamlessly develop, test and deploy generative AI (GenAI) models. RHEL AI brings together the open source-licensed Granite large language model (LLM) family from IBM Research, InstructLab model alignment tools based on the LAB (Large-scale Alignment for chatBots) methodology and a community-driven approach to model development through the InstructLab project. The entire solution is packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud and is also included as part of OpenShift AI, Red Hat’s hybrid machine learning operations (MLOps) platform, for running models and InstructLab at scale across distributed cluster environments.

The launch of ChatGPT generated tremendous interest in GenAI, with the pace of innovation only accelerating since then. Enterprises have begun moving from early evaluations of GenAI services to building out AI-enabled applications. A rapidly growing ecosystem of open model options has spurred further AI innovation and illustrated that there won’t be “one model to rule them all.” Customers will benefit from an array of choices to address specific requirements, all of which stands to be further accelerated by an open approach to innovation.

Implementing an AI strategy requires more than simply selecting a model; technology organizations need the expertise to tune a given model for their specific use case, as well as deal with the significant costs of AI implementation. The scarcity of data science skills are compounded by substantial financial requirements including:

  • Procuring AI infrastructure or consuming AI services 
  • The complex process of tuning AI models for specific business needs
  • Integrating AI into enterprise applications
  • Managing both the application and model lifecycle.

To truly lower the entry barriers for AI innovation, enterprises need to be able to expand the roster of who can work on AI initiatives while simultaneously getting these costs under control. With InstructLab alignment tools, Granite models and RHEL AI, Red Hat aims to apply the benefits of true open source projects – freely accessible and reusable, transparent and open to contributions – to GenAI in an effort to remove these obstacles.

Building AI in the open with InstructLab

IBM Research created the Large-scale Alignment for chatBots (LAB) technique, an approach for model alignment that uses taxonomy-guided synthetic data generation and a novel multi-phase tuning framework. This approach makes AI model development more open and accessible to all users by reducing reliance on expensive human annotations and proprietary models. Using the LAB method, models can be improved by specifying skills and knowledge attached to a taxonomy, generating synthetic data from that information at scale to influence the model and using the generated data for model training.

After seeing that the LAB method could help significantly improve model performance, IBM and Red Hat decided to launch InstructLab, an open source community built around the LAB method and the open source Granite models from IBM. The InstructLab project aims to put LLM development into the hands of developers by making, building and contributing to an LLM as simple as contributing to any other open source project.

As part of the InstructLab launch, IBM has also released a family of select Granite English language and code models in the open. These models are released under an Apache license with transparency on the datasets used to train these models. The Granite 7B English language model has been integrated into the InstructLab community, where end users can contribute the skills and knowledge to collectively enhance this model, just as they would when contributing to any other open source project. Similar support for Granite code models within InstructLab will be available soon.

Open source AI innovation on a trusted Linux backbone

RHEL AI builds on this open approach to AI innovation, incorporating an enterprise-ready version of the InstructLab project and the Granite language and code models along with the world’s leading enterprise Linux platform to simplify deployment across a hybrid infrastructure environment. This creates a foundation model platform for bringing open source-licensed GenAI models into the enterprise. RHEL AI includes:

  • Open source-licensed Granite language and code models that are supported and indemnified by Red Hat.
  • A supported, lifecycled distribution of InstructLab that provides a scalable, cost-effective solution for enhancing LLM capabilities and making knowledge and skills contributions accessible to a much wider range of users.
  • Optimized bootable model runtime instances with Granite models and InstructLab tooling packages as bootable RHEL images via RHEL image mode, including optimized Pytorch runtime libraries and accelerators for AMD Instinct™ MI300X, Intel and NVIDIA GPUs and NeMo frameworks.
  • Red Hat’s complete enterprise support and lifecycle promise that starts with a trusted enterprise product distribution, 24×7 production support and extended  lifecycle support.

As organizations experiment and tune new AI models on RHEL AI, they have a ready on-ramp for scaling these workflows with Red Hat OpenShift AI, which will include RHEL AI, and where they can leverage OpenShift’s Kubernetes engine to train and serve AI models at scale and OpenShift AI’s integrated MLOps capabilities to manage the model lifecycle.  IBM’s watsonx.ai enterprise studio, which is built on Red Hat OpenShift AI today, will benefit from the inclusion of RHEL AI in OpenShift AI upon availability, bringing additional capabilities for enterprise AI development, data management, model governance and improved price performance.

The cloud is hybrid. So is AI.

For more than 30 years, open source technologies have paired rapid innovation with greatly reduced IT costs and lowered barriers to innovation. Red Hat has been leading this charge for nearly as long, from delivering open enterprise Linux platforms with RHEL in the early 2000s to driving containers and Kubernetes as the foundation for open hybrid cloud and cloud-native computing with Red Hat OpenShift.

This drive continues with Red Hat powering AI/ML strategies across the open hybrid cloud, enabling AI workloads to run where data lives, whether in the datacenter, multiple public clouds or at the edge. More than just the workloads, Red Hat’s vision for AI brings model training and tuning down this same path to better address limitations around data sovereignty, compliance and operational integrity. The consistency delivered by Red Hat’s platforms across these environments, no matter where they run, is crucial in keeping AI innovation flowing.

RHEL AI and the InstructLab community further deliver on this vision, breaking down many of the barriers to experimenting with and building AI models while providing the tools, data and concepts needed to fuel the next wave of intelligent workloads.

Availability

Red Hat Enterprise Linux AI is now available as a developer preview. Building on the GPU infrastructure available on IBM Cloud, which is used to train the Granite models and support InstructLab, IBM Cloud will now be adding support for RHEL AI and OpenShift AI. This integration will allow enterprises to deploy generative AI more easily into their mission critical applications.

Supporting Quotes

Ashesh Badani, senior vice president and chief product officer, Red Hat

“GenAI presents a revolutionary leap forward for enterprises, but only if technology organizations are able to actually deploy and use AI models in a way that matches their specific business needs. RHEL AI and the InstructLab project, coupled with Red Hat OpenShift AI at scale, are designed to lower many of the barriers facing GenAI across the hybrid cloud, from limited data science skills to the sheer resources required, while fueling innovation both in enterprise deployments and in upstream communities.”

Ramine Roane, corporate vice president, AI Group, AMD

“AI is one of the most important shifts in technology in the past 50 years. To help accelerate broader adoption of AI, the models and tools used to build AI applications need to be made accessible to the enterprise. Built on a trusted Linux backbone with open source tooling and open source-licensed models, RHEL AI is one of the platforms that can provide this, and we’re pleased to support Red Hat’s effort in driving AI in the enterprise forward with our AMD technologies including Instinct AI accelerators.”

Jeremy Foster, senior vice President and general manager, Networking – Compute, Cisco

“The AI movement represents a seismic shift for enterprises, and many organizations are grappling with the best path forward. Cisco continues to work closely with Red Hat to advance AI adoption and RHEL AI will accelerate innovation by providing open-source enabled LLM models as part of an enterprise-ready Linux platform.”

Ihab Tarazi, senior vice president and chief technology officer, AI and Compute, Dell Technologies

“Customers are looking to capture the value that generative AI can provide to transform their businesses. Powered by GPU accelerated Dell PowerEdge Servers, RHEL AI combines the open source innovation and transparency of Granite models and the InstructLab project to deliver a foundation model platform that is accessible to a wider range of users and partners.”

Frances Guida, director, Compute Solutions and AI, Hewlett Packard Enterprise

“Hewlett Packard Enterprise has collaborated with Red Hat for two decades to provide industry-leading solutions that combine the HPE Compute platforms with RHEL. An open environment is critical to innovation in fast-growing technology categories like generative AI and we are looking forward to exploring new areas of collaboration with RHEL AI and Red Hat to help HPE customers find success.”

Darío Gil, senior vice president and director, Research, IBM

“Bringing true open source innovation to AI model development and harnessing the power of a broad community will change how enterprises think about their plans for AI adoption and scale. IBM has been a strong supporter of open source, backing influential communities like Linux, Apache, and Eclipse, and our collaboration with Red Hat represents a step forward in our open approach to building safe, responsible, and effective AI. RHEL AI and InstructLab, combined with IBM’s open source Granite family of models, will deliver new value and choice for clients who are looking to build fit for purpose models that address their use cases with their own data while minimizing cost across a diverse hybrid cloud environment.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“Many enterprises are looking to infuse AI into their mission-critical applications. The availability of RHEL AI and OpenShift AI on IBM Cloud will help transform how the community and companies build and leverage generative AI. We are enabling open collaboration, simplifying model customization and providing enterprise-quality supported models and tools for building AI into every application.”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel

“For AI adoption to scale, it needs to be fully open source, where community members contribute and create new applications and use cases.  By incorporating the open source Granite models and the InstructLab project, RHEL AI is poised to bring a significant change in how we interact with, tune and ultimately use AI models in production.”

Kirk Skaugen, president, Lenovo ISG

“Customers deploying AI-driven applications need to be able to test and experiment with potential models on a trusted and familiar but still innovative platform. Lenovo believes the future of AI is hybrid, and we see RHEL AI as a critical pathway for widespread hybrid AI innovation, and through Red Hat OpenShift AI, production scalability. We’re pleased to work with Red Hat in driving this hybrid AI innovation forward through joint testing on our ThinkSystem 8-GPU servers, providing a trusted hardware foundation for powering open source AI.”

Justin Boitano, vice president, Enterprise Products, NVIDIA

“Red Hat and NVIDIA have a long history of close collaboration, and Red Hat Enterprise Linux AI demonstrates our shared focus on bringing full-stack computing and software to the developers and researchers building the next wave of AI technology and applications.”