วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภาพกับเครื่องมือการจัดตำแหน่งโมเดล เพื่อนำนวัตกรรม AI ไปใช้บนไฮบริดคลาวด์ได้มากขึ้น

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด Red Hat Enterprise Linux (RHEL) AI ใช้งานบนไฮบริดคลาวด์ RHEL AI คือแพลตฟอร์ม foundation model ของเร้ดแฮทที่เป็นพื้นที่ให้ผู้ใช้ทำการพัฒนา ทดสอบ และรันโมเดล generative AI (gen AI) ต่าง ๆ ได้อย่างลงตัวมากขึ้น ส่งผลให้สามารถใช้แอปพลิเคชันต่าง ๆ ในองค์กรได้อย่างราบรื่น  แพลตฟอร์มนี้บูรณาการโมเดลด้านภาษาขนาดใหญ่ (LLM) ตระกูล Granite ที่เป็นไลเซนส์โอเพ่นซอร์ส และ InstructLab ซึ่งเป็นเครื่องมือปรับโมเดลที่อิงการทำงานตามวิธี  Large-scale Alignment for chatBots (LAB) ไว้ด้วยกันเป็น RHEL image ที่บู๊ตได้ตามความเหมาะสม เพื่อใช้งานกับเซิร์ฟเวอร์แต่ละตัวที่อยู่บนไฮบริดคลาวด์ทั้งหมดอย่างเป็นเอกเทศ

แม้ว่าความนิยมในการใช้ gen AI กำลังพุ่งสูงขึ้นมาก แต่ค่าใช้จ่ายที่เกี่ยวข้องกับการจัดหา การเทรน และการปรับแต่งโมเดล LLM ต่าง ๆ นั้นสูงมาก การเทรนโมเดลชั้นนำบางโมเดลก่อนจะเปิดตัวได้ มีค่าใช้จ่ายเกือบ 200 ล้านดอลลาร์ ซึ่งยังไม่รวมค่าใช้จ่ายในการปรับโมเดลให้สอดคล้องกับความต้องการหรือข้อมูลที่เฉพาะเจาะจงขององค์กร ที่มักต้องทำโดยนักวิทยาศาสตร์ข้อมูล (data scientists) หรือนักพัฒนาซอฟต์แวร์ที่มีความเชี่ยวชาญเฉพาะทางสูง อย่างไรก็ตาม ไม่ว่าจะเลือกโมเดลใดให้กับแอปพลิเคชันที่จะใช้ก็จำเป็นต้องปรับโมเดลให้สอดคล้องกับข้อมูลและกระบวนการเฉพาะของแต่ละบริษัท ดังนั้นการใช้ AI ในสภาพแวดล้อมการทำงานจริงจึงต้องการประสิทธิภาพและความคล่องตัวอย่างมาก

เร้ดแฮทเชื่อว่าในอีกสิบปีข้างหน้า โมเดล AI ที่เล็กลงแต่มีประสิทธิภาพมากขึ้น และเป็นโมเดลที่สร้างขึ้นเพื่อวัตถุประสงค์เฉพาะเจาะจง จะเป็นตัวทำให้เกิดการผสมผสาน IT stack ขององค์กรอย่างมีนัยสำคัญ ควบคู่กับแอปพลิเคชันแบบคลาวด์-เนทีฟ แต่การจะทำเช่นนั้นได้ ผู้ใช้จะต้องเข้าถึง gen AI ได้มากขึ้น และ gen AI ต้องพร้อมใช้งานมากขึ้น นั่นคือการพิจารณาด้านค่าใช้จ่ายต่าง ๆ ตลอดจนผู้มีส่วนร่วมในการพัฒนา gen AI ไปจนถึงทำให้สามารถรัน gen AI บนไฮบริดคลาวด์ได้ทั้งหมด ในมุมของโอเพ่นซอร์สคอมมิวนิตี้นั้น นับเป็นเวลาหลายสิบปีแล้วที่คอมมิวนิตี้นี้ได้ช่วยแก้ไขความท้าทายในลักษณะเดียวกันนี้ให้กับซอฟต์แวร์ที่ซับซ้อนต่าง ๆ ผ่านการมีส่วนร่วมส่งความรู้เข้าคอมมิวนิตี้จากผู้ใช้กลุ่มต่าง ๆ ที่หลากหลาย ซึ่งวิธีการเดียวกันนี้สามารถลดอุปสรรคในการใช้ gen AI ให้มีประสิทธิภาพมากขึ้นได้

แนวทางของโอเพ่นซอร์สต่อ gen AI

ความท้าทายที่กล่าวข้างต้นคือสิ่งที่ RHEL AI ต้องบริหารจัดการ เพื่อทำให้เข้าถึง gen AI ได้มากขึ้นบนไฮบริดคลาวด์ มอบความคล่องตัวและประสิทธิภาพมากขึ้นให้กับผู้บริหารด้านเทคโนโลยีสารสนเทศ (CIOs) และองค์กรด้านไอที ดังนี้

  • สนับสนุนนวัตกรรมด้าน gen AI ด้วยโมเดล Granite ที่เป็นไลเซนส์โอเพ่นซอร์สความสามารถระดับใช้งานในองค์กร และใช้งาน gen AI ได้หลายรูปแบบ
  • InstructLab ช่วยปรับโมเดล gen AI ให้สอดคล้องกับความต้องการของธุรกิจ ซึ่งเป็นการช่วยให้ผู้เชี่ยวชาญเฉพาะด้านและนักพัฒนาซอฟต์แวร์ขององค์กร ใช้ทักษะเฉพาะและความรู้ต่าง ๆ กับโมเดลของตนได้โดยไม่จำเป็นต้องมีทักษะด้านวิทยาศาสตร์ข้อมูล (data science)
  • เทรนและใช้ gen AI ได้ทุกที่บนไฮบริดคลาวด์ ผ่านเครื่องมือที่จำเป็นทั้งหมดที่มีให้เพื่อใช้ปรับแต่งและใช้โมเดลสำหรับเซิร์ฟเวอร์ที่ใช้งานในทุกแห่งที่มีข้อมูลที่เกี่ยวข้องวางอยู่ นอกจากนี้ยังมอบช่องทางเพื่อต่อยอดไปสู่การใช้งาน Red Hat OpenShift AI เพื่อเทรน ปรับแต่ง และให้บริการโมเดลเหล่านี้ในสเกลที่ใหญ่ขึ้นตามต้องการด้วยการใช้เครื่องมือและแนวทางเดียวกัน

RHEL AI ยังใช้สิทธิประโยชน์ของ Red Hat subscription ได้ ซึ่งรวมถึงการนำเสนอผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การให้บริการช่วยเหลือการทำงานตลอด 24 ชั่วโมงทุกวัน การสนับสนุนไลฟ์ไซเคิลของโมเดล และการคุ้มครองทางกฎหมายของ Open Source Assurance

ใช้ RHEL AI บนไฮบริดคลาวด์ทุกแห่ง

สิ่งที่สำคัญมากในการนำ AI ไปใช้ได้อย่างมีประสิทธิภาพ คือ การนำโมเดลที่ทำงานร่วมกันได้อย่างราบรื่นไปวางไว้ให้ใกล้จุดที่ข้อมูลขององค์กรวางอยู่ RHEL AI ซึ่งเป็นส่วนขยายของพอร์ตโฟลิโอไฮบริดคลาวด์ของเร้ดแฮท จะขยายข้ามไปใกล้สภาพแวดล้อมขององค์กรเกือบทุกรูปแบบ ไม่ว่าจะเป็นดาต้าเซ็นเตอร์ที่ติดตั้งภายในองค์กร สภาพแวดล้อม edge ไปจนถึงบนพับลิคคลาวด์ นั่นหมายถึง RHEL AI จะพร้อมให้ใช้งานได้ทั้งจากเร้ดแฮทโดยตรง จากพันธมิตร OEM ของเร้ดแฮท และรันอยู่บนบริการของผู้ให้บริการคลาวด์รายใหญ่ของโลก เช่น Amazon Web Services (AWS), Google Cloud, IBM Cloud และ Microsoft Azure ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์และองค์กรด้านไอที สามารถใช้พลังของทรัพยากรการประมวลผลแบบไฮเปอร์สเกลในการสร้างแนวคิดนวัตกรรมด้าน AI ด้วย RHEL AI

การจัดจำหน่าย

ขณะนี้ RHEL AI พร้อมให้บริการแล้วผ่าน Red Hat Customer Portal เพื่อรันบนระบบภายในองค์กร หรืออัปโหลดไปยัง AWS และ IBM Cloud ในรูปแบบ “bring your own subscription” (BYOS) สำหรับ Azure และ Google Cloud นั้นวางแผนไว้ว่าจะพร้อมให้ใช้บริการในรูปแบบ BYOS ในไตรมาสที่ 4 ของปี 2567 และคาดว่าจะพร้อมให้ใช้งานบน IBM Cloud ในรูปแบบ as a service ปลายปีนี้

เร้ดแฮทวางแผนขยาย RHEL AI cloud และพันธมิตร OEM เพิ่มเติมในอีกไม่กี่เดือนข้างหน้า เพื่อมอบทางเลือกการใช้งานบนสภาพแวดล้อมไฮบริดคลาวด์ให้มากขึ้น

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

การที่องค์กรจะประสบความสำเร็จในการใช้แอปพลิเคชัน AI ได้อย่างแท้จริงได้นั้น องค์กรและผู้ใช้จะต้องเข้าถึงแอปฯ เหล่านั้นได้ในวงกว้างมากขึ้น และสามารถนำแอปฯ เหล่านั้นไปใช้กับงานด้านต่าง ๆ ของธุรกิจได้อย่างเฉพาะเจาะจงมากขึ้น RHEL AI มอบความสามารถให้ผู้เชี่ยวชาญเฉพาะด้าน ซึ่งไม่เจาะจงเฉพาะกับนักวิทยาศาสตร์ข้อมูล (data scientist) ในการมีส่วนร่วมสร้างโมเดล AI เพื่อใช้งานตามวัตถุประสงค์เฉพาะ บนไฮบริดคลาวด์ ในขณะเดียวกันองค์กรด้านไอทีก็สามารถสเกลโมเดลเหล่านี้ให้เหมาะสมกับระบบงานจริงผ่าน Red Hat OpenShift AI”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM ให้คำมั่นที่จะช่วยองค์กรต่าง ๆ สร้างและใช้โมเดล AI ที่มีประสิทธิภาพ และสเกลได้อย่างรวดเร็ว RHEL AI on IBM Cloud คือการนำนวัตกรรมโอเพ่นซอร์สมาสู่แนวหน้าของการใช้ gen AI ช่วยให้องค์กรและผู้คนเข้าถึง สเกล และใช้พลังของ AI ได้มากขึ้น  การรวมพลังของ RHEL AI, InstructLab และโมเดลในตระกูล Granite ของ IBM นี้ เป็นสิ่งที่เรากำลังสร้างโมเดล gen AI ที่จะช่วยลูกค้าขับเคลื่อนผลทางธุรกิจอย่างแท้จริงตลอดทั้งองค์กร”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

ประโยชน์ของ AI ในองค์กรนั้นมาพร้อมกับแลนด์สเคปของโมเดล AI ขนาดมหึมา และมีความซับซ้อนโดยธรรมชาติ ไม่ว่าจะเป็นการเลือกใช้ การปรับแต่ง และการบำรุงรักษาโมเดลภายในองค์กร  กลยุทธ์ด้าน AI ของผู้ใช้และองค์กรที่มีความหลากหลาย จะประสบความสำเร็จได้มากขึ้นด้วยโมเดลที่มีขนาดเล็กลง เจาะจงสร้างตามวัตถุประสงค์ และเข้าถึงได้อย่างกว้างขวาง ซึ่งส่วนนี้คือเป้าหมายที่เร้ดแฮทจะใช้ RHEL AI เป็นแพลตฟอร์มสำหรับ foundational model”

Red Hat OpenStack Services on OpenShift is Now Generally Available

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat OpenStack Services on OpenShift is Now Generally Available

Open source leader brings modern approach to OpenStack deployments, helping organizations build future-ready networks at massive scale

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the general availability of Red Hat OpenStack Services on OpenShift, the next major release of Red Hat OpenStack Platform. This is a significant step forward in how enterprises, particularly telecommunication service providers, can better unify traditional and cloud-native networks into a singular, modernized network fabric. Red Hat OpenStack Services on OpenShift opens up a new pathway for how organizations can rethink their virtualization strategies, making it easier for them to scale, upgrade and add resources to their cloud environments.

Typically operating at a massive scale, enterprises are consistently tasked with managing new levels of complexity as the industries that they serve transform. To do this more effectively, they need to build modern network infrastructures that can scale towards the edge with automated resource scaling providing a high performance architecture that has the ability to optimize resource usage wherever applications are located. To achieve these goals, the underlying infrastructures need to be able to meld traditional virtualized applications with more modern cloud-native applications.

With Red Hat OpenStack Services on OpenShift, organizations will be able to manage complexity for faster, simplified deployments of both virtualized and cloud-native applications from the core to the edge all in one place. Red Hat OpenStack Services on OpenShift can deploy compute nodes 4x faster than before when compared to Red Hat OpenStack Platform 17.1. Additional benefits include:

  • Accelerated time-to-market with Ansible integration;
  • A scalable OpenStack control plane that can manage Kubernetes-native pods running on Red Hat OpenShift;
  • Easier day 2 operations for control plane and lifecycle management;
  • Greater cost management and freedom to choose third party plug-ins and virtualize resources;
  • Improved security and compliance scanning of the control plane and Role-based Access Control encrypts communications and memory cache;
  • A deeper understanding about the health of your hybrid cloud with observability user interface, cluster observability operator and an OpenShift cluster logging operator;
  • AI-optimized infrastructure supports hardware acceleration technologies to help ensure seamless integration and efficient utilization of specialized hardware for AI tasks.

Red Hat’s commitment to and investment in OpenStack remains strong and remains the leading contributor at both the project and product levels. OpenStack continues to be a vital component for large IT infrastructures, especially in the telecommunication space, and this evolution can improve how these organizations deploy, manage, and maintain OpenStack footprints.

Trusted, reliable support for telecommunication service providers

To help telecommunication service providers accelerate their goals, Red Hat offers expertise at every stage of the deployment process. Whether customers are new to OpenStack or migrating from a legacy estate, Red Hat provides tailored training for customer teams to quickly build in-house technical expertise. Our consulting services help plan and deploy projects within the unique environments of telecommunication companies, focusing on minimizing operational risks. Additionally, Red Hat Technical Account Managers provide ongoing guidance and advice throughout the lifecycle of Red Hat OpenStack Services on OpenShift, helping ensure a smooth and secure implementation.

This landscape will only become more dynamic and complex over the next few years. By further blending Red Hat OpenStack Platform with Red Hat OpenShift, Red Hat will continue to help telecommunication service providers solve today’s problems while also preparing their environments to best capitalize on opportunities provided by intelligent networks that can leverage AI, flourish at the edge and scale on-demand. 94% of telecommunication companies in the Fortune 500 rely on Red Hat[3], underscoring our proven ability to support and modernize their networks. With Red Hat OpenStack Services on OpenShift, telecommunication service providers can expand new services, applications and revenue streams – propelling their business forward for 5G and beyond.

Supporting Quotes

Chris Wright, senior vice president of global engineering and chief technology officer, Red Hat

“Red Hat’s dedication to OpenStack is demonstrated through our extensive contributions to the project, our leadership in the OpenStack community and our focus on delivering enterprise-grade OpenStack solutions to our customers. This dedication must evolve as our customers’ needs change, and Red Hat OpenStack Services on OpenShift will help provide our OpenStack customers with a more unified, flexible application platform.”

Takeshi Maehara, deputy general manager, network and cloud platforms, KDDI

“KDDI has been a longstanding user of both Red Hat OpenStack Platform and Red Hat OpenShift and we’re excited about this next evolution. These solutions have enabled us to quickly and flexibly develop and deploy new services and applications. This integration will allow organizations like KDDI to modernize and manage complexity from the core to the edge.”

Nilay Rathod, technology automation and services lead, Spark New Zealand

“Spark is pleased Red Hat is continuing to evolve Red Hat OpenStack Platform. Red Hat OpenStack Services on OpenShift will help to further enhance our telecommunications infrastructure, providing even greater flexibility, scalability and resilience. Our collaboration with Red Hat continues to drive innovation, allowing us to deliver superior performance and reliability to our customers. Together, we are building the future of New Zealand’s wireless mobile networks.”

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat วางตลาด OpenStack Service on OpenShift

Red Hat วางตลาด OpenStack Service on OpenShift

เพิ่มความล้ำสมัยให้ OpenStack พร้อมช่วยองค์กรสร้างเครือข่ายขนาดใหญ่ที่รองรับอนาคต

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด (general availability) Red Hat OpenStack Services on OpenShift ผลิตภัณฑ์ที่เป็นความเคลื่อนไหวครั้งสำคัญของแพลตฟอร์ม OpenStack ของเร้ดแฮท และเป็นการเดินหน้าครั้งสำคัญขององค์กรต่าง ๆ โดยเฉพาะผู้ให้บริการด้านโทรคมนาคมที่จะใช้วิธีการใหม่นี้ในการควบรวมเครือข่ายแบบดั้งเดิมและเครือข่ายที่เป็นคลาวด์-เนทีฟเข้าเป็นหนึ่งเดียวกัน บนโครงสร้างเครือข่ายที่ทันสมัยได้อย่างมีประสิทธิภาพมากขึ้น นอกจากนี้ Red Hat OpenStack Services on OpenShift เปิดเส้นทางสายใหม่ให้องค์กรต่าง ๆ สามารถทบทวนกลยุทธ์ด้านเวอร์ชวลไลเซชันของตน สามารถสเกล อัปเกรด และเพิ่มทรัพยากรให้กับสภาพแวดล้อมคลาวด์ของตนได้อย่างไม่ยุ่งยาก

องค์กรที่มีการทำงานสเกลใหญ่ต้องบริหารจัดการความซับซ้อนที่มีรูปแบบใหม่ ๆ เกิดขึ้นอย่างต่อเนื่องตามการเปลี่ยนแปลงของอุตสาหกรรมที่องค์กรนั้น ๆ ให้บริการอยู่ องค์กรเหล่านี้ต้องสร้างโครงสร้างพื้นฐานเครือข่ายที่ทันสมัยที่สามารถสเกลการทำงานไปที่ปลายทางของงาน (edge) ได้ จึงต้องการความสามารถในการปรับขนาดทรัพยากรได้โดยอัตโนมัติ เพื่อให้สามารถปรับการใช้ทรัพยากรให้เหมาะกับแอปพลิเคชันที่ทำงานอยู่บนสภาพแวดล้อมที่แตกต่างกันได้ ดังนั้นโครงสร้างพื้นฐานหลักที่รองรับการทำงานจะต้องสามารถผสานแอปพลิเคชันที่เป็นเวอร์ชวลไลซ์แบบเดิม เข้ากับแอปพลิเคชันแบบคลาวด์-เนทีฟที่ทันสมัยได้เป็นเนื้อเดียวกัน  

Red Hat OpenStack Services on OpenShift ช่วยให้องค์กรจัดการความซับซ้อนนี้ได้จากจุดเดียว ให้สามารถใช้งานแอปพลิเคชันทั้งสองรูปแบบนี้ได้อย่างรวดเร็ว ง่ายดาย ตั้งแต่การใช้งานที่ส่วนกลาง (core) ไปจนถึง edge ทั้งนี้ Red Hat OpenStack Services on OpenShift สามารถใช้โหนดการประมวลผลได้เร็วกว่าเดิมถึง 4 เท่า เมื่อเทียบกับ Red Hat OpenStack Platform 17.1 และมีคุณประโยชน์เพิ่มเติมดังนี้

  • โซลูชันนี้มี Ansible ซึ่งเป็นโซลูชันด้านระบบอัตโนมัติอยู่ด้วย จึงสามารถเร่งกระบวนการผลิตตั้งแต่ต้นจนวางตลาด (time-to-market) ให้เร็วขึ้น
  • ส่วนที่ทำหน้าที่ควบคุม (control plane) ของ OpenStack ที่สเกลได้ สามารถบริหารจัดการ Kubernetes-native pods ที่ทำงานอยู่บน Red Hat OpenShift
  • ดูแลจัดการส่วนควบคุมและบริหารจัดการไลฟ์ไซเคิล หลังจากผ่านช่วงการติดตั้งแล้ว (day 2 operations) ได้ง่ายขึ้น
  • จัดการค่าใช้จ่ายได้มีประสิทธิภาพมากขึ้น และมีอิสระในการเลือกว่าจะเชื่อมต่อใช้งานกับบุคคลที่สามรายใด รวมถึงมีอิสระในการเลือกใช้ทรัพยากรแบบเวอร์ชวลไลซ์ต่าง ๆ
  • ประสิทธิภาพในการตรวจตราความปลอดภัยและการปฏิบัติตามกฎระเบียบของส่วนควบคุมที่มากขึ้นบวกกับระบบควบคุมการเข้าใช้งานตามสิทธิ์ของแต่ละบุคคล (Role-based Access Control) จะทำการเข้ารหัสการสื่อสารต่าง ๆ และหน่วยความจำแคช (memory cache)
  • โซลูชันนี้เข้าใจสถานะและความสมบูรณ์ของไฮบริดคลาวด์ขององค์กรได้ลึกมากขึ้น ด้วยการวัดประสิทธิภาพของส่วนต่อประสานกับผู้ใช้ (user interface), การใช้ส่วนเสริมที่ช่วยให้ผู้ดูแลระบบ สามารถสร้างสแต็กการตรวจสอบแบบสแตนด์อโลนที่กำหนดค่าได้อย่างอิสระ (cluster observability operator) และ cluster logging operator ของ OpenShift
  • โครงสร้างพื้นฐานได้รับการปรับให้เหมาะกับการใช้ AI รองรับเทคโนโลยีที่ใช้ฮาร์ดแวร์เร่งการทำงาน เพื่อช่วยให้มั่นใจได้ว่าการผสานรวมเป็นไปอย่างราบรื่นและใช้ฮาร์ดแวร์เฉพาะทางสำหรับงานด้าน AI ได้อย่างมีประสิทธิภาพ

ความมุ่งมั่นและการลงทุนด้าน OpenStack ของเร้ดแฮทยังคงเข้มข้นต่อเนื่อง และเร้ดแฮทยังคงเป็นผู้นำในการมีส่วนร่วมส่งกลับความรู้ความก้าวหน้าให้กับคอมมิวนิตี้ทั้งระดับโปรเจกต์และระดับผลิตภัณฑ์ ทั้งนี้ OpenStack ยังคงเป็นส่วนประกอบสำคัญของโครงสร้างพื้นฐานไอทีขนาดใหญ่ โดยเฉพาะในแวดวงโทรคมนาคม การวางตลาด OpenStack Services on OpenShift ครั้งนี้จะช่วยให้วิธีการที่องค์กรใช้มีประสิทธิภาพมากขึ้น และสามารถบริหารจัดการฟุตพริ้นท์ของการใช้ OpenStack ได้อย่างต่อเนื่อง

การสนับสนุนที่เชื่อถือได้ พึ่งพาได้ แก่ผู้ให้บริการโทรคมนาคม

เร้ดแฮทนำเสนอบริการที่เชี่ยวชาญกระบวนการใช้งานทุกขั้นตอน เพื่อช่วยผู้ให้บริการโทรคมนาคมบรรลุเป้าหมายอย่างรวดเร็ว ให้การอบรมที่เจาะจงกับทีมงานของแต่ละลูกค้า เพื่อให้เกิดความเชี่ยวชาญทางเทคนิคในองค์กรอย่างรวดเร็ว ไม่ว่าจะเป็นลูกค้าที่เพิ่งเริ่มใช้ OpenStack หรือลูกค้าที่กำลังย้ายจากระบบเดิม ทั้งยังมีบริการให้คำปรึกษาเพื่อช่วยลูกค้าวางแผนและใช้โปรเจกต์ต่าง ๆ บนสภาพแวดล้อมของบริษัทด้านโทรคมนาคม โดยเน้นไปที่การลดความเสี่ยงในการปฏิบัติงานให้เหลือน้อยที่สุด นอกจากนี้ Red Hat Technical Account Managers ยังให้แนวทางและคำแนะนำอย่างต่อเนื่องตลอดไลฟ์ไซเคิลของ Red Hat OpenStack Services on OpenShift ช่วยให้การใช้งานราบรื่นและปลอดภัย

อย่างไรก็ตามลักษณะการดำเนินงานเหล่านี้จะมีการเคลื่อนไหวตลอดเวลาและซับซ้อนมากขึ้นในอีกไม่กี่ปีข้างหน้า เร้ดแฮทจะเดินหน้าผสาน Red Hat OpenStack Platform กับ Red Hat OpenShift เพิ่มเติมเพื่อช่วยให้ผู้ให้บริการโทรคมนาคมแก้ปัญหาที่พบในปัจจุบัน และเตรียมพร้อมใช้ประโยชน์จากโอกาสต่าง ๆ ที่เครือข่ายอัจฉริยะที่ใช้ AI จะมีให้ พร้อมกับการใช้งานที่ edge อย่างมีประสิทธิภาพ และขยายขนาดการใช้งานได้ตามต้องการ ทั้งนี้ 94% ของบริษัทโทรคมนาคมที่อยู่ใน Fortune 500 ใช้เร้ดแฮท[3]ซึ่งเป็นการย้ำถึงความสามารถที่ได้รับการพิสูจน์แล้วของเร้ดแฮทในการสนับสนุนและเพิ่มความทันสมัยให้กับเครือข่ายของผู้ให้บริการด้านนี้ Red Hat OpenStack Services on OpenShift ช่วยให้ผู้ให้บริการโทรคมนาคมสามารถขยายบริการใหม่ แอปพลิเคชันใหม่ และมีแหล่งรายได้ใหม่ ๆ เป็นการขับเคลื่อนธุรกิจสู่ 5G และอื่น ๆ ที่ก้าวไกลกว่าที่กำลังจะตามมา

คำกล่าวสนับสนุน

Chris Wright, senior vice president of global engineering and chief technology officer, Red Hat

ความทุ่มเทของเร้ดแฮทที่มีต่อ OpenStack เห็นได้จากการมีส่วนร่วมคืนความรู้สู่คอมมิวนิตี้อย่างกว้างขวางของเราต่อโปรเจกต์นี้ เราเป็นผู้นำในคอมมิวนิตี้ OpenStack และเราเน้นไปที่การมอบโซลูชัน OpenStack ที่ใช้ในระดับองค์กรให้กับลูกค้าของเรา แน่นอนว่าความทุ่มเทนี้ต้องพัฒนาต่อไปตามความต้องการของลูกค้าของเราที่เปลี่ยนแปลงไป และ Red Hat OpenStack Services on OpenShift จะช่วยมอบแพลตฟอร์มแอปพลิเคชันที่ยืดหยุ่นและเป็นหนึ่งเดียวให้กับลูกค้า OpenStack ของเรา”

Takeshi Maehara, deputy general manager, network and cloud platforms, KDDI

“KDDI ใช้ Red Hat OpenStack Platform และ Red Hat OpenShift มาอย่างยาวนาน และเรารู้สึกตื่นเต้นกับการวางตลาดของ Red Hat OpenStack Services on OpenShift ครั้งนี้ โซลูชันเหล่านี้ช่วยให้เราพัฒนาบริการใหม่ ๆ และใช้แอปพลิเคชันใหม่ ๆ ได้อย่างยืดหยุ่นและรวดเร็ว การบูรณาการนี้จะช่วยให้องค์กรต่าง ๆ รวมถึง KDDI สามารถบริหารจัดการ ปรับปรุงระบบและการให้บริการให้ทันสมัยได้จากส่วนกลาง (core) ไปจนถึง edge”

Nilay Rathod, technology automation and services lead, Spark New Zealand

“Spark ยินดีที่เร้ดแฮทพัฒนา Red Hat OpenStack Platform อย่างต่อเนื่อง Red Hat OpenStack Services on OpenShift จะช่วยให้โครงสร้างพื้นฐานโทรคมนาคมของเราให้มีประสิทธิภาพมากขึ้น มีความยืดหยุ่น มีความสามารถในการสเกลและความคล่องตัว ความร่วมมือกับเร้ดแฮทในการขับเคลื่อนนวัตกรรมอย่างต่อเนื่อง ทำให้เรามอบประสิทธิภาพและความเชื่อถือได้ให้กับลูกค้าของเรา และเรากำลังสร้างอนาคตของเครือข่ายไวเรสโมบายของนิวซีแลนด์ไปด้วยกัน”

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

  • The offering is the first to deliver supported, indemnified and open source-licensed IBM Granite LLMs under Red Hat’s flexible and proven enterprise subscription model
  • Adds open source InstructLab model alignment tools to the world’s leading enterprise Linux platform to simplify generative AI model experimentation and alignment tuning
  • Provides a supported, enterprise-ready model runtime environment across AMD, Intel and NVIDIA platforms for fueling AI innovation built on open source

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the launch of Red Hat Enterprise Linux AI (RHEL AI), a foundation model platform that enables users to more seamlessly develop, test and deploy generative AI (GenAI) models. RHEL AI brings together the open source-licensed Granite large language model (LLM) family from IBM Research, InstructLab model alignment tools based on the LAB (Large-scale Alignment for chatBots) methodology and a community-driven approach to model development through the InstructLab project. The entire solution is packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud and is also included as part of OpenShift AI, Red Hat’s hybrid machine learning operations (MLOps) platform, for running models and InstructLab at scale across distributed cluster environments.

The launch of ChatGPT generated tremendous interest in GenAI, with the pace of innovation only accelerating since then. Enterprises have begun moving from early evaluations of GenAI services to building out AI-enabled applications. A rapidly growing ecosystem of open model options has spurred further AI innovation and illustrated that there won’t be “one model to rule them all.” Customers will benefit from an array of choices to address specific requirements, all of which stands to be further accelerated by an open approach to innovation.

Implementing an AI strategy requires more than simply selecting a model; technology organizations need the expertise to tune a given model for their specific use case, as well as deal with the significant costs of AI implementation. The scarcity of data science skills are compounded by substantial financial requirements including:

  • Procuring AI infrastructure or consuming AI services 
  • The complex process of tuning AI models for specific business needs
  • Integrating AI into enterprise applications
  • Managing both the application and model lifecycle.

To truly lower the entry barriers for AI innovation, enterprises need to be able to expand the roster of who can work on AI initiatives while simultaneously getting these costs under control. With InstructLab alignment tools, Granite models and RHEL AI, Red Hat aims to apply the benefits of true open source projects – freely accessible and reusable, transparent and open to contributions – to GenAI in an effort to remove these obstacles.

Building AI in the open with InstructLab

IBM Research created the Large-scale Alignment for chatBots (LAB) technique, an approach for model alignment that uses taxonomy-guided synthetic data generation and a novel multi-phase tuning framework. This approach makes AI model development more open and accessible to all users by reducing reliance on expensive human annotations and proprietary models. Using the LAB method, models can be improved by specifying skills and knowledge attached to a taxonomy, generating synthetic data from that information at scale to influence the model and using the generated data for model training.

After seeing that the LAB method could help significantly improve model performance, IBM and Red Hat decided to launch InstructLab, an open source community built around the LAB method and the open source Granite models from IBM. The InstructLab project aims to put LLM development into the hands of developers by making, building and contributing to an LLM as simple as contributing to any other open source project.

As part of the InstructLab launch, IBM has also released a family of select Granite English language and code models in the open. These models are released under an Apache license with transparency on the datasets used to train these models. The Granite 7B English language model has been integrated into the InstructLab community, where end users can contribute the skills and knowledge to collectively enhance this model, just as they would when contributing to any other open source project. Similar support for Granite code models within InstructLab will be available soon.

Open source AI innovation on a trusted Linux backbone

RHEL AI builds on this open approach to AI innovation, incorporating an enterprise-ready version of the InstructLab project and the Granite language and code models along with the world’s leading enterprise Linux platform to simplify deployment across a hybrid infrastructure environment. This creates a foundation model platform for bringing open source-licensed GenAI models into the enterprise. RHEL AI includes:

  • Open source-licensed Granite language and code models that are supported and indemnified by Red Hat.
  • A supported, lifecycled distribution of InstructLab that provides a scalable, cost-effective solution for enhancing LLM capabilities and making knowledge and skills contributions accessible to a much wider range of users.
  • Optimized bootable model runtime instances with Granite models and InstructLab tooling packages as bootable RHEL images via RHEL image mode, including optimized Pytorch runtime libraries and accelerators for AMD Instinct™ MI300X, Intel and NVIDIA GPUs and NeMo frameworks.
  • Red Hat’s complete enterprise support and lifecycle promise that starts with a trusted enterprise product distribution, 24×7 production support and extended  lifecycle support.

As organizations experiment and tune new AI models on RHEL AI, they have a ready on-ramp for scaling these workflows with Red Hat OpenShift AI, which will include RHEL AI, and where they can leverage OpenShift’s Kubernetes engine to train and serve AI models at scale and OpenShift AI’s integrated MLOps capabilities to manage the model lifecycle.  IBM’s watsonx.ai enterprise studio, which is built on Red Hat OpenShift AI today, will benefit from the inclusion of RHEL AI in OpenShift AI upon availability, bringing additional capabilities for enterprise AI development, data management, model governance and improved price performance.

The cloud is hybrid. So is AI.

For more than 30 years, open source technologies have paired rapid innovation with greatly reduced IT costs and lowered barriers to innovation. Red Hat has been leading this charge for nearly as long, from delivering open enterprise Linux platforms with RHEL in the early 2000s to driving containers and Kubernetes as the foundation for open hybrid cloud and cloud-native computing with Red Hat OpenShift.

This drive continues with Red Hat powering AI/ML strategies across the open hybrid cloud, enabling AI workloads to run where data lives, whether in the datacenter, multiple public clouds or at the edge. More than just the workloads, Red Hat’s vision for AI brings model training and tuning down this same path to better address limitations around data sovereignty, compliance and operational integrity. The consistency delivered by Red Hat’s platforms across these environments, no matter where they run, is crucial in keeping AI innovation flowing.

RHEL AI and the InstructLab community further deliver on this vision, breaking down many of the barriers to experimenting with and building AI models while providing the tools, data and concepts needed to fuel the next wave of intelligent workloads.

Availability

Red Hat Enterprise Linux AI is now available as a developer preview. Building on the GPU infrastructure available on IBM Cloud, which is used to train the Granite models and support InstructLab, IBM Cloud will now be adding support for RHEL AI and OpenShift AI. This integration will allow enterprises to deploy generative AI more easily into their mission critical applications.

Supporting Quotes

Ashesh Badani, senior vice president and chief product officer, Red Hat

“GenAI presents a revolutionary leap forward for enterprises, but only if technology organizations are able to actually deploy and use AI models in a way that matches their specific business needs. RHEL AI and the InstructLab project, coupled with Red Hat OpenShift AI at scale, are designed to lower many of the barriers facing GenAI across the hybrid cloud, from limited data science skills to the sheer resources required, while fueling innovation both in enterprise deployments and in upstream communities.”

Ramine Roane, corporate vice president, AI Group, AMD

“AI is one of the most important shifts in technology in the past 50 years. To help accelerate broader adoption of AI, the models and tools used to build AI applications need to be made accessible to the enterprise. Built on a trusted Linux backbone with open source tooling and open source-licensed models, RHEL AI is one of the platforms that can provide this, and we’re pleased to support Red Hat’s effort in driving AI in the enterprise forward with our AMD technologies including Instinct AI accelerators.”

Jeremy Foster, senior vice President and general manager, Networking – Compute, Cisco

“The AI movement represents a seismic shift for enterprises, and many organizations are grappling with the best path forward. Cisco continues to work closely with Red Hat to advance AI adoption and RHEL AI will accelerate innovation by providing open-source enabled LLM models as part of an enterprise-ready Linux platform.”

Ihab Tarazi, senior vice president and chief technology officer, AI and Compute, Dell Technologies

“Customers are looking to capture the value that generative AI can provide to transform their businesses. Powered by GPU accelerated Dell PowerEdge Servers, RHEL AI combines the open source innovation and transparency of Granite models and the InstructLab project to deliver a foundation model platform that is accessible to a wider range of users and partners.”

Frances Guida, director, Compute Solutions and AI, Hewlett Packard Enterprise

“Hewlett Packard Enterprise has collaborated with Red Hat for two decades to provide industry-leading solutions that combine the HPE Compute platforms with RHEL. An open environment is critical to innovation in fast-growing technology categories like generative AI and we are looking forward to exploring new areas of collaboration with RHEL AI and Red Hat to help HPE customers find success.”

Darío Gil, senior vice president and director, Research, IBM

“Bringing true open source innovation to AI model development and harnessing the power of a broad community will change how enterprises think about their plans for AI adoption and scale. IBM has been a strong supporter of open source, backing influential communities like Linux, Apache, and Eclipse, and our collaboration with Red Hat represents a step forward in our open approach to building safe, responsible, and effective AI. RHEL AI and InstructLab, combined with IBM’s open source Granite family of models, will deliver new value and choice for clients who are looking to build fit for purpose models that address their use cases with their own data while minimizing cost across a diverse hybrid cloud environment.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“Many enterprises are looking to infuse AI into their mission-critical applications. The availability of RHEL AI and OpenShift AI on IBM Cloud will help transform how the community and companies build and leverage generative AI. We are enabling open collaboration, simplifying model customization and providing enterprise-quality supported models and tools for building AI into every application.”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel

“For AI adoption to scale, it needs to be fully open source, where community members contribute and create new applications and use cases.  By incorporating the open source Granite models and the InstructLab project, RHEL AI is poised to bring a significant change in how we interact with, tune and ultimately use AI models in production.”

Kirk Skaugen, president, Lenovo ISG

“Customers deploying AI-driven applications need to be able to test and experiment with potential models on a trusted and familiar but still innovative platform. Lenovo believes the future of AI is hybrid, and we see RHEL AI as a critical pathway for widespread hybrid AI innovation, and through Red Hat OpenShift AI, production scalability. We’re pleased to work with Red Hat in driving this hybrid AI innovation forward through joint testing on our ThinkSystem 8-GPU servers, providing a trusted hardware foundation for powering open source AI.”

Justin Boitano, vice president, Enterprise Products, NVIDIA

“Red Hat and NVIDIA have a long history of close collaboration, and Red Hat Enterprise Linux AI demonstrates our shared focus on bringing full-stack computing and software to the developers and researchers building the next wave of AI technology and applications.”

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

  • เป็นครั้งแรกที่มีการนำ IBM Granite LLMs เครื่องมือโอเพ่นซอร์ส-ไลเซนส์ (open source-licensed) ที่มาพร้อมการสนับสนุนทางเทคโนโลยีและให้การรับรองการใช้คอนเทนต์ต่าง ๆ มาให้ลูกค้าได้ใช้ผ่าน enterprise subscription model ที่ยืดหยุ่นและได้รับการพิสูจน์แล้วของ Red Hat 
  • เสริมด้วยการนำ InstructLab ซึ่งเป็นเครื่องมือ model alignment ที่เป็นโอเพ่นซอร์ส ไปทำงานบน Linux ซึ่งเป็นแพลตฟอร์มสำหรับใช้งานในองค์กรที่มีประสิทธิภาพระดับแนวหน้าของโลก เพื่อลดความซับซ้อนในการทดสอบ generative AI model และการปรับแต่งให้เหมาะสม
  • Red Hat Enterprise Linux AI มอบสภาพแวดล้อมโมเดลรันไทม์ (model runtime) ที่มาพร้อมการสนับสนุนทางเทคโนโลยี และพร้อมใช้งานในองค์กร บนแพลตฟอร์ม AMD, Intel และ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ที่สร้างบนโอเพ่นซอร์ส

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก เปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI) ได้อย่างราบรื่น RHEL AI เป็นที่รวมของโซลูชันทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็ครวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์ และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่าง ๆ และ InstructLab ในระดับความต้องการต่าง ๆ บนสภาพแวดล้อมที่เป็น distributed cluster  

การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมาก และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น

การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลัก ๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่ 

  • การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่าง ๆ
  • กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
  • การผสานรวม AI เข้ากับแอปพลิเคชันต่าง ๆ ขององค์กร
  • การบริหารจัดการแอปพลิเคชันและไลฟ์ไซเคิลของโมเดล

องค์กรต่าง ๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อม กันด้วย Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริง ๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้

สร้าง AI แบบโอเพ่น ด้วย InstructLab

IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส  แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้ โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่าง ๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่าง ๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล

หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่าย ๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่น ๆ

ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่าง ๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่าง ๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่น ๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็ว ๆ นี้

นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้

RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:

  • Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
  • A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่าง ๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
  • อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่าง ๆ ได้ ผ่านแพ็คเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
  • คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม

เมื่อใดที่องค์กรต่าง ๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่าง ๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร

คลาวด์ที่ใช่คือไฮบริด – AI ก็เช่นกัน

เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift 

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป

RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่าง ๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซปต์ต่าง ๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่

ความพร้อมใช้งาน

Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่าง ๆ ใช้ generative AI กับแอปพลิเคชันสำคัญ ๆ ของตนได้ง่ายมากขึ้น

คำกล่าวสนับสนุน

Ashesh Badani, senior vice president and chief product officer, Red Hat กล่าวว่า “GenAI ปฏิวัติองค์กรแบบก้าวกระโดดก็เฉพาะด้านที่องค์กรเทคโนโลยีสามารถปรับใช้และใช้ AI models ได้จริงในลักษณะที่ตรงกับความต้องการเฉพาะของแต่ละธุรกิจเท่านั้น แต่ RHEL AI และ InstructLab project ที่ทำงานร่วมกับ Red Hat OpenShift AI ออกแบบมาเพื่อลดอุปสรรคจำนวนมากที่ต้องเผชิญเมื่อจะนำ GenAI ไปใช้บนไฮบริดคลาวด์ ไม่ว่าจะเป็นทักษะด้านวิทยาศาสตร์ข้อมูลที่มีจำกัด ไปจนถึงทรัพยากรประสิทธิภาพสูงที่จำเป็นต้องใช้ ในขณะเดียวกันก็ช่วยเป็นพลังขับเคลื่อนนวัตกรรมให้กับการใช้งานในองค์กรและอัปสตรีมคอมมิวนิตี้”

Ramine Roane, corporate vice president, AI Group, AMD กล่าวว่า “AI เป็นหนึ่งในความเปลี่ยนแปลงทางเทคโนโลยีที่สำคัญที่สุดในรอบ 50 ปี ทั้งนี้ องค์กรจะต้องเข้าถึงโมเดลและเครื่องมือที่จำเป็นต้องใช้สร้าง AI applications ได้ เพื่อช่วยเร่งการนำ AI ไปใช้ในวงกว้างได้เร็วขึ้น RHEL AI สร้างบน Linux ที่เชื่อถือได้และมาพร้อมเครื่องมือที่เป็นโอเพ่นซอร์ส และ open source-licensed models ทำให้ RHEL AI เป็นหนึ่งในแพลตฟอร์มที่สามารถตอบโจทย์นี้ได้ เรารู้สึกยินดีที่ได้สนับสนุนความทุ่มเทของ Red Hat ในการขับเคลื่อนการใช้ AI ในองค์กร ด้วยเทคโนโลยีของ AMD ที่รวมอยู่ใน Instinct AI accelerators”

Darío Gil, senior vice president and director, Research, IBM กล่าวว่า “การใช้นวัตกรรมโอเพ่นซอร์สกับการพัฒนา AI model และการใช้พลังของคอมมิวนิตี้ที่กว้างใหญ่จะเปลี่ยนวิธีคิดเกี่ยวกับการวางแผนการใช้และสเกล AI ขององค์กรต่าง ๆ IBM เป็นผู้สนับสนุนโอเพ่นซอร์สอย่างแข็งขัน เราให้การสนับสนุนคอมมิวนิตี้ที่แข้มแข็งและมีบทบาทสำคัญต่าง ๆ เช่น Linux, Apache และ Eclipse ความร่วมมือกับ Red Hat นับเป็นก้าวต่อไปของวิถีโอเพ่นของเรา เพื่อสร้างความปลอดภัย ความรับผิดชอบ และสร้าง AI ที่ทรงประสิทธิภาพ เมื่อรวม RHEL AI และ InstructLab เข้ากับโมเดลในตระกูล Granite ของ IBM เราจะมอบคุณค่าและทางเลือกใหม่ให้กับลูกค้าที่กำลังมองหาการสร้างโมเดลที่เหมาะกับจุดประสงค์การใช้งาน ซึ่งตอบโจทย์กับกรณีใช้งานของลูกค้าด้วยดาต้าของลูกค้าเอง ในขณะเดียวกันก็ช่วยลดต้นทุนการใช้สภาพแวดล้อมไฮบริดคลาวด์ที่หลากหลาย”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure กล่าวว่า “องค์กรจำนวนมากต่างมองหาวิธีการนำ AI ไปใช้กับแอปพลิเคชันสำคัญ ๆ ของตน ความพร้อมใช้ของ RHEL AI และ OpenShift AI บน IBM Cloud จะช่วยทรานส์ฟอร์มวิธีการที่คอมมิวนีตี้และบริษัทต่าง ๆ สร้างและใช้ประโยชน์จาก generative AI เรากำลังเปิดให้มีการทำงานร่วมกันแบบโอเพ่น, ทำให้ปรับแต่งโมเดลได้อย่างไม่ยุ่งยาก รวมถึงมอบโมเดลและเครื่องมือคุณภาพระดับองค์กรที่สนับสนุนการนำ AI ไปใช้กับทุกแอปพลิเคชัน”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel กล่าวว่า “การนำ AI ไปใช้ในวงกว้างจะต้องเป็นโอเพ่นซอร์สอย่างสมบูรณ์ ซึ่งสมาชิกของคอมมิวนิตี้มีส่วนร่วมสนับสนุนและสร้างแอปพลิเคชันและกรณีใช้งานใหม่ ๆ การรวมโมเดลโอเพ่นซอร์ส Granite models และ InstructLab project เข้าด้วยกันทำให้ RHEL AI พร้อมนำการเปลี่ยนแปลงวิธีการโต้ตอบ ปรับแต่ง และการใช้ AI models ในการสร้างผลิตภัณฑ์ได้อย่างมีนัยสำคัญ”

Justin Boitano, vice president, Enterprise Products, NVIDIA กล่าวว่า “Red Hat และ NVIDIA ได้ร่วมมือกันอย่างใกล้ชิดมายาวนาน และ Red Hat Enterprise Linux AI แสดงให้เห็นโฟกัสเดียวกันของเราในการนำคอมพิวติ้งและซอฟต์แวร์ให้นักพัฒนาซอฟต์แวร์และนักวิจัยได้ใช้อย่างเต็มรูปแบบ เป็นการสร้างคลื่นลูกใหม่ให้กับเทคโนโลยี AI และแอปพลิเคชันต่าง ๆ”