AI และ Open Source เป็นตัวกำหนดอนาคตขององค์กรในปี 2568

AI และ Open Source เป็นตัวกำหนดอนาคตขององค์กรในปี 2568

AI และ Open Source เป็นตัวกำหนดอนาคตขององค์กรในปี 2568

สุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท
บทความโดย สุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท

ตลอดปี 2567 องค์กรธุรกิจต่างได้ทดลองใช้ AI และได้ปลดล็อกศักยภาพของตัวเองด้วยเทคโนโลยีที่เข้ามาสร้างการเปลี่ยนแปลงนี้ ผลสำรวจ McKinsey Global Survey ระบุว่า 65% ของผู้ตอบแบบสอบถามกล่าวว่า องค์กรของพวกเขาใช้ AI เป็นประจำ ซึ่งมีอัตราการนำไปใช้เพิ่มขึ้นเป็นสองเท่าของปี 2566 การที่องค์กรธุรกิจต่างเข้ามามีส่วนร่วมในแลนด์สเคปด้าน AI มากขึ้น ความท้าทายจึงอยู่ที่ธุรกิจแต่ละแห่งจะสร้างความแตกต่างทางการแข่งขันอย่างแท้จริงมากกว่าแค่ตามให้ทันกับความเปลี่ยนแปลงที่เกิดขึ้นได้อย่างไร

องค์กรจะเตรียมรับมือกับสิ่งที่จะเกิดขึ้นอย่างไร

อนาคตของ AI คือโอเพ่นซอร์ส การที่ AI ขยายบทบาทจากการเป็นระบบอัตโนมัติธรรมดาไปเป็นแอปพลิเคชันที่ซับซ้อนมากขึ้น เช่น การวิเคราะห์เชิงคาดการณ์ การสร้างคอนเทนต์ และแม้แต่การตัดสินใจเรื่องต่าง ๆ ทำให้ AI กลายเป็นสิ่งจำเป็นสำหรับองค์กรในทุกอุตสาหกรรม แม้ว่าเส้นทางการใช้ AI ของแต่ละองค์กรจะอยู่ในขั้นตอนที่ต่างกัน แต่โอเพ่นซอร์สช่วยให้ธุรกิจต่าง ๆ รุกสู่ยุคใหม่ของการสร้างสรรค์สิ่งใหม่ ๆ ได้ แนวโน้มสำคัญสามประการที่กำลังจะเกิดขึ้น และจะเป็นปัจจัยขับเคลื่อนการเปลี่ยนแปลงสำคัญขององค์กรต่าง ๆ ในภูมิภาคเอเชียแปซิฟิกในปี 2568 มีดังนี้

#1 เข้าถึงและใช้ข้อได้เปรียบของโอเพ่นซอร์สใน AI

จำนวนโปรเจกต์ open source gen AI เพิ่มขึ้น 98% ตั้งแต่ปี 2566 โดยโปรเจกต์ส่วนใหญ่ริเริ่มมาจากอินเดีย ญี่ปุ่น และสิงคโปร์ สิ่งนี้สะท้อนให้เห็นความสำคัญของการทำงานร่วมกันในการสร้างสรรค์เทคโนโลยีใหม่ ๆ และความสามารถในการเข้าถึงเทคโนโลยีใหม่ ๆ เช่น AI และมีแนวโน้มว่าเราจะได้เห็นความเคลื่อนไหวของ gen AI เพิ่มขึ้นทั่วโลก แพลตฟอร์มและเครื่องมือที่เป็น open source AI รวมถึงโมเดลที่เป็น open source-licensed ทำให้ทุกคนที่เกี่ยวข้องสามารถแบ่งปันความคิดและพัฒนาสิ่งใหม่ ๆ โดยให้ความมั่นใจว่าประโยชน์ต่าง ๆ ของแพลตฟอร์ม เครื่องมือ และโมเดลเหล่านี้ เช่น เฟรมเวิร์กและเครื่องมืออเนกประสงค์ จะไม่จำกัดอยู่เพียงไม่กี่อย่างอีกต่อไป การที่องค์กรทุกขนาดสามารถเข้าใช้ประโยชน์เหล่านี้ได้ จะทำให้การแข่งขันมีความเท่าเทียมกัน แม้แต่องค์กรขนาดเล็กก็สามารถใช้โอเพ่นซอร์สสร้างสรรค์นวัตกรรมในสเกลระดับโลกได้

เมื่อธุรกิจต้องเผชิญกับข้อจำกัดต่าง ๆ เช่น ค่าใช้จ่าย, อำนาจและสิทธิในการควบคุมข้อมูลของตน (data sovereignty), และช่องว่างทางทักษะ โซลูชันโอเพ่นซอร์สสามารถมอบความยืดหยุ่นให้ได้ ผ่านชุมชนโอเพ่นซอร์สที่หลายฝ่ายทำงานร่วมกัน ซึ่งจะช่วยให้ธุรกิจสามารถปรับแต่งโซลูชันให้ตรงตามความต้องการเฉพาะของตน และยังสามารถควบคุมข้อมูลที่ละเอียดอ่อนได้ด้วย นอกจากนี้การทำงานร่วมกันของชุมชนโอเพ่นซอร์สจะทำให้มีผู้ทดสอบผลิตภัณฑ์หรือซอฟต์แวร์เพียงพอที่จะสามารถตรวจพบและแก้ไขข้อบกพร่องได้อย่างรวดเร็ว ช่วยให้ธุรกิจเกิดความเชื่อมั่นในผลลัพธ์ในการใช้ AI มากขึ้น

#2 ไฮบริดคลาวด์เป็นตัวเลือกที่ตั้งเป็นค่าเริ่มต้น

โอเพ่นไฮบริดคลาวด์ ไม่ใช่สิ่งที่เอาไว้ค่อยใช้อีกต่อไป แต่ต้องตั้งเป็นค่าเริ่มต้น ธุรกิจในเอเชียแปซิฟิกควรพิจารณาความสำคัญสามลำดับแรกเพื่อให้ประสบความสำเร็จในยุคที่ลูกค้าเป็นฝ่ายขับเคลื่อน คือ ความเร็ว ความยืดหยุ่น และนวัตกรรม การนำ AI ไปใช้ในการดำเนินธุรกิจในแต่ละวันได้อย่างไม่ยุ่งยาก เป็นสิ่งสำคัญที่จะบรรลุเป้าหมายเหล่านี้ ทั้งยังช่วยให้การดำเนินงานของแต่ละทีมเป็นไปในทิศทางเดียวกัน และรันเวิร์กโหลดได้อย่างยืดหยุ่น ณ สภาพแวดล้อมใดก็ได้ เป็นการสร้างความมั่นใจว่าธุรกิจจะสามารถคงความคล่องตัวและปรับตัวได้

ในประเทศสิงคโปร์ เราพบว่าอุตสาหกรรมบริการทางการเงินเป็นผู้นำในเรื่องนี้ โดยธนาคารทั้งในระดับท้องถิ่นและภูมิภาคใช้ประโยชน์จากไฮบริดคลาวด์กับเวิร์กโหลด AI ทั้งนี้ สิงคโปร์กำลังเป็นจุดเริ่มต้นของธุรกิจที่ขับเคลื่อนด้วย AI ในภูมิภาคเอเชียตะวันออกเฉียงใต้และมีการลงทุนด้าน AI เติบโตขึ้น[2] การจะใช้ประโยชน์จากความล้ำหน้าเหล่านี้อย่างเต็มประสิทธิภาพได้นั้น องค์กรในเอเชียแปซิฟิกจะต้องร่วมมือกับผู้ให้บริการที่เชื่อถือได้ที่นำเสนอความเชี่ยวชาญและโครงสร้างพื้นฐานที่จะช่วยให้เดินหน้าอย่างก้าวกระโดดโดยไม่จำเป็นต้องขยายขนาดการทำงานให้มาก

#3 วางแผนกลยุทธ์ AI เพื่อการเติบโตอย่างยั่งยืน

ChatGPT เป็นสิ่งที่ทำให้ gen AI โดดเด่นและได้รับการรับรู้ในวงกว้าง พลิกโฉมแนวทางที่ธุรกิจใช้เวิร์กโฟลว์ต่าง ๆ และขับเคลื่อนประสิทธิภาพในเวลาที่เกิดความไม่แน่นอน เราอาจเริ่มเห็นองค์กรบางแห่งยึดติดกับผลตอบแทนแบบทันทีจากการใช้ AI ขับเคลื่อนการเปลี่ยนแปลงมากเกินไปและก่อนเวลาอันควร อย่างไรก็ตาม เพื่อปลดล็อกศักยภาพสูงสุดของ AI อย่างแท้จริง องค์กรจำเป็นต้องมีมุมมองในระยะยาว

AI Readiness Barometer ซึ่งเป็นการศึกษาแลนด์สเคปของ AI ดำเนินการโดย Ecosystm ในนาม IBM[3] ได้ทำการประเมินความพร้อมของ AI ตามเกณฑ์สำคัญสี่ประการ คือ วัฒนธรรมและความเป็นผู้นำ, ทักษะและบุคลากร, โครงสร้าง-กระบวนการ-กลยุทธ์พื้นฐานที่ใช้บริหารจัดการและใช้ประโยชน์ข้อมูล, และกรอบการกำกับดูแล แม้ว่าองค์กรในอาเซียนที่ตอบแบบสำรวจจะยกให้ AI มีความสำคัญทางธุรกิจเป็นลำดับต้น ๆ แต่ส่วนใหญ่ยังไม่มีความพร้อม รวมถึงขาดความเชี่ยวชาญ AI ขั้นสูงและแมชชีนเลิร์นนิ่งที่จำเป็นเพื่อใช้ประโยชน์อย่างเต็มศักยภาพ มีผู้ตอบแบบสำรวจเพียง 17% ที่กล่าวว่าองค์กรของตนมีความเชี่ยวชาญอย่างมากและมีทีม data science เฉพาะทาง องค์กรส่วนใหญ่ยังคงขาดทักษะที่เกี่ยวข้องกับ AI และยังไม่เห็นว่าการกำกับดูแลและการปฏิบัติตามข้อกำหนด้านข้อมูลมีความสำคัญ ซึ่งอาจทำให้องค์กรเหล่านี้ต้องเผชิญกับความเสี่ยงด้านกฎระเบียบ

การที่จะใช้ AI ได้อย่างสมบูรณ์แบบนั้น องค์กรต้องใช้แนวทางเชิงกลยุทธ์ที่ต้องให้เวลามากขึ้น โดยเฉพาะในเรื่องซับซ้อนที่ AI สามารถขับเคลื่อนคุณประโยชน์ให้ได้อย่างมาก นอกจากการลงทุนด้านข้อมูลองค์กรและเทคโนโลยี เพื่อเพิ่มความพร้อมของข้อมูลแล้ว องค์กรจำเป็นต้องเตรียมพร้อมทุกระดับ ซึ่งเป็นเรื่องเกี่ยวข้องกับการส่งเสริมวัฒนธรรมแห่งนวัตกรรม, ยกระดับทักษะของบุคลากรให้เปิดรับเทคโนโลยีใหม่ ๆ, และปรับกระบวนการระยะยาวต่าง ๆ ให้สอดคล้องกับเป้าหมายกลยุทธ์ทางธุรกิจ

สิ่งที่จะเกิดขึ้นในปี 2568

เราจะยังเห็น AI พัฒนาไปในบทบาทที่เป็นรากฐานสำคัญของการสร้างสรรค์สิ่งใหม่อย่างต่อเนื่อง การบูรณาการระหว่าง AI และ โอเพ่นเซอร์ที่ลุ่มลึกและแน่นแฟ้นมากขึ้น จะเป็นตัวกำหนดอนาคตของเทคโนโลยี ซึ่งไม่เพียงหมายถึงการเข้าถึงเทคโนโลยีใหม่ ๆ เท่านั้น แต่ยังเพิ่มความสามารถในการปรับตัวและเพิ่มประสิทธิภาพให้กับโซลูชันที่ใช้ในองค์กรในทุกอุตสาหกรรม ทั้งนี้ หัวใจสำคัญของความก้าวหน้าเหล่านี้อยู่ที่ข้อมูลซึ่งเป็นเสาหลักของข้อมูลเชิงลึกที่มีคุณประโยชน์และเชื่อถือได้ เราจะได้เห็นองค์กรต่าง ๆ ให้ความสำคัญกับที่มาของข้อมูลมากขึ้น ทั้งภาพรวมของต้นทางที่เกิดข้อมูล ความสมบูรณ์ และความถูกต้องของข้อมูลขององค์กร และสร้างความไว้วางใจสูงขึ้นมากในโลกที่ขับเคลื่อนด้วย AI มากขึ้นเรื่อย ๆ

เราก้าวสู่ปี 2568 ปีที่เทรนด์ที่เกี่ยวเนื่องกันเหล่านี้จะเป็นตัวกำหนดแลนด์สเคป AI ที่สมบูรณ์มากขึ้น เป็นการปูทางให้กับอนาคตที่ธุรกิจทุกขนาดสามารถปลดล็อกศักยภาพของข้อมูลและเทคโนโลยีได้ด้วยโอเพ่นซอร์ส

5 benefits to an IT automation mindset

5 benefits to an IT automation mindset

5 benefits to an IT automation mindset

Article by Supannee Amnajmongkol, Red Hat Thailand Country Manager

IT automation has become one of the dominant factors that fosters success in the tech industry, and can be a game-changer for anyone looking to streamline their IT operations. 

What is IT automation?

To put it simply, IT automation is all about using software to handle those repetitive administration tasks we usually do manually. Think of it like setting up a bunch of smart routines that take care of things for you, helping your IT environment run smoothly and scale quickly when needed.

What are the advantages of IT automation?

Incorporating automation into your IT process comes with a bunch of benefits. It’s not just about making things more efficient, it’s about enabling a more secure, innovative and flexible work environment. Here are 5 benefits why adopting an IT automation mindset can boost your IT operations in your organization:

  1. Streamlines IT operations to create space for innovation

Automation can take over many complicated IT tasks, reducing the need for constant intervention and clearing up those pesky bottlenecks. This means your systems can run more reliably and your processes will be more efficient. 

By reducing the number of repetitive tasks your IT team has to manage on a daily basis, automation gives them the time and freedom  to think more creatively and take on new, exciting projects. This helps create an environment that fosters continuous improvement and innovation.

  1. Improves accuracy and reduce errors

Automated processes are less likely to be subject to human error, and will therefore be completed to a much higher standard of accuracy than any human-dependent procedure. This means you can expect tasks to be done with fewer costly mistakes.

  1. Accelerates time-to-market

Automation can help increase team productivity and make development and deployment phases faster and more flexible. This helps you get your products and services to market quicker, giving you a competitive advantage.

With automation, you can gather and rapidly analyze large volumes of data, which comes in handy for making smart decisions and strategic planning.

  1. Strengthens security posture and compliance

Automation can help improve your IT security posture by simplifying the implementation of consistent security policies and compliance measures. For customers like Cepsa, automation allows them to save time and focus on the processes that help with compliance and cyber security. Automation helps make systems more resilient and compliant through precise permission management and enforcement of robust security protocols.

  1. Enhances disaster recovery and business continuity

Imagine your main computer crashes or loses all its data. Disaster recovery is about having a plan to quickly restore your IT systems and data after such a major event, while business continuity means that your essential operations are able to keep running smoothly, no matter what happens. Automated routines for backup and recovery make this process a lot simpler and more reliable.

For example, if you experience a catastrophic system failure, automated processes help restore critical data and system files quickly and reliably. This reduces potential downtime and helps your business maintain routine operations even in times of major disruption.

Automating IT tasks isn’t just about making work more efficient—it can also represent a fundamental shift in organizational strategy. Today’s companies – no matter what industry – need to be flexible and sustainable. Automation can help organizations become more innovative and efficient, while also boosting their overall security posture. It can help organizations become more responsive, too—proactively embracing IT automation is one way tech companies can increase their agility and remain ready for future challenges.

No matter the complexity of your environment or where you are on your IT modernization journey, an IT operations automation strategy can help you improve existing processes. With automation, you can save time, increase quality, improve employee satisfaction and reduce costs throughout your organization.

ความเชื่อเรื่องไอทีอัตโนมัติ สร้างประโยชน์อย่างไร

5 benefits to an IT automation mindset

ความเชื่อเรื่องไอทีอัตโนมัติ สร้างประโยชน์อย่างไร

บทความโดย คุณสุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท

ระบบไอทีที่ทำงานโดยอัตโนมัติ เป็นหนึ่งในปัจจัยสำคัญที่สนับสนุนความสำเร็จให้กับอุตสาหกรรมเทคโนโลยี และอาจเป็นตัวเปลี่ยนแกมให้กับองค์กรใดก็ตามที่มองหาการเพิ่มประสิทธิภาพให้กับการดำเนินงานด้านไอที

ระบบไอทีที่ทำงานโดยอัตโนมัติคืออะไร

ระบบไอทีอัตโนมัติ คือ การใช้ซอฟต์แวร์จัดการกับงานธุรการที่ต้องทำซ้ำๆ กัน ด้วยวิธีการแบบแมนนวล เสมือนการตั้งค่าการทำกิจวัตรประจำวันอย่างชาญฉลาดมากมายไว้ช่วยองค์กรจัดการงานต่าง ๆ ช่วยให้สภาพแวดล้อมไอทีขององค์กรทำงานอย่างราบรื่น และสเกลได้อย่างรวดเร็วเมื่อต้องการ

ข้อดีของระบบไอทีอัตโนมัติ

การนำระบบอัตโนมัติมาใช้กับกระบวนการด้านไอทีในองค์กรมีคุณประโยชน์หลายประการ ที่ไม่เพียงเกี่ยวกับการทำให้งานต่าง ๆ มีประสิทธิภาพมากขึ้นเท่านั้น แต่ยังเป็นการสร้างสภาพแวดล้อมการทำงานที่มีความยืดหยุ่น สร้างสรรค์ และปลอดภัย การมีแนวคิดและวิธีคิดในการใช้ไอทีอัตโนมัติ จะช่วยให้ระบบไอทีขององค์กรมีประสิทธิภาพมากขึ้น 5 ประการ ดังนี้

  1. เพิ่มประสิทธิภาพการทำงานด้านไอที เพื่อสร้างพื้นที่ให้กับการสร้างสรรค์สิ่งใหม่ ๆ

ระบบอัตโนมัติสามารถรับหน้าที่ทำงานด้านไอทีที่ซับซ้อนจำนวนมากได้ เป็นการลดความจำเป็นที่ต้องใช้คนที่มีทักษะเฉพาะทาง และขจัดปัญหาคอขวดต่าง ๆ ที่สร้างความยุ่งยากลงได้ ระบบต่าง ๆ จึงสามารถทำงานอย่างเชื่อถือได้มากขึ้น และกระบวนการทำงานต่าง ๆ จะมีประสิทธิภาพมากขึ้น

ระบบอัตโนมัติช่วยให้ทีมไอทีมีอิสระจากงานที่ต้องทำซ้ำ ๆ จำนวนมากในแต่ละวัน และนำเวลาที่มีไปใช้เชิงความคิดสร้างสรรค์มากขึ้น รวมถึงทำโปรเจกต์ที่น่าตื่นเต้นใหม่ ๆ ได้ นับเป็นการช่วยสร้างสภาพแวดล้อมที่ส่งเสริมการเพิ่มประสิทธิภาพและสร้างนวัตกรรมอย่างต่อเนื่อง

  1. เพิ่มความแม่นยำและลดข้อผิดพลาด

กระบวนการอัตโนมัติต่าง ๆ ทำให้เกิดข้อผิดพลาดจากมนุษย์น้อยลงมาก และงานจะเสร็จสิ้นลงด้วยมาตรฐานความแม่นยำที่สูงกว่ากระบวนการที่ต้องอาศัยมนุษย์ องค์กรจึงคาดหวังได้ว่างานต่าง ๆ จะสำเร็จโดยมีความผิดพลาดที่ต้องเสียค่าใช้จ่ายสูงน้อยลง

  1. วางตลาดสินค้า/บริการได้เร็วขึ้น

ระบบอัตโนมัติสามารถช่วยเพิ่มประสิทธิภาพของทีม และทำให้ขั้นตอนต่าง ๆ ในการพัฒนาและการปรับใช้รวดเร็วและยืดหยุ่นมากขึ้น ช่วยให้องค์กรส่งผลิตภัณฑ์และบริการสู่ตลาดได้เร็วขึ้น และมีความได้เปรียบทางการแข่งขัน

ระบบอัตโนมัติ ช่วยให้องค์กรสามารถรวบรวมและวิเคราะห์ข้อมูลปริมาณมากได้อย่างรวดเร็ว ซึ่งพร้อมให้นำมาใช้ประโยชน์ในการตัดสินใจที่ชาญฉลาดและการวางแผนเชิงกลยุทธ์

  1. เสริมมาตรฐานด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบอย่างรัดกุม

ระบบอัตโนมัติสามารถเพิ่มประสิทธิภาพมาตรการรักษาความปลอดภัยด้านไอทีให้กับองค์กร ด้วยการทำให้องค์กรสามารถดำเนินนโยบายด้านความปลอดภัยได้อย่างสอดคล้องกันและปฏิบัติตามมาตรการด้านกฎระเบียบได้อย่างไม่ยุ่งยาก ยกตัวอย่าง Cepsa ที่ใช้ระบบอัตโนมัติ ซึ่งช่วยประหยัดเวลา และเน้นเรื่องกระบวนการต่าง ๆ ที่ช่วยให้ปฏิบัติตามกฎระเบียบและความปลอดภัยไซเบอร์ ระบบอัตโนมัติช่วยให้ระบบต่าง ๆ มีความยืดหยุ่นและอยู่ในกรอบข้อกำหนดมากขึ้น ผ่านการจัดการสิทธิ์อย่างระมัดระวังและเที่ยงตรง รวมถึงการบังคับใช้โปรโตคอลความปลอดภัยที่รัดกุม

  1. เพิ่มประสิทธิภาพการกู้คืนระบบและคงความต่อเนื่องทางธุรกิจ

การกู้คืนระบบเป็นเรื่องเกี่ยวกับการทำแผนกู้คืนระบบไอทีและข้อมูลขององค์กรอย่างรวดเร็ว หลังเกิดเหตุการณ์ที่ไม่คาดคิด เช่น คอมพิวเตอร์หลักขององค์กรล่มหรือข้อมูลทั้งหมดสูญหาย ส่วนความต่อเนื่องทางธุรกิจหมายถึง การที่องค์กรสามารถดำเนินงานสำคัญต่อได้อย่างราบรื่นไม่ว่าจะเกิดเหตุการณ์ใดขึ้น งานที่เกี่ยวกับสำรองและกู้คืนระบบที่เป็นอัตโนมัติ จะช่วยให้กระบวนการนี้ง่ายขึ้นและเชื่อถือได้มากขึ้นอย่างมาก

ตัวอย่าง หากองค์กรประสบปัญหาระบบล้มเหลว กระบวนการอัตโนมัติจะช่วยกู้คืนไฟล์ข้อมูลและระบบอย่างรวดเร็วและเชื่อถือได้ ซึ่งช่วยลดดาวน์ไทม์ที่อาจเกิดขึ้น และช่วยให้ธุรกิจคงไว้ซึ่งความสามารถในการดำเนินงานตามปกติได้แม้จะต้องเผชิญกับช่วงเวลาที่มีการหยุดชะงักครั้งใหญ่

การทำให้งานด้านไอทีเป็นอัตโนมัติ ไม่เพียงเกี่ยวกับเพิ่มประสิทธิภาพการทำงานให้มากขึ้นเท่านั้น แต่ยังแสดงให้เห็นถึงการเปลี่ยนแปลงขั้นพื้นฐานของกลยุทธ์ขององค์กร บริษัทหลายแห่งในปัจจุบัน ไม่ว่าจะอยู่ในอุตสาหกรรมใดก็ตาม ต่างต้องการความยืดหยุ่นและความยั่งยืน ระบบอัตโนมัติสามารถช่วยองค์กรสร้างนวัตกรรมและเพิ่มประสิทธิภาพการทำงานด้านต่าง ๆ มากขึ้น ทั้งยังส่งเสริมมาตรการด้านความปลอดภัยในภาพรวมให้มีประสิทธิภาพมากขึ้นด้วย นอกจากนี้ยังช่วยให้องค์กรตอบสนองได้ดีขึ้น การนำระบบไอทีอัตโนมัติมาใช้ในเชิงรุก เป็นหนทางหนึ่งที่สามารถเพิ่มความคล่องตัว และสร้างความพร้อมรับความท้าทายในอนาคตให้กับบริษัทด้านเทคโนโลยี

กลยุทธ์การทำงานด้านไอทีอัตโนมัติ สามารถช่วยองค์กรปรับปรุงกระบวนการต่าง ๆ ที่มีอยู่ให้มีประสิทธิภาพมากขึ้นได้ ทั้งยังช่วยให้ประหยัดเวลา เพิ่มคุณภาพ เพิ่มความพึงพอใจของพนักงาน และลดค่าใช้จ่ายในองค์กร ไม่ว่าสภาพแวดล้อมการทำงานขององค์กรจะซับซ้อนเพียงใด หรือองค์กรกำลังอยู่ ณ จุดไหนบนเส้นทางการปรับระบบไอทีให้ทันสมัยก็ตาม

Addressing the complexity of AI and edge operationalization

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

Addressing the complexity of AI and edge operationalization

Article by Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge at Red Hat

With today’s artificial intelligence (AI) hype, there can be a lot to digest. Each day brings a new product, new model or a new promise of fault detection, content generation or other AI-powered solution. When it comes to operationalizing an AI/machine learning (ML) model, however, bringing it from training to deployment at the edge is not a trivial task. It involves various roles, processes and tools, as well as a well-structured operations organization and a robust IT platform to host it on.

AI models are now flourishing everywhere but this raises the question: how many of them are operationalized solutions with a robust AI model training, versioning and deployment backend?

How long does operationalization take?

This question is not new. According to a recent Gartner survey, it could take organizations anywhere between 7 – 12 months to operationalize AI/ML from concept to deployment. Technical debt, maintenance costs and system-level risks are just a few things that must be managed throughout the operationalizing process.

Key challenges in AI/ML operationalization

Operationalizing an AI/ML model from a proof-of-concept phase to an industrial solution is full of challenges. This operationalization is very similar to the creation of a high-quality industrial product. Specifically, a chain of trust needs to be created to create a reliable and high quality solution.

EN_Challenges

Data quality

Creating a robust AI model includes having clean and relevant data for training and testing. At its core, the underlying requirement is having a strong data governance, which includes data privacy, security and compliance with all relevant regulations. This can add an enormous amount of complexity and increased infrastructure needs.

Model deployment and integration

Integrating AI/ML models within existing systems and workflows can be technically challenging, as most modern software relies on a continuous integration and continuous deployment (CI/CD) approach. Due to this, it is important to implement pipelines for AI models that include extensive automation and monitoring facilities.

Infrastructure scalability, monitoring and performance

Making sure that AI/ML models are trained in scaling to handle large volumes of data and high-velocity data streams is critical. For that, an architecture which both data scientists and IT operations can monitor and maintain will mean that the platform can be fixed or upgraded when needed. This includes tooling for building and maintaining the necessary infrastructure—including computational resources, data storage and ML platforms—and selecting and integrating the right tools for data processing, model development, deployment and monitoring.

Collaboration and skill gaps

Bridging the gap between data scientists, engineers and business stakeholders is key to fostering alignment and effective collaboration.

The widespread use of specialized tools for different functions can impede this process. Each group often relies on unique tools and terminology, which can create barriers to integration, especially in machine learning operations (MLOps). In an ideal world, models will move smoothly through the process from training through to deployment out to edge devices. It may even be tempting to utilize a single system or platform to achieve this ideal process. To foster more effective collaboration, however, it may be a better approach to create platforms and tools that integrate well with each other, so each team can use their preferred systems over a single solution that may not fit their specific needs. 

Bridging skill gaps is also crucial in this process. Organizations will often have a division of expertise where data scientists, engineers and business stakeholders possess distinct skills and knowledge. This division can cause problems when models are transferred between teams, as the necessary skills and understanding may not be uniformly distributed. Addressing these gaps requires ongoing education and cross-training, so all team members have a basic understanding of each other’s roles and tools. By investing in cross-team skill building and training, model development and deployment processes will be smoother and more effective.

Ethics and bias

Making sure that AI/ML models are fair and do not perpetuate existing biases present in the data involves implementing ethical guidelines and frameworks to govern the use of AI/ML. Then the ethics and bias guidelines must be implemented as metrics in order to create a reliable infrastructure for evaluation and monitoring. The quality of a model has to be evaluated against these metrics and the results be compared to pre-defined references.

Roles involved in the AI/ML lifecycle

Operationalizing AI/ML involves various roles, each contributing critical skills and knowledge. These roles differ from regular IT DevOps ones as they are demanding consumers of IT infrastructures, using specific tools for the AI modeling and facing the same challenges in delivering the AI models like delivering a new software version.

One of the more well-known ones is the data scientist. This term however, is too generic, and the tasks for AI/ML deployment splits to different individuals with specific skills. For the data collection, cleaning, and preparation for model training, it would require a data scientist. 

An MLOps engineer would specialize in the deployment and maintenance of AI models. This role involves specific skills and tools that are not necessarily the same as those used in AI model training. This is generally where a company struggles to operationalize their AI model, when very skilled data scientists are asked to deploy AI models. Deployment specifically is a skill that falls under that of a MLOps engineer, as well as monitoring, scaling models into production and maintaining performance.

Creating an AI/ML model involves an AI engineer, which will train and deploy models running the latest algorithms created by AI scientists. Once the model is created it is pushed into a storage system to be available for containerized application.

App developers integrate AI/ML models into applications, ensuring seamless interaction with other components.

IT operations manage the infrastructure, ensuring necessary computational resources are available and efficiently utilized.

Business leadership sets goals, aligns AI/ML initiatives with business objectives and ensures necessary resources and support exist to continue operationalizing AI/ML solutions.

As you can imagine, coordinating these roles effectively is crucial for managing the complexities and technical debt associated with AI/ML operations. This coordination cannot be done just by defining procedures and abstract workflows. This needs to rely on a common set of tools with specific user interfaces for each role to give a shared but readable view on the AI operations.

How Red Hat can help

Red Hat OpenShift AI provides a flexible, scalable AI/ML platform that helps you create and deliver AI-enabled applications at scale across hybrid cloud environments.

Built using open source technologies, OpenShift AI provides trusted, operationally consistent capabilities for teams to experiment, serve models and deliver innovative apps.

We’ve combined the proven capabilities of OpenShift AI with Red Hat OpenShift to create a single AI application platform that can help bring your teams together and help them collaborate more effectively. Data scientists, engineers and app developers can work together on a single platform that promotes consistency, improves security, and simplifies scalability.

Red Hat Device Edge is a flexible platform that consistently supports different workloads across small, resource-constrained devices at the farthest edge and provides operational consistency across workloads and devices, no matter where they are deployed.

Red Hat Device Edge combines:

  • Red Hat Enterprise Linux

Generate edge-optimized OS images to handle a variety of use cases and workloads with Red Hat’s secure and stable operating system.

  • MicroShift

Red Hat’s build of MicroShift is a lightweight Kubernetes container orchestration solution built from the edge capabilities of Red Hat OpenShift.

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform helps you quickly scale device and application lifecycle management.

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

บทความโดย Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge, เร้ดแฮท

กระแสของปัญญาประดิษฐ์ (AI) ในปัจจุบัน มีเรื่องที่ต้องทำความเข้าใจหลายแง่มุม ในแต่ละวันจะมีผลิตภัณฑ์และบริการใหม่ โมเดลใหม่ การสร้างเนื้อหาหรือโซลูชันที่ขับเคลื่อนด้วย AI อื่น ๆ เกิดขึ้นมากมาย เมื่อพูดถึงการทำงานเกี่ยวกับโมเดล AI/machine learning (ML) ตั้งแต่การเทรนโมเดลไปจนถึงการนำไปใช้งานที่ edge นั้น ไม่ใช่เรื่องง่ายเลย เพราะเป็นเรื่องที่ต้องข้องเกี่ยวกับบทบาทหน้าที่ของทีมงานด้านต่าง ๆ กระบวนการ และเครื่องมือมากมาย รวมถึงองค์กรจะต้องมีโครงสร้างการทำงานที่ดี และโมเดลเหล่านั้นจะต้องโฮสต์อยู่บนแพลตฟอร์มไอทีที่แข็งแกร่ง

โมเดล AI ได้รับความนิยมทุกแห่งหน คำถามคือจะมีโมเดลใดบ้างที่เป็นโซลูชันที่ใช้งานได้จริงที่ได้รับการเทรนมาอย่างดี, มีการทำ versioning และมีวิธีการ deploy ที่เหมาะสมมีประสิทธิภาพ

ต้องใช้เวลานานเท่าใดจึงจะใช้งานได้

คำถามนี้ไม่ใช่เรื่องใหม่ จากการสำรวจล่าสุดของการ์ทเนอร์ องค์กรอาจใช้เวลาในการศึกษาค้นคว้า AI/ML จากแนวคิดไปสู่การใช้งานจริง ประมาณ 7-12 เดือน ซึ่งจะต้องจัดการกับความท้าทายต่าง ๆ เช่น หนี้ทางเทคนิค ค่าบำรุงรักษา และความเสี่ยงของระบบ ฯลฯ ตลอดกระบวนการทำงาน

ความท้าทายใหญ่ ๆ ในการทำงานด้าน AI/ML

การนำโมเดล AI/ML ไปใช้จริง นับจากขั้นตอนการพิสูจน์แนวคิด ไปจนถึงกลายเป็นโซลูชันทางอุตสาหกรรมนั้นเต็มไปด้วยความท้าทาย การทำงานนี้คล้ายกับการสร้างผลิตภัณฑ์อุตสาหกรรมคุณภาพสูง และจำเป็นต้องสร้างซัพพลายเชนที่เชื่อถือได้ เพื่อสร้างโซลูชันที่ไว้ใจได้และมีคุณภาพสูง

TH_Challenges

คุณภาพของข้อมูล

การสร้างโมเดล AI ที่ทรงประสิทธิภาพจะต้องมีข้อมูลที่ถูกต้องเหมาะสมและเกี่ยวข้องกัน เพื่อใช้ในการเทรนและทดสอบ หัวใจหลักที่เป็นสิ่งสำคัญพื้นฐาน คือการกำกับดูแลข้อมูลที่รัดกุม เช่น ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และปฏิบัติตามกฎระเบียบที่เกี่ยวข้องทั้งหมด ซึ่งอาจเพิ่มความซับซ้อนได้อย่างมหาศาล รวมถึงความต้องการด้าน infrastructure จะเพิ่มขึ้นอย่างมาก

การนำไปใช้และการบูรณาการโมเดล

การบูรณาการโมเดล AI/ML เข้ากับระบบและเวิร์กโฟลว์ที่ใช้อยู่ เป็นความท้าทายทางเทคนิค เนื่องจากซอฟต์แวร์รุ่นใหม่ ๆ พึ่งพาแนวทางการพัฒนาซอฟต์แวร์อย่างต่อเนื่อง เช่นการทำ continuous integration และ continuous deployment (CI/CD) ดังนั้นการใช้ไปป์ไลน์สำหรับโมเดล AI ที่มีระบบอัตโนมัติและการตรวจสอบที่ครอบคลุมจึงเป็นเรื่องสำคัญ

Infrastructure ที่สเกลได้ ติดตามตรวจสอบได้ และมีสมรรถนะ

ความมั่นใจว่าโมเดล AI/ML ทั้งหลายได้รับการเทรนให้สามารถปรับขนาดเพื่อรับมือกับข้อมูลปริมาณมากและสตรีมข้อมูลด้วยความเร็วสูงได้นั้นเป็นเรื่องสำคัญมาก ดังนั้นสถาปัตยกรรมหนึ่ง ๆ ที่นักวิทยาศาสตร์ข้อมูล (data scientist) และคนทำงานด้านไอทีสามารถมอนิเตอร์และดูแลได้นั้น จะหมายถึงแพลตฟอร์มที่สามารถแก้ไขหรืออัปเกรดได้เมื่อจำเป็น ซึ่งรวมถึงเครื่องมือที่ใช้ในการสร้างและดูแล infrastructure ที่จำเป็น (เช่น ทรัพยากรที่ใช้ในการคำนวณ พื้นที่จัดเก็บข้อมูล และแพลตฟอร์ม ML ต่าง ๆ) การเลือกและบูรณาการเครื่องมือต่าง ๆ ที่เหมาะสมทั้งกับการประมวลผลข้อมูล การพัฒนาโมเดล การใช้และการมอนิเตอร์

ช่องว่างทางทักษะและการทำงานร่วมกัน

การปิดช่องว่างทางทักษะและการทำงานร่วมกันระหว่าง data scientists วิศวกร (engineers) และผู้มีส่วนได้เสียทางธุรกิจ เป็นเรื่องสำคัญที่จะช่วยส่งเสริมให้เกิดทำงานร่วมกันอย่างมีประสิทธิภาพและเป็นไปในทิศทางเดียวกัน

การใช้เครื่องมือเฉพาะทางหลายอย่างกับฟังก์ชันการทำงานที่ต่างกัน อาจเป็นอุปสรรคต่อแนวทางนี้ได้ ทีมงานแต่ละทีมมักใช้เครื่องมือเฉพาะและศัพท์เฉพาะทาง ซึ่งอาจทำให้เกิดอุปสรรคในการบูรณาการ โดยเฉพาะในการทำงานของแมชชีนเลิร์นนิ่ง (machine learning operations: MLOps) โดยหลักการแล้วโมเดลต่าง ๆ จะถูกจัดการอย่างราบรื่นตลอดกระบวนการทำงาน ตั้งแต่การเทรน การ deploy ไปยังอุปกรณ์ที่ติดตั้งอยู่ที่ edge สิ่งเหล่านี้อาจเป็นสิ่งกระตุ้นให้ใช้ระบบหรือแพลตฟอร์มเดียวเพื่อให้บรรลุหลักการนี้ แต่การสร้างแพลตฟอร์มและเครื่องมือที่ทุกทีมสามารถทำงานร่วมกันได้ดี อาจเป็นวิธีที่ดีกว่าในการส่งเสริมการทำงานร่วมกันให้มีประสิทธิภาพมากขึ้น เพื่อให้ทีมงานแต่ละทีมสามารถใช้ระบบที่ตนต้องการได้ แทนที่จะต้องใช้โซลูชันเดียวที่อาจไม่ตรงตามความต้องการเฉพาะทางของแต่ละทีม 

การแก้ปัญหาช่องว่างทางทักษะยังคงเป็นเรื่องสำคัญในกระบวนการนี้ องค์กรต่าง ๆ มักมีกลุ่มหรือทีมที่เชี่ยวชาญทักษะและความรู้เฉพาะทางที่ต่างกัน รวมกันอยู่ในแผนกเดียวกัน เช่น data scientists, engineers และผู้มีส่วนได้เสียทางธุรกิจ ซึ่งเมื่อมีการถ่ายโอนโมเดลต่าง ๆ  ระหว่างทีมก็อาจทำให้เกิดปัญหาได้ เนื่องจากไม่สามารถเข้าถึงทักษะและความเข้าใจที่จำเป็นต้องใช้ ได้อย่างทั่วถึง

การแก้ไขช่องว่างเหล่านี้ต้องมีการให้ความรู้และการอบรมข้ามสายงานอย่างต่อเนื่อง เพื่อให้สมาชิกทุกคนในทุกทีมมีความเข้าใจพื้นฐานเกี่ยวกับบทบาทและเครื่องมือที่แต่ละทีมใช้งาน การลงทุนในการสร้างและอบรมทักษะต่าง ๆ ข้ามทีม จะช่วยให้กระบวนการพัฒนาและใช้โมเดลเป็นไปอย่างราบรื่นและมีประสิทธิภาพมากขึ้น

จริยธรรมและความไม่เป็นกลาง

องค์กรต้องมั่นใจว่าโมเดล AI/ML มีความเท่าเทียม และขจัดความไม่เป็นกลางของข้อมูลไม่ให้ไปเกี่ยวข้องกับการนำแนวทางและเฟรมเวิร์กด้านจริยธรรมไปใช้ควบคุมการใช้งาน AI/ML จากนั้นต้องนำแนวปฏิบัติด้านจริยธรรมและความไม่เป็นกลางมาใช้เป็นตัวชี้วัด เพื่อสร้าง infrastructure ที่เชื่อถือได้สำหรับใช้ในการประเมินและการติดตาม คุณภาพของโมเดลหนึ่ง ๆ ต้องได้รับการประเมินกับตัวชี้วัดเหล่านี้ และต้องเปรียบเทียบผลการประเมินกับข้อมูลอ้างอิงที่กำหนดไว้ล่วงหน้าแล้ว

บทบาทหน้าที่ต่าง ๆ ที่เกี่ยวข้องกับไลฟ์ไซเคิลของ AI/ML

การใช้ AI/ML เกี่ยวข้องกับคนและทีมงานที่มีบทบาทหน้าที่มากมาย แต่ละบทบาทต้องการทักษะและความรู้อย่างมาก บทบาทเหล่านี้ต่างจากบทบาทของ IT DevOps ทั่ว ๆ ไป เพราะต้องใช้ IT infrastructure จำนวนมาก ต้องใช้เครื่องมือเฉพาะสำหรับการสร้างโมเดล AI และต้องประสบกับความท้าทายในการส่งมอบโมเดล AI เช่นเดียวกับความท้าทายในการส่งมอบซอฟต์แวร์เวอร์ชันใหม่ บทบาทที่เป็นที่รู้จักกันดีคือ data scientist ซึ่งคำว่า data scientist นี้ดูจะกินความหมายกว้างเกินไป งานต่าง ๆ ที่เกี่ยวกับการนำ AI/ML ไปใช้ แบ่งแยกย่อยออกไปและต้องการบุคคลที่มีทักษะเฉพาะทางที่แตกต่างกัน เช่น หากเป็นด้านการรวบรวมข้อมูล การทำข้อมูลให้ถูกต้องเหมาะสม และการเตรียมเทรนโมเดลนั้น ต้องการคนที่มีบทบาทเป็น data scientist

MLOps engineer จะเชี่ยวชาญในการนำโมเดล AI ต่าง ๆ ไปใช้และการดูแลรักษาซึ่งต้องมีทักษะเฉพาะและใช้เครื่องมือเฉพาะทาง ที่ไม่จำเป็นต้องเหมือนกับทักษะและเครื่องมือที่ใช้ในการเทรนโมเดล AI จุดนี้เป็นปัญหาให้กับบริษัทหนึ่ง ๆ ที่เมื่อต้องการใช้โมเดล AI ของตนแต่ไปร้องขอให้ data scientist เป็นผู้ทำหน้าที่ปรับใช้โมเดล AI ซึ่งการปรับใช้โมเดล AI เป็นทักษะเฉพาะทางของ MLOps engineer และยังรวมถึงการมอนิเตอร์ การสเกลโมเดลไปสู่การใช้งานจริง และการดูแลรักษาประสิทธิภาพการทำงานของโมเดล

การสร้างโมเดล AI/ML เกี่ยวข้องกับ AI engineer ซึ่งจะเทรนและใช้โมเดลบนอัลกอริธึมล่าสุดที่สร้างโดย AI scientists เมื่อสร้างเสร็จแล้ว โมเดลจะถูกผลักเข้าไปในระบบสตอเรจ พร้อมให้ containerized application ใช้งาน

นักพัฒนาแอปพลิเคชันผสานรวมโมเดล AI/ML เข้ากับแอปพลิเคชันต่าง ๆ และต้องมั่นใจได้ว่าจะมีการใช้งานร่วมกันกับระบบอื่นได้อย่างไม่ติดขัด

ฝ่ายปฏิบัติการด้านไอทีจะบริหารจัดการ infrastructure เพื่อให้มั่นใจว่าทรัพยากรที่จำเป็นต้องใช้มีพร้อมใช้และนำไปใช้งานอย่างมีประสิทธิภาพ

ผู้นำองค์กรธุรกิจมีบทบาทในการกำหนดเป้าหมาย ผสาน AI/ML ให้สอดคล้องกับวัตถุประสงค์ทางธุรกิจ และทำให้มั่นใจว่า จะมีทรัพยากรและการสนับสนุนช่วยเหลือที่จำเป็นในการใช้โซลูชัน AI/ML ต่าง ๆ ได้อย่างต่อเนื่อง 

การประสานงานบทบาทหน้าที่เหล่านี้อย่างมีประสิทธิภาพเป็นสิ่งสำคัญมากสำหรับการบริหารจัดการความซับซ้อนต่าง ๆ และหนี้ทางเทคนิค ที่เกี่ยวข้องกับการดำเนินงาน AI/ML และไม่อาจทำได้ด้วยการกำหนดขั้นตอนและเวิร์กโฟลว์ที่เป็นนามธรรมเท่านั้น แต่จำเป็นต้องพึ่งพาชุดเครื่องมือมาตรฐานที่มีอินเทอร์เฟซเฉพาะสำหรับผู้ใช้งานแต่ละบทบาทหน้าที่ เพื่อให้มีมุมมองในการทำงานด้าน AI มุมมองเดียวกัน ที่ผู้ทำงานในแต่ละทีมสามารถเข้าใจได้

เร้ดแฮทช่วยได้อย่างไร

Red Hat OpenShift AI มอบแพลตฟอร์ม AI/ML ที่สเกลได้และยืดหยุ่น เพื่อช่วยองค์กรสร้างและสามารถนำแอปพลิเคชันที่ใช้ AI ไปใช้ในวงกว้างในสภาพแวดล้อมไฮบริดคลาวด์ทั้งหมด OpenShift AI สร้างจากเทคโนโลยีโอเพ่นซอร์ส มอบความสามารถต่าง ๆ ที่เชื่อถือได้ และการทำงานที่สอดคล้องกัน ให้กับทีมงานต่าง ๆ ใช้ในการทดลอง ให้บริการโมเดล และให้บริการแอปพลิเคชันรุ่นใหม่ ๆ เร้ดแฮทได้ผสานรวมความสามารถต่าง ๆ ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ของ OpenShift AI เข้ากับ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มแอปพลิเคชัน AI หนึ่งแพลตฟอร์ม ที่สามารถช่วยให้ทีมที่ทำงานต่าง ๆ ขององค์กรมาทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ผู้ที่มีบทบาทหน้าที่ด้านต่าง ๆ เช่น data scientists, engineers และนักพัฒนาแอปพลิเคชันทุกคนสามารถทำงานร่วมกันบนแพลตฟอร์มเดียวกัน ที่มีประสิทธิภาพทั้งความคงเส้นคงวา สอดคล้องกัน มีความปลอดภัยมากขึ้น และสเกลได้ง่าย

Red Hat Device Edge เป็นแพลตฟอร์มที่มีความยืดหยุ่น รองรับเวิร์กโหลดประเภทต่าง ๆ ในทิศทางเดียวกัน ไม่ว่าจะเป็นเวิร์กโหลดที่อยู่บนอุปกรณ์ขนาดเล็กที่มีทรัพยากรจำกัดติดตั้งอยู่ที่ edge และมอบความสม่ำเสมอในการดำเนินงานกับเวิร์กโหลดและอุปกรณ์ทุกประเภท ไม่ว่าจะนำไปใช้งาน ณ ที่ใดก็ตาม ทั้งนี้ Red Hat Device Edge ประกอบด้วย

  • Red Hat Enterprise Linux

สร้าง edge-optimized OS images เพื่อรองรับกรณีใช้งานและเวิร์กโหลดหลากหลาย ด้วย ระบบปฏิบัติการที่มีความปลอดภัยและความเสถียรของเร้ดแฮท

  • MicroShift

MicroShift ของเร้ดแฮท เป็นโซลูชัน lightweight Kubernetes container orchestration ที่สร้างจากความสามารถด้าน edge ของ Red Hat OpenShift

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform ช่วยให้องค์กรสเกลอุปกรณ์ได้อย่างรวดเร็ว และช่วยบริหารจัดการไลฟ์ไซเคิลของแอปพลิเคชัน