การประยุกต์ใช้ GenAI อย่างรวดเร็ว ขับเคลื่อนยุคใหม่ของการปรับโฉม แอปพลิเคชันและโครงสร้างพื้นฐานให้ทันสมัย

การประยุกต์ใช้ GenAI อย่างรวดเร็ว ขับเคลื่อนยุคใหม่ของการปรับโฉม แอปพลิเคชันและโครงสร้างพื้นฐานให้ทันสมัย

การประยุกต์ใช้ GenAI อย่างรวดเร็ว ขับเคลื่อนยุคใหม่ของการปรับโฉม แอปพลิเคชันและโครงสร้างพื้นฐานให้ทันสมัย

ผลการศึกษาของนูทานิคซ์ ชี้ GenAI กำลังเปลี่ยนการจัดลำดับความสำคัญด้านต่าง ๆ ขององค์กร โดยความปลอดภัยและความเป็นส่วนตัวขึ้นแท่นเป็นความกังวลลำดับต้น ๆ ขององค์กร

นูทานิคซ์ (NASDAQ: NTNX) ผู้นำด้านไฮบริดมัลติคลาวด์คอมพิวติ้ง ประกาศผลสำรวจและรายงานการวิจัย Enterprise Cloud Index (ECI) ประจำปีครั้งที่เจ็ด ซึ่งเป็นการวัดความก้าวหน้าในการใช้คลาวด์ขององค์กรทั่วโลก รายงานปีนี้เผยให้เห็นถึงการใช้ Generative Artificial Intelligence (GenAI) ลำดับความสำคัญในการลงทุนทางเทคโนโลยี รวมถึงประโยชน์และความท้าทายที่องค์กรต่าง ๆ เผชิญเพื่อตอบโจทย์ความต้องการของเวิร์กโหลดใหม่ ๆ เหล่านี้

การประยุกต์ใช้ GenAI มีความเคลื่อนไหวรวดเร็วอย่างเห็นได้ชัด ผลสำรวจ ECI พบว่าองค์กรที่ใช้กลยุทธ์ GenAI อยู่แล้วนั้นมีเป้าหมายในการใช้งานแตกต่างกันอย่างมีนัยสำคัญ องค์กรส่วนใหญ่มุ่งหวังที่จะใช้ GenAI เพื่อเพิ่มประสิทธิภาพการทำงาน การทำงานอัตโนมัติ และ การสร้างสรรค์นวัตกรรม แต่กลับต้องเผชิญความท้าทายสำคัญด้านความปลอดภัยของข้อมูล การกำกับดูแล และ การปรับปรุงโครงสร้างพื้นฐานไอทีให้ทันสมัย ทั้งนี้ 90% ของผู้ตอบแบบสำรวจคาดว่าการประยุกต์ใช้ GenAI และแอปพลิเคชันสมัยใหม่จะทำให้ต้นทุนด้านไอทีสูงขึ้น อย่างไรก็ตาม 70% ขององค์กรที่ตอบแบบสำรวจคาดว่าจะได้รับผลตอบแทนคืนจากการลงทุน GenAI ในอีก 2-3 ปีข้างหน้า

นายลี แคสเวลล์ รองประธานอาวุโสฝ่ายการตลาดผลิตภัณฑ์และโซลูชัน ของนูทานิคซ์ กล่าวว่า 

“องค์กรจำนวนมากมาถึงจุดเปลี่ยนสำคัญในการประยุกต์ใช้ GenAI ผลสำรวจ ECI ปีนี้เผยแนวโน้มสำคัญที่สอดคล้องกับเสียงสะท้อนจากลูกค้าของนูทานิคซ์ ไม่ว่าจะเป็นความท้าทายในการปรับขนาดเวิร์กโหลด GenAI จากการพัฒนาสู่การใช้งานจริง การกำกับดูแลข้อมูลที่เกิดจากการใช้ GenAI ความเป็นส่วนตัว ความโปร่งใสที่สามารถตรวจสอบได้ และการบูรณาการกับโครงสร้างพื้นฐานด้านไอทีที่มีอยู่เดิม องค์กรจะได้ผลตอบแทนที่ดีจากการใช้ GenAI ก็ต่อเมื่อใช้แนวทางแบบองค์รวม ในการปรับปรุงทั้งแอปพลิเคชันและโครงสร้างพื้นฐานให้ทันสมัย และนำเทคโนโลยีคอนเทนเนอร์มาใช้”  

ผลสำรวจสำคัญจากรายงาน ECI ปีนี้ ประกอบด้วย: 

  • แอปพลิเคชันรูปแบบคอนเทนเนอร์คือมาตรฐานใหม่ด้านโครงสร้างพื้นฐาน: เกือบ 90% ขององค์กรมีการใช้คอนเทนเนอร์กับแอปพลิเคชันบางส่วน และคาดว่าตัวเลขนี้จะเพิ่มขึ้นตามการใช้เวิร์กโหลดแอปฯ ใหม่ ๆ เช่น GenAI ที่เติบโตอย่างรวดเร็ว หรือสรุปง่าย ๆ ก็คือ 94% ของผู้ตอบแบบสำรวจยอมรับว่าองค์กรได้รับประโยชน์จากการใช้คลาวด์เนทีฟ /คอนเทนเนอร์ ซึ่งแนวทางนี้ควรถือเป็นมาตรฐานสูงสุดในการพัฒนาโครงสร้างพื้นฐานและแอปพลิเคชัน เพื่อการเข้าถึงข้อมูลได้อย่างราบรื่นและปลอดภัยทั้งข้อมูลที่อยู่บนไฮบริดและมัลติคลาวด์  
  • การประยุกต์ใช้แอปพลิเคชันที่ใช้ GenAI ดำเนินไปอย่างรวดเร็ว: กว่า 80% ขององค์กรใช้กลยุทธ์ GenAI แล้ว มีเพียง 2% ขององค์กรที่ยอมรับว่ายังไม่ได้เริ่มวางแผนกลยุทธ์ GenAI อย่างไรก็ตามเป้าหมายในการนำไปใช้งานมีความแตกต่างกันอย่างมีนัยสำคัญ องค์กรส่วนใหญ่เชื่อว่าโซลูชัน GenAI จะช่วยยกระดับประสิทธิภาพการทำงาน และประสิทธิผลขององค์กร
    ในขณะเดียวกันกรณีการใช้งาน GenAI จริง ๆ ในปัจจุบันมักใช้กับโซลูชันด้านบริการสนับสนุนช่วยเหลือและการเพิ่มประสบการณ์ให้แก่ลูกค้า แต่ไม่ว่าจะอย่างไร องค์กรต่าง ๆ ล้วนมุ่งมั่นที่จะนำโซลูชัน GenAI ไปประยุกต์ใช้งานด้านความปลอดภัยทางไซเบอร์และการปกป้องข้อมูลในอนาคตอันใกล้นี้ 
  • การใช้ GenAI มีความท้าทายต่อบรรทัดฐานด้านความปลอดภัยและความเป็นส่วนตัวของข้อมูล: 95% ขององค์กรเห็นสอดคล้องกันว่า GenAI กำลังเปลี่ยนแปลงการจัดลำดับความสำคัญขององค์กร โดยองค์กรมีความกังวลด้านความปลอดภัยและความเป็นส่วนตัวของข้อมูลเป็นลำดับต้น ๆ มีองค์กรมากกว่า 90% ให้ความสำคัญกับการรักษาความเป็นส่วนตัวของข้อมูลเมื่อนำ GenAI มาใช้ เห็นได้ชัดว่าองค์กรต่าง ๆ เข้าใจดีว่าความปลอดภัยและความเป็นส่วนตัวของข้อมูลเป็นองค์ประกอบสำคัญต่อความสำเร็จของการใช้ GenAI ที่น่าสนใจคือ 95% ยังเชื่อว่าองค์กรของตนควรมีมาตรการในการรักษาความปลอดภัยให้กับโมเดลและแอปพลิเคชัน GenAI ให้มากขึ้น ทั้งนี้ความปลอดภัยและความเป็นส่วนตัวจะยังคงเป็นความท้าทายสำคัญขององค์กรต่าง ๆ ที่พยายามหาเหตุผลในการใช้โซลูชันใหม่ ๆ อย่าง GenAI และต้องมั่นใจได้ว่าองค์กรของตนสามารถปฎิบัติตามบรรทัดฐานความปลอดภัยเดิม รวมถึงข้อกำหนดใหม่ ๆ ในการกำกับดูแลข้อมูล ความเป็นส่วนตัว และความโปร่งใส 
  • การปรับโครงสร้างพื้นฐานให้ทันสมัย เพื่อรองรับ GenAI ได้ตามต้องการ: การใช้แอปพลิเคชันคลาวด์เนทีฟในระดับองค์กร ต้องการโครงสร้างพื้นฐานที่สามารถรองรับข้อกำหนดต่าง ๆ รวมถึงความปลอดภัย ความถูกต้องของข้อมูล และความยืดหยุ่น แอปพลิเคชัน GenAI ใหม่ ๆ ก็ไม่มีข้อยกเว้นจากกฎนี้ องค์กรเกือบทุกแห่ง (98%) เผชิญความท้าทายเมื่อต้องปรับขนาดเวิร์กโหลด GenAI จากขั้นพัฒนาไปสู่การใช้งานจริง โดยความท้าทายอันดับหนึ่งสำหรับการนี้คือ การบูรณาการ GenAI เข้ากับโครงสร้างพื้นฐานด้านไอทีที่มีอยู่เดิม ส่งผลให้โครงสร้างพื้นฐานด้านไอทีติดอันดับ 1 ด้านการลงทุนเพื่อรองรับการใช้ GenAI
  • การเปลี่ยนแปลงทางเทคโนโลยีและบุคลากร เป็นสิ่งจำเป็นสำหรับการใช้โซลูชัน GenAI: 52% ของผู้ตอบแบบสำรวจ ระบุว่าองค์กรจำเป็นต้องลงทุนในการฝึกอบรมด้านไอทีเพื่อรองรับ GenAI ในทำนองเดียวกัน 48% เชื่อว่าองค์กรจำเป็นต้องจ้างบุคลากรที่มีทักษะด้านไอทีใหม่เพื่อรองรับการใช้ GenAI ปฎิเสธไม่ได้ว่าองค์กรต่าง ๆ เผชิญกับปัญหาการขาดแคลนทักษะและบุคลากรที่มีทักษะด้าน GenAI แต่มีข่าวดีก็คือหลายทีมพร้อมรับมือกับความท้าทายและพร้อมนำความสามารถและทักษะที่เกี่ยวข้องกับ AI มาใช้เป็นส่วนหนึ่งของการทำงานปกติ ผลสำรวจพบว่า 53% ขององค์กรที่ตอบแบบสำรวจเชื่อว่าความก้าวหน้าของ GenAI เป็นโอกาสที่จะพัฒนาตัวเองให้เป็นผู้เชี่ยวชาญด้าน AI

นูทานิคซ์เดินหน้าศึกษาวิจัยสถานการณ์การใช้งานคลาวด์ทั่วโลกต่อเนื่องเป็นปีที่ 7 เพื่อศึกษาสถานการณ์การใช้คลาวด์ในระดับองค์กรทั่วโลก แนวโน้มการใช้งานคอนเทนเนอร์สำหรับแอปพลิเคชัน และการใช้งานแอปพลิเคชัน GenAI โดยมอบหมายให้ Vanson Bourne บริษัทวิจัยจากสหราชอาณาจักร สำรวจความคิดเห็นจากผู้มีอำนาจตัดสินใจด้านไอทีและ DevOps/Platform Engineering กว่า 1,500 คนทั่วโลก ครอบคลุมหลากหลายอุตสาหกรรม ขนาดธุรกิจ และภูมิภาค ทั้งอเมริกาเหนือและใต้ ยุโรป ตะวันออกกลาง แอฟริกา (EMEA) และเอเชียแปซิฟิก-ญี่ปุ่น (APJ)  

ดาวน์โหลด Nutanix Exterprise Cloud Index ฉบับที่ 7 เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับรายงานและผลสำรวจได้ ที่นี่

Modernizing Infrastructure The Key to Unlocking AI Growth for Businesses

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

Modernizing Infrastructure The Key to Unlocking AI Growth for Businesses

It doesn’t take a genius to work out that artificial intelligence (AI) is transforming industries at an unprecedented rate. According to IDC, global spending on AI is expected to reach $632 billion by 2028, with generative AI (GenAI) growing at a remarkable annual rate of 59.2%. Yet, as AI capabilities surge, the infrastructure needed to support them is straining under the weight. And this is having an impact on how quickly organizations can benefit from AI.

AI adoption in Thailand is rapidly increasing in line with other countries globally. The 2024 AI Readiness for Digital Services Survey by Thailand’s Electronic Transactions Development Agency (ETDA) and the National Science and Technology Development Agency (NSTDA) found that more than half of Thai organizations are aware of the need for AI and can identify where they will be deployed. The study figures show that 17.8% have already implemented AI, slightly higher than last year and a majority of organizations (73.3%) plan to implement it. The top three goals for AI adoption by organizations in Thailand are internal management (69.6%), increased work efficiency (59.8%), and creating added value for products or services (56.8%).

GenAI is certainly driving much of the growth but GenAI also requires immense computing power, vast data storage and advanced algorithms. This has a huge impact in terms of energy consumption, costs, sustainability and performance. Traditional infrastructures are ill-suited to support these demands, so any progress has to happen hand-in-hand with infrastructure modernization. Transformations are needed to ensure that any investments in AI are maximized.

Spending on AI infrastructure, which includes hardware such as servers and cloud infrastructure to support AI applications, is substantial but growing at a slower pace than GenAI adoption. AI infrastructure will see a 14.7% compound annual growth rate (CAGR) through 2028 (according to the IDC research), reflecting earlier investments by cloud service providers. AI hardware and Infrastructure-as-a-Service (IaaS) represent about 24% of overall AI spending, underlining its importance in enabling AI capabilities. So, while GenAI is attracting increasing attention, AI infrastructure spending remains critical for supporting broader AI growth and applications.

For businesses eager to implement AI-driven solutions, investing in a robust, scalable, and secure cloud infrastructure is now critical for success – but what does that AI infrastructure look like? What specifically does AI need and how can businesses transform accordingly?

Security and compliance capabilities as standard

AI models process vast amounts of data. Ensuring data security and maintaining compliance with regulatory standards is essential for businesses throughout the entire process of deploying AI solutions. Secure infrastructure that includes encryption, robust access controls, and compliance with global data protection regulations (such as GDPR) will be needed to safeguard both the models themselves and the data they process.

In this regard, AI infrastructure must be designed not only for performance and scalability but also for security. It should be a standard consideration as failing to secure AI applications or the infrastructure supporting them can result in data breaches, regulatory fines, and loss of customer trust. Once trust has gone it is almost impossible to regain.

Cloud-native as a foundation for AI transformation

To meet the growing demands of AI, businesses must adopt cloud-native infrastructure, which includes powerful computing, high-performance network and storage, container and data management systems. Cloud-native infrastructure provides the flexibility and scalability needed to support AI’s increasing computational and storage requirements. Traditional infrastructures struggle to manage the massive data flows and high-performance needs of modern AI applications. Cloud-native architecture, however, allows businesses to rapidly scale their infrastructure to accommodate fluctuating demands, ensuring that they have the computing power necessary for GenAI models and other data-heavy AI processes.

Cloud-native environments not only support the compute-heavy operations required by AI but also provide essential agility. This allows businesses to deploy, manage, and update AI applications more efficiently. Importantly, cloud-native platforms are designed to seamlessly integrate with AI development workflows, which means businesses can innovate faster without being held back by infrastructural limitations.

Scalable, reliable and cost-efficient infrastructure for data management

As AI use cases multiply, the need for scalable and cost-efficient cloud infrastructure for data management and analytics becomes increasingly critical. Scalable Infrastructure as a Service (IaaS) and Platform as a Service (PaaS) offerings guarantee that data can be stored, processed and accessed seamlessly, enabling faster and more accurate model training. Efficient data pipelines, robust storage solutions, and streamlined retrieval systems are crucial for managing these large volumes of data before they can be used for model training. An innovative infrastructure also provides the ability to customise and fine-tune models for specific use cases, improving the quality and relevance of AI applications and simplifying AI model development.

Efficient AI infrastructure not only supports performance but also helps manage costs. By optimising computing resources through distributed systems, containerization, and serverless architectures, businesses can avoid over-spending on cloud or hardware resources. This cost efficiency is vital for scaling GenAI applications without breaking the budget.

Energy efficiency and sustainability increasingly key

As AI workloads increase, so does energy consumption and costs. AI models, particularly GenAI, are power-hungry and this has led to concerns about the environmental impact of AI growth. Businesses are increasingly aware of the need for energy-efficient infrastructure to support their AI initiatives without significantly raising their carbon footprints. Green datacentres, renewable energy sources, and energy-efficient hardware are becoming essential components of AI infrastructure strategies.

By optimising power consumption and investing in sustainable practices, businesses can reduce operational costs while meeting their sustainability goals. As AI adoption accelerates globally, the focus on energy-efficient infrastructure will become a key differentiator for businesses looking to align innovation with corporate social responsibility and a need to manage costs more closely.

So, as AI continues to evolve, businesses must not only address current infrastructure challenges but also anticipate future shifts in the AI landscape. This should include security and regulatory compliance as well as technical and sustainable needs. The convergence of real-time decision-making, augmented working environments and the rising demand for sustainability means that businesses must be proactive in their infrastructure strategies.

The risk of falling behind is real but so is the opportunity to lead in this transformative era of AI. The question is no longer whether to invest in cloud infrastructure modernization but how quickly organizations can make the leap to stay competitive.

Article by Sean Yuan, Vice President of International Business, General Manager of South Pacific & Japan Region, Alibaba Cloud Intelligence

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

เราทุกคนตระหนักว่า AI กำลังเปลี่ยนแปลงทุกวงการอย่างที่ไม่เคยเกิดขึ้นมาก่อน IDC คาดว่าการใช้จ่ายด้าน AI ทั่วโลกจะสูงถึง 632 พันล้านเหรียญสหรัฐฯ ภายในปี 2571 โดย generative AI (GenAI) เติบโตในอัตราที่น่าทึ่งถึง 59.2% ต่อปี อย่างไรก็ตาม ความสามารถที่สูงขึ้นของ AI ทำให้โครงสร้างพื้นฐานที่ต้องใช้รองรับความสามารถเหล่านั้นมีภาระหนัก และส่งผลต่อความรวดเร็วที่องค์กรจะใช้ประโยชน์จาก AI

การใช้ AI ในประเทศไทยกำลังเพิ่มขึ้นอย่างรวดเร็วในทิศทางเดียวกับประเทศอื่น ๆ ทั่วโลก ผลสำรวจความพร้อมในการประยุกต์ใช้AI สำหรับบริการดิจิทัล ปี 2024 โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ร่วมกับสำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สวทช.) พบว่าองค์กรไทยมากกว่าครึ่งขององค์กรที่ตอบแบบสำรวจตระหนักถึงความจำเป็นในการนำ AI มาใช้งานและสามารถระบุว่าจะนำมาใช้ในส่วนใด นอกจากนี้ยังพบว่ามีหน่วยงานที่นำ AI มาใช้แล้ว 17.8% สูงกว่าปีที่ผ่านมาเล็กน้อย; องค์กรส่วนใหญ่ 73.3% มีแผนที่จะนำมาใช้ในอนาคต โดยเป้าหมายสามอันดับแรกของการใช้ AI ขององค์กรไทย คือ เพื่อบริหารจัดการภายในองค์กร (69.6%) เพิ่มประสิทธิภาพการทำงาน (59.8%) และ เพื่อสร้างมูลค่าเพิ่มให้ผลิตภัณฑ์หรือบริการ (56.8%)

GenAI เป็นเทคโนโลยีที่ขับเคลื่อนการเติบโตอย่างมาก แต่ GenAI ต้องการพลังการประมวลผลมหาศาล ต้องการพื้นที่สตอเรจขนาดใหญ่ และอัลกอริธึมที่มีความสามารถระดับสูง ซึ่งส่งผลกระทบต่อการใช้พลังงาน ค่าใช้จ่าย ความยั่งยืน และประสิทธิภาพเป็นอย่างมาก โครงสร้างพื้นฐานแบบเดิมไม่เหมาะที่จะรองรับความต้องการเหล่านี้ ดังนั้นการจะทำกระบวนการใด ๆ จะต้องทำควบคู่กับการปรับโครงสร้างพื้นฐานให้ทันสมัย จะเห็นได้ว่าการเปลี่ยนแปลงด้านต่าง ๆ เป็นสิ่งจำเป็น เพื่อให้มั่นใจว่าจะได้รับประโยชน์สูงสุดจากการลงทุนด้าน AI

การใช้จ่ายด้านโครงสร้างพื้นฐาน AI ซึ่งรวมถึงฮาร์ดแวร์ เช่น เซิร์ฟเวอร์ และโครงสร้างพื้นฐานคลาวด์เพื่อรองรับแอปพลิเคชัน AI ต่าง ๆ นั้น แม้จะมีจำนวนมาก แต่เติบโตช้ากว่าการนำ GenAI มาใช้ โครงสร้างพื้นฐาน AI จะมีอัตราการเติบโตต่อปี (CAGR) ที่ 14.7% จนถึงปี 2571 (จากการวิจัยของ IDC) สะท้อนถึงการลงทุนก่อนหน้านี้ของผู้ให้บริการคลาวด์เซอร์วิส ทั้งนี้ 24% ของการใช้จ่ายด้าน AI ทั้งหมด เป็นการใช้จ่ายด้านฮาร์ดแวร์ AI และ Infrastructure-as-a-Service (IaaS) ดังนั้นฮาร์ดแวร์ AI และ IaaS จึงมีความสำคัญอย่างมากต่อความสามารถด้านต่าง ๆ ของ AI จะเห็นได้ว่าในขณะที่ทุกฝ่ายให้ความสนใจ GenAI มากขึ้น การใช้จ่ายด้านโครงสร้างพื้นฐาน AI ยังคงเป็นสิ่งสำคัญที่จะสนับสนุนการเติบโตของ AI และการใช้แอปพลิเคชัน AI ในวงกว้าง

การลงทุนด้านโครงสร้างพื้นฐานคลาวด์ที่แข็งแกร่ง ปรับขนาดได้ และปลอดภัย เป็นสิ่งสำคัญในปัจจุบันสำหรับธุรกิจที่ต้องการใช้โซลูชันที่เป็น AI อย่างประสบความสำเร็จ แต่โครงสร้างพื้นฐาน AI นั้นมีลักษณะอย่างไร AI ต้องการสิ่งใดเป็นพิเศษ และธุรกิจต่าง ๆ จะสามารถปรับเปลี่ยนให้เป็นไปตามความต้องการเหล่านั้นได้อย่างไร

ความปลอดภัยและการปฏิบัติตามกฎระเบียบ ที่เป็นมาตรฐาน

โมเดล AI ประมวลผลข้อมูลจำนวนมาก ดังนั้นความปลอดภัยของข้อมูลและการรักษากฎระเบียบตามมาตรฐานต่าง ๆ จึงเป็นสิ่งสำคัญที่ธุรกิจต้องมั่นใจว่ามีอยู่ในทุกกระบวนการการใช้โซลูชัน AI โครงสร้างพื้นฐานที่ปลอดภัยที่รวมถึงการเข้ารหัส การควบคุมการเข้าถึงอย่างรัดกุม และปฏิบัติตามกฎระเบียบด้านการปกป้องข้อมูลระดับโลก (เช่น GDPR) เป็นสิ่งจำเป็นที่จะช่วยปกป้องทั้งตัวโมเดลเองและข้อมูลที่โมเดลเหล่านั้นทำการประมวลผล

ดังนั้น การออกแบบโครงสร้างพื้นฐาน AI ต้องไม่เพียงเพื่อประสิทธิภาพและการปรับขนาดได้เท่านั้น แต่ยังต้องมีความปลอดภัยด้วย สิ่งเหล่านี้เป็นคุณสมบัติพื้นฐานที่ควรมีและต้องยึดถือ เพราะความล้มเหลวในการรักษาความปลอดภัยให้กับแอปพลิเคชัน AI หรือโครงสร้างพื้นฐานที่รองรับแอปฯ เหล่านั้น อาจทำให้ข้อมูลถูกละเมิด ต้องเสียค่าปรับจากการไม่ปฏิบัติตามกฎ และสูญเสียความเชื่อมั่นจากลูกค้า ซึ่งเมื่อลูกค้าหมดความไว้วางใจไปแล้ว การจะกลับมาเชื่อมั่นอีกเป็นไปได้ยากมาก

คลาวด์-เนทีฟ คือฐานรากที่รองรับการนำ AI มาใช้

ธุรกิจต้องนำโครงสร้างพื้นฐานคลาวด์-เนทีฟ มาใช้เพื่อตอบสนองความต้องการ AI ที่เพิ่มมากขึ้น โครงสร้างพื้นฐานคลาวด์-เนทีฟ ประกอบด้วยการประมวลผลที่ทรงพลัง เน็ตเวิร์กและสตอเรจที่มีประสิทธิภาพสูง คอนเทนเนอร์และระบบบริหารจัดการข้อมูล ทั้งยังมอบความยืดหยุ่นและการปรับขนาดที่จำเป็นต้องใช้เพื่อรองรับความต้องการด้านการประมวลผลและสตอเรจที่ AI ต้องใช้เพิ่มมากขึ้น

โครงสร้างพื้นฐานแบบเดิมมีความยุ่งยากในการจัดการกระแสข้อมูลจำนวนมาก และไม่รองรับความต้องการประสิทธิภาพสูงในด้านต่าง ๆ ที่แอปพลิเคชัน AI สมัยใหม่ต้องการ คลาวด์-เนทีฟ ช่วยให้ธุรกิจปรับขนาดโครงสร้างพื้นฐานขององค์กรได้อย่างรวดเร็ว เพื่อรับมือกับความต้องการต่าง ๆ ที่เปลี่ยนแปลงตลอดเวลา และทำให้มั่นใจได้ว่าองค์กรมีพลังการประมวลผลที่จำเป็นต้องใช้กับโมเดล GenAI และการใช้ AI ที่ต้องใช้ข้อมูลจำนวนมาก

สภาพแวดล้อมคลาวด์-เนทีฟ ไม่เพียงรองรับการทำงานด้านการประมวลผลที่หนักหน่วงที่ AI ต้องการ แต่ยังมอบความคล่องตัวอย่างมากอีกด้วย ซึ่งช่วยให้ธุรกิจใช้ จัดการ และอัปเดทแอปพลิเคชัน AI ได้อย่างมีประสิทธิภาพมากขึ้น ที่สำคัญคือแพลตฟอร์มคลาวด์-เนทีฟ ยังออกแบบมาเพื่อให้สามารถผสานรวมกับเวิร์กโฟลว์การพัฒนา AI ได้อย่างราบรื่น นั่นหมายความว่า ธุรกิจสามารถสร้างสรรค์สิ่งใหม่ได้เร็วขึ้น โดยไม่ต้องติดอยู่กับข้อจำกัดด้านโครงสร้างพื้นฐาน

โครงสร้างพื้นฐานสำหรับการจัดการข้อมูลที่ปรับขนาดได้ เชื่อถือได้ และคุ้มค่าการลงทุน

เมื่อมีการใช้งาน AI เพิ่มขึ้น ความต้องการโครงสร้างพื้นฐานคลาวด์ที่ปรับขนาดได้และคุ้มค่าการลงทุน เพื่อใช้บริหารจัดการและวิเคราะห์ข้อมูลจึงทวีความสำคัญมากขึ้นตามไปด้วย Infrastructure as a Service (IaaS) และ Platform as a Service (PaaS) ที่ปรับขนาดได้ สามารถรับรองได้ว่าผู้ใช้งานจะสามารถจัดเก็บข้อมูล ประมวลผล และเข้าใช้งานได้อย่างราบรื่น เป็นการช่วยให้เทรนโมเดลได้อย่างรวดเร็วและแม่นยำมากขึ้น นอกจากนี้ไปป์ไลน์ของข้อมูลที่มีประสิทธิภาพ โซลูชันการจัดเก็บที่แข็งแกร่ง และระบบการดึงข้อมูลที่ทรงประสิทธิภาพ เป็นปัจจัยสำคัญในการบริหารจัดการข้อมูลจำนวนมหาศาลเหล่านี้ ก่อนที่จะนำข้อมูลเหล่านั้นไปใช้เทรนโมเดล โครงสร้างพื้นฐานรูปแบบใหม่ ยังมอบความสามารถในการปรับแต่งโมเดลอย่างละเอียดได้อย่างเจาะจงกับการใช้งาน เพิ่มคุณภาพและความเกี่ยวเนื่องกันให้กับแอปพลิเคชัน AI และช่วยให้การพัฒนาโมเดล AI ทำได้ง่ายขึ้น

โครงสร้างพื้นฐาน AI ที่ทรงประสิทธิภาพ ไม่เพียงสนับสนุนให้เกิดประสิทธิผลเท่านั้น แต่ยังช่วยบริหารค่าใช้จ่ายอีกด้วย การเพิ่มประสิทธิภาพให้กับทรัพยากรการประมวลผลผ่านดิสทริบิ้วเต็ดซีสเต็มส์ คอนเทนเนอร์ และสถาปัตยกรรมไร้เซิร์ฟเวอร์ จะช่วยให้ธุรกิจหลีกเลี่ยงการใช้จ่ายด้านทรัพยากร คลาวด์หรือฮาร์ดแวร์มากเกินไป การใช้จ่ายอย่างมีประสิทธิภาพนี้ สำคัญมากต่อการปรับขนาดแอปพลิเคชัน GenAI โดยไม่กระทบต่องบประมาณ

ประสิทธิภาพด้านพลังงาน และความยั่งยืน มีความสำคัญมากขึ้น

การใช้พลังงานและค่าใช้จ่ายเพิ่มขึ้นตามเวิร์กโหลด AI ที่เพิ่มขึ้น โมเดล AI โดยเฉพาะ GenAI ใช้พลังงานมาก ทำให้เกิดความกังวลด้านผลกระทบต่อสิ่งแวดล้อมจากการเติบโตของ AI ธุรกิจต่างตระหนักถึงความจำเป็นที่ต้องใช้โครงสร้างพื้นฐานที่ประหยัดพลังงานมากขึ้น เพื่อรองรับการใช้ AI ขององค์กร โดยไม่เพิ่มการปล่อยก๊าซคาร์บอนมากขึ้นอย่างมีนัยสำคัญ ดาต้าเซ็นเตอร์สีเขียว แหล่งพลังงานหมุนเวียน และฮาร์ดแวร์ประหยัดพลังงาน กำลังกลายเป็นองค์ประกอบสำคัญของกลยุทธ์ด้านโครงสร้างพื้นฐาน AI

การเพิ่มประสิทธิภาพการใช้พลังงานและการลงทุนกับแนวทางด้านความยั่งยืน จะช่วยให้ธุรกิจสามารถลดค่าใช้จ่ายในการดำเนินงาน ไปพร้อม ๆ กับบรรลุเป้าหมายด้านความยั่งยืน ในขณะที่ทั่วโลกใช้ AI มากขึ้น การโฟกัสไปที่โครงสร้างพื้นฐานที่ประหยัดพลังงานจะกลายเป็นความต่างที่สำคัญของธุรกิจที่ต้องการนำนวัตกรรมาปรับใช้ให้สอดคล้องกับความรับผิดชอบต่อสังคมขององค์กร และความต้องการในการจัดการค่าใช้จ่ายอย่างรอบคอบมากขึ้น

AI ยังคงพัฒนาต่อเนื่อง ดังนั้นองค์กรธุรกิจไม่เพียงต้องจัดการความท้าทายด้านโครงสร้างพื้นฐานที่มีในปัจจุบัน แต่ยังต้องคาดการณ์การเปลี่ยนแปลงด้านภูมิทัศน์ของ AI ในอนาคตอีกด้วย ซึ่งควรรวมถึงความปลอดภัยและการปฏิบัติตามกฎระเบียบ ความต้องการด้านเทคนิค และความยั่งยืน การบรรจบกันของการตัดสินใจแบบเรียลไทม์ สภาพแวดล้อมการทำงานที่มีเทคโนโลยีเข้ามาเกี่ยวข้อง (augmented working environments) และความต้องการด้านความยั่งยืนที่เพิ่มขึ้น สื่อความหมายให้เห็นว่าองค์กรธุรกิจจำเป็นต้องดำเนินกลยุทธ์โครงสร้างพื้นฐานแบบเชิงรุก

ความเสี่ยงที่จะถูกทิ้งไว้ข้างหลังนั้นมีจริง แต่โอกาสในการเป็นผู้นำแถวหน้าในยุคการทรานส์ฟอร์มของ AI ก็เกิดขึ้นได้เช่นกัน คำถามไม่ได้อยู่ที่จะลงทุนปรับโครงสร้างพื้นฐานคลาวด์ให้ทันสมัยหรือไม่อีกต่อไป แต่อยู่ที่ว่าองค์กรจะรักษาและเพิ่มความสามารถทางการแข่งขันได้อย่างก้าวกระโดดได้ขนาดไหน

บทความโดยฌอน หยวน รองประธานฝ่ายธุรกิจระหว่างประเทศ ผู้จัดการทั่วไปภูมิภาคแปซิฟิกใต้และญี่ปุ่น Alibaba Cloud Intelligence

Alibaba Cloud Announced the Latest AI Models, Tools and Infrastructure Available to Drive More Efficient Global AI Community

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

Alibaba Cloud Announced the Latest AI Models, Tools and Infrastructure Available to Drive More Efficient Global AI Community

Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, has unveiled an expanded suite of large language models and AI development tools, upgraded infrastructure offerings, and new support programs for global developers at its annual developer summit today. These advancements aim to empower developers worldwide to build innovative AI applications more cost-effectively and drive a thriving global generative AI community.

“Alibaba Cloud is committed to delivering real value to global developers through cutting-edge AI models, enhanced cloud infrastructure, and accessible support programs,” said Dongliang Guo, Vice President of International Business, Head of International Products and Solutions, Alibaba Cloud Intelligence. “Together, we aim to spark more AI-driven innovations, benefiting startups, enterprises, and industries altogether across the globe.”

More Foundation Models and Development Tools for Developers

The latest Qwen models, Alibaba Cloud’s proprietary large language model family, including Qwen2.5 series with sizes ranging from 7billion to 72billion parameters, are now accessible via APIs on its generative AI development platform, Model Studio, for global developers to use. Additionally, multimodal AI models including vision understanding models such as Qwen-VL series, visual generation model Wanx2.1 (also known as Tongyi Wanxiang), and audio language model Qwen-Audio are also available for developers to access.

Developers can also leverage Tongyi Lingma, Alibaba Cloud’s proprietary AI coding assistant powered by the Qwen 2.5-coder model. The AI Programmer offers features such as code completion and optimization, debugging assistance, code snippet search and batch unit test generation. It provides developers with an efficient and seamless coding experience, significantly enhancing productivity and creativity.

In addition to a broader range of models, a slew of new AI development tools is also accessible by global developers on Model Studio. These tools include Workflow, which breaks down complex tasks into subtasks to enhance workflow control, and Agent, which supports multi-agent collaboration for planning and execution tasks. Other tools such as RAG (Retrieval-Augmented Generation), which helps enhance the accuracy and reliability of generative AI models with external sources; Batch Reasoning, which generates responses simultaneously with multiple prompt inputs; AutoEval (Automated Model Evaluation), as well as model deployment and application observability services will be available by end of this month.

Upgraded Infrastructure for AI Development

In order to provide robust computing to facilitate AI and other critical workloads, Alibaba Cloud revealed that its 9th Generation Enterprise Elastic Compute Service (ECS) instance will be available in global markets starting April this year. The latest generation of ECS instances has notable performance enhancements compared to its previous iteration, including a 20% increase in computing efficiency. Additionally, by accelerating networks through eRDMA (elastic Remote Direct Memory Access), its performance in supporting high-performance computing, search recommendations, and Redis databases can be further improved by up to 50%.

The cloud pioneer has also announced its innovative Alibaba Cloud Container Compute Service (ACS) is now available for international customers starting from January 2025. Designed for simplified and optimized workload deployment using container technology, the ACS integrates container services with underlying cloud computing resources, significantly reducing costs and technical complexity and enabling developers to focus on innovation rather than infrastructure management.

New GenAI Program to Spark Creativity

To foster innovation, Alibaba Cloud introduced the Alibaba Cloud GenAI Empowerment Program, a dedicated support program for global developers and startups leveraging its Qwen models to build generative AI applications. Participants in the program can gain support including free cloud credits, training workshops, invitation to tech shows and demo days, as well as product co-marketing opportunities. This program is designed to help developers and startups accelerate their generative AI projects while connecting with a broader ecosystem of innovators.

Global Developers and Customers Leveraging Qwen for Cutting-Edge Applications

Axcxept, a Japanese company specializing in AI products such as voice assistants, has developed an open-source, lightweight AI model called EZO based on Qwen 2.5 LLM. The EZO model outperforms state-of-the-art (SOTA) models in areas such as coding, information extraction, math, reasoning, roleplay, and writing in Japanese. With low latency and robust performance, EZO is tailored to serve industries such as healthcare and public institutions in Japan, ensuring secure and efficient AI applications.

“Qwen 2.5 has significantly enhanced its ability to process Japanese, giving it a competitive edge over other models. With Axcxept’s proprietary training process, we have developed a Japanese LLM that delivers unmatched accuracy,” said Kazuya Hodatsu, CEO of Axcxept Inc.

OxValue.AI, a deep-tech venture from the University of Oxford, uses Alibaba Cloud’s Qwen-based multimodal AI models for AI-driven company valuation services. By processing and analyzing text and audio data related to financing, R&D, and operations, OxValue achieves precise and cost-efficient valuation assessments tailored to corporate clients.

“Processing diverse data sources is essential for our valuation services. With the support of Alibaba Cloud’s AI models, we’ve significantly improved the quality and efficiency of this process. By collaborating with Alibaba Cloud, we’re able to deliver greater value to our corporate clients,” said Professor Xiaolan Fu, Founder of OxValue.AI.

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

ธุรกิจด้านเทคโนโลยีดิจิทัลและหน่วยงานหลักด้านอินเทลลิเจนซ์ของอาลีบาบา กรุ๊ป เปิดตัวชุดโมเดลภาษาขนาดใหญ่และเครื่องมือเพื่อการพัฒนา AI ที่ขยายตัวมากขึ้น พร้อมกับอัปเกรดผลิตภัณฑ์ด้านโครงสร้างพื้นฐาน และโปรแกรมด้านการสนับสนุนช่วยเหลือใหม่ ๆ ให้กับนักพัฒนาซอฟต์แวร์ทั่วโลก ณ งานประชุมสุดยอดประจำปีของบริษัทฯ ที่จัดสำหรับนักพัฒนาซอฟต์แวร์ ความรุดหน้าครั้งนี้ มีเป้าหมายเพื่อเสริมศักยภาพให้นักพัฒนาซอฟต์แวร์ทั่วโลกสามารถสร้างแอปพลิเคชัน AI ใหม่ ๆ ได้อย่างคุ้มค่าใช้จ่ายมากขึ้น และขับเคลื่อนชุมชน generative AI ที่กำลังเฟื่องฟูทั่วโลก

Dongliang Guo, รองประธานฝ่ายธุรกิจระหว่างประเทศ และหัวหน้าฝ่ายผลิตภัณฑ์และโซลูชันที่ให้บริการระดับนานาประเทศ อาลีบาบา คลาวด์ อินเทลลิเจนซ์ กล่าวว่า “อาลีบาบา คลาวด์ มุ่งมั่นให้บริการที่มีคุณประโยชน์อย่างแท้จริงให้กับนักพัฒนาซอฟต์แวร์ทั่วโลกด้วยโมเดล AI ที่ล้ำสมัย ด้วยโครงสร้างพื้นฐาน คลาวด์ที่ปรับให้ทันสมัย และโปรแกรมการสนับสนุนช่วยเหลือที่เข้าถึงได้ในวงกว้าง เรามุ่งมั่นจุดประกายด้านนวัตกรรมที่ใช้ AI ให้มากขึ้น เพื่อประโยชน์ต่อสตาร์ทอัพ องค์กร และอุตสาหกรรมต่าง ๆ ทั่วโลก”

เพิ่มโมเดลพื้นฐานและเครื่องมือที่ใช้ในการพัฒนาซอฟต์แวร์ให้กับนักพัฒนาซอฟต์แวร์

โมเดลล่าสุดของ Qwen ซึ่งเป็นตระกูลโมเดลภาษาขนาดใหญ่ที่อาลีบาบา คลาวด์ เป็นเจ้าของ ประกอบด้วย ซีรีส์ Qwen2.5 ที่มีขนาดตั้งแต่ 7 พันล้าน ถึง 72 พันล้านพารามิเตอร์ ปัจจุบันสามารถเข้าใช้ผ่าน API ต่าง ๆ บน Model Studio ซึ่งเป็นแพลตฟอร์มสำหรับการพัฒนา generative AI ที่นักพัฒนาซอฟต์แวร์ทั่วโลกเข้าใช้งานได้ นอกจากนี้ multimodal AI model ต่าง ๆ เช่น โมเดลการทำความเข้าใจการมองเห็น เช่น ซีรีส์ Qwen-VL, โมเดลการสร้างภาพ Wanx2.1 (หรือที่รู้จักกันในชื่อ Tongyi Wanxiang) และโมเดลด้านภาษาเสียง Qwen-Audio ก็พร้อมให้นักพัฒนาซอฟต์แวร์เข้าใช้งานได้เช่นกัน

นักพัฒนาซอฟต์แวร์ยังสามารถใช้ Tongyi Lingma ซึ่งเป็นผู้ช่วยเขียนโค้ด AI ที่อาลีบาบา คลาวด์ เป็นเจ้าของ และมี Qwen 2.5-coder model เป็นเทคโนโลยีที่สนับสนุนเบื้องหลัง โดย AI Programmer นำเสนอฟีเจอร์ต่าง ๆ เช่น การเขียนโค้ดให้สมบูรณ์ และ การปรับให้เหมาะสม, การช่วยเหลือในการแก้ไขจุดบกพร่อง, การค้นหาส่วนย่อยของโค้ด และการสร้างการทดสอบแบตช์ ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์มีประสบการณ์ในการเขียนโค้ดได้อย่างมีประสิทธิภาพและราบรื่น เป็นการเพิ่มประสิทธิภาพการทำงานและความคิดสร้างสรรค์ได้อย่างมาก

นอกจากจะมีโมเดลหลากหลายมากขึ้นแล้ว นักพัฒนาซอฟต์แวร์ทั่วโลกยังสามารถเข้าใช้เครื่องมือใหม่ ๆ สำหรับพัฒนา AI ซึ่งมีอยู่จำนวนมากบน Model Studio เครื่องมือเหล่านี้รวมถึง Workflow ซึ่งแบ่งงานที่ซับซ้อนออกเป็นส่วนย่อย ๆ เพื่อให้สามารถควบคุมเวิร์กโฟลว์ได้ดีขึ้น และ Agent ที่ช่วยสนับสนุนการทำงานร่วมกันของเอเจนต์หลายตัวเพื่อการวางแผนและการทำงานต่าง ๆ นอกจากนี้ยังมีเครื่องมืออื่น ๆ เช่น RAG (Retrieval-Augmented Generation) ซึ่งช่วยเพิ่มประสิทธิภาพด้านความละเอียดและเชื่อถือได้ของโมเดล generative AI ด้วยแหล่งทรัพยากรจากภายนอก; Batch Reasoning สร้างการตอบสนองทันทีในเวลาเดียวกับที่มีการป้อนพร้อมท์หลาย ๆ รายการ; และ AutoEval (Automated Model Evaluation) รวมถึงบริการเฝ้าติดตามดูแอปพลิเคชันและการใช้งานโมเดลต่าง ๆ ซึ่งจะพร้อมใช้ภายในสิ้นเดือนมกราคม

โครงสร้างพื้นฐานที่อัปเกรดเพื่อการพัฒนา AI

อาลีบาบา คลาวด์ เปิดเผยว่า อินสแตนซ์ Enterprise Elastic Compute Service (ECS) รุ่นที่ 9 ของบริษัทฯ จะเริ่มวางจำหน่ายในตลาดทั่วโลกตั้งแต่เดือนเมษายนปีนี้ เพื่อให้การประมวลผลมีประสิทธิภาพสูง สามารถรองรับเวิร์กโหลด AI และเวิร์กโหลดสำคัญอื่น ๆ อินสแตนซ์ ECS รุ่นล่าสุดนี้มีประสิทธิภาพเพิ่มขึ้นอย่างมากเมื่อเทียบกับรุ่นก่อนหน้า เช่น มีประสิทธิภาพในการประมวลผลเพิ่มขึ้น 20% นอกจากนี้ การเร่งความเร็วเครือข่ายผ่าน eRDMA (elastic Remote Direct Memory Access) ยังทำให้ประสิทธิภาพในการรองรับการประมวลผลประสิทธิภาพสูง, คำแนะนำในการค้นหา, และฐานข้อมูล Redis เพิ่มมากถึง 50%

บริษัทฯ ยังได้เปิดตัว Alibaba Cloud Container Compute Service (ACS) นวัตกรรมทางเทคโนโลยีของ บริษัทฯ ซึ่งมีวางจำหน่ายให้กับลูกค้านานาประเทศแล้วในเดือนมกราคม 2568 ACS ออกแบบมาเพื่อนำเทคโนโลยีคอนเทนเนอร์มาใช้เพิ่มประสิทธิภาพให้กับการใช้เวิร์กโหลด โดยการผสานรวมบริการคอนเทนเนอร์ต่าง ๆ เข้ากับทรัพยากรการประมวลผลบนคลาวด์ที่สำคัญ ๆ เป็นการลดค่าใช้จ่ายและลดความซับซ้อนทางเทคนิค และช่วยให้นักพัฒนาซอฟต์แวร์โฟกัสไปที่การสร้างนวัตกรรมโดยไม่ต้องกังวลเรื่องการบริหารจัดการโครงสร้างพื้นฐานไอที

โปรแกรม GenAI ใหม่ จุดประกายสร้างสรรค์

อาลีบาบา คลาวด์ ส่งเสริมให้เกิดนวัตกรรมด้วยการเปิดตัว Alibaba Cloud GenAI Empowerment Program ซึ่งเป็นโปรแกรมที่ให้การสนับสนุนเฉพาะเจาะจงไปยังนักพัฒนาซอฟต์แวร์และสตาร์ทอัพทั่วโลกในการนำโมเดล Qwen ของบริษัทฯ ไปใช้สร้างแอปพลิเคชัน generative AI ผู้ร่วมโปรแกรมจะได้รับการสนับสนุนเครดิตคลาวด์ฟรี เข้าร่วมเวิร์กช็อปการฝึกอบรมต่าง ๆ ได้รับคำเชิญเข้าร่วมงานแสดงทางเทคโนโลยีและการสาธิตต่าง ๆ รวมถึงโอกาสในการทำตลาดผลิตภัณฑ์ร่วมกัน โปรแกรมนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาซอฟต์แวร์และสตาร์ทอัพทำโปรเจกต์ด้าน generative AI ได้เร็วขึ้น และมีโอกาสเชื่อมต่อกับระบบนิเวศของนักพัฒนานวัตกรรมที่กว้างขวางมากขึ้น

นักพัฒนาซอฟต์แวร์และลูกค้าทั่วโลกใช้ประโยชน์จาก Qwen เพื่อการสร้างสรรค์และใช้แอปพลิเคชันที่ล้ำสมัย

Axcxept บริษัทในประเทศญี่ปุ่นที่เชี่ยวชาญด้านผลิตภัณฑ์ AI เช่น ผู้ช่วยเสียง ได้พัฒนา EZO ซึ่งเป็นโมเดล lightweight AI ที่เป็นโอเพ่นซอร์ส โดยใช้ Qwen 2.5 LLM ทั้งนี้ โมเดล EZO มีประสิทธิภาพเหนือกว่าโมเดลที่ทันสมัย (state-of-the-art: SOTA) หลายด้าน เช่น การเขียนโค้ด การดึงข้อมูล คณิตศาสตร์ การใช้เหตุผล การแสดงบทบาทสมมติ และการเขียนเป็นภาษาญี่ปุ่น ประสิทธิภาพที่สูงมากและระยะเวลาตอบสนองที่รวดเร็ว ทำให้มีการปรับแต่ง EZO ให้เหมาะสมกับการนำไปใช้ในอุตสาหกรรมต่าง ๆ เช่น อุตสาหกรรมการดูแลสุขภาพ และองค์กรสาธารณะในประเทศญี่ปุ่น เพื่อความมั่นใจว่าแอปพลิเคชันต่าง ๆ มีความปลอดภัยและมีประสิทธิภาพ

Kazuya Hodatsu ซีอีโอของ Axcxept Inc. กล่าวว่า “Qwen 2.5 มีความสามารถในการประมวลผลภาษาญี่ปุ่นเพิ่มขึ้นมาก ทำให้มีความได้เปรียบทางการแข่งขันเหนือโมเดลอื่น ๆ กระบวนการเทรนที่เป็นกรรมสิทธิ์ของ Axcxept ช่วยให้เราพัฒนาโมเดลด้านภาษาญี่ปุ่นขนาดใหญ่ที่มีความแม่นยำอย่างไม่มีใครเทียบได้”

OxValue.AI บริษัทร่วมทุนทางเทคโนโลยีขั้นสูงจากมหาวิทยาลัยออกซ์ฟอร์ด ใช้โมเดล multimodal AI ที่ทำงานบน Qwen ของอาลีบาบา คลาวด์ กับบริการประเมินมูลค่าบริษัทด้วยวิธีการที่ใช้ AI ความสามารถในการประมวลผลและการวิเคราะห์ข้อมูลที่เป็นข้อความและเสียงที่เกี่ยวข้องกับการเงิน การวิจัยและพัฒนา และการดำเนินงานต่าง ๆ ช่วยให้ OxValue สามารถประเมินมูลค่าได้อย่างแม่นยำด้วยค่าใช้จ่ายที่เหมาะสมและด้วยวิธีการที่ปรับให้เหมาะกับลูกค้าองค์กรแต่ละราย

Professor Xiaolan Fu ผู้ก่อตั้ง OxValue.AI กล่าวว่า “การประมวลผลจากแหล่งข้อมูลที่แตกต่างหลากหลาย เป็นสิ่งจำเป็นสำหรับบริการด้านการประเมินราคาของเรา โมเดล AI ของอาลีบาบา คลาวด์ ช่วยเราเพิ่มคุณภาพและประสิทธิภาพของกระบวนการนี้ได้อย่างมาก ความร่วมมือกับอาลีบาบา คลาวด์ ช่วยให้เราสามารถให้บริการลูกค้าองค์กรได้อย่างมีคุณภาพมากขึ้น”