อาลีบาบา คลาวด์ เปิด ดาต้าเซ็นเตอร์ แห่งที่สองในประเทศไทย มาพร้อมกลุ่มผลิตภัณฑ์หลากหลายเพื่อรองรับ Generative AI และโซลูชันเฉพาะทางสำหรับแต่ละอุตสาหกรรม

อาลีบาบา คลาวด์ เปิด ดาต้าเซ็นเตอร์ แห่งที่สองในประเทศไทย มาพร้อมกลุ่มผลิตภัณฑ์หลากหลายเพื่อรองรับ Generative AI และโซลูชันเฉพาะทางสำหรับแต่ละอุตสาหกรรม

อาลีบาบา คลาวด์ เปิด ดาต้าเซ็นเตอร์ แห่งที่สองในประเทศไทย มาพร้อมกลุ่มผลิตภัณฑ์หลากหลายเพื่อรองรับ Generative AI และโซลูชันเฉพาะทางสำหรับแต่ละอุตสาหกรรม

เพิ่มประสิทธิภาพการดำเนินงานให้กับลูกค้าในประเทศไทย ในวงการฟินเทค สื่อ เทคโนโลยี และค้าปลีก

อาลีบาบา คลาวด์ ธุรกิจด้านเทคโนโลยีดิจิทัลและหน่วยงานหลักด้านอินเทลลิเจนซ์ของอาลีบาบา กรุ๊ป ประกาศเปิดตัวดาต้าเซ็นเตอร์แห่งที่สองในประเทศไทย มุ่งเพิ่มสมรรถนะในการตอบสนองความต้องการบริการคลาวด์คอมพิวติ้งที่เพิ่มขึ้นในประเทศไทย โดยเฉพาะเพื่อรองรับแอปพลิเคชัน generative AI และสนับสนุนนโยบายของรัฐบาลไทยที่มุ่งส่งเสริมนวัตกรรมดิจิทัลและการพัฒนาเทคโนโลยีที่นำสู่ความยั่งยืน

นาย ฌอน หยวน รองประธานฝ่ายธุรกิจระหว่างประเทศ และ ผู้จัดการทั่วไปประจำประเทศไทย อินโดนีเซีย ญี่ปุ่น ฟิลิปปินส์ และภูมิภาคแปซิฟิกใต้ ของอาลีบาบา คลาวด์ อินเทลลิเจนซ์ กล่าวว่า “ดาต้าเซ็นเตอร์ล่าสุดของเรานี้ เป็นการเสริมแกร่งความมุ่งมั่นของเราในการให้บริการคลาวด์ที่เชื่อถือได้ ปลอดภัย และทรงประสิทธิภาพ ที่ปรับให้ตรงตามความต้องการของธุรกิจในประเทศไทย เราเพิ่มประสิทธิภาพให้กับโครงสร้างพื้นฐานในประเทศเพื่อมุ่งเสริมศักยภาพให้องค์กรในการใช้ศักยภาพของเทคโนโลยีคลาวด์ให้ได้สูงสุด โดยเฉพาะกับแอปพลิเคชัน generative AI”

ดาต้าเซ็นเตอร์ใหม่นี้ ตอกย้ำจุดยืนที่มั่นคงในฐานะผู้ให้บริการคลาวด์ระดับแนวหน้าในเอเชียตะวันออกเฉียงใต้ของอาลีบาบา คลาวด์ ด้วย availability zone ทั้งหมด 86 แห่ง ใน 28 ภูมิภาคทั่วโลก ทั้งนี้ อาลีบาบา คลาวด์ ได้เปิดดาต้าเซ็นเตอร์แห่งแรกในประเทศไทยเมื่อปี 2565

อาลีบาบา คลาวด์ ได้รับการรับรองด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบมากกว่า 140 รายการจากทั่วโลก จึงมั่นใจได้ว่าผลิตภัณฑ์และบริการคลาวด์ที่บริษัทฯ นำเสนอนั้นมีความยืดหยุ่นและมีการป้องกันระดับสูงสุด ดาต้าเซ็นเตอร์สองแห่งนี้จะช่วยสนับสนุนให้อาลีบาบา คลาวด์ สามารถให้บริการผลิตภัณฑ์คลาวด์คอมพิวติ้งที่มีความพร้อมใช้สูง มีความสามารถในการสเกล และยืดหยุ่น ที่มาพร้อมความสามารถในการกู้คืนระบบจากความเสียหายที่ได้รับการเพิ่มประสิทธิภาพแล้ว และปรับให้เหมาะกับภูมิทัศน์ดิจิทัลที่ไดนามิกของประเทศ ในขณะเดียวกันก็ยังคงยึดมั่นในมาตรฐานด้านความปลอดภัยและกฎระเบียบอย่างรัดกุมเข้มงวด

โซลูชันที่เป็นนวัตกรรม เสริมศักยภาพให้ธุรกิจในประเทศ

อาลีบาบา คลาวด์ มุ่งมั่นเพิ่มขีดความสามารถให้องค์กรธุรกิจในประเทศไทย ด้วยการปรับปรุงกลุ่มผลิตภัณฑ์หลากหลาย ซึ่งรวมถึง การประมวลผลแบบยืดหยุ่น (elastic computing), สตอเรจ, ฐานข้อมูล, ความปลอดภัย, ผลิตภัณฑ์ด้านเน็ตเวิร์ก, การวิเคราะห์ข้อมูล และบริการด้าน AI ต่าง ๆ รวมถึงโซลูชันต่าง ๆ ที่สามารถขจัดความท้าทายให้กับอุตสาหกรรมแต่ละประเภท

Cloud-native vector engine ของ AnalyticDB ช่วยให้ธุรกิจไทยโดยเฉพาะฟินเทคและค้าปลีก สร้างโซลูชันที่สามารถดึงข้อมูลองค์ความรู้ที่เกี่ยวข้องได้แบบเรียลไทม์ (retrieval-augmented generation:RAG) ช่วยเพิ่มประสิทธิภาพด้านการปฏิสัมพันธ์กับลูกค้า ผ่านแอปพลิเคชันที่เป็นโมเดลภาษาขนาดใหญ่ (LLM) ที่ได้รับการปรับแต่งให้เหมาะสมกับธุรกิจนั้น ๆ ความสามารถดังกล่าวจะช่วยให้บริษัทต่าง ๆ สร้างฐานความรู้เฉพาะของตน และจัดการข้อมูลทั้งที่มีโครงสร้างและไม่มีโครงสร้างในรูปแบบเวกเตอร์ได้อย่างมีประสิทธิภาพ ส่งผลให้สามารถพัฒนาแชทบอทที่ตรงตามความต้องการของตน และพัฒนาครื่องมือสำหรับการปฏิสัมพันธ์ ที่สามารถถามตอบได้อย่างชาญฉลาด และให้คำแนะนำผลิตภัณฑ์ที่เฉพาะเจาะจงกับความต้องการของแต่ละองค์กรได้ นับเป็นการยกระดับประสบการณ์ลูกค้าได้อย่างมาก

เร็ว ๆ นี้ บริษัทฯ ได้เปิดตัว Alibaba Cloud Container Compute Service (ACS) ที่มีคุณสมบัติในการลดความยุ่งยากและเพิ่มประสิทธิภาพให้กับการใช้เวิร์กโหลดด้วยการใช้ Kubernetes เป็นอินเทอร์เฟซ มาพร้อมสภาพแวดล้อมคอนเทนเนอร์ที่ไม่ต้องพึ่งพาเซิร์ฟเวอร์ ACS ช่วยให้ธุรกิจปรับขนาดการทำงานได้อย่างมีประสิทธิภาพ ด้วยการลดความซับซ้อนที่เกี่ยวกับการจัดการโครงสร้างพื้นฐานให้เหลือน้อยที่สุด เพื่อให้บุคลากรสามารถโฟกัสงานที่เป็นนวัตกรรมได้ ทั้งยังจัดการค่าใช้จ่ายได้อย่างมีประสิทธิภาพ

อาลีบาบา คลาวด์ นำเสนอโซลูชันหลากหลายที่ปรับให้เหมาะเฉพาะกับแต่ละอุตสาหกรรม และความต้องการของลูกค้าที่ใช้ดิจิทัลเป็นพื้นฐานในหลายภาคส่วน เช่น ฟินเทค ค้าปลีก และ บริการสาธารณะ โซลูชันเหล่านี้ประกอบด้วย Workspace Elastic Desktop Service (EDS), โซลูชัน eKYC ต่าง ๆ, สมรรถนะในการพัฒนา SuperApp และโซลูชันด้านความยั่งยืนที่ขับเคลื่อนด้วย AI

ให้การสนับสนุนลูกค้าหลากหลายในประเทศไทย

อาลีบาบา คลาวด์ มีบทบาทสำคัญในการสนับสนุนธุรกิจไทยหลายภาคส่วน ซึ่งรวมถึงเทคโนโลยี สื่อ ค้าปลีก ฟินเทค และภาครัฐ โซลูชันคลาวด์ที่ปรับขนาดได้ ปลอดภัย และเป็นการสร้างสรรค์ใหม่ของอาลีบาบา คลาวด์ ช่วยเสริมให้องค์กรต่าง ๆ สามารถเพิ่มประสิทธิภาพในการทำงาน เร่งการเปลี่ยนผ่านสู่ดิจิทัล และให้บริการลูกค้าของตนได้ดีขึ้น

ทรู ดิจิทัล กรุ๊ป หนึ่งในธุรกิจหลักของบริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) ซึ่งเป็นบริษัทด้านเทคโนโลยีโทรคมนาคมระดับแนวหน้าแห่งหนึ่งของไทย ใช้ประโยชน์จากผลิตภัณฑ์คลาวด์คอมพิวติ้งที่เชื่อถือได้และพิสูจน์ประสิทธิภาพแล้วของอาลีบาบา คลาวด์ โดยเฉพาะเทคโนโลยีด้านฐานข้อมูลและคอนเทนเนอร์ เพื่อเพิ่มประสิทธิภาพ ความเสถียร และเพิ่มความสามารถในการปรับขนาดการทำงานของแพลตฟอร์มด้านพลังงานของบริษัทฯ

เยลล์ กรุ๊ป บริษัทด้านดิจิทัลครีเอทีฟชั้นนำที่มีสำนักงานใหญ่ในประเทศไทย ร่วมมือกับอาลีบาบา คลาวด์ เพื่อเพิ่มประสิทธิภาพให้กับ AI-Deate ซึ่งเป็นแพลตฟอร์มสตอรี่บอร์ดที่ใช้ AI ความร่วมมือนี้มุ่งปฏิวัติเวิร์กโฟลว์เชิงสร้างสรรค์ โดยใช้เทคโนโลยี generative AI เสริมศักยภาพให้กับนักสร้างสรรค์ใน 102 ประเทศ ในการพัฒนาแอปพลิเคชันด้วยเทคโนโลยีใหม่ ๆ พร้อมจัดการความท้าทายในการสร้างสมดุลระหว่างการใช้ชีวิตและการทำงานในยุคดิจิทัล

นายดิศรา อุดมเดช ประธานเจ้าหน้าที่บริหาร เยลล์ กรุ๊ป กล่าวว่า “ความร่วมมือเชิงกลยุทธ์กับอาลีบาบา คลาวด์ ในครั้งนี้ช่วยให้เราใช้ประโยชน์จากความสามารถที่ล้ำหน้าของ AI และเปลี่ยนวิธีที่เราใช้เสริมพลังให้งานครีเอทีฟต่าง ๆ เราจะร่วมกันกำหนดนิยามใหม่ให้กับงานด้านความคิดสร้างสรรค์ทั่วทั้งเอเชียและที่อื่น ๆ”

โคเดียม บริษัทซอฟต์แวร์ชั้นนำในประเทศไทยที่เชี่ยวชาญด้านโซลูชันสำหรับสถานที่ทำงานดิจิทัล ร่วมมือกับอาลีบาบา คลาวด์ เพื่อใช้ประโยชน์จากโครงสร้างพื้นฐานที่ปรับขนาดการใช้งานได้ โดยมุ่งสร้างรากฐานดิจิทัลให้กับธุรกิจต่าง ๆ ในประเทศไทย และเพิ่มประสิทธิภาพระบบนิเวศคลาวด์ในประเทศ ผ่านบริการคลาวด์ที่เข้าถึงได้และสนับสนุนลูกค้าคนไทยอย่างครอบคลุม

นายศิวบุธ อัมพุช ซีอีโอของโคเดียม กล่าวว่า “ความร่วมมือกับอาลีบาบา คลาวด์ ช่วยให้เรามอบโซลูชันที่ทำงานดิจิทัลที่ปรับขนาดได้และยืดหยุ่นให้ลูกค้าของเราได้ โครงสร้างพื้นฐานของอาลีบาบา คลาวด์ ไม่เพียงสนับสนุนการเติบโตของเรา แต่ยังช่วยให้เราสามารถให้บริการลูกค้าธุรกิจไทยที่มีความต้องการอย่างเฉพาะเจาะจงได้อย่างมีประสิทธิภาพ”

ไวท์แชนแนล ผู้ให้บริการโทรทัศน์และ OTT ที่มีชื่อเสียงในประเทศไทย ได้เพิ่มประสิทธิภาพให้กับแพลตฟอร์มวิดีโอออนดีมานด์ ด้วยการใช้บริการสตรีมมิ่งวิดีโอครบวงจรของอาลีบาบา คลาวด์ ซึ่งช่วยให้ไวท์แชนแนลสามารถให้บริการการเล่นวิดีโอที่มีคุณภาพสูงโดยไม่มีการหน่วงเวลา โดยใช้เครือข่าย CDN ระดับโลกและโซลูชันด้านการจัดเก็บข้อมูลที่ปรับขนาดการใช้งานได้ เพื่อจัดการคอนเทนต์ไลบรารีได้อย่างมีประสิทธิภาพ แม้ในช่วงที่มีการรับส่งข้อมูลในปริมาณมากขึ้น

นายชวลิต เอื้อเฟื้อ หัวหน้าฝ่ายไอที ของไวท์แชนแนล กล่าวว่า “การทำงานร่วมกับอาลีบาบา คลาวด์ ได้ช่วยเพิ่มความสามารถของเราในการให้บริการวิดีโอไปยังผู้ชมอย่างราบรื่นเป็นอย่างมาก เทคโนโลยีล้ำสมัยของอาลีบาบา คลาวด์ ช่วยให้เรามั่นใจว่า ผู้ชมของเราจะได้รับคอนเทนต์ที่มีคุณภาพสูงทุกที่ทุกเวลา”

เสริมศักยภาพระบบนิเวศและความสามารถด้านดิจิทัลให้กับประเทศ

อาลีบาบา คลาวด์ ดูแลระบบนิเวศในไทยอย่างเข้มแข็ง ด้วยการร่วมมือกับพันธมิตรในประเทศประมาณ 70 ราย ในจำนวนนี้รวมถึง Cloud HM, Kaopanwa, Softdebut, Thai Data Cloud และ True IDC เพื่อเสริมศักยภาพให้กับการเปลี่ยนผ่านสู่ดิจิทัลของธุรกิจทั่วประเทศไทย

อาลีบาบา คลาวด์ มุ่งมั่นส่งเสริมผู้มีความสามารถด้านดิจิทัล ผ่านความร่วมมือกับมหาวิทยาลัยต่าง ๆ ของไทย เช่น จุฬาลงกรณ์มหาวิทยาลัย มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี มหาวิทยาลัยสงขลานครินทร์ และ มหาวิทยาลัยกรุงเทพ โดยนำเสนอเวิร์กช็อปและหลักสูตรคลาวด์คอมพิวติ้งและ generative AI ที่มีการให้การรับรองเมื่อผ่านหลักสูตร เมื่อปลายปี 2566 อาลีบาบา คลาวด์ ได้เปิดตัว global skills center แห่งแรกที่จุฬาลงกรณ์มหาวิทยาลัย โดยให้บริการหลักสูตรฝึกอบรม บูธแคมป์ การแข่งขันด้าน AI และโปรแกรมพัฒนาความเป็นผู้นำ โดยไม่มีค่าใช้จ่าย โครงการเหล่านี้เป็นส่วนหนึ่งของความพยายามอย่างต่อเนื่องของอาลีบาบา คลาวด์ ในการเพิ่มประสิทธิภาพทรัพยากรทางการศึกษาและส่งเสริมแลนด์สเคปดิจิทัลที่รุ่งเรืองผ่านความร่วมมือกับสถาบันในประเทศต่าง ๆ

Modernizing Infrastructure The Key to Unlocking AI Growth for Businesses

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

Modernizing Infrastructure The Key to Unlocking AI Growth for Businesses

It doesn’t take a genius to work out that artificial intelligence (AI) is transforming industries at an unprecedented rate. According to IDC, global spending on AI is expected to reach $632 billion by 2028, with generative AI (GenAI) growing at a remarkable annual rate of 59.2%. Yet, as AI capabilities surge, the infrastructure needed to support them is straining under the weight. And this is having an impact on how quickly organizations can benefit from AI.

AI adoption in Thailand is rapidly increasing in line with other countries globally. The 2024 AI Readiness for Digital Services Survey by Thailand’s Electronic Transactions Development Agency (ETDA) and the National Science and Technology Development Agency (NSTDA) found that more than half of Thai organizations are aware of the need for AI and can identify where they will be deployed. The study figures show that 17.8% have already implemented AI, slightly higher than last year and a majority of organizations (73.3%) plan to implement it. The top three goals for AI adoption by organizations in Thailand are internal management (69.6%), increased work efficiency (59.8%), and creating added value for products or services (56.8%).

GenAI is certainly driving much of the growth but GenAI also requires immense computing power, vast data storage and advanced algorithms. This has a huge impact in terms of energy consumption, costs, sustainability and performance. Traditional infrastructures are ill-suited to support these demands, so any progress has to happen hand-in-hand with infrastructure modernization. Transformations are needed to ensure that any investments in AI are maximized.

Spending on AI infrastructure, which includes hardware such as servers and cloud infrastructure to support AI applications, is substantial but growing at a slower pace than GenAI adoption. AI infrastructure will see a 14.7% compound annual growth rate (CAGR) through 2028 (according to the IDC research), reflecting earlier investments by cloud service providers. AI hardware and Infrastructure-as-a-Service (IaaS) represent about 24% of overall AI spending, underlining its importance in enabling AI capabilities. So, while GenAI is attracting increasing attention, AI infrastructure spending remains critical for supporting broader AI growth and applications.

For businesses eager to implement AI-driven solutions, investing in a robust, scalable, and secure cloud infrastructure is now critical for success – but what does that AI infrastructure look like? What specifically does AI need and how can businesses transform accordingly?

Security and compliance capabilities as standard

AI models process vast amounts of data. Ensuring data security and maintaining compliance with regulatory standards is essential for businesses throughout the entire process of deploying AI solutions. Secure infrastructure that includes encryption, robust access controls, and compliance with global data protection regulations (such as GDPR) will be needed to safeguard both the models themselves and the data they process.

In this regard, AI infrastructure must be designed not only for performance and scalability but also for security. It should be a standard consideration as failing to secure AI applications or the infrastructure supporting them can result in data breaches, regulatory fines, and loss of customer trust. Once trust has gone it is almost impossible to regain.

Cloud-native as a foundation for AI transformation

To meet the growing demands of AI, businesses must adopt cloud-native infrastructure, which includes powerful computing, high-performance network and storage, container and data management systems. Cloud-native infrastructure provides the flexibility and scalability needed to support AI’s increasing computational and storage requirements. Traditional infrastructures struggle to manage the massive data flows and high-performance needs of modern AI applications. Cloud-native architecture, however, allows businesses to rapidly scale their infrastructure to accommodate fluctuating demands, ensuring that they have the computing power necessary for GenAI models and other data-heavy AI processes.

Cloud-native environments not only support the compute-heavy operations required by AI but also provide essential agility. This allows businesses to deploy, manage, and update AI applications more efficiently. Importantly, cloud-native platforms are designed to seamlessly integrate with AI development workflows, which means businesses can innovate faster without being held back by infrastructural limitations.

Scalable, reliable and cost-efficient infrastructure for data management

As AI use cases multiply, the need for scalable and cost-efficient cloud infrastructure for data management and analytics becomes increasingly critical. Scalable Infrastructure as a Service (IaaS) and Platform as a Service (PaaS) offerings guarantee that data can be stored, processed and accessed seamlessly, enabling faster and more accurate model training. Efficient data pipelines, robust storage solutions, and streamlined retrieval systems are crucial for managing these large volumes of data before they can be used for model training. An innovative infrastructure also provides the ability to customise and fine-tune models for specific use cases, improving the quality and relevance of AI applications and simplifying AI model development.

Efficient AI infrastructure not only supports performance but also helps manage costs. By optimising computing resources through distributed systems, containerization, and serverless architectures, businesses can avoid over-spending on cloud or hardware resources. This cost efficiency is vital for scaling GenAI applications without breaking the budget.

Energy efficiency and sustainability increasingly key

As AI workloads increase, so does energy consumption and costs. AI models, particularly GenAI, are power-hungry and this has led to concerns about the environmental impact of AI growth. Businesses are increasingly aware of the need for energy-efficient infrastructure to support their AI initiatives without significantly raising their carbon footprints. Green datacentres, renewable energy sources, and energy-efficient hardware are becoming essential components of AI infrastructure strategies.

By optimising power consumption and investing in sustainable practices, businesses can reduce operational costs while meeting their sustainability goals. As AI adoption accelerates globally, the focus on energy-efficient infrastructure will become a key differentiator for businesses looking to align innovation with corporate social responsibility and a need to manage costs more closely.

So, as AI continues to evolve, businesses must not only address current infrastructure challenges but also anticipate future shifts in the AI landscape. This should include security and regulatory compliance as well as technical and sustainable needs. The convergence of real-time decision-making, augmented working environments and the rising demand for sustainability means that businesses must be proactive in their infrastructure strategies.

The risk of falling behind is real but so is the opportunity to lead in this transformative era of AI. The question is no longer whether to invest in cloud infrastructure modernization but how quickly organizations can make the leap to stay competitive.

Article by Sean Yuan, Vice President of International Business, General Manager of South Pacific & Japan Region, Alibaba Cloud Intelligence

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

โครงสร้างพื้นฐานไอทีที่ทันสมัย ปลดล็อกให้ธุรกิจใช้ AI ได้เต็มประสิทธิภาพ

เราทุกคนตระหนักว่า AI กำลังเปลี่ยนแปลงทุกวงการอย่างที่ไม่เคยเกิดขึ้นมาก่อน IDC คาดว่าการใช้จ่ายด้าน AI ทั่วโลกจะสูงถึง 632 พันล้านเหรียญสหรัฐฯ ภายในปี 2571 โดย generative AI (GenAI) เติบโตในอัตราที่น่าทึ่งถึง 59.2% ต่อปี อย่างไรก็ตาม ความสามารถที่สูงขึ้นของ AI ทำให้โครงสร้างพื้นฐานที่ต้องใช้รองรับความสามารถเหล่านั้นมีภาระหนัก และส่งผลต่อความรวดเร็วที่องค์กรจะใช้ประโยชน์จาก AI

การใช้ AI ในประเทศไทยกำลังเพิ่มขึ้นอย่างรวดเร็วในทิศทางเดียวกับประเทศอื่น ๆ ทั่วโลก ผลสำรวจความพร้อมในการประยุกต์ใช้AI สำหรับบริการดิจิทัล ปี 2024 โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ร่วมกับสำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สวทช.) พบว่าองค์กรไทยมากกว่าครึ่งขององค์กรที่ตอบแบบสำรวจตระหนักถึงความจำเป็นในการนำ AI มาใช้งานและสามารถระบุว่าจะนำมาใช้ในส่วนใด นอกจากนี้ยังพบว่ามีหน่วยงานที่นำ AI มาใช้แล้ว 17.8% สูงกว่าปีที่ผ่านมาเล็กน้อย; องค์กรส่วนใหญ่ 73.3% มีแผนที่จะนำมาใช้ในอนาคต โดยเป้าหมายสามอันดับแรกของการใช้ AI ขององค์กรไทย คือ เพื่อบริหารจัดการภายในองค์กร (69.6%) เพิ่มประสิทธิภาพการทำงาน (59.8%) และ เพื่อสร้างมูลค่าเพิ่มให้ผลิตภัณฑ์หรือบริการ (56.8%)

GenAI เป็นเทคโนโลยีที่ขับเคลื่อนการเติบโตอย่างมาก แต่ GenAI ต้องการพลังการประมวลผลมหาศาล ต้องการพื้นที่สตอเรจขนาดใหญ่ และอัลกอริธึมที่มีความสามารถระดับสูง ซึ่งส่งผลกระทบต่อการใช้พลังงาน ค่าใช้จ่าย ความยั่งยืน และประสิทธิภาพเป็นอย่างมาก โครงสร้างพื้นฐานแบบเดิมไม่เหมาะที่จะรองรับความต้องการเหล่านี้ ดังนั้นการจะทำกระบวนการใด ๆ จะต้องทำควบคู่กับการปรับโครงสร้างพื้นฐานให้ทันสมัย จะเห็นได้ว่าการเปลี่ยนแปลงด้านต่าง ๆ เป็นสิ่งจำเป็น เพื่อให้มั่นใจว่าจะได้รับประโยชน์สูงสุดจากการลงทุนด้าน AI

การใช้จ่ายด้านโครงสร้างพื้นฐาน AI ซึ่งรวมถึงฮาร์ดแวร์ เช่น เซิร์ฟเวอร์ และโครงสร้างพื้นฐานคลาวด์เพื่อรองรับแอปพลิเคชัน AI ต่าง ๆ นั้น แม้จะมีจำนวนมาก แต่เติบโตช้ากว่าการนำ GenAI มาใช้ โครงสร้างพื้นฐาน AI จะมีอัตราการเติบโตต่อปี (CAGR) ที่ 14.7% จนถึงปี 2571 (จากการวิจัยของ IDC) สะท้อนถึงการลงทุนก่อนหน้านี้ของผู้ให้บริการคลาวด์เซอร์วิส ทั้งนี้ 24% ของการใช้จ่ายด้าน AI ทั้งหมด เป็นการใช้จ่ายด้านฮาร์ดแวร์ AI และ Infrastructure-as-a-Service (IaaS) ดังนั้นฮาร์ดแวร์ AI และ IaaS จึงมีความสำคัญอย่างมากต่อความสามารถด้านต่าง ๆ ของ AI จะเห็นได้ว่าในขณะที่ทุกฝ่ายให้ความสนใจ GenAI มากขึ้น การใช้จ่ายด้านโครงสร้างพื้นฐาน AI ยังคงเป็นสิ่งสำคัญที่จะสนับสนุนการเติบโตของ AI และการใช้แอปพลิเคชัน AI ในวงกว้าง

การลงทุนด้านโครงสร้างพื้นฐานคลาวด์ที่แข็งแกร่ง ปรับขนาดได้ และปลอดภัย เป็นสิ่งสำคัญในปัจจุบันสำหรับธุรกิจที่ต้องการใช้โซลูชันที่เป็น AI อย่างประสบความสำเร็จ แต่โครงสร้างพื้นฐาน AI นั้นมีลักษณะอย่างไร AI ต้องการสิ่งใดเป็นพิเศษ และธุรกิจต่าง ๆ จะสามารถปรับเปลี่ยนให้เป็นไปตามความต้องการเหล่านั้นได้อย่างไร

ความปลอดภัยและการปฏิบัติตามกฎระเบียบ ที่เป็นมาตรฐาน

โมเดล AI ประมวลผลข้อมูลจำนวนมาก ดังนั้นความปลอดภัยของข้อมูลและการรักษากฎระเบียบตามมาตรฐานต่าง ๆ จึงเป็นสิ่งสำคัญที่ธุรกิจต้องมั่นใจว่ามีอยู่ในทุกกระบวนการการใช้โซลูชัน AI โครงสร้างพื้นฐานที่ปลอดภัยที่รวมถึงการเข้ารหัส การควบคุมการเข้าถึงอย่างรัดกุม และปฏิบัติตามกฎระเบียบด้านการปกป้องข้อมูลระดับโลก (เช่น GDPR) เป็นสิ่งจำเป็นที่จะช่วยปกป้องทั้งตัวโมเดลเองและข้อมูลที่โมเดลเหล่านั้นทำการประมวลผล

ดังนั้น การออกแบบโครงสร้างพื้นฐาน AI ต้องไม่เพียงเพื่อประสิทธิภาพและการปรับขนาดได้เท่านั้น แต่ยังต้องมีความปลอดภัยด้วย สิ่งเหล่านี้เป็นคุณสมบัติพื้นฐานที่ควรมีและต้องยึดถือ เพราะความล้มเหลวในการรักษาความปลอดภัยให้กับแอปพลิเคชัน AI หรือโครงสร้างพื้นฐานที่รองรับแอปฯ เหล่านั้น อาจทำให้ข้อมูลถูกละเมิด ต้องเสียค่าปรับจากการไม่ปฏิบัติตามกฎ และสูญเสียความเชื่อมั่นจากลูกค้า ซึ่งเมื่อลูกค้าหมดความไว้วางใจไปแล้ว การจะกลับมาเชื่อมั่นอีกเป็นไปได้ยากมาก

คลาวด์-เนทีฟ คือฐานรากที่รองรับการนำ AI มาใช้

ธุรกิจต้องนำโครงสร้างพื้นฐานคลาวด์-เนทีฟ มาใช้เพื่อตอบสนองความต้องการ AI ที่เพิ่มมากขึ้น โครงสร้างพื้นฐานคลาวด์-เนทีฟ ประกอบด้วยการประมวลผลที่ทรงพลัง เน็ตเวิร์กและสตอเรจที่มีประสิทธิภาพสูง คอนเทนเนอร์และระบบบริหารจัดการข้อมูล ทั้งยังมอบความยืดหยุ่นและการปรับขนาดที่จำเป็นต้องใช้เพื่อรองรับความต้องการด้านการประมวลผลและสตอเรจที่ AI ต้องใช้เพิ่มมากขึ้น

โครงสร้างพื้นฐานแบบเดิมมีความยุ่งยากในการจัดการกระแสข้อมูลจำนวนมาก และไม่รองรับความต้องการประสิทธิภาพสูงในด้านต่าง ๆ ที่แอปพลิเคชัน AI สมัยใหม่ต้องการ คลาวด์-เนทีฟ ช่วยให้ธุรกิจปรับขนาดโครงสร้างพื้นฐานขององค์กรได้อย่างรวดเร็ว เพื่อรับมือกับความต้องการต่าง ๆ ที่เปลี่ยนแปลงตลอดเวลา และทำให้มั่นใจได้ว่าองค์กรมีพลังการประมวลผลที่จำเป็นต้องใช้กับโมเดล GenAI และการใช้ AI ที่ต้องใช้ข้อมูลจำนวนมาก

สภาพแวดล้อมคลาวด์-เนทีฟ ไม่เพียงรองรับการทำงานด้านการประมวลผลที่หนักหน่วงที่ AI ต้องการ แต่ยังมอบความคล่องตัวอย่างมากอีกด้วย ซึ่งช่วยให้ธุรกิจใช้ จัดการ และอัปเดทแอปพลิเคชัน AI ได้อย่างมีประสิทธิภาพมากขึ้น ที่สำคัญคือแพลตฟอร์มคลาวด์-เนทีฟ ยังออกแบบมาเพื่อให้สามารถผสานรวมกับเวิร์กโฟลว์การพัฒนา AI ได้อย่างราบรื่น นั่นหมายความว่า ธุรกิจสามารถสร้างสรรค์สิ่งใหม่ได้เร็วขึ้น โดยไม่ต้องติดอยู่กับข้อจำกัดด้านโครงสร้างพื้นฐาน

โครงสร้างพื้นฐานสำหรับการจัดการข้อมูลที่ปรับขนาดได้ เชื่อถือได้ และคุ้มค่าการลงทุน

เมื่อมีการใช้งาน AI เพิ่มขึ้น ความต้องการโครงสร้างพื้นฐานคลาวด์ที่ปรับขนาดได้และคุ้มค่าการลงทุน เพื่อใช้บริหารจัดการและวิเคราะห์ข้อมูลจึงทวีความสำคัญมากขึ้นตามไปด้วย Infrastructure as a Service (IaaS) และ Platform as a Service (PaaS) ที่ปรับขนาดได้ สามารถรับรองได้ว่าผู้ใช้งานจะสามารถจัดเก็บข้อมูล ประมวลผล และเข้าใช้งานได้อย่างราบรื่น เป็นการช่วยให้เทรนโมเดลได้อย่างรวดเร็วและแม่นยำมากขึ้น นอกจากนี้ไปป์ไลน์ของข้อมูลที่มีประสิทธิภาพ โซลูชันการจัดเก็บที่แข็งแกร่ง และระบบการดึงข้อมูลที่ทรงประสิทธิภาพ เป็นปัจจัยสำคัญในการบริหารจัดการข้อมูลจำนวนมหาศาลเหล่านี้ ก่อนที่จะนำข้อมูลเหล่านั้นไปใช้เทรนโมเดล โครงสร้างพื้นฐานรูปแบบใหม่ ยังมอบความสามารถในการปรับแต่งโมเดลอย่างละเอียดได้อย่างเจาะจงกับการใช้งาน เพิ่มคุณภาพและความเกี่ยวเนื่องกันให้กับแอปพลิเคชัน AI และช่วยให้การพัฒนาโมเดล AI ทำได้ง่ายขึ้น

โครงสร้างพื้นฐาน AI ที่ทรงประสิทธิภาพ ไม่เพียงสนับสนุนให้เกิดประสิทธิผลเท่านั้น แต่ยังช่วยบริหารค่าใช้จ่ายอีกด้วย การเพิ่มประสิทธิภาพให้กับทรัพยากรการประมวลผลผ่านดิสทริบิ้วเต็ดซีสเต็มส์ คอนเทนเนอร์ และสถาปัตยกรรมไร้เซิร์ฟเวอร์ จะช่วยให้ธุรกิจหลีกเลี่ยงการใช้จ่ายด้านทรัพยากร คลาวด์หรือฮาร์ดแวร์มากเกินไป การใช้จ่ายอย่างมีประสิทธิภาพนี้ สำคัญมากต่อการปรับขนาดแอปพลิเคชัน GenAI โดยไม่กระทบต่องบประมาณ

ประสิทธิภาพด้านพลังงาน และความยั่งยืน มีความสำคัญมากขึ้น

การใช้พลังงานและค่าใช้จ่ายเพิ่มขึ้นตามเวิร์กโหลด AI ที่เพิ่มขึ้น โมเดล AI โดยเฉพาะ GenAI ใช้พลังงานมาก ทำให้เกิดความกังวลด้านผลกระทบต่อสิ่งแวดล้อมจากการเติบโตของ AI ธุรกิจต่างตระหนักถึงความจำเป็นที่ต้องใช้โครงสร้างพื้นฐานที่ประหยัดพลังงานมากขึ้น เพื่อรองรับการใช้ AI ขององค์กร โดยไม่เพิ่มการปล่อยก๊าซคาร์บอนมากขึ้นอย่างมีนัยสำคัญ ดาต้าเซ็นเตอร์สีเขียว แหล่งพลังงานหมุนเวียน และฮาร์ดแวร์ประหยัดพลังงาน กำลังกลายเป็นองค์ประกอบสำคัญของกลยุทธ์ด้านโครงสร้างพื้นฐาน AI

การเพิ่มประสิทธิภาพการใช้พลังงานและการลงทุนกับแนวทางด้านความยั่งยืน จะช่วยให้ธุรกิจสามารถลดค่าใช้จ่ายในการดำเนินงาน ไปพร้อม ๆ กับบรรลุเป้าหมายด้านความยั่งยืน ในขณะที่ทั่วโลกใช้ AI มากขึ้น การโฟกัสไปที่โครงสร้างพื้นฐานที่ประหยัดพลังงานจะกลายเป็นความต่างที่สำคัญของธุรกิจที่ต้องการนำนวัตกรรมาปรับใช้ให้สอดคล้องกับความรับผิดชอบต่อสังคมขององค์กร และความต้องการในการจัดการค่าใช้จ่ายอย่างรอบคอบมากขึ้น

AI ยังคงพัฒนาต่อเนื่อง ดังนั้นองค์กรธุรกิจไม่เพียงต้องจัดการความท้าทายด้านโครงสร้างพื้นฐานที่มีในปัจจุบัน แต่ยังต้องคาดการณ์การเปลี่ยนแปลงด้านภูมิทัศน์ของ AI ในอนาคตอีกด้วย ซึ่งควรรวมถึงความปลอดภัยและการปฏิบัติตามกฎระเบียบ ความต้องการด้านเทคนิค และความยั่งยืน การบรรจบกันของการตัดสินใจแบบเรียลไทม์ สภาพแวดล้อมการทำงานที่มีเทคโนโลยีเข้ามาเกี่ยวข้อง (augmented working environments) และความต้องการด้านความยั่งยืนที่เพิ่มขึ้น สื่อความหมายให้เห็นว่าองค์กรธุรกิจจำเป็นต้องดำเนินกลยุทธ์โครงสร้างพื้นฐานแบบเชิงรุก

ความเสี่ยงที่จะถูกทิ้งไว้ข้างหลังนั้นมีจริง แต่โอกาสในการเป็นผู้นำแถวหน้าในยุคการทรานส์ฟอร์มของ AI ก็เกิดขึ้นได้เช่นกัน คำถามไม่ได้อยู่ที่จะลงทุนปรับโครงสร้างพื้นฐานคลาวด์ให้ทันสมัยหรือไม่อีกต่อไป แต่อยู่ที่ว่าองค์กรจะรักษาและเพิ่มความสามารถทางการแข่งขันได้อย่างก้าวกระโดดได้ขนาดไหน

บทความโดยฌอน หยวน รองประธานฝ่ายธุรกิจระหว่างประเทศ ผู้จัดการทั่วไปภูมิภาคแปซิฟิกใต้และญี่ปุ่น Alibaba Cloud Intelligence

Alibaba Cloud Announced the Latest AI Models, Tools and Infrastructure Available to Drive More Efficient Global AI Community

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

Alibaba Cloud Announced the Latest AI Models, Tools and Infrastructure Available to Drive More Efficient Global AI Community

Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, has unveiled an expanded suite of large language models and AI development tools, upgraded infrastructure offerings, and new support programs for global developers at its annual developer summit today. These advancements aim to empower developers worldwide to build innovative AI applications more cost-effectively and drive a thriving global generative AI community.

“Alibaba Cloud is committed to delivering real value to global developers through cutting-edge AI models, enhanced cloud infrastructure, and accessible support programs,” said Dongliang Guo, Vice President of International Business, Head of International Products and Solutions, Alibaba Cloud Intelligence. “Together, we aim to spark more AI-driven innovations, benefiting startups, enterprises, and industries altogether across the globe.”

More Foundation Models and Development Tools for Developers

The latest Qwen models, Alibaba Cloud’s proprietary large language model family, including Qwen2.5 series with sizes ranging from 7billion to 72billion parameters, are now accessible via APIs on its generative AI development platform, Model Studio, for global developers to use. Additionally, multimodal AI models including vision understanding models such as Qwen-VL series, visual generation model Wanx2.1 (also known as Tongyi Wanxiang), and audio language model Qwen-Audio are also available for developers to access.

Developers can also leverage Tongyi Lingma, Alibaba Cloud’s proprietary AI coding assistant powered by the Qwen 2.5-coder model. The AI Programmer offers features such as code completion and optimization, debugging assistance, code snippet search and batch unit test generation. It provides developers with an efficient and seamless coding experience, significantly enhancing productivity and creativity.

In addition to a broader range of models, a slew of new AI development tools is also accessible by global developers on Model Studio. These tools include Workflow, which breaks down complex tasks into subtasks to enhance workflow control, and Agent, which supports multi-agent collaboration for planning and execution tasks. Other tools such as RAG (Retrieval-Augmented Generation), which helps enhance the accuracy and reliability of generative AI models with external sources; Batch Reasoning, which generates responses simultaneously with multiple prompt inputs; AutoEval (Automated Model Evaluation), as well as model deployment and application observability services will be available by end of this month.

Upgraded Infrastructure for AI Development

In order to provide robust computing to facilitate AI and other critical workloads, Alibaba Cloud revealed that its 9th Generation Enterprise Elastic Compute Service (ECS) instance will be available in global markets starting April this year. The latest generation of ECS instances has notable performance enhancements compared to its previous iteration, including a 20% increase in computing efficiency. Additionally, by accelerating networks through eRDMA (elastic Remote Direct Memory Access), its performance in supporting high-performance computing, search recommendations, and Redis databases can be further improved by up to 50%.

The cloud pioneer has also announced its innovative Alibaba Cloud Container Compute Service (ACS) is now available for international customers starting from January 2025. Designed for simplified and optimized workload deployment using container technology, the ACS integrates container services with underlying cloud computing resources, significantly reducing costs and technical complexity and enabling developers to focus on innovation rather than infrastructure management.

New GenAI Program to Spark Creativity

To foster innovation, Alibaba Cloud introduced the Alibaba Cloud GenAI Empowerment Program, a dedicated support program for global developers and startups leveraging its Qwen models to build generative AI applications. Participants in the program can gain support including free cloud credits, training workshops, invitation to tech shows and demo days, as well as product co-marketing opportunities. This program is designed to help developers and startups accelerate their generative AI projects while connecting with a broader ecosystem of innovators.

Global Developers and Customers Leveraging Qwen for Cutting-Edge Applications

Axcxept, a Japanese company specializing in AI products such as voice assistants, has developed an open-source, lightweight AI model called EZO based on Qwen 2.5 LLM. The EZO model outperforms state-of-the-art (SOTA) models in areas such as coding, information extraction, math, reasoning, roleplay, and writing in Japanese. With low latency and robust performance, EZO is tailored to serve industries such as healthcare and public institutions in Japan, ensuring secure and efficient AI applications.

“Qwen 2.5 has significantly enhanced its ability to process Japanese, giving it a competitive edge over other models. With Axcxept’s proprietary training process, we have developed a Japanese LLM that delivers unmatched accuracy,” said Kazuya Hodatsu, CEO of Axcxept Inc.

OxValue.AI, a deep-tech venture from the University of Oxford, uses Alibaba Cloud’s Qwen-based multimodal AI models for AI-driven company valuation services. By processing and analyzing text and audio data related to financing, R&D, and operations, OxValue achieves precise and cost-efficient valuation assessments tailored to corporate clients.

“Processing diverse data sources is essential for our valuation services. With the support of Alibaba Cloud’s AI models, we’ve significantly improved the quality and efficiency of this process. By collaborating with Alibaba Cloud, we’re able to deliver greater value to our corporate clients,” said Professor Xiaolan Fu, Founder of OxValue.AI.

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

อาลีบาบา คลาวด์ วางตลาดโมเดล เครื่องมือ และโครงสร้างพื้นฐาน รุ่นล่าสุดสำหรับ AI มุ่งเสริมประสิทธิภาพที่แข็งแกร่งให้กับชุมชน AI ทั่วโลก

ธุรกิจด้านเทคโนโลยีดิจิทัลและหน่วยงานหลักด้านอินเทลลิเจนซ์ของอาลีบาบา กรุ๊ป เปิดตัวชุดโมเดลภาษาขนาดใหญ่และเครื่องมือเพื่อการพัฒนา AI ที่ขยายตัวมากขึ้น พร้อมกับอัปเกรดผลิตภัณฑ์ด้านโครงสร้างพื้นฐาน และโปรแกรมด้านการสนับสนุนช่วยเหลือใหม่ ๆ ให้กับนักพัฒนาซอฟต์แวร์ทั่วโลก ณ งานประชุมสุดยอดประจำปีของบริษัทฯ ที่จัดสำหรับนักพัฒนาซอฟต์แวร์ ความรุดหน้าครั้งนี้ มีเป้าหมายเพื่อเสริมศักยภาพให้นักพัฒนาซอฟต์แวร์ทั่วโลกสามารถสร้างแอปพลิเคชัน AI ใหม่ ๆ ได้อย่างคุ้มค่าใช้จ่ายมากขึ้น และขับเคลื่อนชุมชน generative AI ที่กำลังเฟื่องฟูทั่วโลก

Dongliang Guo, รองประธานฝ่ายธุรกิจระหว่างประเทศ และหัวหน้าฝ่ายผลิตภัณฑ์และโซลูชันที่ให้บริการระดับนานาประเทศ อาลีบาบา คลาวด์ อินเทลลิเจนซ์ กล่าวว่า “อาลีบาบา คลาวด์ มุ่งมั่นให้บริการที่มีคุณประโยชน์อย่างแท้จริงให้กับนักพัฒนาซอฟต์แวร์ทั่วโลกด้วยโมเดล AI ที่ล้ำสมัย ด้วยโครงสร้างพื้นฐาน คลาวด์ที่ปรับให้ทันสมัย และโปรแกรมการสนับสนุนช่วยเหลือที่เข้าถึงได้ในวงกว้าง เรามุ่งมั่นจุดประกายด้านนวัตกรรมที่ใช้ AI ให้มากขึ้น เพื่อประโยชน์ต่อสตาร์ทอัพ องค์กร และอุตสาหกรรมต่าง ๆ ทั่วโลก”

เพิ่มโมเดลพื้นฐานและเครื่องมือที่ใช้ในการพัฒนาซอฟต์แวร์ให้กับนักพัฒนาซอฟต์แวร์

โมเดลล่าสุดของ Qwen ซึ่งเป็นตระกูลโมเดลภาษาขนาดใหญ่ที่อาลีบาบา คลาวด์ เป็นเจ้าของ ประกอบด้วย ซีรีส์ Qwen2.5 ที่มีขนาดตั้งแต่ 7 พันล้าน ถึง 72 พันล้านพารามิเตอร์ ปัจจุบันสามารถเข้าใช้ผ่าน API ต่าง ๆ บน Model Studio ซึ่งเป็นแพลตฟอร์มสำหรับการพัฒนา generative AI ที่นักพัฒนาซอฟต์แวร์ทั่วโลกเข้าใช้งานได้ นอกจากนี้ multimodal AI model ต่าง ๆ เช่น โมเดลการทำความเข้าใจการมองเห็น เช่น ซีรีส์ Qwen-VL, โมเดลการสร้างภาพ Wanx2.1 (หรือที่รู้จักกันในชื่อ Tongyi Wanxiang) และโมเดลด้านภาษาเสียง Qwen-Audio ก็พร้อมให้นักพัฒนาซอฟต์แวร์เข้าใช้งานได้เช่นกัน

นักพัฒนาซอฟต์แวร์ยังสามารถใช้ Tongyi Lingma ซึ่งเป็นผู้ช่วยเขียนโค้ด AI ที่อาลีบาบา คลาวด์ เป็นเจ้าของ และมี Qwen 2.5-coder model เป็นเทคโนโลยีที่สนับสนุนเบื้องหลัง โดย AI Programmer นำเสนอฟีเจอร์ต่าง ๆ เช่น การเขียนโค้ดให้สมบูรณ์ และ การปรับให้เหมาะสม, การช่วยเหลือในการแก้ไขจุดบกพร่อง, การค้นหาส่วนย่อยของโค้ด และการสร้างการทดสอบแบตช์ ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์มีประสบการณ์ในการเขียนโค้ดได้อย่างมีประสิทธิภาพและราบรื่น เป็นการเพิ่มประสิทธิภาพการทำงานและความคิดสร้างสรรค์ได้อย่างมาก

นอกจากจะมีโมเดลหลากหลายมากขึ้นแล้ว นักพัฒนาซอฟต์แวร์ทั่วโลกยังสามารถเข้าใช้เครื่องมือใหม่ ๆ สำหรับพัฒนา AI ซึ่งมีอยู่จำนวนมากบน Model Studio เครื่องมือเหล่านี้รวมถึง Workflow ซึ่งแบ่งงานที่ซับซ้อนออกเป็นส่วนย่อย ๆ เพื่อให้สามารถควบคุมเวิร์กโฟลว์ได้ดีขึ้น และ Agent ที่ช่วยสนับสนุนการทำงานร่วมกันของเอเจนต์หลายตัวเพื่อการวางแผนและการทำงานต่าง ๆ นอกจากนี้ยังมีเครื่องมืออื่น ๆ เช่น RAG (Retrieval-Augmented Generation) ซึ่งช่วยเพิ่มประสิทธิภาพด้านความละเอียดและเชื่อถือได้ของโมเดล generative AI ด้วยแหล่งทรัพยากรจากภายนอก; Batch Reasoning สร้างการตอบสนองทันทีในเวลาเดียวกับที่มีการป้อนพร้อมท์หลาย ๆ รายการ; และ AutoEval (Automated Model Evaluation) รวมถึงบริการเฝ้าติดตามดูแอปพลิเคชันและการใช้งานโมเดลต่าง ๆ ซึ่งจะพร้อมใช้ภายในสิ้นเดือนมกราคม

โครงสร้างพื้นฐานที่อัปเกรดเพื่อการพัฒนา AI

อาลีบาบา คลาวด์ เปิดเผยว่า อินสแตนซ์ Enterprise Elastic Compute Service (ECS) รุ่นที่ 9 ของบริษัทฯ จะเริ่มวางจำหน่ายในตลาดทั่วโลกตั้งแต่เดือนเมษายนปีนี้ เพื่อให้การประมวลผลมีประสิทธิภาพสูง สามารถรองรับเวิร์กโหลด AI และเวิร์กโหลดสำคัญอื่น ๆ อินสแตนซ์ ECS รุ่นล่าสุดนี้มีประสิทธิภาพเพิ่มขึ้นอย่างมากเมื่อเทียบกับรุ่นก่อนหน้า เช่น มีประสิทธิภาพในการประมวลผลเพิ่มขึ้น 20% นอกจากนี้ การเร่งความเร็วเครือข่ายผ่าน eRDMA (elastic Remote Direct Memory Access) ยังทำให้ประสิทธิภาพในการรองรับการประมวลผลประสิทธิภาพสูง, คำแนะนำในการค้นหา, และฐานข้อมูล Redis เพิ่มมากถึง 50%

บริษัทฯ ยังได้เปิดตัว Alibaba Cloud Container Compute Service (ACS) นวัตกรรมทางเทคโนโลยีของ บริษัทฯ ซึ่งมีวางจำหน่ายให้กับลูกค้านานาประเทศแล้วในเดือนมกราคม 2568 ACS ออกแบบมาเพื่อนำเทคโนโลยีคอนเทนเนอร์มาใช้เพิ่มประสิทธิภาพให้กับการใช้เวิร์กโหลด โดยการผสานรวมบริการคอนเทนเนอร์ต่าง ๆ เข้ากับทรัพยากรการประมวลผลบนคลาวด์ที่สำคัญ ๆ เป็นการลดค่าใช้จ่ายและลดความซับซ้อนทางเทคนิค และช่วยให้นักพัฒนาซอฟต์แวร์โฟกัสไปที่การสร้างนวัตกรรมโดยไม่ต้องกังวลเรื่องการบริหารจัดการโครงสร้างพื้นฐานไอที

โปรแกรม GenAI ใหม่ จุดประกายสร้างสรรค์

อาลีบาบา คลาวด์ ส่งเสริมให้เกิดนวัตกรรมด้วยการเปิดตัว Alibaba Cloud GenAI Empowerment Program ซึ่งเป็นโปรแกรมที่ให้การสนับสนุนเฉพาะเจาะจงไปยังนักพัฒนาซอฟต์แวร์และสตาร์ทอัพทั่วโลกในการนำโมเดล Qwen ของบริษัทฯ ไปใช้สร้างแอปพลิเคชัน generative AI ผู้ร่วมโปรแกรมจะได้รับการสนับสนุนเครดิตคลาวด์ฟรี เข้าร่วมเวิร์กช็อปการฝึกอบรมต่าง ๆ ได้รับคำเชิญเข้าร่วมงานแสดงทางเทคโนโลยีและการสาธิตต่าง ๆ รวมถึงโอกาสในการทำตลาดผลิตภัณฑ์ร่วมกัน โปรแกรมนี้ออกแบบมาเพื่อช่วยให้นักพัฒนาซอฟต์แวร์และสตาร์ทอัพทำโปรเจกต์ด้าน generative AI ได้เร็วขึ้น และมีโอกาสเชื่อมต่อกับระบบนิเวศของนักพัฒนานวัตกรรมที่กว้างขวางมากขึ้น

นักพัฒนาซอฟต์แวร์และลูกค้าทั่วโลกใช้ประโยชน์จาก Qwen เพื่อการสร้างสรรค์และใช้แอปพลิเคชันที่ล้ำสมัย

Axcxept บริษัทในประเทศญี่ปุ่นที่เชี่ยวชาญด้านผลิตภัณฑ์ AI เช่น ผู้ช่วยเสียง ได้พัฒนา EZO ซึ่งเป็นโมเดล lightweight AI ที่เป็นโอเพ่นซอร์ส โดยใช้ Qwen 2.5 LLM ทั้งนี้ โมเดล EZO มีประสิทธิภาพเหนือกว่าโมเดลที่ทันสมัย (state-of-the-art: SOTA) หลายด้าน เช่น การเขียนโค้ด การดึงข้อมูล คณิตศาสตร์ การใช้เหตุผล การแสดงบทบาทสมมติ และการเขียนเป็นภาษาญี่ปุ่น ประสิทธิภาพที่สูงมากและระยะเวลาตอบสนองที่รวดเร็ว ทำให้มีการปรับแต่ง EZO ให้เหมาะสมกับการนำไปใช้ในอุตสาหกรรมต่าง ๆ เช่น อุตสาหกรรมการดูแลสุขภาพ และองค์กรสาธารณะในประเทศญี่ปุ่น เพื่อความมั่นใจว่าแอปพลิเคชันต่าง ๆ มีความปลอดภัยและมีประสิทธิภาพ

Kazuya Hodatsu ซีอีโอของ Axcxept Inc. กล่าวว่า “Qwen 2.5 มีความสามารถในการประมวลผลภาษาญี่ปุ่นเพิ่มขึ้นมาก ทำให้มีความได้เปรียบทางการแข่งขันเหนือโมเดลอื่น ๆ กระบวนการเทรนที่เป็นกรรมสิทธิ์ของ Axcxept ช่วยให้เราพัฒนาโมเดลด้านภาษาญี่ปุ่นขนาดใหญ่ที่มีความแม่นยำอย่างไม่มีใครเทียบได้”

OxValue.AI บริษัทร่วมทุนทางเทคโนโลยีขั้นสูงจากมหาวิทยาลัยออกซ์ฟอร์ด ใช้โมเดล multimodal AI ที่ทำงานบน Qwen ของอาลีบาบา คลาวด์ กับบริการประเมินมูลค่าบริษัทด้วยวิธีการที่ใช้ AI ความสามารถในการประมวลผลและการวิเคราะห์ข้อมูลที่เป็นข้อความและเสียงที่เกี่ยวข้องกับการเงิน การวิจัยและพัฒนา และการดำเนินงานต่าง ๆ ช่วยให้ OxValue สามารถประเมินมูลค่าได้อย่างแม่นยำด้วยค่าใช้จ่ายที่เหมาะสมและด้วยวิธีการที่ปรับให้เหมาะกับลูกค้าองค์กรแต่ละราย

Professor Xiaolan Fu ผู้ก่อตั้ง OxValue.AI กล่าวว่า “การประมวลผลจากแหล่งข้อมูลที่แตกต่างหลากหลาย เป็นสิ่งจำเป็นสำหรับบริการด้านการประเมินราคาของเรา โมเดล AI ของอาลีบาบา คลาวด์ ช่วยเราเพิ่มคุณภาพและประสิทธิภาพของกระบวนการนี้ได้อย่างมาก ความร่วมมือกับอาลีบาบา คลาวด์ ช่วยให้เราสามารถให้บริการลูกค้าองค์กรได้อย่างมีคุณภาพมากขึ้น”