Legatus
Thứ Ba ngày 01 tháng 4 năm 2025

Tech MediaOnline

Intel chia sẻ về việc phổ thông hóa trí tuệ nhân tạo để tận dụng sức mạnh của công nghệ AI

Intel chia sẻ về việc phổ thông hóa trí tuệ nhân tạo để tận dụng sức mạnh của công nghệ AI
August 17
17:57 2023

Công nghệ trí tuệ nhân tạo (AI) đang bước vào giai đoạn cần được phổ thông hóa, trước hết là cho các tổ chức doanh nghiệp, để có thể khai thác tối ưu sức mạnh của nó phục vụ cuộc sống. AI được dự báo sẽ trở thành công nghệ đột phá trong 10 năm tới, vì vậy, Việt Nam sẽ tập trung vào phát triển công nghệ AI như một mũi nhọn. Theo một báo cáo do Canada thực hiện 2022, chỉ số sẵn sàng cho AI của Việt Nam đạt 53,96 trên 100 điểm, vượt qua mức trung bình toàn cầu 44,61 điểm.

Để tận dụng toàn bộ sức mạnh của AI, chúng ta cần AI chạy theo thời gian thực với độ chính xác cao. Chính vì vậy, điện toán đóng vai trò tiên quyết để mang đến tốc độ và hiệu năng cần thiết để huấn luyện các mô hình, đưa ra quyết định hay dự đoán, nhận diện hình ảnh và giọng nói, và mở rộng hệ thống AI. Để đạt được điều này và đưa AI đến với tất cả mọi người, điện toán hỗn hợp (heterogeneous compute) và một hệ sinh thái mở (open ecosystem) dành cho những loại AI khác nhau đóng vai trò vô cùng quan trọng.

Mới đây, ông Simon Chan, Tổng Giám đốc Khu vực Đông Nam Á, Nam Á, Úc, và New Zealand của Nhóm Kinh doanh, Marketing & Truyền thông tại Tập đoàn Intel (Managing Director, Sales, Marketing & Communications Group, Intel – Southeast Asia, South Asia and ANZ) đã có một bài viết với tựa đề “Democratization of AI needs heterogeneous compute and open ecosystem” (tạm dịch: “Việc phổ thông hóa AI sẽ cần đến điện toán hỗn hợp và hệ sinh thái mở”). Với sự hỗ trợ của agency của Intel tại Việt Nam, MediaOnline xin giới thiệu tới bạn đọc bài viết này.

Ông Simon Chan (giữa) trong một sự kiện giới thiệu vi xử lý Intel Core Gen 13. (Ảnh: Intel).

Đầu năm 2023, chúng tôi đã tổ chức chuỗi sự kiện Intel Vision để chia sẻ về những công nghệ thế hệ mới của Intel, cũng như Intel có thể làm gì để hỗ trợ doanh nghiệp và đối tác nhằm vươn đến thành công trong thời đại kỹ thuật số. Nhiều chủ đề nóng đã được đưa ra và thảo luận tại sự kiện, trong đó có trí tuệ nhân tạo (AI).

Mặc dù mới chỉ gây sốt trong thời gian gần đây, nhưng AI không phải công nghệ mới lạ trong lĩnh vực công nghệ. Trí tuệ nhân tạo đã làm việc cùng con người trong nhiều năm qua, từ việc giảm thiểu lỗi phát sinh trong quá trình sản xuất cho đến hỗ trợ người dùng có những bức ảnh đẹp hơn khi chụp bằng điện thoại. Chúng ta đều biết rằng AI có thể mang đến các cuộc cách mạng trong mọi lĩnh vực, cũng như cải tiến cuộc sống của con người theo vô số cách khác nhau.

Trong vài tháng trở lại đây, trí tuệ nhân tạo phủ sóng trên khắp các kênh truyền thông toàn cầu sau sự xuất hiện của ChatGPT, một ứng dụng AI tạo sinh (Generative AI) sử dụng một lượng lớn dữ liệu mà nó thu thập được để phát triển những nội dung gần giống với cách con người trao đổi và sáng tạo.

Chính đợt sóng AI này đã thúc đẩy nhiều doanh nghiệp tìm kiếm phương án để tăng cường khả năng ứng dụng trí tuệ nhân tạo. Dựa trên tình hình thực tế, AI hiện nay không còn đơn thuần là những trợ lý giọng nói đơn thuần nữa. Công nghệ này đã và đang ngày càng phản hồi tốt hơn và có thể giúp chúng ta thực hiện nhiều công việc khác nhau như lập trình một trang web, hay sáng tạo những tác phẩm âm nhạc và nghệ thuật mới.

Theo báo cáo “Chỉ số sẵn sàng về AI của Chính phủ 2022” (2022 Government AI Readiness Index) do tổ chức Oxford Insights kết hợp với Trung tâm Nghiên cứu Phát triển Quốc tế của Canada (Canadian International Development Research Centre) thực hiện, chỉ số sẵn sàng cho AI của Việt Nam đạt 53,96 trên 100 điểm, vượt qua mức trung bình toàn cầu 44,61 điểm. Báo cáo cho thấy Việt Nam có nhiều tiềm năng trong việc triển khai trí tuệ nhân tạo nhằm nắm bắt cơ hội để chuyển đổi và phát triển nền kinh tế.

Vào cuối tháng 6-2023, tại Hội thảo “Trí tuệ nhân tạo, cơ hội – thách thức và khả năng ứng dụng trong phát triển kinh tế số Thủ đô”, Tiến sĩ Lê Xuân Rao, Chủ tịch Liên hiệp các Hội Khoa học và Kỹ thuật Hà Nội, cho biết trí tuệ nhân tạo được dự báo sẽ trở thành công nghệ đột phá trong 10 năm tới, vì vậy, Việt Nam sẽ tập trung vào phát triển công nghệ AI như một mũi nhọn.

Trên thực tế, nhiều doanh nghiệp địa phương đang sử dụng trí tuệ nhân tạo để nâng cao hiệu quả công việc (nguồn). Trong lĩnh vực y tế, VinBigData đã sử dụng AI để trợ giúp các bác sĩ chẩn đoán bệnh tốt hơn. Trong lĩnh vực ngân hàng, nhiều ngân hàng đã ứng dụng AI giúp xác thực thông tin, nhận diện khách hàng thông qua hệ thống eKYC (Electronic Know Your Customer, định danh xác thực khách hàng điện tử).

Tuy nhiên, để có thể triển khai AI thành công, chúng ta cần phải giải quyết được những đòi hỏi phức tạp về công nghệ điện toán. Từ điện tử tiêu dùng cho đến vùng biên (the edge) và đám mây (cloud), nhu cầu về công nghệ điện toán sẽ tăng cao khi AI ngày càng phổ biến hơn.

Phổ thông hóa AI khởi đầu từ công nghệ điện toán

Ông Simon Chan (bên trái) giới thiệu về sự kiện Intel Tech Camp ở Việt Nam 2023 tại Intel Media Day ở TP.HCM ngày 28-6-2023. (Ảnh: MediaOnline).

Trong tương lai, các mô hình AI sẽ tăng số lượng dữ liệu sử dụng để tạo ra những phản hồi hữu dụng cho các doanh nghiệp. Do vậy, để vạch ra được hướng đi đúng đắn, các doanh nghiệp phải đánh giá các thách thức hay kết quả kinh doanh mà họ đang muốn giải quyết hay đạt được, để từ đó có thể tận dụng AI hiệu quả về và tiết kiệm với những giải pháp điện toán và phần mềm phù hợp.

Để tận dụng toàn bộ sức mạnh của trí tuệ nhân tạo, chúng ta cần AI chạy theo thời gian thực với độ chính xác cao. Chính vì vậy, điện toán đóng vai trò tiên quyết để mang đến tốc độ và hiệu năng cần thiết để huấn luyện các mô hình, đưa ra quyết định hay dự đoán, nhận diện hình ảnh và giọng nói, và mở rộng hệ thống AI. Chúng ta có thể ví điện toán như “bộ não” giúp các cỗ máy hoạt động hiệu quả và đưa ra quyết định hợp lý cho hành động tiếp theo.

Nhằm bắt kịp sự cải tiến của AI và các thuật toán tiên tiến, “bộ não” cũng cần phải được nâng cấp để có thể khai thác tối đa sức mạnh. Điện toán hiện nay không chỉ có nhiệm vụ tăng tốc hiệu năng của AI mà các giải pháp này còn phải thực hiện điều đó hiệu quả hơn, bảo mật hơn, dễ mở rộng hơn và bền vững hơn. Để đạt được điều này và đưa AI đến với tất cả mọi người, điện toán hỗn hợp (heterogeneous compute) và một hệ sinh thái mở dành cho những loại AI khác nhau đóng vai trò vô cùng quan trọng.

AI cần điện toán hỗn hợp để đạt được hiệu năng cao hơn với chi phí thấp hơn và tiết kiệm điện năng hơn

Tốc độ và hiệu năng xử lý AI cao hơn sẽ trở thành tiêu chí của người dùng trong tương lai. Điều này cho thấy nhu cầu về sức mạnh điện toán sẽ tăng theo cấp số nhân, nhưng không đồng nghĩa với việc các doanh nghiệp trang bị thêm vi xử lý trung tâm (CPU) hoặc vi xử lý đồ họa (GPU), hoặc xây dựng thêm trung tâm dữ liệu để có thể sử dụng AI.

Để phổ cập AI, các doanh nghiệp cần phải xem xét hai yếu tố cực kỳ quan trọng. Đầu tiên, họ cần phải xác định mô hình ứng dụng AI mình cần là gì. Đó có thể là một chatbot AI để hỗ trợ khách hàng, hay một mô hình AI tạo sinh lớn như ChatGPT để phát triển những nội dung mới, hay một giải pháp nhận diện hình ảnh để xác định lỗi, hay một mô hình trí tuệ nhân tạo khác biệt hơn? Thứ hai, các doanh nghiệp cũng cần lưu tâm đến chi phí, vì đây là yếu tố quyết định xem đâu là giải pháp AI phù hợp.

Trái ngược với những gì chúng ta thường được nghe về việc ứng dụng AI sử dụng GPU nhiều hơn, Trên thực tế, một số ứng dụng AI chạy hiệu quả trên các CPU đa năng. Đây chính là những vi xử lý mà chúng ta thường thấy trong các trung tâm dữ liệu ngày nay.

Chúng ta sẽ cùng đến với việc huấn luyện một mô hình ngôn ngữ như GPT-3 để hiểu rõ hơn. Huấn luyện các mô hình ngôn ngữ lớn (large language model, LLM) như vậy có thể tiêu tốn chi phí lên đến hàng triệu USD cho một mô hình đơn lẻ, nhưng phần lớn các doanh nghiệp không cần phải ứng dụng một mô hình lớn như vậy. Thay vào đó, họ có thể huấn luyện những mô hình nhỏ hơn. Trên thực tế, hầu hết các tổ chức sẽ chỉ cần sử dụng các mô hình được đào tạo trước và tinh chỉnh chúng bằng các tập dữ liệu được quản lý nhỏ hơn của riêng họ; và việc tinh chỉnh này có thể được thực hiện chỉ trong vài phút bằng phần mềm AI của Intel và phần mềm mã nguồn mở tiêu chuẩn khác của ngành, chạy trên các CPU đa năng (general purpose CPU).

Trong trường hợp doanh nghiệp thật sự cần huấn luyện một mô hình ngôn ngữ lớn, các bộ tăng tốc AI chuyên dụng như Gaudi2 của Intel là một giải pháp thay thế cho các GPU truyền thống. Trên thực tế, Gaudi2 mang đến những lợi thế về chi phí cạnh tranh cho doanh nghiệp, cả về chi phí máy chủ lẫn hệ thống. Hiệu suất được chứng thực bởi MLPerf của bộ tăng tốc cùng những cải tiến về phần mềm sắp ra mắt giúp Gaudi2 trở thành một sự thay thế cực kỳ hấp dẫn về hiệu năng/giá thành cho các vi xử lý đồ họa chuyên dụng.

Do vậy, giải quyết các thách thức từ trí tuệ nhân tạo đòi hỏi một hướng tiếp cận toàn diện để có thể đáp ứng nhiều trường hợp sử dụng, ứng dụng, và yêu cầu về hiệu năng. Điều này cho chúng ta thấy rằng các ứng dụng AI khác nhau sẽ có những yêu cầu khác biệt về cấu hình điện toán. Đó là những hệ thống được xây dựng với tính chính xác cao và là một sự giao thoa đa dạng giữa các kiến trúc và phần cứng để có thể chạy nhiều loại CPU, GPU, FPGA, hoặc các bộ tăng tốc khác.

Tóm lại, không có một giải pháp điện toán nào toàn diện. Thay vào đó, các nền tảng điện toán cần phải trở nên linh hoạt và mở rộng dễ dàng hơn để thay đổi theo các yêu cầu của ứng dụng nhằm triển khai được AI vào thực tiễn.

AI cần một hệ sinh thái mở

Ở thời điểm hiện tại, ngoài chuyện đối với các vi xử lý, AI cũng là một vấn đề đối với phần mềm. Để phổ cập AI, chúng ta cần một hệ sinh thái mở, trong đó phần mềm đóng vai trò chủ yếu để giải phóng sức mạnh và khả năng mở rộng của AI. Nếu không có một loạt khung phần mềm và bộ công cụ được tối ưu hóa để hỗ trợ phần cứng chạy các ứng dụng AI, hiệu năng vượt trội cũng sẽ không đáp ứng được những yêu cầu tối ưu cho mục đích kinh doanh.

Các lập trình viên cần hướng tiếp cận xây dựng một lần và có thể triển khai ở mọi nơi (build-once-and-deploy-everywhere) với các giải pháp linh hoạt, mã nguồn mở và tiết kiệm điện năng để có thể chạy mọi loại AI. Một công cụ điển hình là oneAPI Tookits của Intel. Công cụ này có thể giúp các doanh nghiệp viết mã một lần và sau đó có thể chạy trên mọi nền tảng phần cứng khác nhau.

Những công cụ như vậy giúp các doanh nghiệp vừa tối ưu hóa hiệu năng của các ứng dụng AI, vừa tối ưu hóa chi phí, cũng như đơn giản hóa việc quản lý nhiều nền tảng phần cứng khác nhau. AI được xây dựng dựa trên một hệ sinh thái mở sẽ dễ dàng được truy cập rộng rãi và hiệu quả về chi phí. Ngoài ra, nó cũng giúp loại bỏ các rào cản làm chậm trễ tiến độ và giúp các lập trình viên xây dựng và triển khai AI ở mọi nơi trong khi vẫn ưu tiên điện năng, chi phí, và hiệu năng qua việc sử dụng phần cứng và phần mềm phù hợp nhất cho từng việc.

Đầu tư vào tương lai của AI

Rõ ràng, AI đang dần trở nên mạnh mẽ hơn và mở ra những cơ hội mới cho các doanh nghiệp. Dù các doanh nghiệp chạy ứng dụng AI trên đám mây hay tạo ra các giải pháp phần cứng tại chỗ, họ nên sẵn sàng bởi nhu cầu điện toán có thể tăng nhanh chóng trong tương lai.

AI sẽ yêu cầu một nền tảng để hỗ trợ nhiều khía cạnh trong việc thiết kế mô hình AI, phát triển và triển khai trên khắp các nền tảng điện toán khi AI tiếp tục phát triển.

Việc thực sự gặt hái được những lợi ích từ AI lại phụ thuộc vào cách doanh nghiệp đầu tư cho những khả năng cần thiết để phát huy tối đa khả năng của AI, cũng như một môi trường điện toán hỗn hợp và một hệ sinh thái mở để bảo đảm khoản đầu tư của doanh nghiệp vẫn hữu dụng trong tương lai. Hai yếu tố này sẽ đóng vai trò quan trọng khi các doanh nghiệp cân nhắc chuẩn bị cho sự thay đổi của AI.

SIMON CHAN, Managing Director of Southeast/South Asia, Australia, and New Zealand, Sales, Marketing & Communications Group at Intel Corporation

Nguồn do Intel cung cấp.

English Edition.

Democratization of AI needs heterogeneous compute and open ecosystem

Author: Simon Chan, Managing Director of Southeast/South Asia, Australia, and New Zealand, Sales, Marketing & Communications Group at Intel Corporation

Earlier this year, we held Intel Vision – a series of closed-door events where we shared Intel’s next generation of technology, and how we can enable our customers and partners to succeed in the digital age. One of the hottest topics discussed at the event was artificial intelligence (AI).

Despite all the hype, AI is not new. AI has been working alongside humans for a number of years now, from reducing manufacturing errors to helping users take better pictures on a smartphone. It is well-known that AI can revolutionize industries and improve lives in countless ways.

Yet, AI has dominated global headlines in recent months, thanks to the rise of ChatGPT – a generative AI application that takes vast amounts of data it ingests to mimic human-created content. What ChatGPT has done is make it easy for pople to understand the power of AI, and that it is at everyone’s fingertips to explore.

As a result, this new wave of AI has propelled many businesses to look for ways to boost their AI capabilities. Indeed, AI is no longer just about voice assistants. It has become more engaging and can help people in different ways such as code a website, or create new music and art.

According to the report 2022 Government AI Readiness Index, conducted by Oxford Insights in collaboration with the Canadian International Development Research Centre, Vietnam’s artificial intelligence readiness index has reached 53.96 out of 100, and surpasses the global average of 44.61. So, Vietnam has the potential to deploy AI to capture the opportunity to transform and develop the economy.

At the end of June 2023, in the “Artificial Intelligence: Opportunities, Challenges, and Application Potential in the Capital’s Digital Economic Development” seminar, Dr. Le Xuan Rao, Chairman of the Hanoi Union of Science and Technology Associations, said that Vietnam would focus on developing AI technology as a spearhead, which is predicted to become the most breakthrough technology sector in the next ten years.

In fact, many local businesses are using AI to enhance productivity. In the healthcare field, VinBigData has utilized AI to assist doctors in diagnosing diseases more effectively. In the banking sector, many banks have applied AI to improve information verification and customer identification through eKYC system.

However, to deploy AI successfully, we will need to solve the complexities of the compute’s requirements. From consumer electronics to the edge and cloud, compute demand will only soar as AI takes off.

Democratization of AI starts with compute

AI models in the future will only ingest ever larger amounts of data to generate useful responses for businesses. To start off on the right foot, organizations must begin with the business challenge or outcome that they are trying to solve or achieve, and leverage AI in an efficient and cost-effective way with the right compute and software required to enable it.

All these can only be meaningful if AI happens in real-time with accuracy, and compute is essential to providing the speed and performance needed to train models, make decisions or predictions, perform image and speech recognition, and scale AI systems. Think of compute as the “brains” that help machines make sense of the world and decide the actions they take next.

This is why, as AI and its algorithms advance, so must the “brains” to boost the capabilities needed. They not only need to accelerate the performance of AI, but also do so in a more efficient, secure, scalable and sustainable manner. To achieve this and democratize AI, heterogeneous compute and an open ecosystem for different AI scenarios are crucial.

AI needs heterogeneous compute for better performance, cost and energy efficiency

Ever-faster speed and performance will be the default expectation of AI from its users in the future. While this means the demand for compute power will grow exponentially, it would not make sense if businesses simply added more Central Processing Units (CPUs) and Graphics Processing units (GPUs), or build more data centers to enable AI.

To power AI’s proliferation, there are two key areas that organizations must consider. First, the identification of the type of AI workload needed. Is it for an AI chatbot to interface with customers, a large generative AI model like ChatGPT to create new content, an image recognition solution to find defects, or some other types of AI workload? And second, costs are also an important consideration to determine whether the AI solution can be easily accessed by all.

Contrary to conventional belief that all AI workloads require GPUs; the reality is that often an alternative, more efficient way to get some AI powered tasks done is with general purpose CPUs – the same ones that are already powering many of today’s data centers.

Take for example the workload of training a language model such as GPT-3. Training such large language models can cost millions of US dollars for a single model, yet most organizations will likely not need to get to that scale and instead require training much smaller models. In fact, most organizations will only need to use pre-trained models and fine-tune them with their own smaller curated data sets, and this fine-tuning can be accomplished in only minutes using Intel AI software and other standard industry open-source software, running on general purpose CPUs.

In the scenario where there indeed is a need to train a large language model, dedicated AI accelerators such as Intel’s Gaudi2 presents an alternative to traditional GPUs. In fact, Gaudi2 provides competitive cost advantages to customers, both in server and system costs. The accelerator’s MLPerf-validated performance plus upcoming software advances make Gaudi2 an extremely compelling price/performance alternative to GPUs like Nvidia’s H100.

Hence, solving the AI challenge requires a holistic approach that accounts for vastly different use cases, workloads, and power requirements. This means that different AI applications will require different compute configurations that are purpose-built with high precision, and could comprise of a diverse mix of architectures and hardware that could run the gamut of CPUs, GPUs, Field Programmable Gate Arrays (FPGAs) or other accelerators.

In short, there is no one-size-fits-all when it comes to compute, and it becomes more important than ever that the compute platform is flexible and scalable for the changing workload requirements to reach AI practicality.

AI needs an open ecosystem

Now, while we talk a lot about chips, AI is also a software problem. To democratize AI, we need an open ecosystem, and software is key to unleashing the power and scalability of AI. Without an optimized range of software frameworks and toolkits to support the hardware running AI workloads, the performance out of the box would not be able to meet optimal business requirements.

Developers need a build-once-and-deploy-everywhere approach with flexible, open and energy-efficient solutions that allow all forms of AI. One such tool is Intel’s oneAPI Toolkits, which enable businesses to write code once and run it on a variety of hardware platforms.

Tools such as this helps businesses maximize the performance of their AI workloads while minimizing the cost and complexity of managing multiple hardware platforms. AI based on an open ecosystem makes it more broadly accessible and cost-effective. It removes roadblocks that limit progress, and enables developers to build and deploy AI everywhere while prioritizing power, price and performance, using the hardware and software that best make sense for them for each job.

Investing in the future of AI

Without a doubt, AI is becoming more powerful, and has opened up new possibilities that many businesses are seeing for the first time. Whether businesses are running their AI in the cloud or creating their own on-premises solutions, they should be ready for a future where compute demand will skyrocket.

And AI will require a foundation to support different facets of AI model designs, development and deployment across different compute platforms as they continue to evolve.

To truly reap the benefits of AI, however, depends on how businesses invest in the capabilities required to get the best out of AI – and a heterogeneous compute environment and an open ecosystem that protect and future-proof current investments will be important as businesses prepare for what is next with AI.