Blogs Tech

Quy Trình Phát Triển Toàn Diện của Agentic AI: Cách FPT AI Factory Hỗ Trợ Tăng Tốc & Phát Triển AI Agents

11:04 30/09/2025
Khi trí tuệ nhân tạo (AI) tiếp tục cách mạng hóa các ngành công nghiệp, việc hiểu rõ cách thức vận hành bên trong của các hệ thống AI không chỉ thú vị mà còn trở nên thiết yếu. Một trong những đổi mới nổi bật nhất hiện nay chính là Agentic AI – công nghệ được thiết kế để mô phỏng khả năng ra quyết định, giải quyết vấn đề và thậm chí là sáng tạo giống con người.  Khác với những công cụ thông thường, chỉ phản hồi theo lệnh của người dùng, thì các Agentic AI được xây dựng với tính tự chủ: chúng có thể hiểu được mục tiêu, tự chia nhỏ thành các bước cần làm và từng bước thực hiện cho đến khi đạt được kết quả. Chính khả năng này đã biến Agentic AI trở thành công nghệ hỗ trợ doanh nghiệp tự động xử lý các quy trình phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Vậy hành trình của một Agentic AI diễn ra như thế nào? Làm thế nào mà các AI Agents có thể xử lý các nhiệm vụ phức tạp một cách liền mạch, thích ứng với thách thức và cải thiện theo thời gian?  Dưới đây là các bước chính trong vòng đời của một tác nhân AI (AI Agents) – mỗi bước đều đóng vai trò quan trọng trong việc tạo ra những hệ thống thông minh, và có khả năng thích ứng nhanh.  1. Perception – Nhận thức  Sự nhận thức của AI Agents là khả năng thu thập và diễn giải thông tin từ môi trường – có thể qua dữ liệu hình ảnh, âm thanh, văn bản hoặc các dạng tín hiệu khác. Đây là lớp nền tảng giúp hệ thống đưa ra quyết định và giải quyết vấn đề. Nếu con người dựa vào giác quan để định hướng trong thế giới thực, thì AI Agents dựa vào khả năng nhận thức để hiểu dữ liệu đầu vào, nhận diện mẫu và phản ứng phù hợp.  Nhận thức không phải là một quá trình thụ động. Nó bao gồm việc chủ động thu thập dữ liệu, xử lý và xây dựng hiểu biết về bối cảnh hiện tại. Các loại dữ liệu mà AI Agents nhận thức có thể thay đổi tùy thuộc vào thiết kế của hệ thống, và có thể bao gồm mọi thứ từ văn bản viết, lời nói, hình ảnh, âm thanh, cho đến các thay đổi trong môi trường. Có thể coi nhận thức chính là “cửa sổ nhìn ra thế giới” của AI Agents, cung cấp thông tin cần thiết để hành động thông minh và linh hoạt.  Các tác nhân AI sử dụng nhiều loại nhận thức khác nhau để hiểu và diễn giải môi trường. Mỗi loại nhận thức cho phép tác nhân tương tác với thế giới theo những cách khác nhau, giúp xử lý các dạng dữ liệu và đưa ra quyết định thông minh. Các loại nhận thức chính bao gồm:  Nhận thức văn bản (Textual Perception): Hiểu và tạo ra văn bản thông qua xử lý ngôn ngữ tự nhiên (NLP). Điều này cho phép các hệ thống AI tương tác với dữ liệu văn bản như bài viết, sách, email và trang web, rất cần thiết cho các ứng dụng như chatbot và trợ lý ảo.  Nhận thức dự đoán (Predictive Perception): AI dự đoán các sự kiện tương lai dựa trên dữ liệu lịch sử, ứng dụng trong các lĩnh vực như tài chính và xe tự lái.  Nhận thức thị giác (Visual Perception): Sử dụng thị giác máy tính (computer vision) để diễn giải hình ảnh và video – ứng dụng trong nhận diện khuôn mặt, phát hiện vật thể.  Nhận thức môi trường (Environmental Perception): AI thu thập thông tin thông qua các cảm biến như GPS hoặc cảm biến chuyển động để thích nghi với các môi trường thay đổi. Ví dụ, robot sử dụng cảm biến này để phát hiện và tránh các chướng ngại vật khi di chuyển.  Nhận thức thính giác (Auditory Perception): Khả năng xử lý và hiểu âm thanh, đặc biệt là giọng nói, giúp hệ thống như trợ lý giọng nói hoạt động hiệu quả. 2. Reasoning and Decision-making – Lập luận và Ra quyết định Lý luận là quá trình nhận thức cho phép các tác nhân AI đưa ra quyết định, giải quyết vấn đề và suy luận các kết luận dựa trên thông tin mà chúng thu thập được. Đây là một yếu tố quan trọng giúp tác nhân AI hành động thông minh và thích nghi trong các môi trường thay đổi liên tục. Trong khi giai đoạn “Nhận thức” giúp AI thu thập dữ liệu về thế giới, “Lý luận” sẽ giúp tác nhân diễn giải dữ liệu đó, đưa ra kết luận hợp lý và đưa ra quyết định thông minh. Nói cách khác, nhận thức là việc nhận thấy đèn giao thông chuyển sang màu đỏ; lý luận là nhận ra rằng bạn cần phải dừng xe để tránh nguy hiểm.  Lý luận bao gồm việc sử dụng các quy tắc, phương pháp ước lượng, logic và các mô hình học được để xử lý thông tin từ hệ thống nhận thức. Điều này giúp các tác nhân AI không chỉ hiểu rõ trạng thái hiện tại của môi trường mà còn dự đoán kết quả, xử lý các tình huống không chắc chắn và đề ra chiến lược để đạt được mục tiêu.  Lý luận có thể được chia thành các loại khác nhau, mỗi loại đóng một vai trò đặc biệt trong việc giúp các hệ thống AI hoạt động hiệu quả trong các tình huống khác nhau:  Heuristic Reasoning: Sử dụng “luật ngón tay cái” để đơn giản hóa quyết định, phù hợp với tình huống cần phản hồi nhanh. Ví dụ, khi điều hướng trên bản đồ, AI có thể chọn "đoạn đường tốt nhất" dựa trên kinh nghiệm thay vì tính toán tất cả các tuyến đường có thể có.  ReWoo (Suy luận không cần quan sát): Quá trình cải thiện qua các lần lặp lại, giúp AI điều chỉnh và tối ưu hóa chiến lược của mình dựa trên phản hồi và thay đổi từ môi trường.  ReAct (Lý luận và hành động): Một phương pháp kết hợp lý luận và hành động đồng thời, có lợi trong những môi trường yêu cầu phản hồi ngay lập tức như lái xe tự động hay các trò chơi chiến lược thời gian thực.  Self-reflection (Tự phản ánh): AI Agents đánh giá các quyết định trong quá khứ để học hỏi và cải thiện.  Conditional Logic (Điều kiện logic): Quyết định dựa trên các điều kiện cụ thể, thường được sử dụng trong các hệ thống tự động. Ví dụ, một điều hòa thông minh có thể sử dụng logic điều kiện để điều chỉnh nhiệt độ: "Nếu nhiệt độ phòng dưới 70°F, hãy tăng nhiệt." 3. Action – Hành động Giai đoạn “Hành động” giúp các AI Agents thực thi các quyết định trong thế giới thực, cho phép nó tương tác với người dùng, các hệ thống kỹ thuật số, hoặc thậm chí là các môi trường vật lý. Sau khi “nhận thức” môi trường và “suy luận” về phương án hành động tốt nhất, tác nhân AI phải “thực thi” các quyết định của mình trong thực tế.  Trong thế giới AI, giai đôạn “hành động” không chỉ giới hạn ở các chuyển động vật lý hay tương tác, mà còn bao gồm các quá trình như thao tác dữ liệu, thực thi quyết định và kích hoạt các hệ thống tự động. Dù là robot di chuyển trong môi trường vật lý, hệ thống phần mềm xử lý dữ liệu, hay một trợ lý ảo AI phản hồi theo lệnh, “Hành động” chính là giai đoạn mà tác nhân AI đưa lý luận và sự hiểu biết của mình thành hiện thực. 4. Learning – Học Hỏi Giai đoạn “học hỏi” là quá trình giúp các AI Agents cải thiện hiệu suất thông qua việc thu thập kiến thức từ kinh nghiệm, dữ liệu, hoặc phản hồi góp ý. Thay vì chỉ dựa vào các hướng dẫn đã được lập trình sẵn, tác nhân AI có thể thích nghi và phát triển bằng cách học hỏi từ môi trường và kết quả của các hành động mà nó thực hiện. Khả năng học hỏi này là điều giúp các tác nhân AI có thể xử lý những tình huống mới, chưa được thấy trước, đưa ra quyết định tốt hơn và tối ưu hóa chiến lược trong các tình huống động, thực tế.  Đây là giai đoạn quan trọng đối với các tác nhân AI trong việc tự tạo ra hệ thống thông minh có khả năng tự cải tiến. Giống như con người học hỏi từ kinh nghiệm và áp dụng kiến thức đó vào các thử thách trong tương lai, các AI Agents sử dụng nhiều phương pháp học hỏi khác nhau để nâng cao khả năng ra quyết định và giải quyết vấn đề. Thông qua việc học hỏi liên tục, các tác nhân AI có thể tinh chỉnh hành vi và ngày càng phù hợp hơn với các mục tiêu của mình. Các phương pháp học hỏi của tác nhân AI rất đa dạng, tùy thuộc vào cách thức tác nhân tương tác với dữ liệu, phản hồi nhận được và loại nhiệm vụ mà nó cần thực hiện. Dưới đây là những phương pháp học hỏi chính mà các tác nhân AI sử dụng:  Học không giám sát: Nhận diện các mô hình và cấu trúc trong dữ liệu mà không cần các ví dụ có gán nhãn. AI có thể nhóm các khách hàng dựa trên hành vi mua sắm mà không cần biết trước các nhãn.  Học có giám sát: Huấn luyện AI trên dữ liệu có gán nhãn để dự đoán kết quả dựa trên các đầu vào đã biết.  Học tăng cường: AI Agents học tập qua việc thử nghiệm và các lỗi sai gặp phải, nhận phản hồi dưới dạng thưởng hoặc phạt.  Học đa tác nhân: Sự hợp tác và cạnh tranh giữa các tác nhân AI để giải quyết vấn đề một cách hiệu quả hơn.  AI Agents không chỉ đại diện cho một sự nâng cấp vượt bậc của các hệ thống hiện tại mà là một sự chuyển mình thực sự hướng tới trí tuệ tự thích ứng và trí tuệ tự động. Bằng cách nhận thức, lý luận, hành động và học hỏi, các tác nhân AI đang dần thành công trong quá trình mô phỏng các khía cạnh cơ bản về nhận thức của con người.  Tuy nhiên, để xây dựng lên những tác nhân AI như vậy không phải là điều đơn giản; các tổ chức cần có một cơ sở hạ tầng mạnh mẽ và linh hoạt. Từ nguồn tài nguyên GPU mạnh mẽ cho đến môi trường huấn luyện mô hình linh hoạt, tất cả đều là những yếu tố tiên quyết biến lý thuyết thành hiện thực. 5. Cách FPT AI Factory tăng tốc quá trình phát triển AI Agents Để đáp ứng nhu cầu này, FPT đã ra mắt FPT AI Factory, cung cấp một giải pháp toàn diện để hỗ trợ các doanh nghiệp phát triển AI Agents thông qua ba dịch vụ chính: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference.  Xử lý dữ liệu (FPT AI Infrastructure)  Mỗi tác nhân AI thành công đều dựa vào một vòng quay dữ liệu liên tục để thúc đẩy sự cải tiến. Cơ sở hạ tầng NVIDIA H100/H200 GPU của FPT AI Factory hỗ trợ quá trình này bằng cách thu thập dữ liệu đa dạng (cuộc trò chuyện, tương tác người dùng, dữ liệu từ cảm biến), xử lý và gắn nhãn để huấn luyện AI Agents, từ đó triển khai các tác nhân AI thông minh hơn. Những tác nhân này tạo ra dữ liệu mới từ các tương tác của người dùng, truyền dữ liệu trở lại vào hệ thống để cải thiện các phiên bản tiếp theo. Chu trình tự củng cố này giúp các hệ thống AI ngày càng thông minh và phản hồi nhanh nhạy hơn khi các tác nhân được triển khai, tạo ra một vòng lặp cải tiến liên tục.  Phát triển AI Agents (FPT AI Studio)  Sau khi dữ liệu đã được chuẩn bị, các nhà phát triển có thể sử dụng FPT AI Studio để xây dựng và huấn luyện các tác nhân thông minh trong môi trường đám mây hợp tác. Nền tảng này hỗ trợ phát triển nhiều loại tác nhân AI - từ trợ lý hội thoại đến các hệ thống ra quyết định - cung cấp công cụ huấn luyện mô hình, tinh chỉnh hành vi và tối ưu hóa hiệu suất AI Agents để đảm bảo chúng phản hồi chính xác với các tình huống thực tế.  Triển khai và cung cấp AI Agents (FPT AI Inference)  Sau khi giai đoạn phát triển và kiểm tra đã hoàn thành, FPT AI Inference cho phép triển khai tác nhân AI vào các môi trường sản xuất một cách liền mạch. Những tác nhân được triển khai này không chỉ phục vụ người dùng một cách đáng tin cậy mà còn cung cấp các dữ liệu tương tác quan trọng quay trở lại vòng quay dữ liệu, tạo ra một chu trình cải tiến liên tục. Dù bạn đang triển khai một chatbot dịch vụ khách hàng, hệ thống xe tự lái, hay tích hợp AI Agents vào nền tảng thương mại điện tử, mỗi tương tác người dùng sẽ trở thành một phần của vòng quay dữ liệu giúp thế hệ tác nhân AI tiếp theo trở nên thông minh hơn.  Từ ý tưởng cho đến sản phẩm, FPT AI Factory cung cấp toàn bộ cơ sở hạ tầng cốt lõi, biến các ý tưởng về tác nhân AI thành các hệ thống thông minh và tự cải tiến thông qua sức mạnh của vòng quay dữ liệu. 

Tối ưu hóa sức mạnh của AI tạo sinh cùng Retrieval-Augmented Generation (RAG)

18:44 29/09/2025
Trí tuệ nhân tạo (AI) đang phát triển với tốc độ vượt bậc, làm thay đổi cách thức vận hành của các ngành công nghiệp và định hình lại cách doanh nghiệp tương tác với công nghệ. Ở trung tâm của làn sóng cách mạng này là các mô hình ngôn ngữ lớn (Large Language Models – LLM) như ChatGPT của OpenAI hay Google Gemini. Những mô hình này sở hữu năng lực vượt trội trong việc hiểu và tạo ra ngôn ngữ tự nhiên, trở thành công cụ hỗ trợ đắc lực cho nhiều lĩnh vực kinh doanh.  Tuy nhiên, LLMs vẫn tồn tại những hạn chế nhất định. Các mô hình này chủ yếu dựa trên dữ liệu được huấn luyện sẵn vốn có nguy cơ trở nên lỗi thời, thiếu sót hoặc chưa đáp ứng được nhu cầu chuyên sâu. Do đó, đôi khi chúng có thể tạo ra thông tin không chính xác, gây hiểu nhầm hoặc gặp khó khăn trong việc xử lý các truy vấn yêu cầu dữ liệu theo thời gian thực.  Để giải quyết thách thức này, phương pháp tăng cường truy xuất (Retrieval-Augmented Generation - RAG) đã ra đời. Cách tiếp cận này kết hợp sức mạnh sáng tạo của LLMs với khả năng truy xuất dữ liệu bên ngoài, từ đó mang lại các giải pháp AI chính xác, đáng tin cậy và sẵn sàng đáp ứng nhu cầu của doanh nghiệp.  Retrieval-Augmented Generation là gì?  Tăng cường truy xuất là một phương pháp AI được thiết kế nhằm cải thiện cách mô hình ngôn ngữ lớn tạo ra phản hồi. Thay vì chỉ dựa vào kiến thức được huấn luyện sẵn, RAG tích hợp thêm bộ truy xuất (retriever), cho phép lấy thông tin từ các kho dữ liệu bên ngoài như API, nội dung trực tuyến, cơ sở dữ liệu và tài liệu nội bộ.  RAG được phát triển nhằm nâng cao chất lượng phản hồi của các mô hình ngôn ngữ lớn  Công cụ truy xuất (retriever) có thể được lựa chọn tùy thuộc vào nhu cầu về mức độ ngữ nghĩa và độ chính xác, bao gồm:  Vector database: Các truy vấn được chuyển đổi thành vector nhúng (dense vector embedding) thông qua các mô hình như BERT (transformers- based Model). Ngoài ra, các phương pháp truyền thống như TF-IDF có thể được sử dụng để tạo ra sparse embeddings. Việc tìm kiếm dựa trên độ tương đồng ngữ nghĩa (semantic similarity) hoặc tần suất thuật ngữ (term frequency).  Graph database: Xây dựng cơ sở tri thức (knowledge base) từ các mối quan hệ giữa các thực thể (entity) được trích xuất từ văn bản. Phương pháp này đảm bảo tính chính xác của tri thức nhưng đòi hỏi truy vấn ban đầu phải chính xác, gây khó khăn trong một số trường hợp.  Regular SQL database: Lưu trữ và truy xuất dữ liệu có cấu trúc nhưng hạn chế về mặt linh hoạt trong việc xử lý ngữ nghĩa.  RAG đặc biệt hiệu quả trong xử lý lượng lớn dữ liệu phi cấu trúc, chẳng hạn như những thông tin phân tán khắp internet. Mặc dù dữ liệu này rất đa dạng, nhưng hiếm khi được tổ chức để trực tiếp trả lời truy vấn của người dùng.  Đó là lý do tại sao RAG đã được áp dụng rộng rãi trong các trợ lý ảo và chatbot (ví dụ: Siri, Alexa). Khi người dùng đặt câu hỏi, hệ thống có thể truy xuất dữ liệu liên quan và tạo câu trả lời rõ ràng, chính xác trong ngữ cảnh. Ví dụ: Khi được hỏi “Làm thế nào để cài đặt lại điều khiển ABC?”, RAG có thể truy xuất thông tin liên quan từ tài liệu sản phẩm và các tài liệu tương ứng, từ đó tạo ra câu trả lời ngắn gọn, dễ hiểu và chính xác.  Bằng cách kết hợp việc truy xuất kiến thức bên ngoài với khả năng của mô hình ngôn ngữ lớn, RAG giúp trải nghiệm người dùng trở nên chính xác, đáng tin cậy và phù hợp hơn, kể cả trong các tình huống phức tạp và chuyên ngành.  Mô hình RAG thường được ứng dụng phổ biến trong các trợ lý ảo và chatbot  Vì sao RAG quan trọng?  Các mô hình ngôn ngữ lớn như ChatGPT hay Gemini đã định hình các tiêu chuẩn mới cho xử lý ngôn ngữ tự nhiên với khả năng từ hiểu biết, tóm tắt cho đến sáng tạo nội dung. Tuy nhiên, dù có hiệu suất ấn tượng, những mô hình này vẫn có giới hạn nhất định. Khi các tác vụ đòi hỏi chuyên môn sâu trong lĩnh vực cụ thể hoặc kiến thức cập nhật vượt ra ngoài phạm vi dữ liệu đã được huấn luyện, các mô hình ngôn ngữ lớn có thể tạo ra các câu trả lời nghe có vẻ trôi chảy nhưng lại sai sự thật. Vấn đề này thường được gọi là ảo giác AI (AI hallucination).  Trong môi trường doanh nghiệp, thách thức này càng được thể hiện rõ rệt. Các tổ chức thường quản lý những kho lưu trữ khổng lồ chứa thông tin bảo mật bao gồm sổ tay kỹ thuật, tài liệu sản phẩm, các cơ sở kiến thức, mà các mô hình thường khó có thể điều hướng. Ngay cả các mô hình tiên tiến như GPT-4 vẫn có thể gặp phải hiệu ứng “lost in the middle” – một hạn chế khiến mô hình thường nhớ rõ thông tin ở đầu và cuối văn bản nhưng dễ bỏ sót các chi tiết quan trọng ở giữa, dẫn đến kết quả trả lời chưa đầy đủ.  RAG được phát triển để khắc phục toàn bộ những hạn chế này. Bằng cách tích hợp cơ chế truy xuất, RAG cho phép mô hình ngôn ngữ lớn lấy thông tin trực tiếp từ nguồn bên ngoài, từ dữ liệu công khai đến tài liệu riêng của doanh nghiệp. Điều này không chỉ bù đắp lỗ hổng kiến thức mà còn giảm thiểu rủi ro “ảo giác”, đảm bảo câu trả lời dựa trên dữ liệu có thể kiểm chứng.  Bằng cách tích hợp dữ liệu từ nguồn bên ngoài, RAG giúp LLM đưa ra phản hồi chính xác hơn và giảm nguy cơ ảo giác AI  Cách thức hoạt động của RAG  Lợi ích của RAG  RAG mang lại nhiều ưu điểm đáng kể so với các LLMs độc lập, bao gồm:  Cập nhật kiến thức nhanh chóng: Truy xuất thông tin mới nhất một cách linh hoạt mà không cần huấn luyện lại mô hình.  Giảm thiểu ảo giác AI: Các câu trả lời có căn cứ giúp giảm thiểu rủi ro nội dung bịa đặt.  Tính minh bạch: Cung cấp nguồn tham chiếu, cho phép người dùng xác minh thông tin.  Tăng hiệu quả chi phí: Loại bỏ các chu kỳ huấn luyện lại thường xuyên, giảm chi phí tính toán và tài chính.  Khả năng mở rộng dễ dàng: Hoạt động hiệu quả trên nhiều lĩnh vực, từ chăm sóc sức khỏe, tài chính đến CNTT doanh nghiệp.  Đa dạng ứng dụng: Cung cấp sức mạnh cho các ứng dụng như chatbot, hệ thống tìm kiếm và công cụ tóm tắt thông minh.  Ứng dụng thực tiễn của RAG  RAG chính là chìa khóa giúp AI tạo sinh khắc phục những hạn chế của các mô hình như ChatGPT hay Gemini, vốn chỉ dựa vào dữ liệu huấn luyện trước có thể nhanh chóng trở nên lỗi thời hoặc không chính xác.  Bằng cách kết hợp khả năng tạo sinh của các mô hình ngôn ngữ với việc truy xuất dữ liệu bên ngoài, RAG giúp đưa ra các câu trả lời rõ ràng, theo thời gian thực, giảm thiểu ảo giác AI và giúp doanh nghiệp tối ưu hóa chi phí.  Trong thực tế, RAG đang định hình tương lai của AI trong nhiều lĩnh vực, bao gồm:  Chatbot và dịch vụ khách hàng: Cung cấp phản hồi tức thì, chính xác bằng cách truy xuất câu trả lời trực tiếp từ sổ tay sản phẩm, câu hỏi thường gặp (FAQs) hoặc cơ sở kiến thức.  Chăm sóc sức khỏe: Cung cấp thông tin y khoa đáng tin cậy bằng cách tìm kiếm thông tin từ các hướng dẫn lâm sàng và nghiên cứu khoa học đã được xác minh.  Tài chính: Hỗ trợ cho các nhà phân tích với những dữ liệu được cập nhật thị trường theo thời gian thực và những hiểu biết theo ngữ cảnh được rút ra từ các dữ liệu trực tiếp, giúp mang lại những insight hữu ích.  Quản lý tri thức (Knowledge management): Giúp nhân viên tương tác với các tài liệu kỹ thuật và quy trình một cách tự nhiên.  Những trường hợp sử dụng thực tế này đã chứng minh cách RAG làm cho AI trở nên đáng tin cậy, minh bạch và thực sự có giá trị trên nhiều ngành công nghiệp.  Tương lai của RAG  RAG là bước tiến quan trọng hướng tới tạo ra giải pháp AI đáng tin cậy và có thẩm quyền. Bằng cách kết hợp giữa kiến thức đã học (parameterized knowledge) và dữ liệu truy xuất (retrieved knowledge), RAG khắc phục một trong những hạn chế lớn nhất của mô hình ngôn ngữ lớn.  Trong tương lai, với sự phát triển của tác nhân AI (AI có khả năng tự động phối hợp truy xuất, suy luận, và tạo sinh), kết hợp với tăng tốc phần cứng như NVIDIA Grace Hopper Superchip và các framework mã nguồn mở (LangChain) và hạ tầng sẵn sàng cho doanh nghiệp như FPT AI Factory với GPU hiệu năng cao, RAG sẽ ngày càng trở thành nền tảng cốt lõi cho các giải pháp AI của doanh nghiệp.  Vì vậy, RAG không chỉ là giải pháp cho vấn đề ảo giác hay thiếu hụt tri thức, mà chính là nền móng để xây dựng trợ lý thông minh, chatbot tiên tiến và hệ thống AI sẵn sàng cho doanh nghiệp trên mọi lĩnh vực. 

AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả

11:02 26/09/2025
Tại NVIDIA AI Day, ông Phạm Vũ Hùng – Solutions Architect & Senior Consultant của FPT Smart Cloud, Tập đoàn FPT đã có bài chia sẻ với chủ đề “AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả”. Trong phần trình bày, ông Hùng mang đến góc nhìn về cách hiện thực hóa quy trình phát triển AI toàn trình, bao gồm từ việc xây dựng mô hình Generative AI cho đến triển khai AI Agent trong doanh nghiệp, trên nền tảng GPU Cloud H100/H200 của NVIDIA và hạ tầng AI Factory do FPT phát triển trong nước. Một vài điểm đáng chú ý trong phần chia sẻ: Phát triển AI toàn diện trong môi trường an toàn: quy trình khép kín từ huấn luyện GenAI đến triển khai AI Agent ngay tại data center trong nước. Tăng tốc với NVIDIA H100/H200 GPU: rút ngắn đáng kể thời gian training và inference. Xây dựng & tinh chỉnh GenAI bằng dữ liệu riêng: tạo ra mô hình chính xác hơn, đáp ứng nhu cầu đặc thù của doanh nghiệp. Xây dựng AI/ML Stack FPT AI Factory cung cấp hạ tầng AI/ML toàn diện, được xây dựng trên các trung tâm dữ liệu Tier 3 & 4 đạt chứng nhận NVIDIA tại Nhật Bản, xếp hạng tương ứng 36 và 38 trong danh sách TOP500 (tháng 6/2025).Trong số các dịch vụ nổi bật có GPU Container, GPU Virtual Machine và FPT AI Studio. Ngoài ra, nhà phát triển có thể tận dụng Bare Metal Server, GPU Cluster, AI Notebook và FPT AI Inference để đáp ứng đa dạng nhu cầu. [caption id="attachment_67178" align="aligncenter" width="1972"] Hình ảnh: Kiến trúc AI/ML Stack trên FPT AI Factory[/caption] GPU Container: Được thiết kế cho các tác vụ thử nghiệm, đi kèm tính năng giám sát, ghi log và sổ tay cộng tác (collaborative notebooks). Nhà phát triển có thể dễ dàng chia sẻ dữ liệu, viết mã, kiểm thử đơn vị (unit test) và thực thi trong một môi trường linh hoạt cao. GPU Virtual Machine: Máy ảo đa năng, tối ưu cho cả huấn luyện và suy luận, với tùy chọn cấu hình linh hoạt (từ 1 đến 8 GPU mỗi VM, dung lượng bộ nhớ GPU lên tới 141GB). GPU Cluster: Hạ tầng có khả năng mở rộng, hỗ trợ huấn luyện phân tán và suy luận quy mô lớn. Tích hợp NVLink, công nghệ chia sẻ GPU như MIG/MPS/Time-slice, cùng các tiện ích bảo mật nâng cao như nhật ký kiểm toán (audit logs) và CIS benchmarks. AI Notebook: Môi trường JupyterLab được quản lý, cài sẵn các thư viện AI/ML cần thiết. Nhà phát triển có thể bắt tay ngay vào lập trình trên GPU cấp doanh nghiệp mà không mất thời gian thiết lập, đồng thời tiết kiệm chi phí lên tới 70% so với môi trường notebook truyền thống. FPT AI Studio: Nền tảng MLOps no-code/low-code, tích hợp pipeline dữ liệu, các chiến lược tinh chỉnh (SFT, DPO, continual training), theo dõi thí nghiệm và quản lý mô hình. Giao diện kéo-thả trực quan cho phép nhà phát triển tinh chỉnh mô hình nhanh chóng và lưu trữ trong kho mô hình tập trung. FPT AI Inference: API sẵn sàng sử dụng với mức giá token cạnh tranh, giúp nhà phát triển triển khai mô hình đã tinh chỉnh một cách nhanh chóng và tiết kiệm chi phí. Trong phần trình bày, ông Hùng không chỉ nhấn mạnh những năng lực toàn diện của FPT AI Factory mà còn đưa ra ví dụ cụ thể từ khách hàng. Điển hình, FPT đã hợp tác với một công ty CNTT Nhật Bản để tinh chỉnh mô hình Donut (Document Understanding Transformer) trên bộ dữ liệu hơn 300GB. Bằng cách kết hợp GPU Container cùng FPT Object Storage, khách hàng có thể xử lý hiệu quả khối lượng lớn dữ liệu tài liệu, đồng thời tối ưu chi phí. Đây cũng là một ví dụ thực tiễn cho thấy doanh nghiệp có thể tận dụng hạ tầng của FPT AI Factory để triển khai các tác vụ AI trong thực tế. [caption id="attachment_67179" align="aligncenter" width="1674"] Hình ảnh: Quy trình tinh chỉnh mô hình Donut trên FPT AI Factory[/caption] Tăng tốc triển khai giải pháp AI thực tiễn Một trong những điểm nhấn của sự kiện là phần demo trực tiếp về AI Camera Agent được thiết kế cho bài toán tìm kiếm và tóm tắt nội dung video. Quy trình vận hành đơn giản nhưng mạnh mẽ: chỉ cần chọn một video, nhập mô tả ngắn gọn về nội dung cần tìm, và agent sẽ tự động xác định các đoạn liên quan, đồng thời tạo ra phần tóm tắt súc tích trong thời gian thực. NVIDIA Blueprints là yếu tố then chốt giúp hiện thực hóa giải pháp này – bộ kiến trúc giải pháp và công cụ đã được kiểm chứng, cho phép thử nghiệm nhanh chóng. Thay vì mất hàng tháng để xây dựng một nguyên mẫu từ đầu, nhóm đã có thể chuyển từ ý tưởng sang bản demo hoạt động chỉ trong một ngày. Sự tăng tốc này không chỉ chứng minh tính khả thi của giải pháp mà còn mang lại cho doanh nghiệp cách nhìn cụ thể về việc AI có thể được áp dụng như thế nào cho các thách thức xử lý dữ liệu video của riêng họ. [caption id="attachment_67180" align="aligncenter" width="1262"] Hình ảnh: Kiến trúc giải pháp AI Camera Agent (NVIDIA)[/caption] Đặc biệt, FPT AI Factory cung cấp môi trường full-stack, bao gồm từ các thành phần hạ tầng như GPU, máy ảo (VM) và Kubernetes đến các công cụ dành cho nhà phát triển, giúp triển khai giải pháp AI một cách nhanh chóng và hiệu quả. Với kiến trúc linh hoạt cùng các mô hình sẵn sàng sử dụng, nhà phát triển thậm chí có thể xây dựng giải pháp hoàn chỉnh chỉ với một NVIDIA H100 GPU, cân bằng giữa hiệu năng, khả năng mở rộng và tối ưu chi phí. Chẳng hạn, FPT AI Inference cung cấp thư viện mô hình sẵn dùng, cho phép nhà phát triển tích hợp ngay lập tức qua các API đơn giản. Với mức giá token cạnh tranh, đội ngũ phát triển có thể chạy các tác vụ suy luận nhanh hơn trong khi giảm đáng kể chi phí, giúp doanh nghiệp đưa ứng dụng AI ra thị trường một cách hiệu quả hơn. Tối ưu quy trình tinh chỉnh mô hình AI Hiện nay, nhà phát triển có thể tinh chỉnh mô hình trực tiếp trên GPU Container, điều này rất phù hợp cho mục đích thử nghiệm và phát triển nhanh. Tuy nhiên, để đưa một giải pháp vào vận hành thực tế, cần hơn cả sức mạnh tính toán - đó là khả năng tự động hóa quy trình tinh chỉnh. Để đáp ứng nhu cầu này, FPT AI Studio được giới thiệu, tích hợp các thành phần phổ biến trong quy trình MLOps như AI Notebook, xử lý dữ liệu (Data Processing) và nhiều chiến lược tinh chỉnh khác nhau như continual training. FPT AI Studio cho phép người dùng tích hợp dữ liệu, mô hình nền tảng và các chiến lược tinh chỉnh, với giao diện kéo-thả thân thiện, giúp xây dựng workflow nhanh chóng. Mô hình sau khi được tinh chỉnh có thể được lưu trữ trong Model Hub - một kho trung tâm để quản lý phiên bản, chia sẻ và tái sử dụng. Sau đó, các mô hình này có thể được chuyển ngay sang FPT AI Inference để triển khai với khả năng mở rộng và độ trễ thấp trong môi trường sản xuất. FPT AI Studio cung cấp môi trường lý tưởng để tối ưu hóa việc tinh chỉnh và triển khai mô hình. Nền tảng này vừa dễ tiếp cận cho người mới, vừa cho phép tùy chỉnh sâu cho người dùng nâng cao. Các thành phần chính của MLOps trên FPT AI Studio bao gồm: AI Notebook: môi trường thử nghiệm lập trình dựa trên mã nguồn. Các quy trình xử lý dữ liệu: xử lý dữ liệu trước khi huấn luyện và kỹ thuật tạo đặc trưng (feature engineering). Chiến lược tinh chỉnh bao gồm huấn luyện liên tục (continual training), thích ứng theo miền (domain adaptation) và học chuyển giao (transfer learning). Khi một mô hình đã được tinh chỉnh trong FPT AI Studio, nó sẽ được lưu giữ trong Model Hub để dễ dàng quản lý, chia sẻ và sử dụng lại. Từ đây, mô hình có thể được chuyển trực tiếp sang FPT AI Inference, phục vụ với hiệu suất cao và độ trễ thấp trong môi trường sản xuất. [caption id="attachment_67182" align="aligncenter" width="1312"] Hình ảnh: Quy trình huấn luyện trên FPT AI Studio[/caption] Tại buổi chia sẻ, ông Hùng đã minh họa một câu chuyện thành công về cách FPT AI Studio được ứng dụng để tùy biến một mô hình ngôn ngữ lớn phục vụ lĩnh vực y tế tại Việt Nam. Mô hình gốc được chọn là Llama-3.1-8B, cân bằng tốt giữa khả năng xử lý và hiệu suất. Nhiệm vụ đặt ra là phát triển một mô hình tối ưu cho trả lời câu hỏi y tế, yêu cầu điều chỉnh chuyên sâu theo lĩnh vực nhưng vẫn giữ nguyên năng lực suy luận tổng quát của mô hình gốc. Bộ dữ liệu sử dụng bao gồm các tài liệu y tế tiếng Việt, với mục tiêu nâng cao khả năng nhớ chính xác thông tin, độ chuyên sâu về lĩnh vực, và chất lượng phản hồi trong các tình huống hỏi đáp lâm sàng. Cách tiếp cận thứ nhất dựa trên việc huấn luyện liên tục (continual pre-training). Sử dụng 24 NVIDIA H100 GPU trên 3 node, mô hình được huấn luyện trên bộ dữ liệu y tế qua 3 epoch, toàn bộ quy trình mất khoảng 31 giờ để hoàn tất. Cách tiếp cận thứ hai áp dụng tinh chỉnh có giám sát với LoRA adapters, là giải pháp tiết kiệm tài nguyên hơn. Trong phương án này, chỉ sử dụng 4 NVIDIA H100 GPU trên một node, huấn luyện qua 5 epoch, với thời gian tổng cộng khoảng 3 giờ. Mặc dù yêu cầu tính toán thấp hơn, phương pháp này vẫn mang lại cải thiện đáng kể cho các tác vụ hỏi đáp chuyên ngành. [caption id="attachment_67183" align="aligncenter" width="922"] Hình ảnh: Kết quả của quá trình pre-training và SFT LLM với bộ dữ liệu y tế[/caption] Gợi ý triển khai hiệu quả Trước tiên, điều quan trọng là lựa chọn công cụ phù hợp cho từng loại khối lượng công việc nhằm tối đa hóa cả hiệu suất lẫn hiệu quả chi phí. Với FPT AI Factory, người dùng được trang bị đầy đủ công cụ cần thiết cho mọi loại khối lượng công việc AI/ML, giúp thúc đẩy đổi mới AI nhanh hơn và hiệu quả hơn. Đối với giai đoạn thử nghiệm ban đầu, GPU Container hoặc AI Notebook cung cấp môi trường linh hoạt cho các nhà phát triển thử nghiệm ý tưởng và chạy nguyên mẫu nhanh. Khi triển khai, lựa chọn phù hợp phụ thuộc vào khối lượng công việc: GPU Container lý tưởng cho việc suy luận nhẹ, trong khi GPU Virtual Machine mang lại hiệu suất cần thiết cho suy luận thời gian thực hoặc xử lý theo lô. Các khối lượng công việc tính toán hiệu năng cao (HPC) đạt hiệu quả tối ưu trên Metal Cloud, cung cấp hiệu suất bare metal cho các tác vụ yêu cầu cao. Cuối cùng, các tổ chức muốn sử dụng mô hình sẵn sàng có thể truy cập AI Marketplace, nơi cung cấp các LLM đã được huấn luyện sẵn và dịch vụ hỗ trợ để tăng tốc quá trình áp dụng mà không cần tinh chỉnh thêm. [caption id="attachment_67184" align="aligncenter" width="941"] Hình ảnh: Giải pháp của FPT AI Factory cho các loại khối lượng công việc AI/ML khác nhau[/caption] Thứ hai, các nhà phát triển cần tối ưu hóa khối lượng công việc huấn luyện. Việc tối ưu huấn luyện các mô hình AI sinh tạo lớn đòi hỏi kết hợp giữa kỹ thuật tận dụng phần cứng và thiết kế quy trình làm việc. Một phương pháp quan trọng là sử dụng huấn luyện chính xác hỗn hợp (mixed-precision training), áp dụng các định dạng như FP16 hoặc BF16 để tăng tốc tính toán trên NVIDIA GPU đồng thời giảm tới 50% bộ nhớ sử dụng. Điều này không chỉ rút ngắn thời gian huấn luyện mà còn duy trì độ chính xác với khả năng tự động mở rộng. Huấn luyện phân tán cũng rất quan trọng, với các chiến lược như PyTorch DDP hoặc pipeline parallelism giúp mở rộng khối lượng công việc trên nhiều GPU hoặc node, cải thiện thông lượng và rút ngắn chu kỳ phát triển. Trong môi trường đa node, tối ưu kết nối cluster bằng NVLink hoặc InfiniBand có thể tăng tốc huấn luyện lên tới 3 lần, đảm bảo đồng bộ hiệu quả cho các tác vụ AI quy mô lớn. Quy trình dữ liệu và lưu trữ cũng cần được tối ưu, sử dụng NVIDIA DALI và khả năng I/O mở rộng để tránh nghẽn cổ chai. Cuối cùng, các công cụ đối chuẩn như kiểm thử hiệu suất GPU của FPT AI Factory và kết quả MLPerf của NVIDIA giúp xác thực cấu hình, đảm bảo mở rộng hiệu quả về chi phí cho quá trình tinh chỉnh. Thứ ba, cần tối ưu hóa khối lượng công việc suy luận (inference) để cung cấp dịch vụ AI tạo sinh có khả năng mở rộng và độ trễ thấp. Một phương pháp hiệu quả là lượng tử hóa (quantization) và sử dụng độ chính xác thấp hơn với NVIDIA TensorRT, chuyển đổi mô hình sang FP8 hoặc INT8 để tăng thông lượng tới 1,4 lần với ít ảnh hưởng tới độ chính xác. Đối với các mô hình ngôn ngữ lớn, quản lý bộ nhớ KV cache hiệu quả cũng rất quan trọng; các kỹ thuật như PagedAttention và chunked prefill giúp giảm phân mảnh bộ nhớ và rút ngắn thời gian tạo token đầu tiên tới 2–5 lần trong môi trường nhiều người dùng. Speculative decoding cải thiện hiệu suất bằng cách kết hợp một mô hình nháp nhỏ với mô hình chính để dự đoán nhiều token cùng lúc, mang lại thông lượng tăng 1,9–3,6 lần, đồng thời giảm độ trễ, đặc biệt hữu ích trong ứng dụng thời gian thực như tóm tắt video. Mở rộng với multi-GPU parallelism cũng đóng vai trò then chốt, giúp tăng tới 1,5 lần hiệu suất trong các tác vụ tinh chỉnh phân tán ở cluster khối lượng lớn. Cuối cùng, model distillation và pruning giúp thu gọn mô hình, giảm chi phí và độ trễ 20 - 30% mà không làm giảm chất lượng đầu ra. Điểm nhấn chính Kiến trúc quy trình AI toàn diện và bảo mật: Phân tích kiến trúc của một “AI factory” trong thực tế, tập trung vào nguyên tắc thiết kế để xây dựng vòng đời phát triển an toàn trong trung tâm dữ liệu nội bộ. Khán giả sẽ nắm rõ các bước kỹ thuật để đảm bảo cách ly dữ liệu, quản lý hosting mô hình an toàn, và thiết lập lộ trình từ tinh chỉnh tới triển khai AI agent đạt chuẩn doanh nghiệp. Kỹ thuật thực tiễn cho vận hành LLM tăng tốc GPU: Vượt ra ngoài thông số kỹ thuật, học cách tận dụng GPU hiệu năng cao (như NVIDIA H100/H200) một cách thực tế. Phiên chia sẻ này trình bày các phương pháp tối ưu cụ thể cho cả huấn luyện và tinh chỉnh, nhằm tối đa hóa thông lượng, giảm độ trễ, và rút ngắn chu kỳ phát triển cho các ứng dụng AI sinh tạo có yêu cầu cao.

Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory: Giải pháp giúp doanh nghiệp tăng tốc phát triển AI

11:34 03/09/2025
Vừa qua, FPT đã tổ chức webinar với chủ đề“Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory” (“Fine-Tuning Llama 3 in 30 minutes on FPT AI Factory”) cùng sự tham gia của ông Donald Murataj, Chuyên gia AI tại FPT, xoay quanh chủ đề về ứng dụng kỹ thuật tinh chỉnh hiệu quả mô hình Llama 3 trên FPT AI Factory.   AI tạo sinh – Xu hướng tất yếu của doanh nghiệp  Trong bối cảnh hiện nay, trí tuệ nhân tạo (AI) đã trở thành một trong những yếu tố quan trọng thúc đẩy sự phát triển của doanh nghiệp. Đặc biệt, AI tạo sinh (Gen AI) nổi lên như một công nghệ đột phá, không chỉ giúp tối ưu hiệu quả vận hành và nâng cao trải nghiệm khách hàng, mà còn mở ra những mô hình kinh doanh hoàn toàn mới.   Thách thức lớn nhất đối với doanh nghiệp là làm thế nào để "cá nhân hóa" những mô hình ngôn ngữ khổng lồ như Llama 3 theo dữ liệu và ngữ cảnh đặc thù của mình. Đây chính là lúc tinh chỉnh trở thành chìa khóa để GenAI thực sự tạo ra giá trị đột phá. Buổi webinar của FPT đã cho thấy quá trình phức tạp này có thể được thực hiện một cách nhanh chóng, đơn giản và hiệu quả ngay trên FPT AI Factory.  Trải nghiệm tinh chỉnh Llama 3 chỉ trong 30 phút  Điểm nhấn của webinar là màn trình diễn trực tiếp, nơi chuyên gia FPT thực hiện toàn bộ quy trình tinh chỉnh Llama 3 chỉ trong 30 phút, hướng dẫn người tham dự chi tiết qua từng bước:   Bước 1: Chuẩn bị bộ dữ liệu huấn luyện sát với nhu cầu thực tế, giúp mô hình hiểu đúng bối cảnh và ngôn ngữ riêng của doanh nghiệp.  Bước 2: Khởi tạo môi trường GPU Container trên FPT AI Factory để đảm bảo tốc độ xử lý nhanh, ổn định và dễ dàng mở rộng khi cần.  Bước 3: Thực hiện fine-tuning ngay trên giao diện trực quan, vừa đơn giản thao tác vừa cho phép kiểm soát toàn bộ quá trình.  Bước 4: Đánh giá kết quả và so sánh với mô hình gốc để nhận thấy rõ sự cải thiện về hiệu năng và độ chính xác.  Điều khiến người tham dự ấn tượng nhất chính là sự đơn giản và dễ tiếp cận của FPT AI Factory. Ngay cả đội ngũ kỹ thuật chưa có nhiều kinh nghiệm phát triển AI cũng có thể nhanh chóng tạo ra mô hình AI riêng của mình. Nếu như trước đây quá trình tinh chỉnh thường mất vài ngày, thì nay chỉ trong chưa đầy một giờ, toàn bộ quy trình đã hoàn thiện, minh chứng rõ ràng cho sức mạnh tối ưu của FPT AI Factory.  Trải nghiệm này đã biến một quy trình vốn phức tạp trở nên nhanh chóng và dễ áp dụng, mở ra cơ hội để mọi doanh nghiệp bắt tay vào ứng dụng AI ngay từ bước thử nghiệm đầu tiên.  >>> Xem lại webinar tại đây: https://www.youtube.com/watch?v=6L1nQteXAnM&ab_channel=FPTAIFactory  FPT AI Factory – Bộ giải pháp phát triển AI toàn diện dành cho doanh nghiệp Tất cả những điều này trở thành hiện thực nhờ FPT AI Factory – bộ giải pháp phát triển AI toàn diện được xây dựng trên hạ tầng hiện đại, khai thác sức mạnh của siêu chip NVIDIA H100/H200 GPU và phần mềm NVIDIA AI Enterprise. Kết hợp với kinh nghiệm triển khai thực tiễn từ FPT, FPT AI Factory giúp doanh nghiệp rút ngắn thời gian phát triển mô hình, tối ưu chi phí và mở rộng quy mô triển khai một cách linh hoạt, bảo mật.  Nền tảng bao gồm 4 thành phần chính:  FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, tiết kiệm năng lượng cho LLM và mô hình đa phương thức.  FPT AI Studio: Môi trường fine-tuning, thử nghiệm và prototyping nhanh chóng, tiết kiệm chi phí.  FPT AI Inference: Nền tảng phục vụ AI với độ trễ thấp, hiệu năng cao, phù hợp cho ứng dụng ở môi trường sản xuất.  FPT AI Agents: Nền tảng xây dựng và vận hành AI agent thông minh, đa ngôn ngữ, tích hợp liền mạch với quy trình doanh nghiệp.  Ngoài ra, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng sử dụng, giúp doanh nghiệp nhanh chóng ứng dụng AI vào trải nghiệm khách hàng, vận hành, quản trị nhân sự và tối ưu chi phí. 

Tinh chỉnh OpenFlamingo với GPU NVIDIA H100

10:35 03/09/2025
1. Giới thiệu Flamingo: Few-shot learning cho các mô hình ngôn ngữ thị giác  Flamingo (tài liệu gốc: [https://arxiv.org/pdf/2204.14198]) là một nhánh của mô hình ngôn ngữ thị giác (VLMs) được xây dựng bởi nhóm các chuyên gia tại Google DeepMind để giải quyết các bài toán về Few-shot learning trong học máy đa phương thức. Mô hình này được xây dựng dựa trên ba tầng lớp quan trọng:  Kết hợp sức mạnh của các mô hình đã huấn luyện sẵn cho xử lý hình ảnh và xử lý ngôn ngữ.  Xử lý linh hoạt chuỗi dữ liệu gồm cả hình ảnh và văn bản xen kẽ.  Dễ dàng nhận hình ảnh hoặc video làm đầu vào.  Sự linh hoạt này giúp Flamingo có thể được huấn luyện trên khối lượng dữ liệu web quy mô lớn, nơi hình ảnh và văn bản được kết hợp lẫn nhau. Đây chính là yếu tố quan trọng để Flamingo có khả năng học những nhiệm vụ mới chỉ với một vài ví dụ.  Nhờ vậy, bằng cách sử dụng một vài ví dụ mẫu phù hợp với từng tác vụ, một mô hình Flamingo có thể đạt được hiệu năng hàng đầu trong nhiều tác vụ khác nhau, bao gồm trả lời câu hỏi dựa trên hình ảnh, tạo chú thích (caption) và trả lời câu hỏi trắc nghiệm.  Cách tiếp cận few-shot này thường giúp Flamingo vượt trội hơn cả những mô hình đã được tinh chỉnh bằng lượng dữ liệu nhiều gấp hàng nghìn lần.  2. Flamingo vận hành như thế nào? Flamingo hoạt động thông qua một giao diện đa phương thức, xử lý kết hợp hình ảnh, video và văn bản để tạo ra phản hồi dưới dạng văn bản phù hợp. Thiết kế này giúp Flamingo dễ dàng thích ứng với nhiều tác vụ khác nhau, tương tự như các mô hình ngôn ngữ lớn (LLM), vốn sử dụng các gợi ý bằng văn bản để giải quyết nhiều thách thức liên quan đến ngôn ngữ.  Kiến trúc mô hình   OpenFlamingo kết hợp một bộ mã hóa thị giác đã được huấn luyện sẵn với một mô hình ngôn ngữ thông qua các lớp cross-attention. Kiến trúc mô hình được minh họa bên dưới.  Kiến trúc này hoạt động thông qua hai nhánh chính:     a. Nhánh thị giác (bên trái) Nhánh này chịu trách nhiệm xử lý dữ liệu thị giác (hình ảnh) và chuẩn bị cho mô hình ngôn ngữ.  Vision Encoder: Đây là một mô hình đã được huấn luyện sẵn (biểu thị bằng biểu tượng bông tuyết “đóng băng”), có nhiệm vụ trích xuất đặc trưng từ hình ảnh đầu vào. Một điểm quan trọng trong thiết kế là các trọng số của bộ mã hóa này được “đóng băng” và không thay đổi trong quá trình huấn luyện.  Perceiver Resampler: Đầu ra từ bộ mã hóa thị giác sau đó được đưa vào Perceiver Resampler. Thành phần này ánh xạ các đặc trưng thị giác có kích thước thay đổi thành một số lượng nhỏ, cố định các token đầu ra. Mô-đun này được huấn luyện từ đầu (biểu thị bằng màu tím), học cách tạo ra phiên bản rút gọn của dữ liệu hình ảnh. Trong Flamingo, số lượng token hình ảnh đầu ra được đặt là 5.  b. Nhánh ngôn ngữ (bên phải) Nhánh này xử lý văn bản và kết hợp nó với thông tin thị giác để tạo ra đầu ra cuối cùng.  Interleaved Input: Mô hình nhận một chuỗi đầu vào gồm văn bản xen kẽ với các ký hiệu giữ chỗ cho hình ảnh (<image>).  LM Blocks: Nền tảng của nhánh này là một mô hình ngôn ngữ lớn (Language Model – LM) đã được huấn luyện sẵn (ví dụ: Chinchilla). Tương tự như Bộ mã hóa thị giác, các khối LM này cũng được “đóng băng”, nghĩa là tận dụng vốn kiến thức ngôn ngữ khổng lồ mà không cần huấn luyện lại.  Gated XATTN-DENSE: Đây là điểm đổi mới then chốt giúp kết nối hai nhánh. Đây là những mô-đun mới, được huấn luyện từ đầu và chèn vào giữa các khối LM. Khi mô hình gặp một ký hiệu <image> trong dòng văn bản, lớp Gated XATTN-DENSE sẽ thực hiện phép cross-attention, dùng thông tin văn bản làm “truy vấn” để “nhìn vào” các token hình ảnh do Perceiver Resampler sinh ra. Thành phần “gated” là cơ chế kiểm soát mức độ thông tin hình ảnh được phép ảnh hưởng đến quá trình sinh ngôn ngữ, giúp kết hợp linh hoạt hai loại dữ liệu.  Thiết lập tiêu chuẩn mới cho Few-Shot learning  Flamingo đã được kiểm chứng nghiêm ngặt trên 16 tác vụ khác nhau và luôn đạt kết quả tốt hơn so với các mô hình few-shot learning trước đây, ngay cả khi mỗi tác vụ chỉ có bốn ví dụ. Trong một số trường hợp, Flamingo còn cho thấy hiệu năng tốt hơn cả những phương pháp cần tinh chỉnh trên quy mô lớn và sử dụng tập dữ liệu khổng lồ, cho thấy khả năng khái quát hóa rất hiệu quả.  Bằng cách giảm thiểu nhu cầu gắn nhãn dữ liệu quy mô lớn và huấn luyện lại riêng cho từng tác vụ, Flamingo đánh dấu một bước tiến quan trọng về hiệu quả của các mô hình ngôn ngữ thị giác. Khả năng học nhanh từ số lượng ví dụ hạn chế đưa AI tiến gần hơn đến sự thích ứng tự nhiên như con người, mở ra nhiều ứng dụng thực tiễn với độ chính xác cao và dễ dàng hơn. 3. Tại sao phải tinh chỉnh Flamingo? Để kiểm chứng hiệu năng của hệ thống H100 mới, chúng tôi tiến hành thử nghiệm khả năng vận hành một mô hình ngôn ngữ lớn (LLMs). Trong quá trình đánh giá này, chúng tôi chọn tinh chỉnh một phiên bản Flamingo do cộng đồng phát triển. Dự án này đồng thời phục vụ hai mục tiêu:  System Validation: Chúng tôi sử dụng tác vụ tinh chỉnh này để kiểm thử nghiêm ngặt hạ tầng H100, nhằm đảm bảo nó có thể đáp ứng các yêu cầu tính toán khắt khe trong việc huấn luyện và vận hành một mô hình lớn.  Code Verification: Do mã nguồn gốc của mô hình Flamingo không được công bố rộng rãi, chúng tôi dựa vào phiên bản do cộng đồng phát triển. Quá trình này giúp kiểm chứng xem bản mã nguồn mở đó có tái hiện chính xác và vận hành được mô hình như mô tả trong bài báo nghiên cứu hay không.  Do đó, xin lưu ý rằng trọng tâm của chúng tôi ở đây là khả năng của hệ thống, chứ không phải đánh giá độ chính xác của mô hình.  Trong dự án này, một bản sao Flamingo có tên OpenFlamingo, do ML-Foundation phát triển, đã được sử dụng vì mô hình Flamingo gốc chưa được công bố rộng rãi. Mục tiêu là tinh chỉnh OpenFlamingo trên bộ dữ liệu gốc và đánh giá hiệu năng của nó trong điều kiện kiểm soát.   Những kết quả này giúp xác định tính khả thi của việc triển khai OpenFlamingo trong các ứng dụng thực tiễn, đồng thời tối ưu hóa việc khai thác phần cứng. 4. Flamingo được tinh chỉnh như thế nào? Cài đặt OpenFlamingo  Để cài đặt gói này trong môi trường hiện có, hãy chạy lệnh sau:  [code lang="js"] pip install open-flamingo [/code] Hoặc để tạo một môi trường Conda dành cho việc chạy OpenFlamingo, hãy chạy lệnh sau: [code lang="js"] conda env create -f environment.yml [/code] Để cài đặt các dependencies phục vụ huấn luyện hoặc đánh giá, hãy chạy một trong hai lệnh đầu tiên. Để cài đặt toàn bộ, hãy chạy lệnh thứ ba. [code lang="js"] pip install open-flamingo[training] pip install open-flamingo[eval] pip install open-flamingo[all] [/code] Có ba tệp câu lệnh requirements.txt:  requirements.txt  requirements-training.txt  requirements-eval.txt   Tùy theo mục đích sử dụng, bạn có thể cài đặt bất kỳ gói nào trong số này bằng lệnh: pip install -r <requirements-file.txt>. Tệp base chỉ bao gồm các dependencies cần thiết để chạy mô hình.  Phát triển   Các tác giả mã nguồn mở sử dụng pre-commit hooks để đồng bộ định dạng mã với các kiểm tra trong kho lưu trữ. Để cài đặt pre-commit, hãy chạy lệnh sau:  [code lang="js"] pip install pre-commit [/code] hoặc sử dụng brew cho MacOS:  [code lang="js"] brew install pre-commit [/code] Kiểm tra phiên bản đã cài đặt với:  [code lang="js"] pre-commit --version [/code] Sau đó, tại thư mục gốc của kho lưu trữ này, hãy chạy lệnh:  [code lang="js"] pre-commit install [/code] Sau đó, mỗi lần chúng ta chạy git commit, các kiểm tra sẽ được thực hiện. Nếu các tệp bị định dạng lại bởi các hooks, hãy chạy lại lệnh:  [code lang="js"] git add [/code] cho các tệp bạn đã thay đổi, và hãy chạy lại lệnh  [code lang="js"] git commit [/code] Quy trình huấn luyện   Để huấn luyện OpenFlamingo, hãy đảm bảo môi trường của bạn khớp với môi trường của environment.yml.  Xử lý dữ liệu   Mã nguồn sử dụng WebDataset để tải các tệp .tar chứa các chuỗi hình ảnh và văn bản một cách hiệu quả. Chúng tôi khuyến nghị lấy mẫu lại các shard với thay thế trong quá trình huấn luyện bằng cách gắn cờ -- dataset_resampled.  Bộ dữ liệu LAION-2B  LAION-2B chứa 2 tỷ cặp (hình ảnh, văn bản) được trích xuất từ web. Vui lòng sử dụng img2dataset để tải xuống bộ dữ liệu này thành các tệp tar.  Bộ dữ liệu đa phương thức C4 (Multimodal C4 - MMC4)  OpenFlamingo được huấn luyện trên phiên bản đầy đủ của MMC4, bao gồm 103 triệu tài liệu với chuỗi hình ảnh và văn bản xen kẽ. Trong quá trình huấn luyện, chuỗi được cắt ngắn còn 256 token văn bản và 6 hình ảnh mỗi chuỗi. Codebase yêu cầu các tệp .tar chứa các tệp .json, trong đó bao gồm hình ảnh gốc được mã hóa bằng base64.   Các script được cung cấp để chuyển đổi MMC4 sang định dạng này:   (1) Tải xuống các shard MMC4 thành các tệp .zip bằng các script do MMC4 cung cấp (ví dụ: fewer_facesv2.sh).   (2) Tải xuống hình ảnh gốc MMC4 vào một thư mục hình ảnh bằng các script do MMC4 cung cấp (ví dụ: download_images.py).   (3) Chạy scripts/convert_mmc4_to_wds.py để chuyển đổi các mục đã tải xuống thành các tệp định dạng  tar.  Bộ dữ liệu tùy chỉnh  Gần đây có báo cáo rằng các URL tải xuống bộ dữ liệu MMC4 đang gặp một số vấn đề về quyền truy cập. Do đó, chúng tôi đã tạo một script giúp chuẩn bị bộ dữ liệu tùy chỉnh bằng cách chuyển đổi nó sang định dạng của MMC4 (chúng tôi đã sử dụng bộ dữ liệu ADNI làm mục tiêu cho ví dụ này, với dữ liệu hình ảnh base64 mẫu cố định). Bạn có thể sửa đổi script này theo bộ dữ liệu tùy chỉnh của mình:  [code lang="js"] import json  import os  import tarfile    def compress_directory_to_tar(directory_path):      json_files = [f for f in os.listdir(directory_path) if f.endswith('.json')]      os.makedirs('replicate_mmc4', exist_ok=True)        for i in range(0, len(json_files), 20):          batch_files = json_files[i:i+20]          tar_file_path = os.path.join('replicate_mmc4', f"{i//20:09d}.tar")            with tarfile.open(tar_file_path, "w:gz") as tar:              for file in batch_files:                  tar.add(os.path.join(directory_path, file), arcname=file)            print(f"Batch {i//20} compressed to {tar_file_path}")    def convert_adni_to_mmc4(input_json_path, output_folder):      # Ensure the output folder exists      os.makedirs(output_folder, exist_ok=True)        # Load the large JSON file      with open(input_json_path, 'r') as f:          data = json.load(f)        matched_text_index = 0        # Iterate over each item in the list and save it as a separate JSON file      for idx, item in enumerate(data):          # Ensure compatibility with the structure of f9773b9c866145c28fe0b701dde8dfbe.json            # Handle text list:          conversations = item.get("conversations", None)          if conversations is not None:              text_list = []              for conversation in conversations:                  text_list.append(conversation["value"])            # Check for <image> tag in the first element of conversations list          first_convo = conversations[0]["value"]          if "<image>" in first_convo:              if first_convo.startswith("<image>"):                  matched_text_index = 0              elif first_convo.endswith("<image>"):                  matched_text_index = 1            item["text_list"] = text_list            # Handle image's base64 content:          with open('./sample_base64.txt', 'r') as f:              sample_img_base64_data = f.read()            # Handle image info:          img_info = []          images_list = item.get("image", None)          if images_list is not None:              for img in images_list:                  img_obj = {}                  img_obj["image_name"] = img                  img_obj["raw_url"] = "https://example.com/{}".format(img)                  img_obj["matched_text_index"] = matched_text_index                  img_obj["matched_sim"] = 0.75                  img_obj["image_base64"] = sample_img_base64_data                  img_info.append(img_obj)            # Create similarity_matrix          similarity_matrix = []          for img in img_info:              for _ in range(len(text_list)):                  inner_list = [0] * len(text_list)                  inner_list[matched_text_index] = 1                  similarity_matrix.append(inner_list)            # item["similarity_matrix"] = similarity_matrix            output_item = {              "id": item.get("id", None),              "url": "https://example.com",              "text_list": item.get("text_list", None),              "image_info": img_info,              "similarity_matrix": similarity_matrix,              "could_have_url_duplicate": 0          }            # Save the item as a separate JSON file          output_path = os.path.join(output_folder, f"{idx:05d}.json")          with open(output_path, 'w') as out_f:              json.dump(output_item, out_f) [/code] Các chuỗi do ChatGPT khởi tạo  Một tập con các mô hình của chúng tôi (liệt kê bên dưới) cũng được huấn luyện trên các chuỗi (hình ảnh, văn bản) do ChatGPT tạo thử nghiệm, trong đó hình ảnh được lấy từ LAION. Các shard chứa những chuỗi này có thể tìm thấy tại bảng tính CodaLab này. Họ không thể phân phối hình ảnh gốc trong các shard phát hành; hình ảnh cần được tải trước từ các URL trong các tệp JSON và chuyển sang định dạng base64 trước khi sử dụng dữ liệu này để huấn luyện trong codebase của chúng tôi.  Các mô hình được huấn luyện với các chuỗi do ChatGPT tạo:  OpenFlamingo-4B-vitl-rpj3b  OpenFlamingo-4B-vitl-rpj3b-langinstruct  Lệnh huấn luyện   Một Slurm mẫu được cung cấp trong script huấn luyện trong scripts/. Bạn cũng có thể sửa đổi lệnh sau:  [code lang="js"] torchrun --nnodes=1 --nproc_per_node=8 open_flamingo/train/train.py \      --lm_path anas-awadalla/mpt-1b-redpajama-200b \      --tokenizer_path anas-awadalla/mpt-1b-redpajama-200b \      --cross_attn_every_n_layers 1 \      --dataset_resampled \      --batch_size_mmc4 2 \      --train_num_samples_mmc4 1000 \      --workers=4 \      --run_name OpenFlamingo-3B-vitl-mpt1b \      --num_epochs 20 \      --warmup_steps 1875 \      --mmc4_textsim_threshold 0.24 \      --mmc4_shards "modifications/VLM_ADNI_DATA/replicate_mmc4/{000000000..000000040}.tar" \      --report_to_wandb  [/code] Mã nguồn của mô hình MPT-1B (base và instruct) không nhận tham số labels và cũng không tính trực tiếp hàm mất mát cross-entropy trong forward(). Chúng tôi khuyến nghị sử dụng một phiên bản các mô hình MPT-1B đã được chỉnh sửa, có thể tìm thấy tại đây.  Huấn luyện phân tán   Theo mặc định, train.py sử dụng Distributed Data Parallel của Pytorch để huấn luyện.   Để sử dụng Fully Sharded Data Parallel (FSDP), hãy gắn cờ --fsdp.   Một số lưu ý về FSDP từ nhóm OpenFlamingo: Chúng tôi khuyến nghị sử dụng cờ --fsdp_use_orig_params df. Nếu --fsdp được bật mà không có cờ này, tất cả embeddings của mô hình ngôn ngữ sẽ được mở khóa trong quá trình huấn luyện. (Ngược lại, hành vi mặc định là chỉ huấn luyện các token <image> và <|endofchunk|> mới được thêm vào.)   Lưu ý: Chúng tôi đã gặp vấn đề khi sử dụng OPT với cờ này. Các mô hình ngôn ngữ khác sẽ tương thích hơn.   Chiến lược đóng gói FSDP hiện tại không cho phép huấn luyện embeddings của mô hình ngôn ngữ sử dụng tied weights (tức là embeddings đầu vào/đầu ra được liên kết). Để huấn luyện các mô hình như vậy với FSDP, embeddings của mô hình ngôn ngữ phải được đóng băng bằng cờ —freeze_lm_embeddings.   Chúng tôi cũng triển khai gradient checkpointing và huấn luyện với mixed precision. Sử dụng lần lượt các cờ —gradient_checkpointing và —precision.  Khởi tạo mô hình OpenFlamingo   OpenFlamingo hỗ trợ các bộ mã hóa thị giác đã được huấn luyện trước từ gói OpenCLIP, bao gồm các mô hình đã được huấn luyện trước của OpenAI. Chúng cũng hỗ trợ các mô hình ngôn ngữ đã được huấn luyện sẵn từ gói transformers, chẳng hạn như MPT, RedPajama, LLaMA, OPT, GPT-Neo, GPT-J hay các mô hình Pythia [code lang="js"] from open_flamingo import create_model_and_transforms    model, image_processor, tokenizer = create_model_and_transforms(      clip_vision_encoder_path="ViT-L-14",      clip_vision_encoder_pretrained="openai",      lang_encoder_path="anas-awadalla/mpt-1b-redpajama-200b",      tokenizer_path="anas-awadalla/mpt-1b-redpajama-200b",      cross_attn_every_n_layers=1,      cache_dir="PATH/TO/CACHE/DIR" # Defaults to ~/.cache  )  [/code] 5. Kết quả đạt được Dưới đây là kết quả được báo cáo từ WandBs của chúng tôi: GPU NVIDIA H100  Hệ thống NVIDIA H100 đã được sử dụng:   Hệ thống được trang bị 8 * GPU NVIDIA H100 80GB HBM3. Tuy nhiên, đối với thiết lập huấn luyện này, chỉ cần 2 GPU với huấn luyện phân tán là hoàn thiện.   Mỗi GPU NVIDIA H100 có 80GB bộ nhớ băng thông cao (HBM3), tạo ra một hệ thống tính toán hiệu năng cao (HPC) hoặc huấn luyện AI.   Các GPU NVIDIA H100 ở trạng thái hiệu suất P0, cho thấy chúng đang ở chế độ hiệu suất cao nhất hiện có.  Các số liệu được báo cáo của mô hình    Dữ liệu huấn luyện cho thấy quá trình đang vận hành tốt, với các hành vi đúng như yêu cầu trên các thông số khác nhau. Đường cong loss giảm mạnh ở giai đoạn đầu rồi dần ổn định, cho thấy mô hình đang đạt kết quả tốt. Learning rate tuân theo lịch trình khởi động tuyến tính (linear warm-up). Đây chính là phương pháp phổ biến để giữ cho giai đoạn huấn luyện ban đầu ổn định.  Thời gian xử lý từng bước (step time) và thời gian tải dữ liệu nhìn chung ổn định, chỉ có một vài đột biến có thể xuất phát từ biến động hệ thống, quá trình lưu checkpoint hoặc độ trễ khi tải dữ liệu. Global step tăng tuyến tính, xác nhận rằng quá trình huấn luyện đang tiến triển ổn định.  Chỉ số samples per second per GPU cũng duy trì mức ổn định, chỉ có một chút sụt giảm nhỏ nhưng không gây ảnh hưởng đáng kể đến hiệu năng tổng thể. Nhìn chung, các chỉ số này cho thấy mô hình huấn luyện hoạt động bình thường, tuy nhiên việc giám sát kỹ hơn những đột biến về thời gian xử lý bước và tải dữ liệu có thể giúp tối ưu hóa hiệu quả hơn nữa.  Các số liệu được báo cáo của hệ thống  Lỗi bộ nhớ không được sửa của GPU (Trên cùng bên trái): Đường này vẫn ở mức 0, cho thấy không có lỗi bộ nhớ nào chưa được sửa.  Lỗi bộ nhớ đã được sửa của GPU (Trên cùng ở giữa): Biểu đồ cũng thẳng ở mức 0, nghĩa là không có lỗi bộ nhớ đã được sửa.  Tốc độ xung nhịp bộ nhớ GPU (Trên cùng bên phải): Bình thường; tốc độ xung nhịp ổn đỉnh cho thấy không có sự thay đổi tần số động hay giới hạn hiệu năng.  Tốc độ xung nhịp Bộ đa xử lý Streaming (SM) của GPU (Dưới cùng bên trái): Bình thường; tốc độ xung nhịp ổn định cho thấy không có điều tiết nhiệt.  Mức sử dụng điện năng GPU (W) (Dưới cùng ở giữa): Hiển thị dạng chu kỳ, cho thấy mức tiêu thụ điện năng của GPU dao động trong quá trình thực thi tác vụ ⇒ có thể do xử lý theo nhóm, lập lịch công việc hoặc cơ chế quản lý điện năng. Giới hạn điện năng cưỡng bức của GPU (W) (Trên cùng bên trái): Bình thường; điều này cho thấy GPU không vượt quá giới hạn điện năng được xác định trước. Bộ nhớ GPU được phân bổ (Bytes) (Trên cùng ở giữa): Việc phân bổ bộ nhớ vẫn ổn định nhưng đột ngột giảm vào cuối => Sự sụt giảm này là khi quá trình huấn luyện kết thúc.  Bộ nhớ GPU được phân bổ (%) (Trên cùng bên phải): Bình thường, tương tự như Bộ nhớ GPU được phân bổ (Bytes).  Thời gian GPU dành để truy cập bộ nhớ (%) (Dưới cùng bên trái): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Nhiệt độ GPU (°C) (Dưới cùng ở giữa): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Mức sử dụng GPU (%) (Dưới cùng bên phải): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.

Nhà Máy AI Đang Tái Định Hình Trung Tâm Dữ Liệu Cho Một Tương Lai Thông Minh

15:45 08/08/2025
Từ các startup đến những tập đoàn hàng đầu thế giới, làn sóng AI đang từng bước thay đổi cách chúng ta kiến tạo, vận hành và phát triển. NVIDIA và các đối tác đang không ngừng mở rộng mạng lưới nhà máy AI trên toàn cầu và trong tương lai không xa, đây sẽ trở thành nền tảng không thể thiếu để doanh nghiệp duy trì và nâng cao lợi thế cạnh tranh.  Thời đại AI làm chủ cuộc chơi: Nhà máy AI mở đường cho tương lai trí tuệ  AI không còn là công nghệ của tương lai , nó đang hiện diện trong mọi mặt đời sống hiện đại ngày nay. Từ cách chúng ta học tập, làm việc đến cách doanh nghiệp vận hành và phát triển, trí tuệ nhân tạo đang dần trở thành nền tảng không thể thiếu. Ngày nay, thay vì gõ từ khóa tìm kiếm, nhiều bạn trẻ đã quen với việc trò chuyện trực tiếp cùng trợ lý AI. Các công ty như Amazon dùng AI để điều phối hàng triệu đơn hàng mỗi ngày với tốc độ cực nhanh. Tesla thu thập lượng dữ liệu khổng lồ từ thực tế mỗi ngày để cải tiến công nghệ lái xe tự động. Thậm chí, nhiều chính phủ cũng bắt đầu sử dụng AI như một “trợ lý đồng hành” để nâng cao hiệu quả phục vụ người dân và xây dựng chính sách.  AI đang dần thấm vào mọi sản phẩm, mọi quyết định, và từng trải nghiệm của khách hàng. Với các tổ chức được xây dựng dựa trên nền tảng AI ngay từ đầu, trí tuệ nhân tạo không chỉ cần thông minh mà còn phải luôn sẵn sàng hoạt động, tạo ra giá trị mới và dễ dàng mở rộng theo nhu cầu. Để đáp ứng điều đó, chúng ta cần một hạ tầng công nghệ hoàn toàn mới, được thiết kế riêng cho kỷ nguyên AI. Đây chính là động lực cho sự ra đời của nhà máy AI - nơi không chỉ lưu trữ dữ liệu, mà là "nhà máy sản xuất trí tuệ", nơi AI được tạo ra, huấn luyện và triển khai với quy mô lớn, sẵn sàng phục vụ liên tục cho các sản phẩm, dịch vụ và hoạt động vận hành thông minh.  Từ Trung tâm Dữ liệu đến Nhà máy AI  Các trung tâm dữ liệu truyền thống được xây dựng cho mục đích điện toán chung, có thể xử lý nhiều loại tác vụ khác nhau với độ linh hoạt nhất định. Tuy nhiên, trong nền kinh tế vận hành bằng AI ngày nay, tốc độ, quy mô và tính chuyên biệt mới là yếu tố then chốt. Các doanh nghiệp và chính phủ không thể tiếp tục chờ đợi hàng tháng để những sáng kiến AI rời rạc mang lại kết quả. Thay vào đó, họ cần những hệ thống có quy mô công nghiệp, có khả năng xử lý toàn bộ vòng đời AI, từ thu thập dữ liệu, đào tạo, tinh chỉnh đến suy luận khối lượng lớn theo thời gian thực.  Nhà máy AI được thiết kế có chủ đích để đáp ứng chính xác nhu cầu đó. Từ dữ liệu chưa qua xử lý, các nhà máy AI tạo ra tri thức có thể áp dụng ngay vào thực tế với chi phí hợp lý. Trong mô hình này, những dữ liệu không còn là sản phẩm phụ mà trở thành sản phẩm cốt lõi.  Hiệu quả của một Nhà máy AI được đánh giá qua số lượng AI token mà nó có thể xử lý, qua đó cho thấy khả năng suy luận và dự đoán để đưa ra quyết định, thúc đẩy tự động hóa và mang lại giá trị thực tế.  Nhà máy AI: Hạ tầng chiến lược cho nền kinh tế trí tuệ nhân tạo  Trên toàn cầu, chính phủ và doanh nghiệp đang tăng tốc đầu tư vào các Nhà máy AI như một phần của hạ tầng chiến lược, nhằm thúc đẩy tăng trưởng kinh tế, đẩy mạnh đổi mới sáng tạo và nâng cao hiệu suất vận hành.  Tại châu Âu, Liên doanh Điện toán Hiệu năng cao (European High Performance Computing Joint Undertaking) vừa công bố kế hoạch xây dựng 7 nhà máy AI, phối hợp cùng 17 quốc gia thành viên EU. Đây là một bước đi quan trọng trong hành trình kiến tạo hạ tầng AI quy mô lớn cho toàn khu vực.  Đây không phải là câu chuyện của riêng một quốc gia mà là xu hướng chung trên toàn thế giới, với các khoản đầu tư vào Nhà máy AI nhằm bắt kịp cuộc đua công nghệ và nâng cao năng lực cạnh tranh.  Ấn Độ: Yotta Data Services hợp tác với NVIDIA để ra mắt nền tảng Shakti Cloud – phổ cập khả năng tiếp cận GPU hiệu năng cao, kết hợp phần mềm NVIDIA AI Enterprise và nhiều công cụ mã nguồn mở.  Nhật Bản: Các nhà cung cấp dịch vụ đám mây như GMO Internet, Highreso, KDDI, Rutilea và SAKURA Internet đang đầu tư mạnh vào hạ tầng AI của NVIDIA để chuyển đổi các lĩnh vực then chốt như robotics, ô tô, y tế và viễn thông.  Na Uy: Tập đoàn Telenor đã khởi động một Nhà máy AI ứng dụng công nghệ NVIDIA, hướng tới mục tiêu thúc đẩy AI toàn khu vực Bắc Âu – với trọng tâm là phát triển bền vững và nâng cao kỹ năng số cho lực lượng lao động.  Nhà máy AI đang từng bước trở thành một phần không thể thiếu trong hạ tầng số của các quốc gia hiện đại, giữ vai trò chiến lược trong tăng trưởng kinh tế, đổi mới công nghệ và nâng cao năng lực cạnh tranh toàn cầu.  Bên trong một Nhà máy AI: Nơi trí tuệ được “sản xuất”  Cốt lõi mỗi nhà máy AI là sự kết hợp hài hòa giữa ba yếu tố then chốt: các mô hình nền tảng (foundation models), nguồn dữ liệu từ khách hàng, và một hệ sinh thái công cụ AI mạnh mẽ. Tất cả những thành phần này được tích hợp trong một môi trường được thiết kế chuyên biệt, nơi các mô hình có thể được tinh chỉnh, thử nghiệm và tối ưu hóa để sẵn sàng triển khai vào thực tế.  Khi các mô hình bắt đầu đi vào vận hành, chúng tạo ra một vòng lặp học tập, liên tục cập nhật từ dữ liệu mới, cải thiện hiệu suất qua từng vòng phản hồi, và phát triển theo thời gian. Quy trình này tạo nên một “vòng quay dữ liệu” (data flywheel), cho phép tổ chức khai phá những cấp độ AI ngày càng thông minh hơn, từ đó nâng cao khả năng thích ứng, độ chính xác và mở rộng quy mô, góp phần thúc đẩy tăng trưởng cho toàn doanh nghiệp.  Source: NVIDIA  FPT AI Factory: Nhà máy AI tiên phong tại Việt Nam, đối tác tin cậy tại Nhật Bản  Trong làn sóng chuyển đổi sang AI đang diễn ra trên toàn cầu, FPT AI Factory đang từng bước khẳng định vai trò tiên phong tại khu vực. Đây là nhà máy AI đầu tiên của Việt Nam, đồng thời cũng là đối tác hạ tầng đáng tin cậy của các doanh nghiệp hàng đầu tại Nhật Bản, góp phần thúc đẩy quá trình chuyển đổi số một cách thông minh và hiệu quả hơn. Ra đời từ mối quan hệ hợp tác chiến lược với NVIDIA, FPT AI Factory được thiết kế chuyên biệt để giúp doanh nghiệp ứng dụng AI một cách toàn diện và hiệu quả vào hoạt động vận hành, ra quyết định và đổi mới sáng tạo. FPT AI Factory cung cấp một môi trường tối ưu cho toàn bộ quá trình phát triển AI – từ xây dựng mô hình, huấn luyện, tinh chỉnh đến triển khai và giám sát. FPT AI Factory là sự kết hợp giữa sức mạnh công nghệ của NVIDIA và kinh nghiệm triển khai AI thực tế của FPT, từ đó tạo nên một hạ tầng vững chắc, tối ưu cho hiệu năng, khả năng mở rộng và tính bền vững. Đây chính là bệ phóng giúp các tổ chức triển khai AI nhanh chóng và hiệu quả ở quy mô lớn.   FPT AI Factory được thiết kế như một dây chuyền sản xuất hiện đại dành riêng cho AI – nơi mọi công đoạn, từ phát triển đến triển khai, đều được tối ưu hóa để đưa AI vào ứng dụng thực tế ở quy mô lớn. Nền tảng này cung cấp đầy đủ các thành phần cần thiết để doanh nghiệp dễ dàng tiếp cận và vận hành AI hiệu quả, bao gồm: FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, được xây dựng trên nền tảng GPU NVIDIA H100/H200 tiên tiến, sẵn sàng xử lý mọi khối lượng công việc AI chuyên sâu – từ huấn luyện mô hình ngôn ngữ lớn (LLMs) đến AI đa phương thức với hiệu suất vượt trội và tối ưu năng lượng FPT AI Studio: Bộ công cụ toàn diện cho việc phát triển mô hình AI thế hệ mới, hỗ trợ huấn luyện, tinh chỉnh và thử nghiệm nhanh. FPT AI Studio giúp rút ngắn chu trình phát triển, giảm chi phí và tăng tốc đưa AI vào ứng dụng thực tế FPT AI Inference: Nền tảng triển khai AI linh hoạt và hiệu quả, tối ưu hóa cho độ trễ thấp, khả năng mở rộng và chi phí hợp lý. Phù hợp với các ứng dụng AI đòi hỏi khả năng phục vụ ổn định ở quy mô lớn và đảm bảo SLA khắt khe FPT AI Agents: Nền tảng GenAI cho phép doanh nghiệp xây dựng các trợ lý ảo thông minh, có thể giao tiếp đa ngôn ngữ, xử lý đa tác vụ và tích hợp linh hoạt vào quy trình nghiệp vụ. Các trợ lý AI này được thiết kế để tương tác tự nhiên như con người và dễ dàng tùy biến theo từng mục tiêu sử dụng.  Ảnh: FPT Smart Cloud  Bên cạnh đó, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng triển khai, hỗ trợ doanh nghiệp ứng dụng AI vào thực tiễn một cách dễ dàng, từ đó nâng cao hiệu suất làm việc và tối ưu hóa chi phí vận hành.  Được trang bị hàng nghìn siêu chip NVIDIA H100 & H200 cùng nền tảng phần mềm NVIDIA AI Enterprise mới nhất, FPT AI Factory hỗ trợ doanh nghiệp rút ngắn thời gian phát triển và triển khai các giải pháp AI tiên tiến, đồng thời tinh tối ưu tổng chi phí vận hành. Nhờ đó, doanh nghiệp có thể đổi mới nhanh hơn và mở rộng quy mô hiệu quả hơn. Kiến tạo tương lai doanh nghiệp thông minh cùng Nhà máy AI  Trí tuệ nhân tạo ngày nay không còn chỉ là một giải pháp công nghệ tiên tiến, mà đang trở thành yếu tố cốt lõi giúp doanh nghiệp thay đổi cách vận hành, nâng cao hiệu quả và tăng sức cạnh tranh trên quy mô quốc gia. Trên toàn thế giới, các nhà máy AI đang dần hình thành như một phần của hạ tầng chiến lược, cho phép tổ chức xây dựng, triển khai và mở rộng các hệ thống thông minh một cách nhanh chóng. Không chỉ là tài sản công nghệ, đây còn là động lực thúc đẩy năng suất và tăng trưởng bền vững trong dài hạn.  FPT AI Factory đánh dấu bước đi đầu tiên của Việt Nam trong việc tham gia vào làn sóng về phát triển hạ tầng AI. Nền tảng này được xây dựng để đáp ứng linh hoạt nhu cầu của doanh nghiệp , từ triển khai tại chỗ (on-premises), trên nền tảng đám mây cho đến mô hình kết hợp. FPT AI Factory giúp đơn giản hóa toàn bộ quá trình ứng dụng AI, từ xây dựng mô hình đến triển khai và mở rộng. Với các khoản đầu tư chiến lược tại cả Việt Nam và Nhật Bản, FPT đang góp phần xây dựng một tương lai, nơi AI không còn là công nghệ xa vời, mà trở thành phần lõi trong mọi hoạt động kinh doanh, sản xuất và điều hành, sẵn sàng cho một kỷ nguyên phát triển mới do trí tuệ nhân tạo dẫn dắt. 

Vị Trí Cho Thuê Cloud Server Ảnh Hưởng Như Thế Nào Đến Hiệu Suất Dịch Vụ Thuê Máy Chủ Cloud?

09:14 07/08/2025
5 ảnh hưởng vị trí thuê cloud server đến hiệu suất dịch vụ thuê máy chủ cloud (máy chủ đám mây ảo) là: Độ trễ truy cập (Latency) Tốc độ truyền tải và băng thông quốc tế  Khả năng tuân thủ luật pháp và quy định pháp lý Khả năng mở rộng, tính sẵn sàng (Availability) Chi phí thuê server ảo 1. Độ trễ mạng và truy cập (Latency) [caption id="attachment_65315" align="aligncenter" width="800"] Ảnh hưởng của vị trí thuê máy chủ cloud đến hiệu suất của hệ thống hạ tầng đám mây[/caption] Độ trễ (Latency) là khoảng thời gian từ khi một yêu cầu được gửi đi cho đến khi nhận được phản hồi. Vị trí thuê cloud server ảnh hưởng trực tiếp đến tốc độ phản hồi và trải nghiệm của người dùng khi truy cập ứng dụng, website hay hệ thống được lưu trữ trên cloud server.  Khoảng cách địa lý giữ người dùng và máy chủ cloud càng xa thì độ trễ càng lớn, bởi vì tín hiệu mạng phải đi qua nhiều điểm trung gian, dễ bị tắc nghẽn, mất tín hiệu hoặc đứt cáp quang biển. Hơn nữa một vài khu vực hạ tầng mạng quốc tế kém phát triển hoặc bị kiểm soát nghiêm ngặt về lưu lượng cũng khiến độ trễ tăng cao. Để đảm bảo hiệu suất và trải nghiệm của người thì các cá nhân, doanh nghiệp nên ưu tiên thuê máy chủ cloud có vị trí đặt gần người dùng, có hệ thống phân phối nội dung (CDN) để rút ngắn thời gian truyền dẫn dữ liệu. 2. Tốc độ truyền tải dữ liệu và Băng thông quốc tế Tốc độ truyền tải dữ liệu phụ thuộc vào chất lượng tuyến cáp quốc tế từ vị trí đặt máy chủ đến người dùng truy cập. Nếu vị trí thuê server cloud được đặt tại các trung tâm dữ liệu (Datacenter) có kết nối quốc tế mạnh như Singapore, Mỹ, Tokyo, Frankfurt,...thì khả năng truyền dữ liệu nhanh hơn nhờ băng thông lớn và ít bị tắc nghẽn hơn. Ngược lại những máy chủ cloud đặt tại nơi có kết nối quốc tế yếu hoặc bị giới hạn bởi nhà mạng địa phương thì dữ liệu truyền chậm, dễ bị nghẽn vào giờ cao điểm. Cá nhân và doanh nghiệp nên ưu tiên chọn nhà cung cấp dịch vụ cho thuê cloud server có Data Center đặt tại quốc gia hoặc khu vực có tuyến cáp quang mạnh như Việt Nam. Nếu cần phục vụ người dùng toàn cầu thì nên chọn vị trí đặt máy chủ quốc tế tại Singapore, Nhật bản, Mỹ, Hồng Kông,... 3. Khả năng tuân thủ pháp lý Việc lựa chọn vị trí đặt máy chủ cloud đóng vai trò quan trọng trong việc đảm bảo tuân thủ pháp lý, quy định quản lý bảo mật dữ liệu tại từng quốc gia giúp doanh nghiệp hoạt động hợp pháp bền vững và xây dựng lòng tin từ khách hàng. Đặc biệt trong nhiều lĩnh vực kinh doanh, tài chính, y tế, thương mại điện tử hay giáo dục thì việc đảm bảo dữ liệu được lưu trữ và xử lý theo đúng pháp luật là bắt buộc. Doanh nghiệp cần xem xét quy định pháp lý tại nơi đặt máy chủ và tại quốc gia mà doanh nghiệp đang hoạt động.  Đồng thời chọn nhà cung cấp dịch vụ thuê server ảo tuân thủ đầy đủ các tiêu chuẩn bảo mật và pháp lý như: ISO/IEC 27001, SOC 2, GDPR, HIPAA,...Đối với doanh nghiệp đa quốc gia, nên sử dụng Multi-region cloud (đám mây đa vùng) - mô hình triển khai dịch vụ cloud sử dụng nhiều  Data Center đặt nhiều khu vực địa lý khác nhau để dễ dàng phân tách dữ liệu theo yêu cầu từng khu vực. 4. Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ đám mây [caption id="attachment_65314" align="aligncenter" width="800"] Khả năng mở rộng và tính sẵn sàng đáp ứng của hệ thống thuê server cloud (máy chủ đám mây ảo[/caption] Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ cloud là hai yếu tố cốt lõi trong hạ tầng điện toán đám mây giúp hệ thống hoạt động ổn định, không bị gián đoạn và dễ dàng tương thích với lưu lượng truy cập tăng cao. Việc chọn vị trí thuê cloud server ảnh hưởng lớn đến hai yếu tố này. Về khả năng mở rộng, không phải trung tâm dữ liệu nào cũng hỗ trợ mở rộng linh hoạt, có thể bị hạn chế về tài nguyên khó mở rộng hệ thống. Nên chọn những vị trí đặt máy chủ tại khu vực trung tâm hạ tầng như Việt Nam và một số hạ tầng lớn quốc tế tại Singapore, Tokyo, California, Frankfurt… Tính sẵn sàng phụ thuộc vào khả năng dự phòng theo vùng, các nhà cung cấp lớn thường chia hạ tầng thành nhiều vùng (zones) trong cùng khu vực. Nên chọn vị trí đặt server có đầy đủ vùng dữ liệu được hỗ trợ bởi các nhà cung cấp uy tín (AWS, Google Cloud, Microsoft Azure...), hệ thống máy chủ cloud có thể tự động sao lưu, chuyển đổi khi có sự cố để tăng tính sẵn sàng. Ngược lại, nếu vị trí đặt máy chủ ở vị trí chỉ có 1 zones hoặc hạ tầng yếu thì khi xảy ra sự cố như mất điện, cháy, thiên tai, bảo trì,...sẽ không có vùng thay thế dễ bị downtime (ngừng hoạt động tạm thời) gây ảnh hưởng nghiêm trọng đến trải nghiệm người dùng và hoạt động kinh doanh. 5. Chi phí thuê server cloud [caption id="attachment_65313" align="aligncenter" width="800"] Chi phí và giá thuê server là yếu tố quan trọng mà doanh nghiệp cần xem xét và cân nhắc khi thuê máy chủ cloud[/caption] Vị trí đặt máy chủ là yếu tố quan trọng quyết định đến giá thuê server, bởi mỗi khu vực địa lý sẽ có mức đầu tư hạ tầng, nhân lực, năng lượng và thuế phí khác nhau. Giá thuê cloud server tại khu vực Bắc Mỹ, Tây Âu hay Nhật Bản sẽ cao hơn so với khu vực Đông Nam Á như Singapore, Việt Nam. Nếu bạn đang cần thuê server cloud tại khu vực phía Bắc thì nên chọn những đơn vị có Datacenter được đặt tại Thành Phố Hà Nội như FPT Cloud để đảm bảo có được hiệu suất cao và chi phí thuê cạnh tranh. Một số quốc gia đánh thuế cao đối với dịch vụ lưu trữ dữ liệu hoặc có những quy định pháp lý khắt khe nên chi phí triển khai thuê server cloud sẽ cao hơn. Ngoài ra, nếu đặt máy chủ tại quốc gia có tuyến cáp quang quốc tế đắt đỏ hoặc bị hạn chế kết nối, chi phí băng thông cao dẫn đến giá thuê máy cloud server cao. Doanh nghiệp cần so sánh giá theo từng vùng của nhà cung cấp, nếu phục vụ khách hàng trong nước hãy thuê server cloud tại Việt Nam để tối ưu chi phí và hiệu suất truy cập. 6. Dịch vụ cho thuê máy chủ cloud giá tốt Hà Nội ở đâu? Bạn đang tìm kiếm dịch vụ cho thuê cloud server Hà Nội với chất lượng ổn định, hạ tầng hiện đại và chi phí hợp lý, FPT Cloud là một trong những đơn vị tiên phong trong lĩnh vực điện toán đám mây tại Việt Nam và là lựa chọn hàng đầu cho doanh nghiệp hiện nay. Lợi thế khi thuê máy chủ cloud Hà Nội tại FPT Cloud:  Data Center đặt tại Hà Nội đạt chuẩn Uptime Tier III: Đảm bảo ổn định, an toàn và khả năng hoạt động liên tục với thời gian uptime lên đến 99,99%. Ngoài ra, hạ tầng server còn được tích hợp giải pháp backup services, disaster recovery và object storage. Hiệu suất vượt trội, độ trễ thấp: Khi thuê server cloud tại Hà Nội thì hệ thống sẽ vận hành nhanh chóng, mượt mà. Hạ tầng mạnh mẽ, bảo mật cao: Thuê server ảo Hà Nội, máy chủ được vận hành trên nền tảng hạ tầng hiện đại, công nghệ ảo hóa tiên tiến, backup tự động, chống tấn công DDos, tường lửa đa lớp và phân quyền truy cập an toàn. Đội ngũ kỹ thuật FPT Cloud túc trực 24/7/365: Luôn sẵn sàng hỗ trợ nhanh chóng, đảm bảo hệ thống vận hành liên tục và không gián đoạn. Giá thuê cạnh tranh, tối ưu: Với nhiều gói thuê linh hoạt phù hợp với mọi quy mô nhu cầu doanh nghiệp từ nhỏ, vừa đến lớn. [caption id="attachment_65311" align="aligncenter" width="1349"] Các gói dịch vụ STANDARD cho thuê cloud server giá tốt tại Hà Nội dành cho doanh nghiệp của FPT Cloud[/caption]   [caption id="attachment_65312" align="alignnone" width="1545"] Dịch vụ cho thuê máy chủ cloud tại Hà Nội có Performance cao dành cho các tổ chức, doanh nghiệp có nhu cầu chuyên biệt[/caption] Vị trí thuê cloud server ảnh hưởng trực tiếp đến độ trễ truy cập, tốc độ truyền tải, độ ổn định, pháp lý và chi phí. Do vậy, các cá nhân và doanh nghiệp nên lựa chọn đơn vị uy tín có Data Center đặt tại trung tâm các thành phố lớn Hà Nội và Hồ Chí Minh như FPT Cloud để đạt hiệu suất cao, độ tin cậy và chi phí tối ưu. Liên hệ ngay FPT Cloud để được tư vấn và báo giá chi tiết dịch vụ cho thuê máy chủ cloud tại Phường Cầu Giấy, Thành Phố Hà Nội!

Hướng dẫn tích hợp FPT AI Marketplace API Key vào Cursor IDE để sinh Code nhanh chóng

12:16 18/07/2025
Trong kỷ nguyên AI, việc tận dụng mô hình ngôn ngữ lớn (LLM) để hỗ trợ lập trình ngày càng phổ biến. Tuy nhiên, thay vì dùng các dịch vụ quốc tế chi phí cao, bạn hoàn toàn có thể khai thác FPT AI Marketplace — nền tảng AI Inference nội địa với chi phí cạnh tranh, độ ổn định cao, và data locality ưu việt.  Bài viết này sẽ hướng dẫn bạn cách tích hợp AI Model API từ FPT AI Marketplace vào Cursor IDE để sử dụng các mô hình sinh code mạnh mẽ. 1. Tạo Tài Khoản FPT AI Marketplace Truy cập trang https://marketplace.fptcloud.com/ và đăng ký tài khoản.  Ưu đãi: Tài khoản mới sẽ được tặng 1 USD miễn phí để trải nghiệm các dịch vụ AI Inference!   2. Xem Danh Sách Model Khả Dụng Sau khi đăng nhập, bạn có thể xem các mô hình khả dụng trên FPT Marketplace  [Hình 1: Danh sách model trên FPT AI Marketplace]  Bạn nên chọn những model như Qwen-32B Coder, Llama-8B, hoặc DeepSeek để có kết quả sinh code tối ưu. 3. Tạo API Key Bạn vui lòng đăng nhập & truy cập https://marketplace.fptcloud.com/en/my-account#my-api-key   Click “Create new API Key” và chọn models, điền tên API Key và ấn “Create”   [Hình 2: Giao diện tạo API Key]  Xác nhận và lấy API Key mới tạo  [Hình 3: Giao diện hoàn thành tạo API Key] 4. Cấu Hình Cursor IDE Với API trên FPT AI Marketplace Các bước thực hiện:  1. Mở Cursor IDE -> Vào Cursor Settings -> Models.  2. Thêm Model:  a. Nhấn Add model  b. Thêm tên model (ví dụ: qwen_coder, deepseek_r1).  3. Điền API Key:  a. rong phần OpenAI API Key, dán API Key bạn vừa tạo từ FPT AI Marketplace.  4. Cấu hình URL FPT AI:  a. Bật Override OpenAI Base URL.  b. Điền URL: https://mkp-api.fptcloud.com  [Hình 4: Cấu hình API Key và URL trong Cursor]  5. Xác nhận:  a. Nhấn nút Verify.  b. Nếu hiện Verified Successfully, bạn đã sẵn sàng sử dụng mô hình! 5. Sử Dụng Model Sinh Code Trong Cursor Bây giờ, bạn có thể:  Dùng AI Assistant ngay trong IDE để sinh code.  Yêu cầu AI refactor, tối ưu, hoặc giải thích code hiện có.  Chọn model muốn sử dụng.  [Hình 5: Sử dụng model Llama-3.3-70B-Instruction của FPT AI Marketplace để refactor code] 6. Theo Dõi Lượng Token Đã Dùng Để quản lý chi phí:  Vào My Usage trong FPT AI Marketplace.  Xem số lượng requests, tokens input/output, và tổng lượng usage.  Bạn sẽ biết mình đã dùng bao nhiêu tokens, từ đó kiểm soát được chi phí tốt hơn.  Kết Luận  Chỉ với vài thao tác đơn giản, bạn có thể khai thác trọn vẹn sức mạnh từ FPT AI Marketplace. Từ việc sinh code nguồn nhanh chóng, review thông minh, tối ưu hiệu suất cho đến hỗ trợ debug tự động, tất cả đều được thiết kế để giúp người dùng tăng tốc quy trình làm việc. Đồng thời, các mô hình AI tiên tiến được cung cấp với chi phí hợp lý, đi kèm khả năng theo dõi và quản lý mức sử dụng một cách rõ ràng, minh bạch.