Blogs Tech

Quy Trình Phát Triển Toàn Diện của Agentic AI: Cách FPT AI Factory Hỗ Trợ Tăng Tốc & Phát Triển AI Agents

11:04 30/09/2025
Khi trí tuệ nhân tạo (AI) tiếp tục cách mạng hóa các ngành công nghiệp, việc hiểu rõ cách thức vận hành bên trong của các hệ thống AI không chỉ thú vị mà còn trở nên thiết yếu. Một trong những đổi mới nổi bật nhất hiện nay chính là Agentic AI – công nghệ được thiết kế để mô phỏng khả năng ra quyết định, giải quyết vấn đề và thậm chí là sáng tạo giống con người.  Khác với những công cụ thông thường, chỉ phản hồi theo lệnh của người dùng, thì các Agentic AI được xây dựng với tính tự chủ: chúng có thể hiểu được mục tiêu, tự chia nhỏ thành các bước cần làm và từng bước thực hiện cho đến khi đạt được kết quả. Chính khả năng này đã biến Agentic AI trở thành công nghệ hỗ trợ doanh nghiệp tự động xử lý các quy trình phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Vậy hành trình của một Agentic AI diễn ra như thế nào? Làm thế nào mà các AI Agents có thể xử lý các nhiệm vụ phức tạp một cách liền mạch, thích ứng với thách thức và cải thiện theo thời gian?  Dưới đây là các bước chính trong vòng đời của một tác nhân AI (AI Agents) – mỗi bước đều đóng vai trò quan trọng trong việc tạo ra những hệ thống thông minh, và có khả năng thích ứng nhanh.  1. Perception – Nhận thức  Sự nhận thức của AI Agents là khả năng thu thập và diễn giải thông tin từ môi trường – có thể qua dữ liệu hình ảnh, âm thanh, văn bản hoặc các dạng tín hiệu khác. Đây là lớp nền tảng giúp hệ thống đưa ra quyết định và giải quyết vấn đề. Nếu con người dựa vào giác quan để định hướng trong thế giới thực, thì AI Agents dựa vào khả năng nhận thức để hiểu dữ liệu đầu vào, nhận diện mẫu và phản ứng phù hợp.  Nhận thức không phải là một quá trình thụ động. Nó bao gồm việc chủ động thu thập dữ liệu, xử lý và xây dựng hiểu biết về bối cảnh hiện tại. Các loại dữ liệu mà AI Agents nhận thức có thể thay đổi tùy thuộc vào thiết kế của hệ thống, và có thể bao gồm mọi thứ từ văn bản viết, lời nói, hình ảnh, âm thanh, cho đến các thay đổi trong môi trường. Có thể coi nhận thức chính là “cửa sổ nhìn ra thế giới” của AI Agents, cung cấp thông tin cần thiết để hành động thông minh và linh hoạt.  Các tác nhân AI sử dụng nhiều loại nhận thức khác nhau để hiểu và diễn giải môi trường. Mỗi loại nhận thức cho phép tác nhân tương tác với thế giới theo những cách khác nhau, giúp xử lý các dạng dữ liệu và đưa ra quyết định thông minh. Các loại nhận thức chính bao gồm:  Nhận thức văn bản (Textual Perception): Hiểu và tạo ra văn bản thông qua xử lý ngôn ngữ tự nhiên (NLP). Điều này cho phép các hệ thống AI tương tác với dữ liệu văn bản như bài viết, sách, email và trang web, rất cần thiết cho các ứng dụng như chatbot và trợ lý ảo.  Nhận thức dự đoán (Predictive Perception): AI dự đoán các sự kiện tương lai dựa trên dữ liệu lịch sử, ứng dụng trong các lĩnh vực như tài chính và xe tự lái.  Nhận thức thị giác (Visual Perception): Sử dụng thị giác máy tính (computer vision) để diễn giải hình ảnh và video – ứng dụng trong nhận diện khuôn mặt, phát hiện vật thể.  Nhận thức môi trường (Environmental Perception): AI thu thập thông tin thông qua các cảm biến như GPS hoặc cảm biến chuyển động để thích nghi với các môi trường thay đổi. Ví dụ, robot sử dụng cảm biến này để phát hiện và tránh các chướng ngại vật khi di chuyển.  Nhận thức thính giác (Auditory Perception): Khả năng xử lý và hiểu âm thanh, đặc biệt là giọng nói, giúp hệ thống như trợ lý giọng nói hoạt động hiệu quả. 2. Reasoning and Decision-making – Lập luận và Ra quyết định Lý luận là quá trình nhận thức cho phép các tác nhân AI đưa ra quyết định, giải quyết vấn đề và suy luận các kết luận dựa trên thông tin mà chúng thu thập được. Đây là một yếu tố quan trọng giúp tác nhân AI hành động thông minh và thích nghi trong các môi trường thay đổi liên tục. Trong khi giai đoạn “Nhận thức” giúp AI thu thập dữ liệu về thế giới, “Lý luận” sẽ giúp tác nhân diễn giải dữ liệu đó, đưa ra kết luận hợp lý và đưa ra quyết định thông minh. Nói cách khác, nhận thức là việc nhận thấy đèn giao thông chuyển sang màu đỏ; lý luận là nhận ra rằng bạn cần phải dừng xe để tránh nguy hiểm.  Lý luận bao gồm việc sử dụng các quy tắc, phương pháp ước lượng, logic và các mô hình học được để xử lý thông tin từ hệ thống nhận thức. Điều này giúp các tác nhân AI không chỉ hiểu rõ trạng thái hiện tại của môi trường mà còn dự đoán kết quả, xử lý các tình huống không chắc chắn và đề ra chiến lược để đạt được mục tiêu.  Lý luận có thể được chia thành các loại khác nhau, mỗi loại đóng một vai trò đặc biệt trong việc giúp các hệ thống AI hoạt động hiệu quả trong các tình huống khác nhau:  Heuristic Reasoning: Sử dụng “luật ngón tay cái” để đơn giản hóa quyết định, phù hợp với tình huống cần phản hồi nhanh. Ví dụ, khi điều hướng trên bản đồ, AI có thể chọn "đoạn đường tốt nhất" dựa trên kinh nghiệm thay vì tính toán tất cả các tuyến đường có thể có.  ReWoo (Suy luận không cần quan sát): Quá trình cải thiện qua các lần lặp lại, giúp AI điều chỉnh và tối ưu hóa chiến lược của mình dựa trên phản hồi và thay đổi từ môi trường.  ReAct (Lý luận và hành động): Một phương pháp kết hợp lý luận và hành động đồng thời, có lợi trong những môi trường yêu cầu phản hồi ngay lập tức như lái xe tự động hay các trò chơi chiến lược thời gian thực.  Self-reflection (Tự phản ánh): AI Agents đánh giá các quyết định trong quá khứ để học hỏi và cải thiện.  Conditional Logic (Điều kiện logic): Quyết định dựa trên các điều kiện cụ thể, thường được sử dụng trong các hệ thống tự động. Ví dụ, một điều hòa thông minh có thể sử dụng logic điều kiện để điều chỉnh nhiệt độ: "Nếu nhiệt độ phòng dưới 70°F, hãy tăng nhiệt." 3. Action – Hành động Giai đoạn “Hành động” giúp các AI Agents thực thi các quyết định trong thế giới thực, cho phép nó tương tác với người dùng, các hệ thống kỹ thuật số, hoặc thậm chí là các môi trường vật lý. Sau khi “nhận thức” môi trường và “suy luận” về phương án hành động tốt nhất, tác nhân AI phải “thực thi” các quyết định của mình trong thực tế.  Trong thế giới AI, giai đôạn “hành động” không chỉ giới hạn ở các chuyển động vật lý hay tương tác, mà còn bao gồm các quá trình như thao tác dữ liệu, thực thi quyết định và kích hoạt các hệ thống tự động. Dù là robot di chuyển trong môi trường vật lý, hệ thống phần mềm xử lý dữ liệu, hay một trợ lý ảo AI phản hồi theo lệnh, “Hành động” chính là giai đoạn mà tác nhân AI đưa lý luận và sự hiểu biết của mình thành hiện thực. 4. Learning – Học Hỏi Giai đoạn “học hỏi” là quá trình giúp các AI Agents cải thiện hiệu suất thông qua việc thu thập kiến thức từ kinh nghiệm, dữ liệu, hoặc phản hồi góp ý. Thay vì chỉ dựa vào các hướng dẫn đã được lập trình sẵn, tác nhân AI có thể thích nghi và phát triển bằng cách học hỏi từ môi trường và kết quả của các hành động mà nó thực hiện. Khả năng học hỏi này là điều giúp các tác nhân AI có thể xử lý những tình huống mới, chưa được thấy trước, đưa ra quyết định tốt hơn và tối ưu hóa chiến lược trong các tình huống động, thực tế.  Đây là giai đoạn quan trọng đối với các tác nhân AI trong việc tự tạo ra hệ thống thông minh có khả năng tự cải tiến. Giống như con người học hỏi từ kinh nghiệm và áp dụng kiến thức đó vào các thử thách trong tương lai, các AI Agents sử dụng nhiều phương pháp học hỏi khác nhau để nâng cao khả năng ra quyết định và giải quyết vấn đề. Thông qua việc học hỏi liên tục, các tác nhân AI có thể tinh chỉnh hành vi và ngày càng phù hợp hơn với các mục tiêu của mình. Các phương pháp học hỏi của tác nhân AI rất đa dạng, tùy thuộc vào cách thức tác nhân tương tác với dữ liệu, phản hồi nhận được và loại nhiệm vụ mà nó cần thực hiện. Dưới đây là những phương pháp học hỏi chính mà các tác nhân AI sử dụng:  Học không giám sát: Nhận diện các mô hình và cấu trúc trong dữ liệu mà không cần các ví dụ có gán nhãn. AI có thể nhóm các khách hàng dựa trên hành vi mua sắm mà không cần biết trước các nhãn.  Học có giám sát: Huấn luyện AI trên dữ liệu có gán nhãn để dự đoán kết quả dựa trên các đầu vào đã biết.  Học tăng cường: AI Agents học tập qua việc thử nghiệm và các lỗi sai gặp phải, nhận phản hồi dưới dạng thưởng hoặc phạt.  Học đa tác nhân: Sự hợp tác và cạnh tranh giữa các tác nhân AI để giải quyết vấn đề một cách hiệu quả hơn.  AI Agents không chỉ đại diện cho một sự nâng cấp vượt bậc của các hệ thống hiện tại mà là một sự chuyển mình thực sự hướng tới trí tuệ tự thích ứng và trí tuệ tự động. Bằng cách nhận thức, lý luận, hành động và học hỏi, các tác nhân AI đang dần thành công trong quá trình mô phỏng các khía cạnh cơ bản về nhận thức của con người.  Tuy nhiên, để xây dựng lên những tác nhân AI như vậy không phải là điều đơn giản; các tổ chức cần có một cơ sở hạ tầng mạnh mẽ và linh hoạt. Từ nguồn tài nguyên GPU mạnh mẽ cho đến môi trường huấn luyện mô hình linh hoạt, tất cả đều là những yếu tố tiên quyết biến lý thuyết thành hiện thực. 5. Cách FPT AI Factory tăng tốc quá trình phát triển AI Agents Để đáp ứng nhu cầu này, FPT đã ra mắt FPT AI Factory, cung cấp một giải pháp toàn diện để hỗ trợ các doanh nghiệp phát triển AI Agents thông qua ba dịch vụ chính: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference.  Xử lý dữ liệu (FPT AI Infrastructure)  Mỗi tác nhân AI thành công đều dựa vào một vòng quay dữ liệu liên tục để thúc đẩy sự cải tiến. Cơ sở hạ tầng NVIDIA H100/H200 GPU của FPT AI Factory hỗ trợ quá trình này bằng cách thu thập dữ liệu đa dạng (cuộc trò chuyện, tương tác người dùng, dữ liệu từ cảm biến), xử lý và gắn nhãn để huấn luyện AI Agents, từ đó triển khai các tác nhân AI thông minh hơn. Những tác nhân này tạo ra dữ liệu mới từ các tương tác của người dùng, truyền dữ liệu trở lại vào hệ thống để cải thiện các phiên bản tiếp theo. Chu trình tự củng cố này giúp các hệ thống AI ngày càng thông minh và phản hồi nhanh nhạy hơn khi các tác nhân được triển khai, tạo ra một vòng lặp cải tiến liên tục.  Phát triển AI Agents (FPT AI Studio)  Sau khi dữ liệu đã được chuẩn bị, các nhà phát triển có thể sử dụng FPT AI Studio để xây dựng và huấn luyện các tác nhân thông minh trong môi trường đám mây hợp tác. Nền tảng này hỗ trợ phát triển nhiều loại tác nhân AI - từ trợ lý hội thoại đến các hệ thống ra quyết định - cung cấp công cụ huấn luyện mô hình, tinh chỉnh hành vi và tối ưu hóa hiệu suất AI Agents để đảm bảo chúng phản hồi chính xác với các tình huống thực tế.  Triển khai và cung cấp AI Agents (FPT AI Inference)  Sau khi giai đoạn phát triển và kiểm tra đã hoàn thành, FPT AI Inference cho phép triển khai tác nhân AI vào các môi trường sản xuất một cách liền mạch. Những tác nhân được triển khai này không chỉ phục vụ người dùng một cách đáng tin cậy mà còn cung cấp các dữ liệu tương tác quan trọng quay trở lại vòng quay dữ liệu, tạo ra một chu trình cải tiến liên tục. Dù bạn đang triển khai một chatbot dịch vụ khách hàng, hệ thống xe tự lái, hay tích hợp AI Agents vào nền tảng thương mại điện tử, mỗi tương tác người dùng sẽ trở thành một phần của vòng quay dữ liệu giúp thế hệ tác nhân AI tiếp theo trở nên thông minh hơn.  Từ ý tưởng cho đến sản phẩm, FPT AI Factory cung cấp toàn bộ cơ sở hạ tầng cốt lõi, biến các ý tưởng về tác nhân AI thành các hệ thống thông minh và tự cải tiến thông qua sức mạnh của vòng quay dữ liệu. 

Tối ưu hóa sức mạnh của AI tạo sinh cùng Retrieval-Augmented Generation (RAG)

18:44 29/09/2025
Trí tuệ nhân tạo (AI) đang phát triển với tốc độ vượt bậc, làm thay đổi cách thức vận hành của các ngành công nghiệp và định hình lại cách doanh nghiệp tương tác với công nghệ. Ở trung tâm của làn sóng cách mạng này là các mô hình ngôn ngữ lớn (Large Language Models – LLM) như ChatGPT của OpenAI hay Google Gemini. Những mô hình này sở hữu năng lực vượt trội trong việc hiểu và tạo ra ngôn ngữ tự nhiên, trở thành công cụ hỗ trợ đắc lực cho nhiều lĩnh vực kinh doanh.  Tuy nhiên, LLMs vẫn tồn tại những hạn chế nhất định. Các mô hình này chủ yếu dựa trên dữ liệu được huấn luyện sẵn vốn có nguy cơ trở nên lỗi thời, thiếu sót hoặc chưa đáp ứng được nhu cầu chuyên sâu. Do đó, đôi khi chúng có thể tạo ra thông tin không chính xác, gây hiểu nhầm hoặc gặp khó khăn trong việc xử lý các truy vấn yêu cầu dữ liệu theo thời gian thực.  Để giải quyết thách thức này, phương pháp tăng cường truy xuất (Retrieval-Augmented Generation - RAG) đã ra đời. Cách tiếp cận này kết hợp sức mạnh sáng tạo của LLMs với khả năng truy xuất dữ liệu bên ngoài, từ đó mang lại các giải pháp AI chính xác, đáng tin cậy và sẵn sàng đáp ứng nhu cầu của doanh nghiệp.  Retrieval-Augmented Generation là gì?  Tăng cường truy xuất là một phương pháp AI được thiết kế nhằm cải thiện cách mô hình ngôn ngữ lớn tạo ra phản hồi. Thay vì chỉ dựa vào kiến thức được huấn luyện sẵn, RAG tích hợp thêm bộ truy xuất (retriever), cho phép lấy thông tin từ các kho dữ liệu bên ngoài như API, nội dung trực tuyến, cơ sở dữ liệu và tài liệu nội bộ.  RAG được phát triển nhằm nâng cao chất lượng phản hồi của các mô hình ngôn ngữ lớn  Công cụ truy xuất (retriever) có thể được lựa chọn tùy thuộc vào nhu cầu về mức độ ngữ nghĩa và độ chính xác, bao gồm:  Vector database: Các truy vấn được chuyển đổi thành vector nhúng (dense vector embedding) thông qua các mô hình như BERT (transformers- based Model). Ngoài ra, các phương pháp truyền thống như TF-IDF có thể được sử dụng để tạo ra sparse embeddings. Việc tìm kiếm dựa trên độ tương đồng ngữ nghĩa (semantic similarity) hoặc tần suất thuật ngữ (term frequency).  Graph database: Xây dựng cơ sở tri thức (knowledge base) từ các mối quan hệ giữa các thực thể (entity) được trích xuất từ văn bản. Phương pháp này đảm bảo tính chính xác của tri thức nhưng đòi hỏi truy vấn ban đầu phải chính xác, gây khó khăn trong một số trường hợp.  Regular SQL database: Lưu trữ và truy xuất dữ liệu có cấu trúc nhưng hạn chế về mặt linh hoạt trong việc xử lý ngữ nghĩa.  RAG đặc biệt hiệu quả trong xử lý lượng lớn dữ liệu phi cấu trúc, chẳng hạn như những thông tin phân tán khắp internet. Mặc dù dữ liệu này rất đa dạng, nhưng hiếm khi được tổ chức để trực tiếp trả lời truy vấn của người dùng.  Đó là lý do tại sao RAG đã được áp dụng rộng rãi trong các trợ lý ảo và chatbot (ví dụ: Siri, Alexa). Khi người dùng đặt câu hỏi, hệ thống có thể truy xuất dữ liệu liên quan và tạo câu trả lời rõ ràng, chính xác trong ngữ cảnh. Ví dụ: Khi được hỏi “Làm thế nào để cài đặt lại điều khiển ABC?”, RAG có thể truy xuất thông tin liên quan từ tài liệu sản phẩm và các tài liệu tương ứng, từ đó tạo ra câu trả lời ngắn gọn, dễ hiểu và chính xác.  Bằng cách kết hợp việc truy xuất kiến thức bên ngoài với khả năng của mô hình ngôn ngữ lớn, RAG giúp trải nghiệm người dùng trở nên chính xác, đáng tin cậy và phù hợp hơn, kể cả trong các tình huống phức tạp và chuyên ngành.  Mô hình RAG thường được ứng dụng phổ biến trong các trợ lý ảo và chatbot  Vì sao RAG quan trọng?  Các mô hình ngôn ngữ lớn như ChatGPT hay Gemini đã định hình các tiêu chuẩn mới cho xử lý ngôn ngữ tự nhiên với khả năng từ hiểu biết, tóm tắt cho đến sáng tạo nội dung. Tuy nhiên, dù có hiệu suất ấn tượng, những mô hình này vẫn có giới hạn nhất định. Khi các tác vụ đòi hỏi chuyên môn sâu trong lĩnh vực cụ thể hoặc kiến thức cập nhật vượt ra ngoài phạm vi dữ liệu đã được huấn luyện, các mô hình ngôn ngữ lớn có thể tạo ra các câu trả lời nghe có vẻ trôi chảy nhưng lại sai sự thật. Vấn đề này thường được gọi là ảo giác AI (AI hallucination).  Trong môi trường doanh nghiệp, thách thức này càng được thể hiện rõ rệt. Các tổ chức thường quản lý những kho lưu trữ khổng lồ chứa thông tin bảo mật bao gồm sổ tay kỹ thuật, tài liệu sản phẩm, các cơ sở kiến thức, mà các mô hình thường khó có thể điều hướng. Ngay cả các mô hình tiên tiến như GPT-4 vẫn có thể gặp phải hiệu ứng “lost in the middle” – một hạn chế khiến mô hình thường nhớ rõ thông tin ở đầu và cuối văn bản nhưng dễ bỏ sót các chi tiết quan trọng ở giữa, dẫn đến kết quả trả lời chưa đầy đủ.  RAG được phát triển để khắc phục toàn bộ những hạn chế này. Bằng cách tích hợp cơ chế truy xuất, RAG cho phép mô hình ngôn ngữ lớn lấy thông tin trực tiếp từ nguồn bên ngoài, từ dữ liệu công khai đến tài liệu riêng của doanh nghiệp. Điều này không chỉ bù đắp lỗ hổng kiến thức mà còn giảm thiểu rủi ro “ảo giác”, đảm bảo câu trả lời dựa trên dữ liệu có thể kiểm chứng.  Bằng cách tích hợp dữ liệu từ nguồn bên ngoài, RAG giúp LLM đưa ra phản hồi chính xác hơn và giảm nguy cơ ảo giác AI  Cách thức hoạt động của RAG  Lợi ích của RAG  RAG mang lại nhiều ưu điểm đáng kể so với các LLMs độc lập, bao gồm:  Cập nhật kiến thức nhanh chóng: Truy xuất thông tin mới nhất một cách linh hoạt mà không cần huấn luyện lại mô hình.  Giảm thiểu ảo giác AI: Các câu trả lời có căn cứ giúp giảm thiểu rủi ro nội dung bịa đặt.  Tính minh bạch: Cung cấp nguồn tham chiếu, cho phép người dùng xác minh thông tin.  Tăng hiệu quả chi phí: Loại bỏ các chu kỳ huấn luyện lại thường xuyên, giảm chi phí tính toán và tài chính.  Khả năng mở rộng dễ dàng: Hoạt động hiệu quả trên nhiều lĩnh vực, từ chăm sóc sức khỏe, tài chính đến CNTT doanh nghiệp.  Đa dạng ứng dụng: Cung cấp sức mạnh cho các ứng dụng như chatbot, hệ thống tìm kiếm và công cụ tóm tắt thông minh.  Ứng dụng thực tiễn của RAG  RAG chính là chìa khóa giúp AI tạo sinh khắc phục những hạn chế của các mô hình như ChatGPT hay Gemini, vốn chỉ dựa vào dữ liệu huấn luyện trước có thể nhanh chóng trở nên lỗi thời hoặc không chính xác.  Bằng cách kết hợp khả năng tạo sinh của các mô hình ngôn ngữ với việc truy xuất dữ liệu bên ngoài, RAG giúp đưa ra các câu trả lời rõ ràng, theo thời gian thực, giảm thiểu ảo giác AI và giúp doanh nghiệp tối ưu hóa chi phí.  Trong thực tế, RAG đang định hình tương lai của AI trong nhiều lĩnh vực, bao gồm:  Chatbot và dịch vụ khách hàng: Cung cấp phản hồi tức thì, chính xác bằng cách truy xuất câu trả lời trực tiếp từ sổ tay sản phẩm, câu hỏi thường gặp (FAQs) hoặc cơ sở kiến thức.  Chăm sóc sức khỏe: Cung cấp thông tin y khoa đáng tin cậy bằng cách tìm kiếm thông tin từ các hướng dẫn lâm sàng và nghiên cứu khoa học đã được xác minh.  Tài chính: Hỗ trợ cho các nhà phân tích với những dữ liệu được cập nhật thị trường theo thời gian thực và những hiểu biết theo ngữ cảnh được rút ra từ các dữ liệu trực tiếp, giúp mang lại những insight hữu ích.  Quản lý tri thức (Knowledge management): Giúp nhân viên tương tác với các tài liệu kỹ thuật và quy trình một cách tự nhiên.  Những trường hợp sử dụng thực tế này đã chứng minh cách RAG làm cho AI trở nên đáng tin cậy, minh bạch và thực sự có giá trị trên nhiều ngành công nghiệp.  Tương lai của RAG  RAG là bước tiến quan trọng hướng tới tạo ra giải pháp AI đáng tin cậy và có thẩm quyền. Bằng cách kết hợp giữa kiến thức đã học (parameterized knowledge) và dữ liệu truy xuất (retrieved knowledge), RAG khắc phục một trong những hạn chế lớn nhất của mô hình ngôn ngữ lớn.  Trong tương lai, với sự phát triển của tác nhân AI (AI có khả năng tự động phối hợp truy xuất, suy luận, và tạo sinh), kết hợp với tăng tốc phần cứng như NVIDIA Grace Hopper Superchip và các framework mã nguồn mở (LangChain) và hạ tầng sẵn sàng cho doanh nghiệp như FPT AI Factory với GPU hiệu năng cao, RAG sẽ ngày càng trở thành nền tảng cốt lõi cho các giải pháp AI của doanh nghiệp.  Vì vậy, RAG không chỉ là giải pháp cho vấn đề ảo giác hay thiếu hụt tri thức, mà chính là nền móng để xây dựng trợ lý thông minh, chatbot tiên tiến và hệ thống AI sẵn sàng cho doanh nghiệp trên mọi lĩnh vực. 

AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả

11:02 26/09/2025
Tại NVIDIA AI Day, ông Phạm Vũ Hùng – Solutions Architect & Senior Consultant của FPT Smart Cloud, Tập đoàn FPT đã có bài chia sẻ với chủ đề “AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả”. Trong phần trình bày, ông Hùng mang đến góc nhìn về cách hiện thực hóa quy trình phát triển AI toàn trình, bao gồm từ việc xây dựng mô hình Generative AI cho đến triển khai AI Agent trong doanh nghiệp, trên nền tảng GPU Cloud H100/H200 của NVIDIA và hạ tầng AI Factory do FPT phát triển trong nước. Một vài điểm đáng chú ý trong phần chia sẻ: Phát triển AI toàn diện trong môi trường an toàn: quy trình khép kín từ huấn luyện GenAI đến triển khai AI Agent ngay tại data center trong nước. Tăng tốc với NVIDIA H100/H200 GPU: rút ngắn đáng kể thời gian training và inference. Xây dựng & tinh chỉnh GenAI bằng dữ liệu riêng: tạo ra mô hình chính xác hơn, đáp ứng nhu cầu đặc thù của doanh nghiệp. Xây dựng AI/ML Stack FPT AI Factory cung cấp hạ tầng AI/ML toàn diện, được xây dựng trên các trung tâm dữ liệu Tier 3 & 4 đạt chứng nhận NVIDIA tại Nhật Bản, xếp hạng tương ứng 36 và 38 trong danh sách TOP500 (tháng 6/2025).Trong số các dịch vụ nổi bật có GPU Container, GPU Virtual Machine và FPT AI Studio. Ngoài ra, nhà phát triển có thể tận dụng Bare Metal Server, GPU Cluster, AI Notebook và FPT AI Inference để đáp ứng đa dạng nhu cầu. [caption id="attachment_67178" align="aligncenter" width="1972"] Hình ảnh: Kiến trúc AI/ML Stack trên FPT AI Factory[/caption] GPU Container: Được thiết kế cho các tác vụ thử nghiệm, đi kèm tính năng giám sát, ghi log và sổ tay cộng tác (collaborative notebooks). Nhà phát triển có thể dễ dàng chia sẻ dữ liệu, viết mã, kiểm thử đơn vị (unit test) và thực thi trong một môi trường linh hoạt cao. GPU Virtual Machine: Máy ảo đa năng, tối ưu cho cả huấn luyện và suy luận, với tùy chọn cấu hình linh hoạt (từ 1 đến 8 GPU mỗi VM, dung lượng bộ nhớ GPU lên tới 141GB). GPU Cluster: Hạ tầng có khả năng mở rộng, hỗ trợ huấn luyện phân tán và suy luận quy mô lớn. Tích hợp NVLink, công nghệ chia sẻ GPU như MIG/MPS/Time-slice, cùng các tiện ích bảo mật nâng cao như nhật ký kiểm toán (audit logs) và CIS benchmarks. AI Notebook: Môi trường JupyterLab được quản lý, cài sẵn các thư viện AI/ML cần thiết. Nhà phát triển có thể bắt tay ngay vào lập trình trên GPU cấp doanh nghiệp mà không mất thời gian thiết lập, đồng thời tiết kiệm chi phí lên tới 70% so với môi trường notebook truyền thống. FPT AI Studio: Nền tảng MLOps no-code/low-code, tích hợp pipeline dữ liệu, các chiến lược tinh chỉnh (SFT, DPO, continual training), theo dõi thí nghiệm và quản lý mô hình. Giao diện kéo-thả trực quan cho phép nhà phát triển tinh chỉnh mô hình nhanh chóng và lưu trữ trong kho mô hình tập trung. FPT AI Inference: API sẵn sàng sử dụng với mức giá token cạnh tranh, giúp nhà phát triển triển khai mô hình đã tinh chỉnh một cách nhanh chóng và tiết kiệm chi phí. Trong phần trình bày, ông Hùng không chỉ nhấn mạnh những năng lực toàn diện của FPT AI Factory mà còn đưa ra ví dụ cụ thể từ khách hàng. Điển hình, FPT đã hợp tác với một công ty CNTT Nhật Bản để tinh chỉnh mô hình Donut (Document Understanding Transformer) trên bộ dữ liệu hơn 300GB. Bằng cách kết hợp GPU Container cùng FPT Object Storage, khách hàng có thể xử lý hiệu quả khối lượng lớn dữ liệu tài liệu, đồng thời tối ưu chi phí. Đây cũng là một ví dụ thực tiễn cho thấy doanh nghiệp có thể tận dụng hạ tầng của FPT AI Factory để triển khai các tác vụ AI trong thực tế. [caption id="attachment_67179" align="aligncenter" width="1674"] Hình ảnh: Quy trình tinh chỉnh mô hình Donut trên FPT AI Factory[/caption] Tăng tốc triển khai giải pháp AI thực tiễn Một trong những điểm nhấn của sự kiện là phần demo trực tiếp về AI Camera Agent được thiết kế cho bài toán tìm kiếm và tóm tắt nội dung video. Quy trình vận hành đơn giản nhưng mạnh mẽ: chỉ cần chọn một video, nhập mô tả ngắn gọn về nội dung cần tìm, và agent sẽ tự động xác định các đoạn liên quan, đồng thời tạo ra phần tóm tắt súc tích trong thời gian thực. NVIDIA Blueprints là yếu tố then chốt giúp hiện thực hóa giải pháp này – bộ kiến trúc giải pháp và công cụ đã được kiểm chứng, cho phép thử nghiệm nhanh chóng. Thay vì mất hàng tháng để xây dựng một nguyên mẫu từ đầu, nhóm đã có thể chuyển từ ý tưởng sang bản demo hoạt động chỉ trong một ngày. Sự tăng tốc này không chỉ chứng minh tính khả thi của giải pháp mà còn mang lại cho doanh nghiệp cách nhìn cụ thể về việc AI có thể được áp dụng như thế nào cho các thách thức xử lý dữ liệu video của riêng họ. [caption id="attachment_67180" align="aligncenter" width="1262"] Hình ảnh: Kiến trúc giải pháp AI Camera Agent (NVIDIA)[/caption] Đặc biệt, FPT AI Factory cung cấp môi trường full-stack, bao gồm từ các thành phần hạ tầng như GPU, máy ảo (VM) và Kubernetes đến các công cụ dành cho nhà phát triển, giúp triển khai giải pháp AI một cách nhanh chóng và hiệu quả. Với kiến trúc linh hoạt cùng các mô hình sẵn sàng sử dụng, nhà phát triển thậm chí có thể xây dựng giải pháp hoàn chỉnh chỉ với một NVIDIA H100 GPU, cân bằng giữa hiệu năng, khả năng mở rộng và tối ưu chi phí. Chẳng hạn, FPT AI Inference cung cấp thư viện mô hình sẵn dùng, cho phép nhà phát triển tích hợp ngay lập tức qua các API đơn giản. Với mức giá token cạnh tranh, đội ngũ phát triển có thể chạy các tác vụ suy luận nhanh hơn trong khi giảm đáng kể chi phí, giúp doanh nghiệp đưa ứng dụng AI ra thị trường một cách hiệu quả hơn. Tối ưu quy trình tinh chỉnh mô hình AI Hiện nay, nhà phát triển có thể tinh chỉnh mô hình trực tiếp trên GPU Container, điều này rất phù hợp cho mục đích thử nghiệm và phát triển nhanh. Tuy nhiên, để đưa một giải pháp vào vận hành thực tế, cần hơn cả sức mạnh tính toán - đó là khả năng tự động hóa quy trình tinh chỉnh. Để đáp ứng nhu cầu này, FPT AI Studio được giới thiệu, tích hợp các thành phần phổ biến trong quy trình MLOps như AI Notebook, xử lý dữ liệu (Data Processing) và nhiều chiến lược tinh chỉnh khác nhau như continual training. FPT AI Studio cho phép người dùng tích hợp dữ liệu, mô hình nền tảng và các chiến lược tinh chỉnh, với giao diện kéo-thả thân thiện, giúp xây dựng workflow nhanh chóng. Mô hình sau khi được tinh chỉnh có thể được lưu trữ trong Model Hub - một kho trung tâm để quản lý phiên bản, chia sẻ và tái sử dụng. Sau đó, các mô hình này có thể được chuyển ngay sang FPT AI Inference để triển khai với khả năng mở rộng và độ trễ thấp trong môi trường sản xuất. FPT AI Studio cung cấp môi trường lý tưởng để tối ưu hóa việc tinh chỉnh và triển khai mô hình. Nền tảng này vừa dễ tiếp cận cho người mới, vừa cho phép tùy chỉnh sâu cho người dùng nâng cao. Các thành phần chính của MLOps trên FPT AI Studio bao gồm: AI Notebook: môi trường thử nghiệm lập trình dựa trên mã nguồn. Các quy trình xử lý dữ liệu: xử lý dữ liệu trước khi huấn luyện và kỹ thuật tạo đặc trưng (feature engineering). Chiến lược tinh chỉnh bao gồm huấn luyện liên tục (continual training), thích ứng theo miền (domain adaptation) và học chuyển giao (transfer learning). Khi một mô hình đã được tinh chỉnh trong FPT AI Studio, nó sẽ được lưu giữ trong Model Hub để dễ dàng quản lý, chia sẻ và sử dụng lại. Từ đây, mô hình có thể được chuyển trực tiếp sang FPT AI Inference, phục vụ với hiệu suất cao và độ trễ thấp trong môi trường sản xuất. [caption id="attachment_67182" align="aligncenter" width="1312"] Hình ảnh: Quy trình huấn luyện trên FPT AI Studio[/caption] Tại buổi chia sẻ, ông Hùng đã minh họa một câu chuyện thành công về cách FPT AI Studio được ứng dụng để tùy biến một mô hình ngôn ngữ lớn phục vụ lĩnh vực y tế tại Việt Nam. Mô hình gốc được chọn là Llama-3.1-8B, cân bằng tốt giữa khả năng xử lý và hiệu suất. Nhiệm vụ đặt ra là phát triển một mô hình tối ưu cho trả lời câu hỏi y tế, yêu cầu điều chỉnh chuyên sâu theo lĩnh vực nhưng vẫn giữ nguyên năng lực suy luận tổng quát của mô hình gốc. Bộ dữ liệu sử dụng bao gồm các tài liệu y tế tiếng Việt, với mục tiêu nâng cao khả năng nhớ chính xác thông tin, độ chuyên sâu về lĩnh vực, và chất lượng phản hồi trong các tình huống hỏi đáp lâm sàng. Cách tiếp cận thứ nhất dựa trên việc huấn luyện liên tục (continual pre-training). Sử dụng 24 NVIDIA H100 GPU trên 3 node, mô hình được huấn luyện trên bộ dữ liệu y tế qua 3 epoch, toàn bộ quy trình mất khoảng 31 giờ để hoàn tất. Cách tiếp cận thứ hai áp dụng tinh chỉnh có giám sát với LoRA adapters, là giải pháp tiết kiệm tài nguyên hơn. Trong phương án này, chỉ sử dụng 4 NVIDIA H100 GPU trên một node, huấn luyện qua 5 epoch, với thời gian tổng cộng khoảng 3 giờ. Mặc dù yêu cầu tính toán thấp hơn, phương pháp này vẫn mang lại cải thiện đáng kể cho các tác vụ hỏi đáp chuyên ngành. [caption id="attachment_67183" align="aligncenter" width="922"] Hình ảnh: Kết quả của quá trình pre-training và SFT LLM với bộ dữ liệu y tế[/caption] Gợi ý triển khai hiệu quả Trước tiên, điều quan trọng là lựa chọn công cụ phù hợp cho từng loại khối lượng công việc nhằm tối đa hóa cả hiệu suất lẫn hiệu quả chi phí. Với FPT AI Factory, người dùng được trang bị đầy đủ công cụ cần thiết cho mọi loại khối lượng công việc AI/ML, giúp thúc đẩy đổi mới AI nhanh hơn và hiệu quả hơn. Đối với giai đoạn thử nghiệm ban đầu, GPU Container hoặc AI Notebook cung cấp môi trường linh hoạt cho các nhà phát triển thử nghiệm ý tưởng và chạy nguyên mẫu nhanh. Khi triển khai, lựa chọn phù hợp phụ thuộc vào khối lượng công việc: GPU Container lý tưởng cho việc suy luận nhẹ, trong khi GPU Virtual Machine mang lại hiệu suất cần thiết cho suy luận thời gian thực hoặc xử lý theo lô. Các khối lượng công việc tính toán hiệu năng cao (HPC) đạt hiệu quả tối ưu trên Metal Cloud, cung cấp hiệu suất bare metal cho các tác vụ yêu cầu cao. Cuối cùng, các tổ chức muốn sử dụng mô hình sẵn sàng có thể truy cập AI Marketplace, nơi cung cấp các LLM đã được huấn luyện sẵn và dịch vụ hỗ trợ để tăng tốc quá trình áp dụng mà không cần tinh chỉnh thêm. [caption id="attachment_67184" align="aligncenter" width="941"] Hình ảnh: Giải pháp của FPT AI Factory cho các loại khối lượng công việc AI/ML khác nhau[/caption] Thứ hai, các nhà phát triển cần tối ưu hóa khối lượng công việc huấn luyện. Việc tối ưu huấn luyện các mô hình AI sinh tạo lớn đòi hỏi kết hợp giữa kỹ thuật tận dụng phần cứng và thiết kế quy trình làm việc. Một phương pháp quan trọng là sử dụng huấn luyện chính xác hỗn hợp (mixed-precision training), áp dụng các định dạng như FP16 hoặc BF16 để tăng tốc tính toán trên NVIDIA GPU đồng thời giảm tới 50% bộ nhớ sử dụng. Điều này không chỉ rút ngắn thời gian huấn luyện mà còn duy trì độ chính xác với khả năng tự động mở rộng. Huấn luyện phân tán cũng rất quan trọng, với các chiến lược như PyTorch DDP hoặc pipeline parallelism giúp mở rộng khối lượng công việc trên nhiều GPU hoặc node, cải thiện thông lượng và rút ngắn chu kỳ phát triển. Trong môi trường đa node, tối ưu kết nối cluster bằng NVLink hoặc InfiniBand có thể tăng tốc huấn luyện lên tới 3 lần, đảm bảo đồng bộ hiệu quả cho các tác vụ AI quy mô lớn. Quy trình dữ liệu và lưu trữ cũng cần được tối ưu, sử dụng NVIDIA DALI và khả năng I/O mở rộng để tránh nghẽn cổ chai. Cuối cùng, các công cụ đối chuẩn như kiểm thử hiệu suất GPU của FPT AI Factory và kết quả MLPerf của NVIDIA giúp xác thực cấu hình, đảm bảo mở rộng hiệu quả về chi phí cho quá trình tinh chỉnh. Thứ ba, cần tối ưu hóa khối lượng công việc suy luận (inference) để cung cấp dịch vụ AI tạo sinh có khả năng mở rộng và độ trễ thấp. Một phương pháp hiệu quả là lượng tử hóa (quantization) và sử dụng độ chính xác thấp hơn với NVIDIA TensorRT, chuyển đổi mô hình sang FP8 hoặc INT8 để tăng thông lượng tới 1,4 lần với ít ảnh hưởng tới độ chính xác. Đối với các mô hình ngôn ngữ lớn, quản lý bộ nhớ KV cache hiệu quả cũng rất quan trọng; các kỹ thuật như PagedAttention và chunked prefill giúp giảm phân mảnh bộ nhớ và rút ngắn thời gian tạo token đầu tiên tới 2–5 lần trong môi trường nhiều người dùng. Speculative decoding cải thiện hiệu suất bằng cách kết hợp một mô hình nháp nhỏ với mô hình chính để dự đoán nhiều token cùng lúc, mang lại thông lượng tăng 1,9–3,6 lần, đồng thời giảm độ trễ, đặc biệt hữu ích trong ứng dụng thời gian thực như tóm tắt video. Mở rộng với multi-GPU parallelism cũng đóng vai trò then chốt, giúp tăng tới 1,5 lần hiệu suất trong các tác vụ tinh chỉnh phân tán ở cluster khối lượng lớn. Cuối cùng, model distillation và pruning giúp thu gọn mô hình, giảm chi phí và độ trễ 20 - 30% mà không làm giảm chất lượng đầu ra. Điểm nhấn chính Kiến trúc quy trình AI toàn diện và bảo mật: Phân tích kiến trúc của một “AI factory” trong thực tế, tập trung vào nguyên tắc thiết kế để xây dựng vòng đời phát triển an toàn trong trung tâm dữ liệu nội bộ. Khán giả sẽ nắm rõ các bước kỹ thuật để đảm bảo cách ly dữ liệu, quản lý hosting mô hình an toàn, và thiết lập lộ trình từ tinh chỉnh tới triển khai AI agent đạt chuẩn doanh nghiệp. Kỹ thuật thực tiễn cho vận hành LLM tăng tốc GPU: Vượt ra ngoài thông số kỹ thuật, học cách tận dụng GPU hiệu năng cao (như NVIDIA H100/H200) một cách thực tế. Phiên chia sẻ này trình bày các phương pháp tối ưu cụ thể cho cả huấn luyện và tinh chỉnh, nhằm tối đa hóa thông lượng, giảm độ trễ, và rút ngắn chu kỳ phát triển cho các ứng dụng AI sinh tạo có yêu cầu cao.

Các lỗ hổng bảo mật được công bố và sự kiện an ninh mạng đáng chú ý trong tháng 09

16:03 24/09/2025
I. Các lỗ hổng bảo mật được công bố trong tháng 09  1. Microsoft   Microsoft phát hành bản cập nhật Patch Tuesday tháng 9/2025, bao gồm các bản vá bảo mật cho 81 lỗ hổng, trong đó có hai lỗ hổng zero-day đã được công khai.   Đợt cập nhật này cũng khắc phục 09 lỗ hổng “Nghiêm trọng” (Critical), trong đó gồm 05 lỗ hổng cho phép thực thi mã từ xa (RCE), 01 lỗ hổng tiết lộ thông tin  và 02 lỗ hổng leo thang đặc quyền.   Cụ thể, số lượng lỗ hổng theo từng loại như sau:  41 lỗ hổng leo thang đặc quyền (Elevation of Privilege)   2 lỗ hổng vượt qua tính năng bảo mật (Security Feature Bypass)   22 lỗ hổng thực thi mã từ xa (Remote Code Execution)   16 lỗ hổng tiết lộ thông tin (Information Disclosure)   3 lỗ hổng từ chối dịch vụ (Denial of Service)   1 lỗ hổng giả mạo (Spoofing)   Lỗ hổng zero-day được công bố công khai gồm:  CVE-2025-55234 - Windows SMB Elevation of Privilege Vulnerability   CVE-2024-21907 - Newtonsoft.Json - Xử lý sai điều kiện ngoại lệ    Cập nhật gần đây từ các công ty khác:  Adobe: phát hành bản vá bảo mật cho lỗ hổng “SessionReaper” ảnh hưởng đến các cửa hàng thương mại điện tử Magento.   Argo: khắc phục một lỗ hổng trong Argo CD cho phép các token API có quyền hạn thấp vẫn có thể truy cập endpoint API và lấy toàn bộ thông tin xác thực repository liên kết với dự án.   Cisco: phát hành bản vá cho WebEx, Cisco ASA, và các sản phẩm khác.   Google: phát hành bản cập nhật bảo mật Android tháng 9, xử lý tổng cộng 84 lỗ hổng, trong đó có hai lỗ hổng đã bị khai thác tích cực.   SAP: phát hành bản vá bảo mật tháng 9 cho nhiều sản phẩm, bao gồm một bản vá cho lỗ hổng thực thi lệnh với mức độ nghiêm trọng tối đa trong Netweaver.   Sitecore: phát hành bản vá cho lỗ hổng zero-day CVE-2025-53690, đã bị khai thác trong các cuộc tấn công thực tế.   TP-Link: xác nhận tồn tại một lỗ hổng zero-day mới trong một số dòng router; công ty đang đánh giá khả năng khai thác và chuẩn bị phát hành bản vá cho khách hàng tại Mỹ.   Dưới đây là danh sách đầy đủ các lỗ hổng đã được giải quyết trong các bản cập nhật Patch Tuesday tháng 9 năm 2025:   Tag   CVE ID   CVE Title   Severity   Azure - Networking   CVE-2025-54914   Azure Networking Elevation of Privilege Vulnerability   Critical   Azure Bot Service   CVE-2025-55244   Azure Bot Service Elevation of Privilege Vulnerability   Critical   Azure Entra   CVE-2025-55241   Azure Entra Elevation of Privilege Vulnerability   Critical   Dynamics 365 FastTrack Implementation Assets   CVE-2025-55238   Dynamics 365 FastTrack Implementation Assets Information Disclosure Vulnerability   Critical   Graphics Kernel   CVE-2025-55236   Graphics Kernel Remote Code Execution Vulnerability   Critical   Graphics Kernel   CVE-2025-55226   Graphics Kernel Remote Code Execution Vulnerability   Critical   Microsoft Graphics Component   CVE-2025-53800   Windows Graphics Component Elevation of Privilege Vulnerability   Critical   Microsoft Office   CVE-2025-54910   Microsoft Office Remote Code Execution Vulnerability   Critical   Windows Imaging Component   CVE-2025-53799   Windows Imaging Component Information Disclosure Vulnerability   Critical   Windows NTLM   CVE-2025-54918   Windows NTLM Elevation of Privilege Vulnerability   Critical   Windows Win32K - GRFX   CVE-2025-55224   Windows Hyper-V Remote Code Execution Vulnerability   Critical   Windows Win32K - GRFX   CVE-2025-55228   Windows Graphics Component Remote Code Execution Vulnerability   Critical   Xbox   CVE-2025-55242   Xbox Certification Bug Copilot Djando Information Disclosure Vulnerability   Critical   Chi tiết về từng loại lỗ hổng và bản vá có thể xem thêm tại Tuesday Patch, paper.   2. Linux CVE-2025-20128 - ClamAV (OLE2 decryption)   Lỗi trong cơ chế giải mã OLE2 của ClamAV có thể dẫn đến điều kiện ngoài giới hạn bộ nhớ (heap buffer overflow read / integer underflow trong kiểm tra bounds) khi ClamAV quét file độc hại. Kẻ tấn công từ xa (không cần xác thực) có thể gửi file được chế tạo đặc biệt để làm crash quá trình quét (Denial-of-Service); trong một số trường hợp liên quan đến PDF/OLE2 còn có ghi nhận khả năng thực thi mã tùy ý nếu phối hợp với lỗ hổng khác.   CVE-2025-20260 - ClamAV (PDF scanning)   Lỗ hổng liên quan tới xử lý file PDF trong ClamAV có thể gây tràn bộ đệm hoặc DoS; được liệt kê cùng DLA-4292-1. Tương tự CVE-2025-20128 - khả năng crash dịch vụ quét, rủi ro nâng cao nếu kết hợp payload khác; yêu cầu cập nhật ClamAV.   CVE-2025-57804 - python-h2 (HTTP/2 request splitting → request smuggling)   Thư viện h2 (Python HTTP/2 stack) trước phiên bản vá có lỗi xử lý khiến kẻ tấn công chèn ký tự CRLF để tách/bẻ ranh giới request khi server xuống cấp (downgrade) HTTP/2 → HTTP/1.1, dẫn tới HTTP request smuggling. Kẻ tấn công có thể vượt qua các kiểm soát phía trước (WAF, CDN), thực hiện request smuggling, lấy quyền truy cập vào session của người dùng, hoặc đầu độc cache. Được đánh giá là nghiêm trọng; đã có bản vá (ví dụ h2 ≥ 4.3.0).   CVE-2025-58068 - python-eventlet (HTTP request smuggling / WSGI parser)   python-eventlet (WSGI server/parser) xử lý không đúng phần trailer của HTTP, dẫn tới request smuggling qua cách phân tách/ràng buộc header/trailer. Kẻ tấn công có thể bypass front-end security, tấn công người dùng đang hoạt động, hoặc poison web cache; ảnh hưởng đến các ứng dụng WSGI dùng eventlet. Đã có bản vá trong distro (Debian, SUSE, …).   CVE-2025-8067 - udisks2 (Out-of-bounds read)   Lỗi kiểm tra ranh giới trong udisks2 (D-Bus daemon quản lý thiết bị lưu trữ) dẫn tới out-of-bounds read khi xử lý một số thao tác tập tin/descriptor. Có thể khiến daemon udisks2 crash (DoS) hoặc lộ thông tin; kẻ tấn công cục bộ (unprivileged) có khả năng gây ảnh hưởng tới tính sẵn sàng/độc lập của dịch vụ lưu trữ. Đã có bản vá cho các distro (Debian, Fedora, Oracle Linux, Ubuntu…).   Thông tin chi tiết về các lỗ hổng có thể xem tại Advisories.  3. VMware công bố các lỗ hổng tháng 9  CVE-2025-4517 - VMware Tanzu Greenplum   Mức độ: Critical   Ảnh hưởng: Greenplum trước 7.5.4.   Mô tả: Lỗ hổng cho phép kẻ tấn công khai thác để thực hiện tấn công nghiêm trọng (chi tiết kỹ thuật hạn chế trong advisory).   Khuyến nghị: Cập nhật lên Greenplum 7.5.4.   CVE-2025-9288 - VMware Tanzu Greenplum   Mức độ: Critical   Ảnh hưởng: Greenplum trước 7.5.4.   Mô tả: Lỗ hổng bảo mật nghiêm trọng trong cơ chế xử lý dữ liệu; có thể dẫn đến compromise hệ thống.   Khuyến nghị: Cập nhật bản vá Greenplum 7.5.4.   CVE-2025-32462 - VMware Tanzu Platform / Cloud Foundry   Mức độ: Critical (CVSS 10.0)   Ảnh hưởng: Một số thành phần Tanzu Platform.   Mô tả: Cho phép khai thác từ xa, nguy cơ chiếm quyền cao.   Khuyến nghị: Cập nhật bản vá theo advisory tháng 9/2025.   CVE-2025-6395 - VMware Tanzu Platform   Mức độ: High   Ảnh hưởng: Các bản phát hành Tanzu Application Service.   Mô tả: Lỗ hổng bảo mật nghiêm trọng, chi tiết không công bố đầy đủ.   Khuyến nghị: Nâng cấp lên phiên bản bản vá mới nhất.   CVE-2025-5916 / CVE-2025-5917 - VMware Tanzu (Stemcells / Hub)   Mức độ: Critical   Ảnh hưởng: Tanzu Stemcells, Tanzu Hub.   Mô tả: Lỗ hổng bảo mật có thể khai thác từ xa, cho phép chiếm quyền hệ thống.   Khuyến nghị: Áp dụng patch từ Broadcom ngay lập tức.   Thông tin chi tiết về các bản vá có thể xem tại Advisories. II. Một số sự kiện an ninh mạng đáng chú ý 1. Apple cảnh báo người dùng bị nhắm mục tiêu trong các cuộc tấn công spyware mới  Trong tháng 9/2025, Apple cảnh báo nhiều người dùng rằng thiết bị của họ đã trở thành mục tiêu của các cuộc tấn công spyware tinh vi.    Theo CERT-FR, từ đầu năm đến nay Apple đã gửi ít nhất 4 đợt thông báo (5/3, 29/4, 25/6 và 3/9) tới tài khoản của người dùng bị ảnh hưởng. Những cảnh báo này xuất hiện trong email, số điện thoại liên kết với Apple ID và hiển thị khi đăng nhập. Các cuộc tấn công chủ yếu khai thác zero-day hoặc zero-click, không cần tương tác từ người dùng, và nhắm tới các cá nhân có vai trò nhạy cảm như nhà báo, luật sư, chính trị gia, quan chức cấp cao.    Apple gần đây cũng đã phát hành bản vá khẩn cấp cho lỗ hổng CVE-2025-43300 kết hợp với một lỗ hổng WhatsApp zero-click. Công ty khuyến nghị người dùng bị nhắm mục tiêu kích hoạt Lockdown Mode và liên hệ hỗ trợ khẩn cấp. Từ năm 2021, Apple đã gửi cảnh báo cho người dùng tại hơn 150 quốc gia nhưng không nêu rõ tác nhân tấn công đứng sau.  2. Microsoft bổ sung cảnh báo liên kết độc hại trong tin nhắn riêng trên Teams Microsoft vừa công bố tính năng cảnh báo liên kết độc hại trong tin nhắn riêng trên Teams, áp dụng cho khách hàng Microsoft Defender for Office 365 và Teams Enterprise. Tính năng này sẽ hiển thị banner cảnh báo trực tiếp trên tin nhắn có chứa URL bị gắn nhãn spam, phishing hoặc malware, giúp nâng cao nhận thức của người dùng.    Public preview bắt đầu từ tháng 9/2025 trên desktop, web, Android, iOS, và dự kiến phát hành chính thức vào tháng 11/2025. Admin có thể bật/tắt tính năng trong Teams Admin Center hoặc PowerShell, và khi một tenant bật thì toàn bộ tenant sẽ được áp dụng. Sau khi chính thức ra mắt, tính năng sẽ mặc định bật. Microsoft cũng đang mở rộng khả năng bảo vệ Teams, bao gồm chặn liên lạc từ domain độc hại và xoá tin nhắn từ người dùng bị chặn. Điều này bổ sung cho các tính năng sẵn có như Safe Links và ZAP. Với hơn 320 triệu người dùng hàng tháng trên toàn cầu, Microsoft kỳ vọng tăng cường mạnh mẽ khả năng bảo vệ cho hệ sinh thái Teams.   Đứng trước những cuộc tấn công mạng ngày càng tinh vi và nguy hiểm như hiện nay, FPT Cloud khuyến cáo người dùng nên chủ động cập nhật phần mềm, tiến hành ứng dụng các biện pháp bảo mật dữ liệu tiên tiến giúp sao lưu và khôi phục dữ liệu tức thời, an toàn và toàn vẹn.     Tìm hiểu thêm thông tin chi tiết về dịch vụ sao lưu dữ liệu của FPT Cloud tại đây.   Liên hệ với chúng tôi để được tư vấn về dịch vụ của FPT Cloud Fanpage: https://www.facebook.com/fptsmartcloud/ Email: [email protected] Hotline: 1900 638 399 

Cân bằng tải thông minh cho tối ưu hiệu suất vận hành, đảm bảo ổn định hệ thống giáo dục trực tuyến

11:51 17/09/2025
Trong chiến dịch "Tháng tự học" với quy mô lên tới hàng triệu học sinh tham gia do Sở Giáo dục & Đào tạo Hà Nội phối hợp cùng FSEL tổ chức tại 04 tỉnh thành vừa qua, FPT Load Balancing đã hỗ trợ hệ thống vận hành xử lý 145.000 kết nối đồng thời, vượt xa dự kiến ban đầu mà vẫn đảm bảo duy trì hoạt động ổn định, không gián đoạn trong suốt các khung giờ.  Lượng truy cập tăng đột biến - Bài toán khó khăn cho nền tảng giáo dục trực tuyến  FSEL - nền tảng giáo dục trực tuyến hàng đầu Việt Nam - đã triển khai chương trình “Tháng tự học” dành cho học sinh trên cả nước. Với đối tượng chính tham gia vào “Tháng tự học"  là học sinh cấp THCS và THPT khiến lượng người dùng truy cập vào FSEL không chỉ tăng về số lượng mà còn dồn mạnh vào các khung giờ cao điểm từ 19h - 22h mỗi ngày - khoảng thời gian ngoài giờ học chính thức trên trường. Dự báo ban đầu ước tính hệ thống phải gánh khoảng 50.000 và dự phòng 100.000 kết nối đồng thời (active connection), song thực tế con số này vượt xa, đạt tới 145.000 kết nối - cao gần gấp rưỡi so với mức chuẩn.  Trong môi trường giáo dục trực tuyến, chỉ một vài phút gián đoạn cũng có thể khiến hàng chục nghìn học sinh bị mất kết quả học tập, gián đoạn quá trình ôn luyện, và quan trọng hơn là làm suy giảm niềm tin vào nền tảng. Với vai trò là đơn vị cung cấp và vận hành, FSEL buộc phải tìm kiếm các giải pháp hạ tầng đủ mạnh mẽ, linh hoạt và có khả năng dự phòng tức thì trước áp lực tải cực lớn.  FPT Load Balancing - Giải pháp phân tải thông minh cho nền tảng giáo dục số  Để đảm bảo hạ tầng vận hành trơn tru, FPT đã triển khai giải pháp FPT Load Balancing thế hệ mới cho FSEL. Giải pháp được xây dựng theo mô hình đa tầng nhằm đáp ứng cả nhu cầu phân tải, dự phòng và mở rộng linh hoạt ngay cả trong những giai đoạn cao điểm khi triển khai chương trình “Tháng tự học".  [caption id="attachment_67006" align="aligncenter" width="8084"] Mô hình đa tầng hỗ trợ vận hành hệ thống FSEL - Nguồn ảnh: FPT Smart Cloud[/caption] Ở tầng đầu tiên, hệ thống DNS Cloudflare đóng vai trò phân phối request đến nhiều IP Public, giúp duy trì khả năng kết nối ngay cả khi một node gặp sự cố. Đây chính là lớp bảo vệ đầu tiên chống lại nguy cơ sập dịch vụ khi lưu lượng tăng đột biến  Lớp firewall thế hệ mới của FPT Cloud đảm nhận việc tiếp nhận và xử lý lưu lượng, lọc và NAT trước khi phân phối về các Load Balancer. Nhờ vậy, chỉ những kết nối hợp lệ mới được chuyển tiếp về tầng cân bằng tải.   Tại lớp Load Balancing, FSEL triển khai một node LB Extra-3 và hai node LB Extra-2. Các node này phân phối lưu lượng về cụm ứng dụng Kubernetes, giúp traffic được dàn trải đều, tránh tình trạng nghẽn cục bộ. So với mô hình truyền thống, kiến trúc này đảm bảo khả năng scale-out nhanh chóng: chỉ cần bổ sung thêm node LB, toàn bộ năng lực chịu tải của hệ thống có thể tăng lên tức thì. Khi chương trình “Tháng tự học” diễn ra, hệ thống nhanh chóng ghi nhận lượng truy cập vượt ngưỡng dự báo. Node LB Extra-3 đạt 55.000 kết nối đồng thời, trong khi mỗi node LB Extra-2 xử lý ổn định hơn 45.000 kết nối - cao hơn nhiều so với thông số tham khảo 30.000 mà FPT Cloud đã công bố. Tổng cộng, toàn hệ thống vận hành mượt mà với 145.000 kết nối đồng thời mà không ghi nhận downtime hay tình trạng nghẽn mạng.  Đáng chú ý, ngay cả trong khung giờ cao điểm 19h-22h, khi số lượng học sinh truy cập đạt đỉnh, các node Load Balancer vẫn phân phối tải đều đặn, đảm bảo thời gian phản hồi của ứng dụng không bị suy giảm. Người dùng cuối không gặp bất kỳ gián đoạn nào trong quá trình học tập hay lưu kết quả.  Đồng hành cùng khách hàng trong tháng cao điểm, FPT Cloud đã phối hợp khách hàng scale out nhanh chóng 2 node LB Extra-2 nâng năng lực dự phòng cho hệ thống lên đến 180.000 kết nối đồng thời. Đây là con số hiếm có với một nền tảng giáo dục trực tuyến tại Việt Nam, cho thấy khả năng mở rộng linh hoạt và độ tin cậy cao của giải pháp FPT Load Balancing.   FSEL là minh chứng rõ ràng rằng đầu tư vào hạ tầng công nghệ chính là chìa khóa để bảo đảm sự bền vững của giáo dục số. Với khả năng mở rộng linh hoạt, tính ổn định cao và các lớp bảo mật tích hợp, FPT Load Balancing đã khẳng định vai trò như một “trụ cột hạ tầng” cho các nền tảng học tập trực tuyến. Trong tương lai, khi nhu cầu học tập từ xa tiếp tục gia tăng, những giải pháp FPT Load Balancing sẽ trở thành điều kiện tiên quyết để ngành giáo dục vừa đáp ứng quy mô xã hội, vừa duy trì được uy tín và chất lượng đào tạo.  Tìm hiểu thêm thông tin chi tiết về dịch vụ FPT Load Balancing dành cho doanh nghiệp tại: https://fptcloud.com/product/load-balancing-vn/

Tái định nghĩa giá trị kinh tế của Nhà máy AI: Đầu tư để mở rộng lợi nhuận

17:15 10/09/2025
Trong kỷ nguyên trí tuệ nhân tạo bùng nổ, việc khai thác giá trị kinh tế từ các mô hình AI không chỉ phụ thuộc vào sở hữu hạ tầng mạnh mẽ, mà còn nằm ở cách doanh nghiệp tổ chức và tối ưu hóa “nhà máy AI” (AI Factory). Một khái niệm ngày càng được chú ý là Định luật Jensen, vốn đang định hình lại cách chúng ta nhìn nhận mối quan hệ giữa đầu tư, công suất tính toán và lợi nhuận.  Nguyên lý cốt lõi Trong các nhà máy AI bị giới hạn bởi công suất xử lý, mỗi khoản đầu tư bổ sung vào hiệu suất trên mỗi watt điện năng và tối ưu hóa fabric kết nối đều mang lại giá trị vượt trội. Điểm then chốt ở đây là chi phí tăng thêm không chỉ làm gia tăng thông lượng thương mại hóa (tính bằng token/giây), mà còn cải thiện tỷ lệ chi phí trên mỗi đơn vị sản phẩm.  Có thể tóm lược thành hai quy luật quan trọng:  Chi nhiều hơn → Thu nhiều hơn: Doanh thu tăng nhanh hơn tốc độ chi phí.  Chi nhiều hơn → Tiết kiệm hơn: Chi phí biên cho mỗi lượt suy luận giảm dần.  Những nguyên lý này tạo nên sự khác biệt so với tư duy đầu tư tuyến tính trước đây, nơi tăng chi phí thường đồng nghĩa với hiệu quả cận biên giảm. Trong bối cảnh AI, khoản đầu tư đúng chỗ lại mang đến lợi ích kép: vừa tăng trưởng doanh thu, vừa giảm chi phí trên đơn vị.  Những định luật định hình ngành công nghệ Để hiểu rõ hơn về cách tư duy mới xoay quanh Định luật Jensen, trước hết chúng ta nên nhìn lại một số định luật kinh điển đã và đang dẫn dắt sự phát triển của ngành công nghệ.  Dưới đây là tóm lược ngắn gọn về các định luật này và vai trò của chúng trong việc hình thành Định luật Jensen theo cách diễn giải mới:  Định luật Moore: đề cập đến khả năng thu nhỏ thiết bị, từ đó cải thiện hiệu năng trên mỗi watt. Hiểu một cách đơn giản, càng tạo ra được nhiều “tokens” trong cùng một mức tiêu thụ điện năng hàng năm, thì hiệu quả kinh tế càng cao.  Định luật Wright: chỉ ra rằng chi phí giảm một tỉ lệ cố định mỗi khi sản lượng tích lũy tăng gấp đôi. Điều này lý giải tại sao chi phí cho mỗi “token” giảm xuống khi quy mô triển khai mở rộng – đóng vai trò then chốt trong việc “tiết kiệm nhiều hơn.”  Định luật Metcalfe: giá trị của một hệ thống tăng theo cấp số nhân dựa trên mức độ kết nối. Điều này phản ánh cách các mạng lưới phát huy tối đa công dụng – mở rộng quy mô theo chiều dọc, chiều ngang, và xuyên suốt – khiến cho kết nối gần như trở nên “miễn phí” về mặt kinh tế.  Nghịch lý Jevons: hiệu suất cao hơn lại dẫn đến mức tiêu thụ nhiều hơn, từ đó tạo động lực cho hiệu ứng “vòng xoáy” mà Định luật Jensen mô tả.  Khai thác “mạng miễn phí” Khi hạ tầng đạt hiệu suất cao, băng thông mạng tốc độ cao gần như trở thành một tài nguyên “miễn phí”. Nguyên nhân là vì mức tăng thông lượng do mạng mang lại vượt xa chi phí khấu hao. Thay vì chỉ là chi phí cố định, hạ tầng mạng trở thành chất xúc tác giúp đẩy mạnh năng suất mà không làm tăng chi phí tương ứng.  Quy luật mới cho kỷ nguyên AI Bằng cách áp dụng những nguyên tắc này, mô hình nhà máy AI giới hạn công suất có thể được vận hành theo công thức doanh thu rõ ràng và đáng tin cậy. Mỗi đồng vốn đầu tư không chỉ bổ sung năng lực tính toán, mà còn mở khóa hiệu quả kinh tế ở quy mô ngày càng lớn.  Đây chính là quy luật mới cho thời đại AI: lợi nhuận không chỉ đến từ việc mở rộng hạ tầng, mà còn từ việc tối ưu hóa sâu sắc cấu trúc bên trong của “cỗ máy” sản xuất tri thức.   

Hợp tác FPT và VIMC nâng tầm quản trị tài chính ngành Hàng hải Việt Nam

14:32 09/09/2025
Tổng công ty Hàng hải Việt Nam (VIMC) và FPT chính thức công bố Go-live giải pháp hợp nhất báo cáo tài chính FPT CFS. Đây là bước tiến quan trọng trong lộ trình số hóa quản trị tài chính của VIMC, đồng thời góp phần hiện thực hóa Nghị quyết 57 về phát triển kinh tế biển bền vững, nhấn mạnh vai trò của đổi mới sáng tạo và chuyển đổi số. Chuyển đổi số là động lực tăng trưởng của VIMC Trải qua hơn 30 năm hình thành và phát triển, VIMC hiện là doanh nghiệp nòng cốt của ngành hàng hải Việt Nam, tiên phong trong hội nhập quốc tế và cung cấp dịch vụ hàng hải, logistics toàn cầu. Năm 2024, VIMC mở thêm 10 tuyến vận tải container, bao gồm tuyến kết nối trực tiếp Việt Nam – Châu Âu; tổng sản lượng hàng hóa thông qua hệ thống cảng tăng 26% so với cùng kỳ, cao hơn mức trung bình cả nước. Doanh nghiệp cũng phục vụ các hãng tàu thuộc top 10 toàn cầu, khẳng định vai trò trụ cột trong ngành khai thác cảng biển, vận tải biển và Logistics. Trước quy mô và tốc độ tăng trưởng ngày càng cao, quá trình chuyển đổi số không chỉ là xu thế, với VIMC còn là động lực quan trọng để nâng cao hiệu quả quản trị, tối ưu vận hành và phát triển dịch vụ giá trị gia tăng. Những kết quả tích cực trong hoạt động kinh doanh thời gian qua đã cho thấy hiệu quả rõ rệt của đổi mới sáng tạo và chuyển đổi số, đồng thời tạo nền tảng vững chắc để VIMC tiếp tục bứt phá trong giai đoạn tới. Từ những thành công đó, VIMC tiếp tục mở rộng đầu tư công nghệ, đưa các giải pháp mới vào các lĩnh vực chuyên môn cốt lõi. Với khát vọng phát triển bền vững, hiện đại và hội nhập, VIMC đang đẩy mạnh ứng dụng công nghệ vào quản trị doanh nghiệp, trong đó có lĩnh vực số hóa công tác tài chính – kế toán. Hợp tác cùng FPT, VIMC chuyển đổi số toàn diện hệ thống Hợp nhất báo cáo tài chính Hệ thống quản lý tài chính VIMC chia làm 3 cấp với sở hữu vốn với gần 80 bộ sổ kế toán bao gồm cả bộ sổ riêng, công ty mẹ và chi nhánh. Trước quy mô và tốc độ phát triển ngày càng cao, VIMC đặt mục tiêu doanh nghiệp không chỉ dừng lại ở việc đáp ứng chuẩn mực kế toán Việt Nam, mà còn chủ động tăng cường hiện đại hóa và số hóa công tác tài chính kế toán.  Tháng 2/2025, VIMC và FPT khởi động triển khai giải pháp hợp nhất hợp nhất báo cáo tài chính FPT CFS. Giải pháp FPT CFS giúp chuẩn hóa, tự động hóa công tác hợp nhất báo cáo và nâng cao năng lực quản trị tài chính ở cấp tập đoàn. Việc áp dụng giải pháp đã hỗ trợ VIMC nâng cao hiệu suất xử lý nghiệp vụ, tối ưu hiệu quả nguồn lực nhân sự, đáp ứng các chuẩn mực kế toán. Điểm quan trọng nhất với VIMC ngoài việc báo cáo tài chính đáp ứng đầy đủ các chuẩn mực kế toán tại Việt Nam, VIMC còn định hướng tiếp cận chuẩn mực quốc tế, tăng cường tính minh bạch tài chính, tạo nền tảng vững chắc cho chiến lược tăng trưởng và hội nhập quốc tế.  Chỉ trong vòng 5 tháng triển khai, đội ngũ nghiệp vụ hai bên đã hoàn tất công tác chuẩn bị, chuẩn hóa số liệu, tích hợp dữ liệu từ nhiều hệ thống phần mềm kế toán khác nhau và sẵn sàng đưa vào vận hành. Tốc độ triển khai “thần tốc” là kết quả của sự đồng thuận từ lãnh đạo VIMC cùng sự chuyên nghiệp, nỗ lực của đội ngũ kế toán – tài chính hai bên. Phát biểu tại sự kiện, ông Phạm Anh Tuấn – Phó Tổng Giám đốc VIMC nhấn mạnh: “Trong chiến lược phát triển, VIMC xác định chuyển đổi số là động lực quan trọng để nâng cao hiệu quả quản trị, tối ưu vận hành và tăng cường năng lực cạnh tranh. Việc đưa vào vận hành FPT CFS là bước đi thiết thực trong hiện đại hóa công tác quản trị tài chính, giúp chúng tôi chuẩn hóa quy trình hợp nhất, tự động hóa báo cáo và đáp ứng yêu cầu minh bạch theo chuẩn quốc tế.” Ông Phạm Anh Tuấn – Phó Tổng Giám đốc VIMC phát biểu tại Lễ Công bố - Hình ảnh: FPT Smart Cloud Đưa vào vận hành giải pháp FPT CFS, VIMC đã triển khai thành công bộ báo cáo tài chính hợp nhất cùng hơn 45 báo cáo thuyết minh, trong đó có nhiều báo cáo đặc thù phục vụ yêu cầu quản trị riêng. Hệ thống không chỉ tự động hóa quy trình hợp nhất mà còn tạo nền tảng quan trọng để VIMC ứng dụng công nghệ trong quản trị tài chính hiện đại, phục vụ kế hoạch mở rộng quy mô, M&A và lộ trình chuyển đổi sang IFRS trong tương lai. Với khối lượng dữ liệu lớn và yêu cầu hợp nhất tài chính đa tầng, dự án FPT CFS tại VIMC là một trong những triển khai phức tạp nhất mà chúng tôi từng thực hiện. Thành công hôm nay đến từ sự kết hợp giữa năng lực công nghệ của FPT và tinh thần quyết liệt đổi mới cùng sự phối hợp chặt chẽ của đội ngũ VIMC. Chính sự đồng hành này đã giúp dự án vượt qua thách thức, triển khai đầy đủ các tính năng cho phép cấu hình linh hoạt để xử lý vấn đề đúng nhu cầu thực tế. Đây là nền tảng quan trọng để VIMC tiếp tục mở rộng chuyển đổi số trong quản trị tài chính, Ông Hoàng Hữu Chiến, Kế toán trưởng Tập đoàn FPT, kiêm Giám Đốc dự án FPT CFS nhận định. Ông Lê Hồng Việt - TGĐ FPT Smart Cloud – Tập đoàn FPT chia sẻ về việc hợp tác giữa hai đơn vị tại Lễ công bố. Hình ảnh: FPT Smart Cloud Chia sẻ về sự hợp tác giữa hai đơn vị, Ông Lê Hồng Việt - TGĐ FPT Smart Cloud – Tập đoàn FPT phát biểu: “Những kết quả mà VIMC đạt được trong quản trị tài chính hôm nay cũng chính là thành công của FPT CFS. Trên nền tảng đó, FPT Smart Cloud cam kết tiếp tục đồng hành, mang đến các giải pháp Cloud và AI hiện đại, hỗ trợ VIMC phát triển bền vững, nâng cao năng lực cạnh tranh quốc tế và đóng góp nhiều hơn nữa cho sự phát triển của kinh tế biển Việt Nam.” Hợp tác cùng FPT không chỉ góp phần hiện thực hóa Nghị quyết 57 trong chiến lược chuyển đổi số toàn diện, mà còn mở ra nền tảng để hai bên tiếp tục đồng hành trong nhiều dự án số hóa trọng điểm khác. Sở hữu lợi thế công nghệ hàng đầu cùng kinh nghiệm triển khai cho các tập đoàn quy mô lớn, FPT sẽ tiếp tục là đối tác tin cậy giúp VIMC tăng tốc hiện đại hóa quản trị tài chính, thúc đẩy đổi mới sáng tạo và hội nhập quốc tế bền vững.

DaaS trong kỷ nguyên XaaS: Xu thế tất yếu và giải pháp tối ưu cùng hệ sinh thái Cloud

14:10 09/09/2025
Trong kỷ nguyên XaaS, mọi tài nguyên CNTT từ hạ tầng, phần mềm đến nền tảng đều có thể trở thành một dịch vụ nhằm đáp ứng nhu cầu thị trường, DaaS (Desktop as a Service) nổi lên như một mảnh ghép quan trọng trong bức tranh toàn cảnh của hệ sinh thái Cloud giúp chúng ta thay đổi cách tiếp cận và quản lý môi trường làm việc số. Làm việc linh hoạt - Chuẩn mực của trạng thái “Bình thường mới” Từ sau đại dịch Covid, chúng ta ngày càng thấy rõ tầm quan trọng của xu hướng dịch chuyển mới này: Linh hoạt về không gian, thời gian và cách thức kết nối công việc. Làm việc từ xa không còn là một khái niệm xa lạ nữa, mặt khác còn trở thành nhu cầu thiết yếu của nhiều doanh nghiệp ở mọi lĩnh vực. Điều này chính là lý do DaaS đạt tốc độ tăng trưởng hơn 16% mỗi năm, trở thành xu hướng nổi bật của thị trường công nghệ toàn cầu trong giai đoạn hiện nay. DaaS (Desktop as a Service) là một mô hình điện toán đám mây cung cấp cho người dùng khả năng truy cập và làm việc với các máy ảo (virtual desktop) thông qua kết nối Internet. Môi trường được quản lý bởi nhà cung cấp dịch vụ bên thứ ba, cung cấp cho người dùng một sản phẩm, dịch vụ hoàn chỉnh mà không cần đầu tư chi phí lớn vào phần cứng hay công tác bảo trì, vận hành. [caption id="attachment_66810" align="aligncenter" width="902"] Mô hình kiến trúc Desktop as a Service - Nguồn: FPT Smart Cloud[/caption] DaaS có thể ứng dụng cho bất kỳ ngành nghề nào có nhân sự làm việc từ xa, phân tán với nhu cầu bảo mật cao; start-up hay doanh nghiệp nhỏ cần tối thiểu hóa chi phí đầu tư cơ sở vật chất; các hệ thống giáo dục cần cung cấp môi trường học tập số nhất quán cho sinh viên; hay các tổ chức y tế với nhu cầu truy cập hồ sơ và bảo mật quyền riêng tư;… DaaS mở ra kỷ nguyên làm việc linh hoạt và chuyển đổi số toàn diện cho doanh nghiệp Theo Statista, thị trường DaaS Việt Nam sẽ đạt doanh thu 12,05 triệu USD trong năm 2025, sau đó tăng trưởng tới 35,94% mỗi năm và sẽ đạt mốc 55,93 triệu USD vào năm 2030. Với lực lượng lao động trẻ am hiểu công nghệ, cùng với sự quan tâm và đầu tư của Chính phủ cho các startup, thị trường DaaS đang đứng trước cơ hội lớn để chiếm vị thế dẫn đầu trong kỷ nguyên làm việc linh hoạt và chuyển đổi số toàn diện. Những năm gần đây, Việt Nam đang hội tụ nhiều thế mạnh cốt lõi để thúc đẩy mạnh mẽ thị trường DaaS. Động lực lớn nhất đến từ định hướng chiến lược của Nhà nước. Các nghị quyết 57-NQ/TW và 68-NQ/TW khẳng định khoa học công nghệ, đổi mới sáng tạo và chuyển đổi số là “đột phá hàng đầu”, với mục tiêu đến giai đoạn 2030-2045 kinh tế số chiếm ít nhất 50% GDP. Cùng với đó, Nhà nước coi kinh tế tư nhân với gần 940.000 doanh nghiệp, chủ yếu là SME là động lực quan trọng, tạo nhu cầu mạnh mẽ cho các giải pháp CNTT linh hoạt như DaaS. Đồng thời, nghị quyết 66-NQ/TW và 59-NQ/TW định hướng hoàn thiện thể chế, mở rộng hội nhập và thu hút đầu tư nước ngoài, qua đó xây dựng môi trường thuận lợi để DaaS phát triển bứt phá. [caption id="attachment_66809" align="aligncenter" width="639"] Tổng Bí thư Tô Lâm phát biểu tại Hội nghị toàn quốc quán triệt, triển khai thực hiện Nghị quyết số 66-NQ/TW và Nghị quyết số 68-NQ/TW - Nguồn: Baochinhphu.vn[/caption] “Bộ tứ trụ cột” của Đảng không chỉ là bộ khung chính trị, thể chế mà còn là động lực mạnh mẽ đưa DaaS trở thành giải pháp chiến lược trong kỷ nguyên chuyển đổi số. Đồng thời, nhu cầu ngày càng lớn từ gần một triệu doanh nghiệp, đặc biệt là khối SME cần giải pháp CNTT linh hoạt, tối ưu chi phí và dễ mở rộng, đã tạo nên thị trường giàu tiềm năng, củng cố vị thế DaaS như một xu hướng tất yếu tại Việt Nam. Trong bối cảnh đó, với vị thế tập đoàn công nghệ hàng đầu Việt Nam, FPT cũng đã ban hành Cương lĩnh chiến lược, tạo cơ sở phát triển hệ sinh thái số toàn diện bao gồm: hạ tầng điện toán đám mây, trung tâm dữ liệu đạt chuẩn quốc tế, đội ngũ chuyên gia công nghệ trình độ cao và mạng lưới khách hàng rộng khắp ở cả khu vực doanh nghiệp và cơ quan nhà nước. Trong định hướng tập trung vào chuyển đổi số toàn diện, FPT đã đầu tư mạnh vào Cloud, AI, bảo mật, tạo nền tảng vững chắc để phát triển DaaS trong nước và sẵn sàng mở rộng thị trường vươn tầm quốc tế. Trên thực tế, thị trường DaaS tại Việt Nam cũng đang chứng kiến sự tham gia của nhiều nhà cung cấp khác, thể hiện năng lực công nghệ nội địa ngày càng rõ nét. Những thách thức cần vượt qua Dù có tiềm năng phát triển lớn nhưng cũng như những sản phẩm dịch vụ trên thị trường, DaaS cũng có những thách thức đáng để lưu tâm trong giai đoạn phát triển mạnh mẽ này: Rào cản nhận thức và thói quen doanh nghiệp: Mặc dù nhận thấy rõ được làn sóng dịch chuyển mô hình làm việc mới, nhiều doanh nghiệp vẫn ưu tiên mô hình PC truyền thống do chưa quen với việc thuê hạ tầng bên ngoài. Tâm lý e ngại thay đổi mô hình vận hành có thể làm chậm tốc độ chuyển đổi sang DaaS trong giai đoạn phát triển sau này. Về bảo mật: Nhiều doanh nghiệp thường lo ngại khi dữ liệu được quản lý và lưu trữ trên hạ tầng của bên thứ ba, bởi họ không trực tiếp kiểm soát toàn bộ hệ thống. Tuy nhiên, thực tế các nhà cung cấp DaaS luôn đặt bảo mật ở mức ưu tiên cao nhất, áp dụng tiêu chuẩn quốc tế, cơ chế mã hóa nhiều lớp và hệ thống giám sát 24/7. Nhờ đó, dữ liệu thường an toàn hơn nhiều so với việc doanh nghiệp tự quản lý trong điều kiện hạn chế về nguồn lực và chuyên môn. Do vậy, các nhà cung cấp cần chú trọng chứng minh năng lực bảo mật cho giải pháp của mình để gia tăng niềm tin cho khách hàng. Về hiệu năng: Hiệu suất của DaaS phụ thuộc nhiều vào chất lượng đường truyền internet, đồng thời vẫn chịu ảnh hưởng nếu xảy ra downtime trên hệ thống máy chủ giống như các dịch vụ Cloud khác. Tuy nhiên, với hạ tầng băng thông ngày càng được nâng cấp tại Việt Nam và việc lựa chọn nhà cung cấp lớn, uy tín với cam kết SLA rõ ràng, doanh nghiệp có thể đảm bảo hiệu năng ổn định, liên tục Tiêu thụ năng lượng và tác động môi trường: Là dịch vụ cloud, DaaS phụ thuộc vào hạ tầng trung tâm dữ liệu (Data Center) hoạt động liên tục 24/7. Do đó, các nhà cung cấp cũng cần nhanh chóng áp dụng các giải pháp tiết kiệm năng lượng hoặc sử dụng năng lượng tái tạo, hướng tới cam kết Net Zero của Việt Nam vào năm 2050. Giải pháp thúc đẩy DaaS tại Việt Nam Để DaaS không chỉ dừng ở tiềm năng mà thực sự trở thành hạ tầng quan trọng của doanh nghiệp Việt, ba nhóm chủ thể tham gia vào thị trường bao gồm: nhà cung cấp dịch vụ, doanh nghiệp và cả cơ quan quản lý nhà nước cần có sự phối hợp chặt chẽ. Nâng cao nhận thức thị trường: Rào cản lớn nhất hiện nay không phải công nghệ, mà là tư duy. Chúng ta cần nhiều hơn các hội thảo, diễn đàn và những case study thực tế để cung cấp thông tin cho doanh nghiệp về khả năng tiết kiệm chi phí, tính linh hoạt và vẫn đảm bảo an toàn của DaaS Đặt bảo mật làm trọng tâm: Không có niềm tin thì không có thị trường. Các nhà cung cấp cần chứng minh năng lực qua việc tuân thủ các chuẩn quốc tế, đồng thời triển khai các lớp bảo mật nâng cao như mã hóa dữ liệu, xác thực đa yếu tố và cơ chế quản trị minh bạch Mô hình giá linh hoạt: Doanh nghiệp Việt, nhất là SMEs, rất nhạy cảm về chi phí. Vì vậy, các gói dịch vụ phải đa dạng: từ pay-as-you-go, gói dự án ngắn hạn cho tới gói dài hạn ưu đãi. Mô hình giá bán linh hoạt là con đường để các doanh nghiệp tiếp cận DaaS dễ dàng hơn. Hướng tới phát triển bền vững: Data Center là cốt lõi của DaaS, đồng thời cũng là nơi tiêu tốn năng lượng khổng lồ. Chuyển đổi sang năng lượng tái tạo, áp dụng công nghệ làm mát xanh sẽ vừa giảm chi phí vận hành, vừa giúp doanh nghiệp đáp ứng cam kết Net Zero. Hiện nay, FPT đang phát triển và cung cấp giải pháp DaaS toàn diện với tên gọi FPT Cloud Desktop. Đây là dịch vụ được xây dựng trên nền tảng hạ tầng đám mây mạnh mẽ của FPT, mang đến cho người dùng trải nghiệm máy tính ảo với hiệu suất cao, bảo mật vượt trội và tiết kiệm chi phí. Một trong những lợi ích nổi bật của FPT Cloud Desktop là khả năng quản lý tập trung. Các doanh nghiệp có thể dễ dàng kiểm soát, cấu hình và giám sát toàn bộ hệ thống máy tính ảo từ một giao diện quản trị duy nhất. Điều này giúp giảm thiểu các vấn đề kỹ thuật phức tạp, đồng thời đảm bảo việc bảo trì, nâng cấp diễn ra nhanh chóng và hiệu quả. Thị trường DaaS tại Việt Nam đang bước vào giai đoạn quan trọng với nhiều cơ hội lớn để bứt phá. Các yếu tố thuận lợi từ lực lượng lao động trẻ, chính sách chuyển đổi số, sự phát triển của hạ tầng cloud trong nước đang tạo tiền đề vững chắc cho DaaS. Tuy nhiên, những rào cản về nhận thức, bảo mật và hạ tầng mạng vẫn cần được giải quyết kịp thời. Chỉ khi các nhà cung cấp, doanh nghiệp và cơ quan quản lý phối hợp chặt chẽ, DaaS mới có thể phát triển bền vững và trở thành đòn bẩy quan trọng cho tiến trình chuyển đổi số quốc gia. Trong tương lai, DaaS không chỉ là giải pháp công nghệ, mà còn là nền tảng giúp doanh nghiệp Việt Nam nâng cao sức cạnh tranh trên thị trường toàn cầu. Thuy Pham FPT Smart Cloud, FPT Corporation Liên hệ với chúng tôi để được tư vấn chi tiết về các giải pháp, dịch vụ của FPT Cloud   Hotline: 1900 638 399   Email: [email protected]   Support: m.me/fptsmartcloud