Blogs Tech

AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả

11:02 26/09/2025
Tại NVIDIA AI Day, ông Phạm Vũ Hùng – Solutions Architect & Senior Consultant của FPT Smart Cloud, Tập đoàn FPT đã có bài chia sẻ với chủ đề “AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả”. Trong phần trình bày, ông Hùng mang đến góc nhìn về cách hiện thực hóa quy trình phát triển AI toàn trình, bao gồm từ việc xây dựng mô hình Generative AI cho đến triển khai AI Agent trong doanh nghiệp, trên nền tảng GPU Cloud H100/H200 của NVIDIA và hạ tầng AI Factory do FPT phát triển trong nước. Một vài điểm đáng chú ý trong phần chia sẻ: Phát triển AI toàn diện trong môi trường an toàn: quy trình khép kín từ huấn luyện GenAI đến triển khai AI Agent ngay tại data center trong nước. Tăng tốc với NVIDIA H100/H200 GPU: rút ngắn đáng kể thời gian training và inference. Xây dựng & tinh chỉnh GenAI bằng dữ liệu riêng: tạo ra mô hình chính xác hơn, đáp ứng nhu cầu đặc thù của doanh nghiệp. Xây dựng AI/ML Stack FPT AI Factory cung cấp hạ tầng AI/ML toàn diện, được xây dựng trên các trung tâm dữ liệu Tier 3 & 4 đạt chứng nhận NVIDIA tại Nhật Bản, xếp hạng tương ứng 36 và 38 trong danh sách TOP500 (tháng 6/2025).Trong số các dịch vụ nổi bật có GPU Container, GPU Virtual Machine và FPT AI Studio. Ngoài ra, nhà phát triển có thể tận dụng Bare Metal Server, GPU Cluster, AI Notebook và FPT AI Inference để đáp ứng đa dạng nhu cầu. [caption id="attachment_67178" align="aligncenter" width="1972"] Hình ảnh: Kiến trúc AI/ML Stack trên FPT AI Factory[/caption] GPU Container: Được thiết kế cho các tác vụ thử nghiệm, đi kèm tính năng giám sát, ghi log và sổ tay cộng tác (collaborative notebooks). Nhà phát triển có thể dễ dàng chia sẻ dữ liệu, viết mã, kiểm thử đơn vị (unit test) và thực thi trong một môi trường linh hoạt cao. GPU Virtual Machine: Máy ảo đa năng, tối ưu cho cả huấn luyện và suy luận, với tùy chọn cấu hình linh hoạt (từ 1 đến 8 GPU mỗi VM, dung lượng bộ nhớ GPU lên tới 141GB). GPU Cluster: Hạ tầng có khả năng mở rộng, hỗ trợ huấn luyện phân tán và suy luận quy mô lớn. Tích hợp NVLink, công nghệ chia sẻ GPU như MIG/MPS/Time-slice, cùng các tiện ích bảo mật nâng cao như nhật ký kiểm toán (audit logs) và CIS benchmarks. AI Notebook: Môi trường JupyterLab được quản lý, cài sẵn các thư viện AI/ML cần thiết. Nhà phát triển có thể bắt tay ngay vào lập trình trên GPU cấp doanh nghiệp mà không mất thời gian thiết lập, đồng thời tiết kiệm chi phí lên tới 70% so với môi trường notebook truyền thống. FPT AI Studio: Nền tảng MLOps no-code/low-code, tích hợp pipeline dữ liệu, các chiến lược tinh chỉnh (SFT, DPO, continual training), theo dõi thí nghiệm và quản lý mô hình. Giao diện kéo-thả trực quan cho phép nhà phát triển tinh chỉnh mô hình nhanh chóng và lưu trữ trong kho mô hình tập trung. FPT AI Inference: API sẵn sàng sử dụng với mức giá token cạnh tranh, giúp nhà phát triển triển khai mô hình đã tinh chỉnh một cách nhanh chóng và tiết kiệm chi phí. Trong phần trình bày, ông Hùng không chỉ nhấn mạnh những năng lực toàn diện của FPT AI Factory mà còn đưa ra ví dụ cụ thể từ khách hàng. Điển hình, FPT đã hợp tác với một công ty CNTT Nhật Bản để tinh chỉnh mô hình Donut (Document Understanding Transformer) trên bộ dữ liệu hơn 300GB. Bằng cách kết hợp GPU Container cùng FPT Object Storage, khách hàng có thể xử lý hiệu quả khối lượng lớn dữ liệu tài liệu, đồng thời tối ưu chi phí. Đây cũng là một ví dụ thực tiễn cho thấy doanh nghiệp có thể tận dụng hạ tầng của FPT AI Factory để triển khai các tác vụ AI trong thực tế. [caption id="attachment_67179" align="aligncenter" width="1674"] Hình ảnh: Quy trình tinh chỉnh mô hình Donut trên FPT AI Factory[/caption] Tăng tốc triển khai giải pháp AI thực tiễn Một trong những điểm nhấn của sự kiện là phần demo trực tiếp về AI Camera Agent được thiết kế cho bài toán tìm kiếm và tóm tắt nội dung video. Quy trình vận hành đơn giản nhưng mạnh mẽ: chỉ cần chọn một video, nhập mô tả ngắn gọn về nội dung cần tìm, và agent sẽ tự động xác định các đoạn liên quan, đồng thời tạo ra phần tóm tắt súc tích trong thời gian thực. NVIDIA Blueprints là yếu tố then chốt giúp hiện thực hóa giải pháp này – bộ kiến trúc giải pháp và công cụ đã được kiểm chứng, cho phép thử nghiệm nhanh chóng. Thay vì mất hàng tháng để xây dựng một nguyên mẫu từ đầu, nhóm đã có thể chuyển từ ý tưởng sang bản demo hoạt động chỉ trong một ngày. Sự tăng tốc này không chỉ chứng minh tính khả thi của giải pháp mà còn mang lại cho doanh nghiệp cách nhìn cụ thể về việc AI có thể được áp dụng như thế nào cho các thách thức xử lý dữ liệu video của riêng họ. [caption id="attachment_67180" align="aligncenter" width="1262"] Hình ảnh: Kiến trúc giải pháp AI Camera Agent (NVIDIA)[/caption] Đặc biệt, FPT AI Factory cung cấp môi trường full-stack, bao gồm từ các thành phần hạ tầng như GPU, máy ảo (VM) và Kubernetes đến các công cụ dành cho nhà phát triển, giúp triển khai giải pháp AI một cách nhanh chóng và hiệu quả. Với kiến trúc linh hoạt cùng các mô hình sẵn sàng sử dụng, nhà phát triển thậm chí có thể xây dựng giải pháp hoàn chỉnh chỉ với một NVIDIA H100 GPU, cân bằng giữa hiệu năng, khả năng mở rộng và tối ưu chi phí. Chẳng hạn, FPT AI Inference cung cấp thư viện mô hình sẵn dùng, cho phép nhà phát triển tích hợp ngay lập tức qua các API đơn giản. Với mức giá token cạnh tranh, đội ngũ phát triển có thể chạy các tác vụ suy luận nhanh hơn trong khi giảm đáng kể chi phí, giúp doanh nghiệp đưa ứng dụng AI ra thị trường một cách hiệu quả hơn. Tối ưu quy trình tinh chỉnh mô hình AI Hiện nay, nhà phát triển có thể tinh chỉnh mô hình trực tiếp trên GPU Container, điều này rất phù hợp cho mục đích thử nghiệm và phát triển nhanh. Tuy nhiên, để đưa một giải pháp vào vận hành thực tế, cần hơn cả sức mạnh tính toán - đó là khả năng tự động hóa quy trình tinh chỉnh. Để đáp ứng nhu cầu này, FPT AI Studio được giới thiệu, tích hợp các thành phần phổ biến trong quy trình MLOps như AI Notebook, xử lý dữ liệu (Data Processing) và nhiều chiến lược tinh chỉnh khác nhau như continual training. FPT AI Studio cho phép người dùng tích hợp dữ liệu, mô hình nền tảng và các chiến lược tinh chỉnh, với giao diện kéo-thả thân thiện, giúp xây dựng workflow nhanh chóng. Mô hình sau khi được tinh chỉnh có thể được lưu trữ trong Model Hub - một kho trung tâm để quản lý phiên bản, chia sẻ và tái sử dụng. Sau đó, các mô hình này có thể được chuyển ngay sang FPT AI Inference để triển khai với khả năng mở rộng và độ trễ thấp trong môi trường sản xuất. FPT AI Studio cung cấp môi trường lý tưởng để tối ưu hóa việc tinh chỉnh và triển khai mô hình. Nền tảng này vừa dễ tiếp cận cho người mới, vừa cho phép tùy chỉnh sâu cho người dùng nâng cao. Các thành phần chính của MLOps trên FPT AI Studio bao gồm: AI Notebook: môi trường thử nghiệm lập trình dựa trên mã nguồn. Các quy trình xử lý dữ liệu: xử lý dữ liệu trước khi huấn luyện và kỹ thuật tạo đặc trưng (feature engineering). Chiến lược tinh chỉnh bao gồm huấn luyện liên tục (continual training), thích ứng theo miền (domain adaptation) và học chuyển giao (transfer learning). Khi một mô hình đã được tinh chỉnh trong FPT AI Studio, nó sẽ được lưu giữ trong Model Hub để dễ dàng quản lý, chia sẻ và sử dụng lại. Từ đây, mô hình có thể được chuyển trực tiếp sang FPT AI Inference, phục vụ với hiệu suất cao và độ trễ thấp trong môi trường sản xuất. [caption id="attachment_67182" align="aligncenter" width="1312"] Hình ảnh: Quy trình huấn luyện trên FPT AI Studio[/caption] Tại buổi chia sẻ, ông Hùng đã minh họa một câu chuyện thành công về cách FPT AI Studio được ứng dụng để tùy biến một mô hình ngôn ngữ lớn phục vụ lĩnh vực y tế tại Việt Nam. Mô hình gốc được chọn là Llama-3.1-8B, cân bằng tốt giữa khả năng xử lý và hiệu suất. Nhiệm vụ đặt ra là phát triển một mô hình tối ưu cho trả lời câu hỏi y tế, yêu cầu điều chỉnh chuyên sâu theo lĩnh vực nhưng vẫn giữ nguyên năng lực suy luận tổng quát của mô hình gốc. Bộ dữ liệu sử dụng bao gồm các tài liệu y tế tiếng Việt, với mục tiêu nâng cao khả năng nhớ chính xác thông tin, độ chuyên sâu về lĩnh vực, và chất lượng phản hồi trong các tình huống hỏi đáp lâm sàng. Cách tiếp cận thứ nhất dựa trên việc huấn luyện liên tục (continual pre-training). Sử dụng 24 NVIDIA H100 GPU trên 3 node, mô hình được huấn luyện trên bộ dữ liệu y tế qua 3 epoch, toàn bộ quy trình mất khoảng 31 giờ để hoàn tất. Cách tiếp cận thứ hai áp dụng tinh chỉnh có giám sát với LoRA adapters, là giải pháp tiết kiệm tài nguyên hơn. Trong phương án này, chỉ sử dụng 4 NVIDIA H100 GPU trên một node, huấn luyện qua 5 epoch, với thời gian tổng cộng khoảng 3 giờ. Mặc dù yêu cầu tính toán thấp hơn, phương pháp này vẫn mang lại cải thiện đáng kể cho các tác vụ hỏi đáp chuyên ngành. [caption id="attachment_67183" align="aligncenter" width="922"] Hình ảnh: Kết quả của quá trình pre-training và SFT LLM với bộ dữ liệu y tế[/caption] Gợi ý triển khai hiệu quả Trước tiên, điều quan trọng là lựa chọn công cụ phù hợp cho từng loại khối lượng công việc nhằm tối đa hóa cả hiệu suất lẫn hiệu quả chi phí. Với FPT AI Factory, người dùng được trang bị đầy đủ công cụ cần thiết cho mọi loại khối lượng công việc AI/ML, giúp thúc đẩy đổi mới AI nhanh hơn và hiệu quả hơn. Đối với giai đoạn thử nghiệm ban đầu, GPU Container hoặc AI Notebook cung cấp môi trường linh hoạt cho các nhà phát triển thử nghiệm ý tưởng và chạy nguyên mẫu nhanh. Khi triển khai, lựa chọn phù hợp phụ thuộc vào khối lượng công việc: GPU Container lý tưởng cho việc suy luận nhẹ, trong khi GPU Virtual Machine mang lại hiệu suất cần thiết cho suy luận thời gian thực hoặc xử lý theo lô. Các khối lượng công việc tính toán hiệu năng cao (HPC) đạt hiệu quả tối ưu trên Metal Cloud, cung cấp hiệu suất bare metal cho các tác vụ yêu cầu cao. Cuối cùng, các tổ chức muốn sử dụng mô hình sẵn sàng có thể truy cập AI Marketplace, nơi cung cấp các LLM đã được huấn luyện sẵn và dịch vụ hỗ trợ để tăng tốc quá trình áp dụng mà không cần tinh chỉnh thêm. [caption id="attachment_67184" align="aligncenter" width="941"] Hình ảnh: Giải pháp của FPT AI Factory cho các loại khối lượng công việc AI/ML khác nhau[/caption] Thứ hai, các nhà phát triển cần tối ưu hóa khối lượng công việc huấn luyện. Việc tối ưu huấn luyện các mô hình AI sinh tạo lớn đòi hỏi kết hợp giữa kỹ thuật tận dụng phần cứng và thiết kế quy trình làm việc. Một phương pháp quan trọng là sử dụng huấn luyện chính xác hỗn hợp (mixed-precision training), áp dụng các định dạng như FP16 hoặc BF16 để tăng tốc tính toán trên NVIDIA GPU đồng thời giảm tới 50% bộ nhớ sử dụng. Điều này không chỉ rút ngắn thời gian huấn luyện mà còn duy trì độ chính xác với khả năng tự động mở rộng. Huấn luyện phân tán cũng rất quan trọng, với các chiến lược như PyTorch DDP hoặc pipeline parallelism giúp mở rộng khối lượng công việc trên nhiều GPU hoặc node, cải thiện thông lượng và rút ngắn chu kỳ phát triển. Trong môi trường đa node, tối ưu kết nối cluster bằng NVLink hoặc InfiniBand có thể tăng tốc huấn luyện lên tới 3 lần, đảm bảo đồng bộ hiệu quả cho các tác vụ AI quy mô lớn. Quy trình dữ liệu và lưu trữ cũng cần được tối ưu, sử dụng NVIDIA DALI và khả năng I/O mở rộng để tránh nghẽn cổ chai. Cuối cùng, các công cụ đối chuẩn như kiểm thử hiệu suất GPU của FPT AI Factory và kết quả MLPerf của NVIDIA giúp xác thực cấu hình, đảm bảo mở rộng hiệu quả về chi phí cho quá trình tinh chỉnh. Thứ ba, cần tối ưu hóa khối lượng công việc suy luận (inference) để cung cấp dịch vụ AI tạo sinh có khả năng mở rộng và độ trễ thấp. Một phương pháp hiệu quả là lượng tử hóa (quantization) và sử dụng độ chính xác thấp hơn với NVIDIA TensorRT, chuyển đổi mô hình sang FP8 hoặc INT8 để tăng thông lượng tới 1,4 lần với ít ảnh hưởng tới độ chính xác. Đối với các mô hình ngôn ngữ lớn, quản lý bộ nhớ KV cache hiệu quả cũng rất quan trọng; các kỹ thuật như PagedAttention và chunked prefill giúp giảm phân mảnh bộ nhớ và rút ngắn thời gian tạo token đầu tiên tới 2–5 lần trong môi trường nhiều người dùng. Speculative decoding cải thiện hiệu suất bằng cách kết hợp một mô hình nháp nhỏ với mô hình chính để dự đoán nhiều token cùng lúc, mang lại thông lượng tăng 1,9–3,6 lần, đồng thời giảm độ trễ, đặc biệt hữu ích trong ứng dụng thời gian thực như tóm tắt video. Mở rộng với multi-GPU parallelism cũng đóng vai trò then chốt, giúp tăng tới 1,5 lần hiệu suất trong các tác vụ tinh chỉnh phân tán ở cluster khối lượng lớn. Cuối cùng, model distillation và pruning giúp thu gọn mô hình, giảm chi phí và độ trễ 20 - 30% mà không làm giảm chất lượng đầu ra. Điểm nhấn chính Kiến trúc quy trình AI toàn diện và bảo mật: Phân tích kiến trúc của một “AI factory” trong thực tế, tập trung vào nguyên tắc thiết kế để xây dựng vòng đời phát triển an toàn trong trung tâm dữ liệu nội bộ. Khán giả sẽ nắm rõ các bước kỹ thuật để đảm bảo cách ly dữ liệu, quản lý hosting mô hình an toàn, và thiết lập lộ trình từ tinh chỉnh tới triển khai AI agent đạt chuẩn doanh nghiệp. Kỹ thuật thực tiễn cho vận hành LLM tăng tốc GPU: Vượt ra ngoài thông số kỹ thuật, học cách tận dụng GPU hiệu năng cao (như NVIDIA H100/H200) một cách thực tế. Phiên chia sẻ này trình bày các phương pháp tối ưu cụ thể cho cả huấn luyện và tinh chỉnh, nhằm tối đa hóa thông lượng, giảm độ trễ, và rút ngắn chu kỳ phát triển cho các ứng dụng AI sinh tạo có yêu cầu cao.

Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory: Giải pháp giúp doanh nghiệp tăng tốc phát triển AI

11:34 03/09/2025
Vừa qua, FPT đã tổ chức webinar với chủ đề“Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory” (“Fine-Tuning Llama 3 in 30 minutes on FPT AI Factory”) cùng sự tham gia của ông Donald Murataj, Chuyên gia AI tại FPT, xoay quanh chủ đề về ứng dụng kỹ thuật tinh chỉnh hiệu quả mô hình Llama 3 trên FPT AI Factory.   AI tạo sinh – Xu hướng tất yếu của doanh nghiệp  Trong bối cảnh hiện nay, trí tuệ nhân tạo (AI) đã trở thành một trong những yếu tố quan trọng thúc đẩy sự phát triển của doanh nghiệp. Đặc biệt, AI tạo sinh (Gen AI) nổi lên như một công nghệ đột phá, không chỉ giúp tối ưu hiệu quả vận hành và nâng cao trải nghiệm khách hàng, mà còn mở ra những mô hình kinh doanh hoàn toàn mới.   Thách thức lớn nhất đối với doanh nghiệp là làm thế nào để "cá nhân hóa" những mô hình ngôn ngữ khổng lồ như Llama 3 theo dữ liệu và ngữ cảnh đặc thù của mình. Đây chính là lúc tinh chỉnh trở thành chìa khóa để GenAI thực sự tạo ra giá trị đột phá. Buổi webinar của FPT đã cho thấy quá trình phức tạp này có thể được thực hiện một cách nhanh chóng, đơn giản và hiệu quả ngay trên FPT AI Factory.  Trải nghiệm tinh chỉnh Llama 3 chỉ trong 30 phút  Điểm nhấn của webinar là màn trình diễn trực tiếp, nơi chuyên gia FPT thực hiện toàn bộ quy trình tinh chỉnh Llama 3 chỉ trong 30 phút, hướng dẫn người tham dự chi tiết qua từng bước:   Bước 1: Chuẩn bị bộ dữ liệu huấn luyện sát với nhu cầu thực tế, giúp mô hình hiểu đúng bối cảnh và ngôn ngữ riêng của doanh nghiệp.  Bước 2: Khởi tạo môi trường GPU Container trên FPT AI Factory để đảm bảo tốc độ xử lý nhanh, ổn định và dễ dàng mở rộng khi cần.  Bước 3: Thực hiện fine-tuning ngay trên giao diện trực quan, vừa đơn giản thao tác vừa cho phép kiểm soát toàn bộ quá trình.  Bước 4: Đánh giá kết quả và so sánh với mô hình gốc để nhận thấy rõ sự cải thiện về hiệu năng và độ chính xác.  Điều khiến người tham dự ấn tượng nhất chính là sự đơn giản và dễ tiếp cận của FPT AI Factory. Ngay cả đội ngũ kỹ thuật chưa có nhiều kinh nghiệm phát triển AI cũng có thể nhanh chóng tạo ra mô hình AI riêng của mình. Nếu như trước đây quá trình tinh chỉnh thường mất vài ngày, thì nay chỉ trong chưa đầy một giờ, toàn bộ quy trình đã hoàn thiện, minh chứng rõ ràng cho sức mạnh tối ưu của FPT AI Factory.  Trải nghiệm này đã biến một quy trình vốn phức tạp trở nên nhanh chóng và dễ áp dụng, mở ra cơ hội để mọi doanh nghiệp bắt tay vào ứng dụng AI ngay từ bước thử nghiệm đầu tiên.  >>> Xem lại webinar tại đây: https://www.youtube.com/watch?v=6L1nQteXAnM&ab_channel=FPTAIFactory  FPT AI Factory – Bộ giải pháp phát triển AI toàn diện dành cho doanh nghiệp Tất cả những điều này trở thành hiện thực nhờ FPT AI Factory – bộ giải pháp phát triển AI toàn diện được xây dựng trên hạ tầng hiện đại, khai thác sức mạnh của siêu chip NVIDIA H100/H200 GPU và phần mềm NVIDIA AI Enterprise. Kết hợp với kinh nghiệm triển khai thực tiễn từ FPT, FPT AI Factory giúp doanh nghiệp rút ngắn thời gian phát triển mô hình, tối ưu chi phí và mở rộng quy mô triển khai một cách linh hoạt, bảo mật.  Nền tảng bao gồm 4 thành phần chính:  FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, tiết kiệm năng lượng cho LLM và mô hình đa phương thức.  FPT AI Studio: Môi trường fine-tuning, thử nghiệm và prototyping nhanh chóng, tiết kiệm chi phí.  FPT AI Inference: Nền tảng phục vụ AI với độ trễ thấp, hiệu năng cao, phù hợp cho ứng dụng ở môi trường sản xuất.  FPT AI Agents: Nền tảng xây dựng và vận hành AI agent thông minh, đa ngôn ngữ, tích hợp liền mạch với quy trình doanh nghiệp.  Ngoài ra, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng sử dụng, giúp doanh nghiệp nhanh chóng ứng dụng AI vào trải nghiệm khách hàng, vận hành, quản trị nhân sự và tối ưu chi phí. 

Tinh chỉnh OpenFlamingo với GPU NVIDIA H100

10:35 03/09/2025
1. Giới thiệu Flamingo: Few-shot learning cho các mô hình ngôn ngữ thị giác  Flamingo (tài liệu gốc: [https://arxiv.org/pdf/2204.14198]) là một nhánh của mô hình ngôn ngữ thị giác (VLMs) được xây dựng bởi nhóm các chuyên gia tại Google DeepMind để giải quyết các bài toán về Few-shot learning trong học máy đa phương thức. Mô hình này được xây dựng dựa trên ba tầng lớp quan trọng:  Kết hợp sức mạnh của các mô hình đã huấn luyện sẵn cho xử lý hình ảnh và xử lý ngôn ngữ.  Xử lý linh hoạt chuỗi dữ liệu gồm cả hình ảnh và văn bản xen kẽ.  Dễ dàng nhận hình ảnh hoặc video làm đầu vào.  Sự linh hoạt này giúp Flamingo có thể được huấn luyện trên khối lượng dữ liệu web quy mô lớn, nơi hình ảnh và văn bản được kết hợp lẫn nhau. Đây chính là yếu tố quan trọng để Flamingo có khả năng học những nhiệm vụ mới chỉ với một vài ví dụ.  Nhờ vậy, bằng cách sử dụng một vài ví dụ mẫu phù hợp với từng tác vụ, một mô hình Flamingo có thể đạt được hiệu năng hàng đầu trong nhiều tác vụ khác nhau, bao gồm trả lời câu hỏi dựa trên hình ảnh, tạo chú thích (caption) và trả lời câu hỏi trắc nghiệm.  Cách tiếp cận few-shot này thường giúp Flamingo vượt trội hơn cả những mô hình đã được tinh chỉnh bằng lượng dữ liệu nhiều gấp hàng nghìn lần.  2. Flamingo vận hành như thế nào? Flamingo hoạt động thông qua một giao diện đa phương thức, xử lý kết hợp hình ảnh, video và văn bản để tạo ra phản hồi dưới dạng văn bản phù hợp. Thiết kế này giúp Flamingo dễ dàng thích ứng với nhiều tác vụ khác nhau, tương tự như các mô hình ngôn ngữ lớn (LLM), vốn sử dụng các gợi ý bằng văn bản để giải quyết nhiều thách thức liên quan đến ngôn ngữ.  Kiến trúc mô hình   OpenFlamingo kết hợp một bộ mã hóa thị giác đã được huấn luyện sẵn với một mô hình ngôn ngữ thông qua các lớp cross-attention. Kiến trúc mô hình được minh họa bên dưới.  Kiến trúc này hoạt động thông qua hai nhánh chính:     a. Nhánh thị giác (bên trái) Nhánh này chịu trách nhiệm xử lý dữ liệu thị giác (hình ảnh) và chuẩn bị cho mô hình ngôn ngữ.  Vision Encoder: Đây là một mô hình đã được huấn luyện sẵn (biểu thị bằng biểu tượng bông tuyết “đóng băng”), có nhiệm vụ trích xuất đặc trưng từ hình ảnh đầu vào. Một điểm quan trọng trong thiết kế là các trọng số của bộ mã hóa này được “đóng băng” và không thay đổi trong quá trình huấn luyện.  Perceiver Resampler: Đầu ra từ bộ mã hóa thị giác sau đó được đưa vào Perceiver Resampler. Thành phần này ánh xạ các đặc trưng thị giác có kích thước thay đổi thành một số lượng nhỏ, cố định các token đầu ra. Mô-đun này được huấn luyện từ đầu (biểu thị bằng màu tím), học cách tạo ra phiên bản rút gọn của dữ liệu hình ảnh. Trong Flamingo, số lượng token hình ảnh đầu ra được đặt là 5.  b. Nhánh ngôn ngữ (bên phải) Nhánh này xử lý văn bản và kết hợp nó với thông tin thị giác để tạo ra đầu ra cuối cùng.  Interleaved Input: Mô hình nhận một chuỗi đầu vào gồm văn bản xen kẽ với các ký hiệu giữ chỗ cho hình ảnh (<image>).  LM Blocks: Nền tảng của nhánh này là một mô hình ngôn ngữ lớn (Language Model – LM) đã được huấn luyện sẵn (ví dụ: Chinchilla). Tương tự như Bộ mã hóa thị giác, các khối LM này cũng được “đóng băng”, nghĩa là tận dụng vốn kiến thức ngôn ngữ khổng lồ mà không cần huấn luyện lại.  Gated XATTN-DENSE: Đây là điểm đổi mới then chốt giúp kết nối hai nhánh. Đây là những mô-đun mới, được huấn luyện từ đầu và chèn vào giữa các khối LM. Khi mô hình gặp một ký hiệu <image> trong dòng văn bản, lớp Gated XATTN-DENSE sẽ thực hiện phép cross-attention, dùng thông tin văn bản làm “truy vấn” để “nhìn vào” các token hình ảnh do Perceiver Resampler sinh ra. Thành phần “gated” là cơ chế kiểm soát mức độ thông tin hình ảnh được phép ảnh hưởng đến quá trình sinh ngôn ngữ, giúp kết hợp linh hoạt hai loại dữ liệu.  Thiết lập tiêu chuẩn mới cho Few-Shot learning  Flamingo đã được kiểm chứng nghiêm ngặt trên 16 tác vụ khác nhau và luôn đạt kết quả tốt hơn so với các mô hình few-shot learning trước đây, ngay cả khi mỗi tác vụ chỉ có bốn ví dụ. Trong một số trường hợp, Flamingo còn cho thấy hiệu năng tốt hơn cả những phương pháp cần tinh chỉnh trên quy mô lớn và sử dụng tập dữ liệu khổng lồ, cho thấy khả năng khái quát hóa rất hiệu quả.  Bằng cách giảm thiểu nhu cầu gắn nhãn dữ liệu quy mô lớn và huấn luyện lại riêng cho từng tác vụ, Flamingo đánh dấu một bước tiến quan trọng về hiệu quả của các mô hình ngôn ngữ thị giác. Khả năng học nhanh từ số lượng ví dụ hạn chế đưa AI tiến gần hơn đến sự thích ứng tự nhiên như con người, mở ra nhiều ứng dụng thực tiễn với độ chính xác cao và dễ dàng hơn. 3. Tại sao phải tinh chỉnh Flamingo? Để kiểm chứng hiệu năng của hệ thống H100 mới, chúng tôi tiến hành thử nghiệm khả năng vận hành một mô hình ngôn ngữ lớn (LLMs). Trong quá trình đánh giá này, chúng tôi chọn tinh chỉnh một phiên bản Flamingo do cộng đồng phát triển. Dự án này đồng thời phục vụ hai mục tiêu:  System Validation: Chúng tôi sử dụng tác vụ tinh chỉnh này để kiểm thử nghiêm ngặt hạ tầng H100, nhằm đảm bảo nó có thể đáp ứng các yêu cầu tính toán khắt khe trong việc huấn luyện và vận hành một mô hình lớn.  Code Verification: Do mã nguồn gốc của mô hình Flamingo không được công bố rộng rãi, chúng tôi dựa vào phiên bản do cộng đồng phát triển. Quá trình này giúp kiểm chứng xem bản mã nguồn mở đó có tái hiện chính xác và vận hành được mô hình như mô tả trong bài báo nghiên cứu hay không.  Do đó, xin lưu ý rằng trọng tâm của chúng tôi ở đây là khả năng của hệ thống, chứ không phải đánh giá độ chính xác của mô hình.  Trong dự án này, một bản sao Flamingo có tên OpenFlamingo, do ML-Foundation phát triển, đã được sử dụng vì mô hình Flamingo gốc chưa được công bố rộng rãi. Mục tiêu là tinh chỉnh OpenFlamingo trên bộ dữ liệu gốc và đánh giá hiệu năng của nó trong điều kiện kiểm soát.   Những kết quả này giúp xác định tính khả thi của việc triển khai OpenFlamingo trong các ứng dụng thực tiễn, đồng thời tối ưu hóa việc khai thác phần cứng. 4. Flamingo được tinh chỉnh như thế nào? Cài đặt OpenFlamingo  Để cài đặt gói này trong môi trường hiện có, hãy chạy lệnh sau:  [code lang="js"] pip install open-flamingo [/code] Hoặc để tạo một môi trường Conda dành cho việc chạy OpenFlamingo, hãy chạy lệnh sau: [code lang="js"] conda env create -f environment.yml [/code] Để cài đặt các dependencies phục vụ huấn luyện hoặc đánh giá, hãy chạy một trong hai lệnh đầu tiên. Để cài đặt toàn bộ, hãy chạy lệnh thứ ba. [code lang="js"] pip install open-flamingo[training] pip install open-flamingo[eval] pip install open-flamingo[all] [/code] Có ba tệp câu lệnh requirements.txt:  requirements.txt  requirements-training.txt  requirements-eval.txt   Tùy theo mục đích sử dụng, bạn có thể cài đặt bất kỳ gói nào trong số này bằng lệnh: pip install -r <requirements-file.txt>. Tệp base chỉ bao gồm các dependencies cần thiết để chạy mô hình.  Phát triển   Các tác giả mã nguồn mở sử dụng pre-commit hooks để đồng bộ định dạng mã với các kiểm tra trong kho lưu trữ. Để cài đặt pre-commit, hãy chạy lệnh sau:  [code lang="js"] pip install pre-commit [/code] hoặc sử dụng brew cho MacOS:  [code lang="js"] brew install pre-commit [/code] Kiểm tra phiên bản đã cài đặt với:  [code lang="js"] pre-commit --version [/code] Sau đó, tại thư mục gốc của kho lưu trữ này, hãy chạy lệnh:  [code lang="js"] pre-commit install [/code] Sau đó, mỗi lần chúng ta chạy git commit, các kiểm tra sẽ được thực hiện. Nếu các tệp bị định dạng lại bởi các hooks, hãy chạy lại lệnh:  [code lang="js"] git add [/code] cho các tệp bạn đã thay đổi, và hãy chạy lại lệnh  [code lang="js"] git commit [/code] Quy trình huấn luyện   Để huấn luyện OpenFlamingo, hãy đảm bảo môi trường của bạn khớp với môi trường của environment.yml.  Xử lý dữ liệu   Mã nguồn sử dụng WebDataset để tải các tệp .tar chứa các chuỗi hình ảnh và văn bản một cách hiệu quả. Chúng tôi khuyến nghị lấy mẫu lại các shard với thay thế trong quá trình huấn luyện bằng cách gắn cờ -- dataset_resampled.  Bộ dữ liệu LAION-2B  LAION-2B chứa 2 tỷ cặp (hình ảnh, văn bản) được trích xuất từ web. Vui lòng sử dụng img2dataset để tải xuống bộ dữ liệu này thành các tệp tar.  Bộ dữ liệu đa phương thức C4 (Multimodal C4 - MMC4)  OpenFlamingo được huấn luyện trên phiên bản đầy đủ của MMC4, bao gồm 103 triệu tài liệu với chuỗi hình ảnh và văn bản xen kẽ. Trong quá trình huấn luyện, chuỗi được cắt ngắn còn 256 token văn bản và 6 hình ảnh mỗi chuỗi. Codebase yêu cầu các tệp .tar chứa các tệp .json, trong đó bao gồm hình ảnh gốc được mã hóa bằng base64.   Các script được cung cấp để chuyển đổi MMC4 sang định dạng này:   (1) Tải xuống các shard MMC4 thành các tệp .zip bằng các script do MMC4 cung cấp (ví dụ: fewer_facesv2.sh).   (2) Tải xuống hình ảnh gốc MMC4 vào một thư mục hình ảnh bằng các script do MMC4 cung cấp (ví dụ: download_images.py).   (3) Chạy scripts/convert_mmc4_to_wds.py để chuyển đổi các mục đã tải xuống thành các tệp định dạng  tar.  Bộ dữ liệu tùy chỉnh  Gần đây có báo cáo rằng các URL tải xuống bộ dữ liệu MMC4 đang gặp một số vấn đề về quyền truy cập. Do đó, chúng tôi đã tạo một script giúp chuẩn bị bộ dữ liệu tùy chỉnh bằng cách chuyển đổi nó sang định dạng của MMC4 (chúng tôi đã sử dụng bộ dữ liệu ADNI làm mục tiêu cho ví dụ này, với dữ liệu hình ảnh base64 mẫu cố định). Bạn có thể sửa đổi script này theo bộ dữ liệu tùy chỉnh của mình:  [code lang="js"] import json  import os  import tarfile    def compress_directory_to_tar(directory_path):      json_files = [f for f in os.listdir(directory_path) if f.endswith('.json')]      os.makedirs('replicate_mmc4', exist_ok=True)        for i in range(0, len(json_files), 20):          batch_files = json_files[i:i+20]          tar_file_path = os.path.join('replicate_mmc4', f"{i//20:09d}.tar")            with tarfile.open(tar_file_path, "w:gz") as tar:              for file in batch_files:                  tar.add(os.path.join(directory_path, file), arcname=file)            print(f"Batch {i//20} compressed to {tar_file_path}")    def convert_adni_to_mmc4(input_json_path, output_folder):      # Ensure the output folder exists      os.makedirs(output_folder, exist_ok=True)        # Load the large JSON file      with open(input_json_path, 'r') as f:          data = json.load(f)        matched_text_index = 0        # Iterate over each item in the list and save it as a separate JSON file      for idx, item in enumerate(data):          # Ensure compatibility with the structure of f9773b9c866145c28fe0b701dde8dfbe.json            # Handle text list:          conversations = item.get("conversations", None)          if conversations is not None:              text_list = []              for conversation in conversations:                  text_list.append(conversation["value"])            # Check for <image> tag in the first element of conversations list          first_convo = conversations[0]["value"]          if "<image>" in first_convo:              if first_convo.startswith("<image>"):                  matched_text_index = 0              elif first_convo.endswith("<image>"):                  matched_text_index = 1            item["text_list"] = text_list            # Handle image's base64 content:          with open('./sample_base64.txt', 'r') as f:              sample_img_base64_data = f.read()            # Handle image info:          img_info = []          images_list = item.get("image", None)          if images_list is not None:              for img in images_list:                  img_obj = {}                  img_obj["image_name"] = img                  img_obj["raw_url"] = "https://example.com/{}".format(img)                  img_obj["matched_text_index"] = matched_text_index                  img_obj["matched_sim"] = 0.75                  img_obj["image_base64"] = sample_img_base64_data                  img_info.append(img_obj)            # Create similarity_matrix          similarity_matrix = []          for img in img_info:              for _ in range(len(text_list)):                  inner_list = [0] * len(text_list)                  inner_list[matched_text_index] = 1                  similarity_matrix.append(inner_list)            # item["similarity_matrix"] = similarity_matrix            output_item = {              "id": item.get("id", None),              "url": "https://example.com",              "text_list": item.get("text_list", None),              "image_info": img_info,              "similarity_matrix": similarity_matrix,              "could_have_url_duplicate": 0          }            # Save the item as a separate JSON file          output_path = os.path.join(output_folder, f"{idx:05d}.json")          with open(output_path, 'w') as out_f:              json.dump(output_item, out_f) [/code] Các chuỗi do ChatGPT khởi tạo  Một tập con các mô hình của chúng tôi (liệt kê bên dưới) cũng được huấn luyện trên các chuỗi (hình ảnh, văn bản) do ChatGPT tạo thử nghiệm, trong đó hình ảnh được lấy từ LAION. Các shard chứa những chuỗi này có thể tìm thấy tại bảng tính CodaLab này. Họ không thể phân phối hình ảnh gốc trong các shard phát hành; hình ảnh cần được tải trước từ các URL trong các tệp JSON và chuyển sang định dạng base64 trước khi sử dụng dữ liệu này để huấn luyện trong codebase của chúng tôi.  Các mô hình được huấn luyện với các chuỗi do ChatGPT tạo:  OpenFlamingo-4B-vitl-rpj3b  OpenFlamingo-4B-vitl-rpj3b-langinstruct  Lệnh huấn luyện   Một Slurm mẫu được cung cấp trong script huấn luyện trong scripts/. Bạn cũng có thể sửa đổi lệnh sau:  [code lang="js"] torchrun --nnodes=1 --nproc_per_node=8 open_flamingo/train/train.py \      --lm_path anas-awadalla/mpt-1b-redpajama-200b \      --tokenizer_path anas-awadalla/mpt-1b-redpajama-200b \      --cross_attn_every_n_layers 1 \      --dataset_resampled \      --batch_size_mmc4 2 \      --train_num_samples_mmc4 1000 \      --workers=4 \      --run_name OpenFlamingo-3B-vitl-mpt1b \      --num_epochs 20 \      --warmup_steps 1875 \      --mmc4_textsim_threshold 0.24 \      --mmc4_shards "modifications/VLM_ADNI_DATA/replicate_mmc4/{000000000..000000040}.tar" \      --report_to_wandb  [/code] Mã nguồn của mô hình MPT-1B (base và instruct) không nhận tham số labels và cũng không tính trực tiếp hàm mất mát cross-entropy trong forward(). Chúng tôi khuyến nghị sử dụng một phiên bản các mô hình MPT-1B đã được chỉnh sửa, có thể tìm thấy tại đây.  Huấn luyện phân tán   Theo mặc định, train.py sử dụng Distributed Data Parallel của Pytorch để huấn luyện.   Để sử dụng Fully Sharded Data Parallel (FSDP), hãy gắn cờ --fsdp.   Một số lưu ý về FSDP từ nhóm OpenFlamingo: Chúng tôi khuyến nghị sử dụng cờ --fsdp_use_orig_params df. Nếu --fsdp được bật mà không có cờ này, tất cả embeddings của mô hình ngôn ngữ sẽ được mở khóa trong quá trình huấn luyện. (Ngược lại, hành vi mặc định là chỉ huấn luyện các token <image> và <|endofchunk|> mới được thêm vào.)   Lưu ý: Chúng tôi đã gặp vấn đề khi sử dụng OPT với cờ này. Các mô hình ngôn ngữ khác sẽ tương thích hơn.   Chiến lược đóng gói FSDP hiện tại không cho phép huấn luyện embeddings của mô hình ngôn ngữ sử dụng tied weights (tức là embeddings đầu vào/đầu ra được liên kết). Để huấn luyện các mô hình như vậy với FSDP, embeddings của mô hình ngôn ngữ phải được đóng băng bằng cờ —freeze_lm_embeddings.   Chúng tôi cũng triển khai gradient checkpointing và huấn luyện với mixed precision. Sử dụng lần lượt các cờ —gradient_checkpointing và —precision.  Khởi tạo mô hình OpenFlamingo   OpenFlamingo hỗ trợ các bộ mã hóa thị giác đã được huấn luyện trước từ gói OpenCLIP, bao gồm các mô hình đã được huấn luyện trước của OpenAI. Chúng cũng hỗ trợ các mô hình ngôn ngữ đã được huấn luyện sẵn từ gói transformers, chẳng hạn như MPT, RedPajama, LLaMA, OPT, GPT-Neo, GPT-J hay các mô hình Pythia [code lang="js"] from open_flamingo import create_model_and_transforms    model, image_processor, tokenizer = create_model_and_transforms(      clip_vision_encoder_path="ViT-L-14",      clip_vision_encoder_pretrained="openai",      lang_encoder_path="anas-awadalla/mpt-1b-redpajama-200b",      tokenizer_path="anas-awadalla/mpt-1b-redpajama-200b",      cross_attn_every_n_layers=1,      cache_dir="PATH/TO/CACHE/DIR" # Defaults to ~/.cache  )  [/code] 5. Kết quả đạt được Dưới đây là kết quả được báo cáo từ WandBs của chúng tôi: GPU NVIDIA H100  Hệ thống NVIDIA H100 đã được sử dụng:   Hệ thống được trang bị 8 * GPU NVIDIA H100 80GB HBM3. Tuy nhiên, đối với thiết lập huấn luyện này, chỉ cần 2 GPU với huấn luyện phân tán là hoàn thiện.   Mỗi GPU NVIDIA H100 có 80GB bộ nhớ băng thông cao (HBM3), tạo ra một hệ thống tính toán hiệu năng cao (HPC) hoặc huấn luyện AI.   Các GPU NVIDIA H100 ở trạng thái hiệu suất P0, cho thấy chúng đang ở chế độ hiệu suất cao nhất hiện có.  Các số liệu được báo cáo của mô hình    Dữ liệu huấn luyện cho thấy quá trình đang vận hành tốt, với các hành vi đúng như yêu cầu trên các thông số khác nhau. Đường cong loss giảm mạnh ở giai đoạn đầu rồi dần ổn định, cho thấy mô hình đang đạt kết quả tốt. Learning rate tuân theo lịch trình khởi động tuyến tính (linear warm-up). Đây chính là phương pháp phổ biến để giữ cho giai đoạn huấn luyện ban đầu ổn định.  Thời gian xử lý từng bước (step time) và thời gian tải dữ liệu nhìn chung ổn định, chỉ có một vài đột biến có thể xuất phát từ biến động hệ thống, quá trình lưu checkpoint hoặc độ trễ khi tải dữ liệu. Global step tăng tuyến tính, xác nhận rằng quá trình huấn luyện đang tiến triển ổn định.  Chỉ số samples per second per GPU cũng duy trì mức ổn định, chỉ có một chút sụt giảm nhỏ nhưng không gây ảnh hưởng đáng kể đến hiệu năng tổng thể. Nhìn chung, các chỉ số này cho thấy mô hình huấn luyện hoạt động bình thường, tuy nhiên việc giám sát kỹ hơn những đột biến về thời gian xử lý bước và tải dữ liệu có thể giúp tối ưu hóa hiệu quả hơn nữa.  Các số liệu được báo cáo của hệ thống  Lỗi bộ nhớ không được sửa của GPU (Trên cùng bên trái): Đường này vẫn ở mức 0, cho thấy không có lỗi bộ nhớ nào chưa được sửa.  Lỗi bộ nhớ đã được sửa của GPU (Trên cùng ở giữa): Biểu đồ cũng thẳng ở mức 0, nghĩa là không có lỗi bộ nhớ đã được sửa.  Tốc độ xung nhịp bộ nhớ GPU (Trên cùng bên phải): Bình thường; tốc độ xung nhịp ổn đỉnh cho thấy không có sự thay đổi tần số động hay giới hạn hiệu năng.  Tốc độ xung nhịp Bộ đa xử lý Streaming (SM) của GPU (Dưới cùng bên trái): Bình thường; tốc độ xung nhịp ổn định cho thấy không có điều tiết nhiệt.  Mức sử dụng điện năng GPU (W) (Dưới cùng ở giữa): Hiển thị dạng chu kỳ, cho thấy mức tiêu thụ điện năng của GPU dao động trong quá trình thực thi tác vụ ⇒ có thể do xử lý theo nhóm, lập lịch công việc hoặc cơ chế quản lý điện năng. Giới hạn điện năng cưỡng bức của GPU (W) (Trên cùng bên trái): Bình thường; điều này cho thấy GPU không vượt quá giới hạn điện năng được xác định trước. Bộ nhớ GPU được phân bổ (Bytes) (Trên cùng ở giữa): Việc phân bổ bộ nhớ vẫn ổn định nhưng đột ngột giảm vào cuối => Sự sụt giảm này là khi quá trình huấn luyện kết thúc.  Bộ nhớ GPU được phân bổ (%) (Trên cùng bên phải): Bình thường, tương tự như Bộ nhớ GPU được phân bổ (Bytes).  Thời gian GPU dành để truy cập bộ nhớ (%) (Dưới cùng bên trái): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Nhiệt độ GPU (°C) (Dưới cùng ở giữa): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Mức sử dụng GPU (%) (Dưới cùng bên phải): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.

Nhà máy AI đang tài định hình trung tâm dữ liệu cho một tương lai thông minh

15:45 08/08/2025
Từ các startup đến những tập đoàn hàng đầu thế giới, làn sóng AI đang từng bước thay đổi cách chúng ta kiến tạo, vận hành và phát triển. NVIDIA và các đối tác đang không ngừng mở rộng mạng lưới nhà máy AI trên toàn cầu và trong tương lai không xa, đây sẽ trở thành nền tảng không thể thiếu để doanh nghiệp duy trì và nâng cao lợi thế cạnh tranh.  Thời đại AI làm chủ cuộc chơi: Nhà máy AI mở đường cho tương lai trí tuệ  AI không còn là công nghệ của tương lai , nó đang hiện diện trong mọi mặt đời sống hiện đại ngày nay. Từ cách chúng ta học tập, làm việc đến cách doanh nghiệp vận hành và phát triển, trí tuệ nhân tạo đang dần trở thành nền tảng không thể thiếu. Ngày nay, thay vì gõ từ khóa tìm kiếm, nhiều bạn trẻ đã quen với việc trò chuyện trực tiếp cùng trợ lý AI. Các công ty như Amazon dùng AI để điều phối hàng triệu đơn hàng mỗi ngày với tốc độ cực nhanh. Tesla thu thập lượng dữ liệu khổng lồ từ thực tế mỗi ngày để cải tiến công nghệ lái xe tự động. Thậm chí, nhiều chính phủ cũng bắt đầu sử dụng AI như một “trợ lý đồng hành” để nâng cao hiệu quả phục vụ người dân và xây dựng chính sách.  AI đang dần thấm vào mọi sản phẩm, mọi quyết định, và từng trải nghiệm của khách hàng. Với các tổ chức được xây dựng dựa trên nền tảng AI ngay từ đầu, trí tuệ nhân tạo không chỉ cần thông minh mà còn phải luôn sẵn sàng hoạt động, tạo ra giá trị mới và dễ dàng mở rộng theo nhu cầu. Để đáp ứng điều đó, chúng ta cần một hạ tầng công nghệ hoàn toàn mới, được thiết kế riêng cho kỷ nguyên AI. Đây chính là động lực cho sự ra đời của nhà máy AI - nơi không chỉ lưu trữ dữ liệu, mà là "nhà máy sản xuất trí tuệ", nơi AI được tạo ra, huấn luyện và triển khai với quy mô lớn, sẵn sàng phục vụ liên tục cho các sản phẩm, dịch vụ và hoạt động vận hành thông minh.  Từ Trung tâm Dữ liệu đến Nhà máy AI  Các trung tâm dữ liệu truyền thống được xây dựng cho mục đích điện toán chung, có thể xử lý nhiều loại tác vụ khác nhau với độ linh hoạt nhất định. Tuy nhiên, trong nền kinh tế vận hành bằng AI ngày nay, tốc độ, quy mô và tính chuyên biệt mới là yếu tố then chốt. Các doanh nghiệp và chính phủ không thể tiếp tục chờ đợi hàng tháng để những sáng kiến AI rời rạc mang lại kết quả. Thay vào đó, họ cần những hệ thống có quy mô công nghiệp, có khả năng xử lý toàn bộ vòng đời AI, từ thu thập dữ liệu, đào tạo, tinh chỉnh đến suy luận khối lượng lớn theo thời gian thực.  Nhà máy AI được thiết kế có chủ đích để đáp ứng chính xác nhu cầu đó. Từ dữ liệu chưa qua xử lý, các nhà máy AI tạo ra tri thức có thể áp dụng ngay vào thực tế với chi phí hợp lý. Trong mô hình này, những dữ liệu không còn là sản phẩm phụ mà trở thành sản phẩm cốt lõi.  Hiệu quả của một Nhà máy AI được đánh giá qua số lượng AI token mà nó có thể xử lý, qua đó cho thấy khả năng suy luận và dự đoán để đưa ra quyết định, thúc đẩy tự động hóa và mang lại giá trị thực tế.  Nhà máy AI: Hạ tầng chiến lược cho nền kinh tế trí tuệ nhân tạo  Trên toàn cầu, chính phủ và doanh nghiệp đang tăng tốc đầu tư vào các Nhà máy AI như một phần của hạ tầng chiến lược, nhằm thúc đẩy tăng trưởng kinh tế, đẩy mạnh đổi mới sáng tạo và nâng cao hiệu suất vận hành.  Tại châu Âu, Liên doanh Điện toán Hiệu năng cao (European High Performance Computing Joint Undertaking) vừa công bố kế hoạch xây dựng 7 nhà máy AI, phối hợp cùng 17 quốc gia thành viên EU. Đây là một bước đi quan trọng trong hành trình kiến tạo hạ tầng AI quy mô lớn cho toàn khu vực.  Đây không phải là câu chuyện của riêng một quốc gia mà là xu hướng chung trên toàn thế giới, với các khoản đầu tư vào Nhà máy AI nhằm bắt kịp cuộc đua công nghệ và nâng cao năng lực cạnh tranh.  Ấn Độ: Yotta Data Services hợp tác với NVIDIA để ra mắt nền tảng Shakti Cloud – phổ cập khả năng tiếp cận GPU hiệu năng cao, kết hợp phần mềm NVIDIA AI Enterprise và nhiều công cụ mã nguồn mở.  Nhật Bản: Các nhà cung cấp dịch vụ đám mây như GMO Internet, Highreso, KDDI, Rutilea và SAKURA Internet đang đầu tư mạnh vào hạ tầng AI của NVIDIA để chuyển đổi các lĩnh vực then chốt như robotics, ô tô, y tế và viễn thông.  Na Uy: Tập đoàn Telenor đã khởi động một Nhà máy AI ứng dụng công nghệ NVIDIA, hướng tới mục tiêu thúc đẩy AI toàn khu vực Bắc Âu – với trọng tâm là phát triển bền vững và nâng cao kỹ năng số cho lực lượng lao động.  Nhà máy AI đang từng bước trở thành một phần không thể thiếu trong hạ tầng số của các quốc gia hiện đại, giữ vai trò chiến lược trong tăng trưởng kinh tế, đổi mới công nghệ và nâng cao năng lực cạnh tranh toàn cầu.  Bên trong một Nhà máy AI: Nơi trí tuệ được “sản xuất”  Cốt lõi mỗi nhà máy AI là sự kết hợp hài hòa giữa ba yếu tố then chốt: các mô hình nền tảng (foundation models), nguồn dữ liệu từ khách hàng, và một hệ sinh thái công cụ AI mạnh mẽ. Tất cả những thành phần này được tích hợp trong một môi trường được thiết kế chuyên biệt, nơi các mô hình có thể được tinh chỉnh, thử nghiệm và tối ưu hóa để sẵn sàng triển khai vào thực tế.  Khi các mô hình bắt đầu đi vào vận hành, chúng tạo ra một vòng lặp học tập, liên tục cập nhật từ dữ liệu mới, cải thiện hiệu suất qua từng vòng phản hồi, và phát triển theo thời gian. Quy trình này tạo nên một “vòng quay dữ liệu” (data flywheel), cho phép tổ chức khai phá những cấp độ AI ngày càng thông minh hơn, từ đó nâng cao khả năng thích ứng, độ chính xác và mở rộng quy mô, góp phần thúc đẩy tăng trưởng cho toàn doanh nghiệp.  Source: NVIDIA  FPT AI Factory: Nhà máy AI tiên phong tại Việt Nam, đối tác tin cậy tại Nhật Bản  Trong làn sóng chuyển đổi sang AI đang diễn ra trên toàn cầu, FPT AI Factory đang từng bước khẳng định vai trò tiên phong tại khu vực. Đây là nhà máy AI đầu tiên của Việt Nam, đồng thời cũng là đối tác hạ tầng đáng tin cậy của các doanh nghiệp hàng đầu tại Nhật Bản, góp phần thúc đẩy quá trình chuyển đổi số một cách thông minh và hiệu quả hơn. Ra đời từ mối quan hệ hợp tác chiến lược với NVIDIA, FPT AI Factory được thiết kế chuyên biệt để giúp doanh nghiệp ứng dụng AI một cách toàn diện và hiệu quả vào hoạt động vận hành, ra quyết định và đổi mới sáng tạo. FPT AI Factory cung cấp một môi trường tối ưu cho toàn bộ quá trình phát triển AI – từ xây dựng mô hình, huấn luyện, tinh chỉnh đến triển khai và giám sát. FPT AI Factory là sự kết hợp giữa sức mạnh công nghệ của NVIDIA và kinh nghiệm triển khai AI thực tế của FPT, từ đó tạo nên một hạ tầng vững chắc, tối ưu cho hiệu năng, khả năng mở rộng và tính bền vững. Đây chính là bệ phóng giúp các tổ chức triển khai AI nhanh chóng và hiệu quả ở quy mô lớn.   FPT AI Factory được thiết kế như một dây chuyền sản xuất hiện đại dành riêng cho AI – nơi mọi công đoạn, từ phát triển đến triển khai, đều được tối ưu hóa để đưa AI vào ứng dụng thực tế ở quy mô lớn. Nền tảng này cung cấp đầy đủ các thành phần cần thiết để doanh nghiệp dễ dàng tiếp cận và vận hành AI hiệu quả, bao gồm: FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, được xây dựng trên nền tảng GPU NVIDIA H100/H200 tiên tiến, sẵn sàng xử lý mọi khối lượng công việc AI chuyên sâu – từ huấn luyện mô hình ngôn ngữ lớn (LLMs) đến AI đa phương thức với hiệu suất vượt trội và tối ưu năng lượng FPT AI Studio: Bộ công cụ toàn diện cho việc phát triển mô hình AI thế hệ mới, hỗ trợ huấn luyện, tinh chỉnh và thử nghiệm nhanh. FPT AI Studio giúp rút ngắn chu trình phát triển, giảm chi phí và tăng tốc đưa AI vào ứng dụng thực tế FPT AI Inference: Nền tảng triển khai AI linh hoạt và hiệu quả, tối ưu hóa cho độ trễ thấp, khả năng mở rộng và chi phí hợp lý. Phù hợp với các ứng dụng AI đòi hỏi khả năng phục vụ ổn định ở quy mô lớn và đảm bảo SLA khắt khe FPT AI Agents: Nền tảng GenAI cho phép doanh nghiệp xây dựng các trợ lý ảo thông minh, có thể giao tiếp đa ngôn ngữ, xử lý đa tác vụ và tích hợp linh hoạt vào quy trình nghiệp vụ. Các trợ lý AI này được thiết kế để tương tác tự nhiên như con người và dễ dàng tùy biến theo từng mục tiêu sử dụng.  Ảnh: FPT Smart Cloud  Bên cạnh đó, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng triển khai, hỗ trợ doanh nghiệp ứng dụng AI vào thực tiễn một cách dễ dàng, từ đó nâng cao hiệu suất làm việc và tối ưu hóa chi phí vận hành.  Được trang bị hàng nghìn siêu chip NVIDIA H100 & H200 cùng nền tảng phần mềm NVIDIA AI Enterprise mới nhất, FPT AI Factory hỗ trợ doanh nghiệp rút ngắn thời gian phát triển và triển khai các giải pháp AI tiên tiến, đồng thời tinh tối ưu tổng chi phí vận hành. Nhờ đó, doanh nghiệp có thể đổi mới nhanh hơn và mở rộng quy mô hiệu quả hơn. Kiến tạo tương lai doanh nghiệp thông minh cùng Nhà máy AI  Trí tuệ nhân tạo ngày nay không còn chỉ là một giải pháp công nghệ tiên tiến, mà đang trở thành yếu tố cốt lõi giúp doanh nghiệp thay đổi cách vận hành, nâng cao hiệu quả và tăng sức cạnh tranh trên quy mô quốc gia. Trên toàn thế giới, các nhà máy AI đang dần hình thành như một phần của hạ tầng chiến lược, cho phép tổ chức xây dựng, triển khai và mở rộng các hệ thống thông minh một cách nhanh chóng. Không chỉ là tài sản công nghệ, đây còn là động lực thúc đẩy năng suất và tăng trưởng bền vững trong dài hạn.  FPT AI Factory đánh dấu bước đi đầu tiên của Việt Nam trong việc tham gia vào làn sóng về phát triển hạ tầng AI. Nền tảng này được xây dựng để đáp ứng linh hoạt nhu cầu của doanh nghiệp , từ triển khai tại chỗ (on-premises), trên nền tảng đám mây cho đến mô hình kết hợp. FPT AI Factory giúp đơn giản hóa toàn bộ quá trình ứng dụng AI, từ xây dựng mô hình đến triển khai và mở rộng. Với các khoản đầu tư chiến lược tại cả Việt Nam và Nhật Bản, FPT đang góp phần xây dựng một tương lai, nơi AI không còn là công nghệ xa vời, mà trở thành phần lõi trong mọi hoạt động kinh doanh, sản xuất và điều hành, sẵn sàng cho một kỷ nguyên phát triển mới do trí tuệ nhân tạo dẫn dắt. 

Vị trí cho thuê Cloud Server ảnh hưởng như thế nào đến hiệu suất dịch vụ thuê máy chủ Cloud?

09:14 07/08/2025
5 ảnh hưởng vị trí thuê cloud server đến hiệu suất dịch vụ thuê máy chủ cloud (máy chủ đám mây ảo) là: Độ trễ truy cập (Latency) Tốc độ truyền tải và băng thông quốc tế  Khả năng tuân thủ luật pháp và quy định pháp lý Khả năng mở rộng, tính sẵn sàng (Availability) Chi phí thuê server ảo 1. Độ trễ mạng và truy cập (Latency) [caption id="attachment_65315" align="aligncenter" width="800"] Ảnh hưởng của vị trí thuê máy chủ cloud đến hiệu suất của hệ thống hạ tầng đám mây[/caption] Độ trễ (Latency) là khoảng thời gian từ khi một yêu cầu được gửi đi cho đến khi nhận được phản hồi. Vị trí thuê cloud server ảnh hưởng trực tiếp đến tốc độ phản hồi và trải nghiệm của người dùng khi truy cập ứng dụng, website hay hệ thống được lưu trữ trên cloud server.  Khoảng cách địa lý giữ người dùng và máy chủ cloud càng xa thì độ trễ càng lớn, bởi vì tín hiệu mạng phải đi qua nhiều điểm trung gian, dễ bị tắc nghẽn, mất tín hiệu hoặc đứt cáp quang biển. Hơn nữa một vài khu vực hạ tầng mạng quốc tế kém phát triển hoặc bị kiểm soát nghiêm ngặt về lưu lượng cũng khiến độ trễ tăng cao. Để đảm bảo hiệu suất và trải nghiệm của người thì các cá nhân, doanh nghiệp nên ưu tiên thuê máy chủ cloud có vị trí đặt gần người dùng, có hệ thống phân phối nội dung (CDN) để rút ngắn thời gian truyền dẫn dữ liệu. 2. Tốc độ truyền tải dữ liệu và Băng thông quốc tế Tốc độ truyền tải dữ liệu phụ thuộc vào chất lượng tuyến cáp quốc tế từ vị trí đặt máy chủ đến người dùng truy cập. Nếu vị trí thuê server cloud được đặt tại các trung tâm dữ liệu (Datacenter) có kết nối quốc tế mạnh như Singapore, Mỹ, Tokyo, Frankfurt,...thì khả năng truyền dữ liệu nhanh hơn nhờ băng thông lớn và ít bị tắc nghẽn hơn. Ngược lại những máy chủ cloud đặt tại nơi có kết nối quốc tế yếu hoặc bị giới hạn bởi nhà mạng địa phương thì dữ liệu truyền chậm, dễ bị nghẽn vào giờ cao điểm. Cá nhân và doanh nghiệp nên ưu tiên chọn nhà cung cấp dịch vụ cho thuê cloud server có Data Center đặt tại quốc gia hoặc khu vực có tuyến cáp quang mạnh như Việt Nam. Nếu cần phục vụ người dùng toàn cầu thì nên chọn vị trí đặt máy chủ quốc tế tại Singapore, Nhật bản, Mỹ, Hồng Kông,... 3. Khả năng tuân thủ pháp lý Việc lựa chọn vị trí đặt máy chủ cloud đóng vai trò quan trọng trong việc đảm bảo tuân thủ pháp lý, quy định quản lý bảo mật dữ liệu tại từng quốc gia giúp doanh nghiệp hoạt động hợp pháp bền vững và xây dựng lòng tin từ khách hàng. Đặc biệt trong nhiều lĩnh vực kinh doanh, tài chính, y tế, thương mại điện tử hay giáo dục thì việc đảm bảo dữ liệu được lưu trữ và xử lý theo đúng pháp luật là bắt buộc. Doanh nghiệp cần xem xét quy định pháp lý tại nơi đặt máy chủ và tại quốc gia mà doanh nghiệp đang hoạt động.  Đồng thời chọn nhà cung cấp dịch vụ thuê server ảo tuân thủ đầy đủ các tiêu chuẩn bảo mật và pháp lý như: ISO/IEC 27001, SOC 2, GDPR, HIPAA,...Đối với doanh nghiệp đa quốc gia, nên sử dụng Multi-region cloud (đám mây đa vùng) - mô hình triển khai dịch vụ cloud sử dụng nhiều  Data Center đặt nhiều khu vực địa lý khác nhau để dễ dàng phân tách dữ liệu theo yêu cầu từng khu vực. 4. Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ đám mây [caption id="attachment_65314" align="aligncenter" width="800"] Khả năng mở rộng và tính sẵn sàng đáp ứng của hệ thống thuê server cloud (máy chủ đám mây ảo[/caption] Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ cloud là hai yếu tố cốt lõi trong hạ tầng điện toán đám mây giúp hệ thống hoạt động ổn định, không bị gián đoạn và dễ dàng tương thích với lưu lượng truy cập tăng cao. Việc chọn vị trí thuê cloud server ảnh hưởng lớn đến hai yếu tố này. Về khả năng mở rộng, không phải trung tâm dữ liệu nào cũng hỗ trợ mở rộng linh hoạt, có thể bị hạn chế về tài nguyên khó mở rộng hệ thống. Nên chọn những vị trí đặt máy chủ tại khu vực trung tâm hạ tầng như Việt Nam và một số hạ tầng lớn quốc tế tại Singapore, Tokyo, California, Frankfurt… Tính sẵn sàng phụ thuộc vào khả năng dự phòng theo vùng, các nhà cung cấp lớn thường chia hạ tầng thành nhiều vùng (zones) trong cùng khu vực. Nên chọn vị trí đặt server có đầy đủ vùng dữ liệu được hỗ trợ bởi các nhà cung cấp uy tín (AWS, Google Cloud, Microsoft Azure...), hệ thống máy chủ cloud có thể tự động sao lưu, chuyển đổi khi có sự cố để tăng tính sẵn sàng. Ngược lại, nếu vị trí đặt máy chủ ở vị trí chỉ có 1 zones hoặc hạ tầng yếu thì khi xảy ra sự cố như mất điện, cháy, thiên tai, bảo trì,...sẽ không có vùng thay thế dễ bị downtime (ngừng hoạt động tạm thời) gây ảnh hưởng nghiêm trọng đến trải nghiệm người dùng và hoạt động kinh doanh. 5. Chi phí thuê server cloud [caption id="attachment_65313" align="aligncenter" width="800"] Chi phí và giá thuê server là yếu tố quan trọng mà doanh nghiệp cần xem xét và cân nhắc khi thuê máy chủ cloud[/caption] Vị trí đặt máy chủ là yếu tố quan trọng quyết định đến giá thuê server, bởi mỗi khu vực địa lý sẽ có mức đầu tư hạ tầng, nhân lực, năng lượng và thuế phí khác nhau. Giá thuê cloud server tại khu vực Bắc Mỹ, Tây Âu hay Nhật Bản sẽ cao hơn so với khu vực Đông Nam Á như Singapore, Việt Nam. Nếu bạn đang cần thuê server cloud tại khu vực phía Bắc thì nên chọn những đơn vị có Datacenter được đặt tại Thành Phố Hà Nội như FPT Cloud để đảm bảo có được hiệu suất cao và chi phí thuê cạnh tranh. Một số quốc gia đánh thuế cao đối với dịch vụ lưu trữ dữ liệu hoặc có những quy định pháp lý khắt khe nên chi phí triển khai thuê server cloud sẽ cao hơn. Ngoài ra, nếu đặt máy chủ tại quốc gia có tuyến cáp quang quốc tế đắt đỏ hoặc bị hạn chế kết nối, chi phí băng thông cao dẫn đến giá thuê máy cloud server cao. Doanh nghiệp cần so sánh giá theo từng vùng của nhà cung cấp, nếu phục vụ khách hàng trong nước hãy thuê server cloud tại Việt Nam để tối ưu chi phí và hiệu suất truy cập. 6. Dịch vụ cho thuê máy chủ cloud giá tốt Hà Nội ở đâu? Bạn đang tìm kiếm dịch vụ cho thuê cloud server Hà Nội với chất lượng ổn định, hạ tầng hiện đại và chi phí hợp lý, FPT Cloud là một trong những đơn vị tiên phong trong lĩnh vực điện toán đám mây tại Việt Nam và là lựa chọn hàng đầu cho doanh nghiệp hiện nay. Lợi thế khi thuê máy chủ cloud Hà Nội tại FPT Cloud:  Data Center đặt tại Hà Nội đạt chuẩn Uptime Tier III: Đảm bảo ổn định, an toàn và khả năng hoạt động liên tục với thời gian uptime lên đến 99,99%. Ngoài ra, hạ tầng server còn được tích hợp giải pháp backup services, disaster recovery và object storage. Hiệu suất vượt trội, độ trễ thấp: Khi thuê server cloud tại Hà Nội thì hệ thống sẽ vận hành nhanh chóng, mượt mà. Hạ tầng mạnh mẽ, bảo mật cao: Thuê server ảo Hà Nội, máy chủ được vận hành trên nền tảng hạ tầng hiện đại, công nghệ ảo hóa tiên tiến, backup tự động, chống tấn công DDos, tường lửa đa lớp và phân quyền truy cập an toàn. Đội ngũ kỹ thuật FPT Cloud túc trực 24/7/365: Luôn sẵn sàng hỗ trợ nhanh chóng, đảm bảo hệ thống vận hành liên tục và không gián đoạn. Giá thuê cạnh tranh, tối ưu: Với nhiều gói thuê linh hoạt phù hợp với mọi quy mô nhu cầu doanh nghiệp từ nhỏ, vừa đến lớn. [caption id="attachment_65311" align="aligncenter" width="1349"] Các gói dịch vụ STANDARD cho thuê cloud server giá tốt tại Hà Nội dành cho doanh nghiệp của FPT Cloud[/caption]   [caption id="attachment_65312" align="alignnone" width="1545"] Dịch vụ cho thuê máy chủ cloud tại Hà Nội có Performance cao dành cho các tổ chức, doanh nghiệp có nhu cầu chuyên biệt[/caption] Vị trí thuê cloud server ảnh hưởng trực tiếp đến độ trễ truy cập, tốc độ truyền tải, độ ổn định, pháp lý và chi phí. Do vậy, các cá nhân và doanh nghiệp nên lựa chọn đơn vị uy tín có Data Center đặt tại trung tâm các thành phố lớn Hà Nội và Hồ Chí Minh như FPT Cloud để đạt hiệu suất cao, độ tin cậy và chi phí tối ưu. Liên hệ ngay FPT Cloud để được tư vấn và báo giá chi tiết dịch vụ cho thuê máy chủ cloud tại Phường Cầu Giấy, Thành Phố Hà Nội!

Hướng dẫn tích hợp FPT AI Marketplace API Key vào Cursor IDE để sinh Code nhanh chóng

12:16 18/07/2025
Trong kỷ nguyên AI, việc tận dụng mô hình ngôn ngữ lớn (LLM) để hỗ trợ lập trình ngày càng phổ biến. Tuy nhiên, thay vì dùng các dịch vụ quốc tế chi phí cao, bạn hoàn toàn có thể khai thác FPT AI Marketplace — nền tảng AI Inference nội địa với chi phí cạnh tranh, độ ổn định cao, và data locality ưu việt.  Bài viết này sẽ hướng dẫn bạn cách tích hợp AI Model API từ FPT AI Marketplace vào Cursor IDE để sử dụng các mô hình sinh code mạnh mẽ. 1. Tạo Tài Khoản FPT AI Marketplace Truy cập trang https://marketplace.fptcloud.com/ và đăng ký tài khoản.  Ưu đãi: Tài khoản mới sẽ được tặng 1 USD miễn phí để trải nghiệm các dịch vụ AI Inference!  2. Xem Danh Sách Model Khả Dụng Sau khi đăng nhập, bạn có thể xem các mô hình khả dụng trên FPT Marketplace  [Hình 1: Danh sách model trên FPT AI Marketplace]  Bạn nên chọn những model như Qwen-32B Coder, Llama-8B, hoặc DeepSeek để có kết quả sinh code tối ưu. 3. Tạo API Key Bạn vui lòng đăng nhập & truy cập https://marketplace.fptcloud.com/en/my-account#my-api-key   Click “Create new API Key” và chọn models, điền tên API Key và ấn “Create”   [Hình 2: Giao diện tạo API Key]  Xác nhận và lấy API Key mới tạo  [Hình 3: Giao diện hoàn thành tạo API Key] 4. Cấu Hình Cursor IDE Với API trên FPT AI Marketplace Các bước thực hiện:  1. Mở Cursor IDE -> Vào Cursor Settings -> Models.  2. Thêm Model:  a. Nhấn Add model  b. Thêm tên model (ví dụ: qwen_coder, deepseek_r1).  3. Điền API Key:  a. Trong phần OpenAI API Key, dán API Key bạn vừa tạo từ FPT AI Marketplace.  4. Cấu hình URL FPT AI:  a. Bật Override OpenAI Base URL.  b. Điền URL: https://mkp-api.fptcloud.com  [Hình 4: Cấu hình API Key và URL trong Cursor]  5. Xác nhận:  a. Nhấn nút Verify.  b. Nếu hiện Verified Successfully, bạn đã sẵn sàng sử dụng mô hình! 5. Sử Dụng Model Sinh Code Trong Cursor Bây giờ, bạn có thể:  Dùng AI Assistant ngay trong IDE để sinh code.  Yêu cầu AI refactor, tối ưu, hoặc giải thích code hiện có.  Chọn model muốn sử dụng.  [Hình 5: Sử dụng model Llama-3.3-70B-Instruction của FPT AI Marketplace để refactor code] 6. Theo Dõi Lượng Token Đã Dùng Để quản lý chi phí:  Vào My Usage trong FPT AI Marketplace.  Xem số lượng requests, tokens input/output, và tổng lượng usage.  Bạn sẽ biết mình đã dùng bao nhiêu tokens, từ đó kiểm soát được chi phí tốt hơn. Kết Luận  Chỉ với vài thao tác đơn giản, bạn có thể khai thác trọn vẹn sức mạnh từ FPT AI Marketplace. Từ việc sinh code nguồn nhanh chóng, review thông minh, tối ưu hiệu suất cho đến hỗ trợ debug tự động, tất cả đều được thiết kế để giúp người dùng tăng tốc quy trình làm việc. Đồng thời, các mô hình AI tiên tiến được cung cấp với chi phí hợp lý, đi kèm khả năng theo dõi và quản lý mức sử dụng một cách rõ ràng, minh bạch. Lưu ý: Bạn cần sử dụng Pro plan để tích hợp Model API vào Cursor IDE.

FPT AI Factory – Từ ván cược 200 triệu USD đến chủ quyền AI

15:47 16/07/2025
  Từ hạ tầng, sản phẩm lõi đến nguồn nhân lực bản địa, FPT AI Factory đặt những viên gạch đầu tiên cho tham vọng dài hơi về một Việt Nam có năng lực làm chủ trí tuệ nhân tạo (AI). Tháng 4/2024, dòng chữ đơn giản hiện lên trong ánh đèn trắng của hội trường chính FPT ở Hà Nội: “AI Factory - Make-in-Vietnam”, đặt cạnh logo Nvidia. Thông điệp không ồn ào, nhưng mang trong nó sự tự hào, khát vọng lớn của những kỹ sư người Việt. Trong bối cảnh dữ liệu đang trở thành nguồn “dầu mỏ mới” và thuật toán quyết định quyền lực cạnh tranh, việc một doanh nghiệp Việt đầu tư vào AI với nền tảng hạ tầng đặt tại Việt Nam, phát triển bởi kỹ sư Việt, hướng đến đáp ứng các nhu cầu của người dùng Việt không còn là chuyện nội bộ của đơn lẻ tập đoàn. Đó là những chỉ dấu cụ thể cho thấy Việt Nam đang dần khẳng định vị thế trên bản đồ AI toàn cầu, thay vì chỉ là điểm tiêu thụ công nghệ ngoại nhập. Quyết định 1131/QĐ-TTg là cú hích chiến lược đưa AI thành một trong 11 công nghệ trọng điểm quốc gia. Với FPT, đây là sự tiếp sức cho giấc mơ làm chủ công nghệ lõi đã được ươm mầm từ nhiều năm trước. FPT AI Factory - nhà máy AI đầu tiên tại Việt Nam - chính là bước hiện thực hóa giấc mơ đó: Nơi quy tụ dữ liệu, thuật toán, tài năng và khát vọng, từng bước đưa trí tuệ Việt từ ý tưởng thành sản phẩm mang tầm quốc gia. Bắt đầu với AI Factory, FPT không chọn lối đi an toàn, mà xem AI là “ván cược chiến lược” - đầu tư thẳng vào năng lực lõi, xây dựng hạ tầng tính toán, phát triển hệ sinh thái mở để không chỉ phục vụ chính mình mà còn trao quyền cho cả hệ thống doanh nghiệp. Từ startup 5 người đến tập đoàn hàng nghìn nhân sự, bất kỳ ai cũng có thể truy cập nền tảng và tạo ra giải pháp AI cho chính họ. Với khoản đầu tư 200 triệu USD công bố vào tháng 4/2024, FPT không xây thêm một trung tâm dữ liệu truyền thống mà hình thành một nhà máy trí tuệ - nơi không sản xuất phần cứng, cũng không viết phần mềm bán lẻ, mà sản sinh ra những gì nền kinh tế số tương lai cần: Năng lực tính toán, mô hình ngôn ngữ và các tác nhân thông minh (AI Agents). Chiến lược “Build Your Own AI” mà FPT theo đuổi không chỉ là một khẩu hiệu công nghệ hay một chiến lược phát triển sản phẩm, đó còn là cách để rút ngắn khoảng cách với các cường quốc số. Thay vì tái tạo mô hình thế giới, FPT thiết kế nền tảng giúp tổ chức nội địa chủ động phát triển mô hình AI phù hợp với ngôn ngữ, hành vi người dùng và hệ thống nghiệp vụ bản địa. Đó không chỉ là bước tiến công nghệ, mà là lựa chọn chiến lược mang nhiều tầng nghĩa. Làm sao để AI không chỉ dành cho kỹ sư, mà cho cả những người “không sống bằng thuật toán nhưng sống cùng hệ thống” từ trưởng phòng logistics đến người vận hành chăm sóc khách hàng (CSKH). Không đơn thuần chỉ là một dự án công nghệ, FPT AI Factory đại diện cho một khái niệm ngày càng được nhắc đến với nhiều tầng nghĩa: AI có chủ quyền khi năng lực tính toán không còn lệ thuộc, dữ liệu không bị xuất khẩu ngầm và cơ hội sáng tạo không còn bị giới hạn trong “hộp đen” nhập khẩu, đóng gói sẵn, ít khả năng tùy biến. Năm 2023, một kỹ sư tên Pieter Leves đã tự tạo một startup AI từ một quán cà phê ở Bali. Mô hình này sau đó tạo ra doanh thu 1 triệu USD/năm chỉ với… một người điều hành. Một giai thoại khác từng làm nhiều người ngạc nhiên khi một lập trình viên đã dùng GPT-4 để tạo nguyên một game phiêu lưu tương tác chỉ trong vài giờ... khi ngồi đợi vợ sinh con trong bệnh viện. Với sự ra mắt của ChatGPT, AI không còn tiến lên theo quán tính tuyến tính mà bứt phá theo lũy thừa. Trong vòng 5 năm, AI từ chỗ là một khái niệm chuyên ngành đã trở thành nền công cụ khi ChatGPT viết email, Midjourney tạo ra hình ảnh mà chính nghệ sĩ cũng phải trầm trồ, Copilot được dân lập trình sử dụng và nói vui là “lười có tổ chức”. Hàng loạt ứng dụng nhúng AI (AI-embedded) đã và đang len lỏi vào từng phần mềm doanh nghiệp, nền tảng cộng tác, công cụ sáng tạo... để hỗ trợ con người đưa ra quyết định nhanh hơn, chính xác hơn, và hoàn thành công việc hiệu quả hơn.​ Sự hiện diện của AI không diễn ra bằng tiếng nổ lớn, mà bằng hàng triệu cú click nhỏ mỗi ngày. Đó là lúc người dùng chỉnh sửa văn bản, đặt lịch họp, phân tích báo cáo khách hàng... tất cả đều đang có AI “âm thầm chạy nền” phía sau. Những gì từng cần một đội ngũ kỹ sư nay nằm gọn trong trình duyệt. Sự chuyển dịch ấy không còn là dấu hiệu của một xu thế công nghệ, mà là tín hiệu cho thấy AI đã trở thành một phần của hạ tầng số, len lỏi một cách tự nhiên vào mọi ngõ ngách đời sống. Trong bối cảnh đó, các nền tảng no-code/low-code AI - cho phép người không lập trình vẫn có thể xây dựng giải pháp thông minh - đã và đang định hình lại bức tranh chuyển đổi số. Theo báo cáo của Mordor Intelligence, quy mô thị trường này dự kiến đạt 8,89 tỷ USD vào năm 2030, với tốc độ tăng trưởng kép hàng năm (CAGR) lên tới 17,03%. Đồng thời, khái niệm AI Agents - các “tác nhân AI” có khả năng thực thi nhiệm vụ độc lập trong doanh nghiệp, đang bứt tốc không kém, với giá trị thị trường dự đoán đạt 52,62 tỷ USD vào cùng mốc 2030 (Theo MarketsandMarkets). Sự phát triển của các nền tảng này khiến AI không còn là tài sản dành riêng cho giới nghiên cứu hay Big tech, mà trở thành công cụ có thể đưa vào vận hành ở bất kỳ quy mô nào. Với những cú nhấp chuột đơn giản, một người không chuyên có thể tạo chatbot tư vấn khách hàng, hệ thống phân loại dữ liệu hoặc trợ lý số riêng - điều vốn trước đây đòi hỏi đội ngũ hàng chục kỹ sư. Nhưng chính sự bình dân hóa ấy lại đặt ra yêu cầu mới về hạ tầng. Các mô hình ngôn ngữ lớn như DeepSeek-R1 với 671 tỷ tham số nếu không được tối ưu kiến trúc sẽ tiêu tốn lượng tài nguyên khổng lồ để chạy hiệu quả. Nhờ kiến trúc Mixture of Experts (MoE) - vốn chỉ kích hoạt một phần mô hình tại mỗi lượt suy luận - DeepSeek-R1 đã giảm tới 94% chi phí tính toán, trong khi vẫn giữ được độ chính xác cao. Tại đây, mô hình AI Factory trở nên cần thiết với một dây chuyền sản xuất năng lực AI - nơi mọi bước từ thu thập và tinh chỉnh dữ liệu đến huấn luyện, triển khai và vận hành mô hình đều được tối ưu như một quy trình công nghiệp hóa. Điểm khác biệt lớn nhất không nằm ở phần cứng, mà ở triết lý tiếp cận, phát triển các mô hình AI bản địa hóa; không chỉ hiểu ngôn ngữ, mà còn thấu cảm hành vi, tập quán, và cấu trúc vận hành của từng thị trường cụ thể. Ở Việt Nam, đó là những mô hình hiểu tiếng Việt, xử lý được ngữ cảnh, cú pháp đặc thù, hỗ trợ tốt cho các nghiệp vụ hành chính, CSKH hay tài chính nội địa. Nhưng cách tiếp cận ấy không dừng lại ở biên giới bản đồ chữ S. Ở Nhật Bản, nơi FPT đang hợp tác cùng Sumitomo và SBI Holdings để xây dựng nhà máy AI thứ hai, mục tiêu là hỗ trợ và đồng hành các đơn vị bản địa phát triển năng lực "AI có chủ quyền" phù hợp với cấu trúc xã hội và tiêu chuẩn khắt khe của thị trường sở tại. Điều đó có nghĩa, mỗi khi đặt chân đến một quốc gia, một thị trường mới, FPT không áp dụng rập khuôn một mô hình cố định. Thay vào đó, tập đoàn luôn chủ động tiếp cận, nội địa hóa từ dữ liệu đến thiết kế sản phẩm. Nhờ lợi thế hiện diện tại hơn 30 quốc gia và vùng lãnh thổ, FPT tích luỹ được đa dạng sự thấu hiểu thị trường (insight) bản địa, giúp các giải pháp AI trở nên thực sự “vừa vặn” với người dùng bản địa, đúng như tinh thần của chiến lược “Build Your Own AI”. Trên thế giới, xu hướng này không còn mới, đơn cử như chính phủ Nhật Bản đã đầu tư 740 triệu USD để xây dựng AI Factory trong nước, hợp tác với Nvidia nhằm bảo đảm tính độc lập hạ tầng (Nvidia Blog). Liên minh châu Âu lên kế hoạch tài trợ 20 nhà máy AI quy mô lớn từ năm 2025-2026 (Digital Strategy EU). SoftBank, gã khổng lồ viễn thông cũng chi hơn 960 triệu USD đầu tư vào hệ thống AI nội địa. Trong dòng chuyển đó, Việt Nam cần cách tiếp cận phù hợp. Chúng ta không thể cạnh tranh về quy mô với Mỹ, Trung Quốc, nhưng có thể tạo ra khác biệt bằng cách xây dựng hạ tầng tinh gọn, linh hoạt và hiểu người dùng bản địa. FPT đã chọn đặt viên gạch đầu tiên với hành động thực tế khi đầu tư vào năng lực lõi, phát triển nền tảng cho doanh nghiệp Việt và góp phần thúc đẩy tương lai trong đó AI không còn là lựa chọn, mà trở thành điều kiện nền tảng cho tăng trưởng kinh tế và năng lực cạnh tranh quốc gia. B​ên cạnh việc khẳng định năng lực nội tại, hợp tác cùng Nvidia cho thấy FPT đã sớm tham gia vào hành trình mà nhiều quốc gia còn cân nhắc. Không xây dựng theo lối truyền thống, FPT AI Factory là nơi sản xuất ra chính năng lực trí tuệ nhân tạo, từ thu thập dữ liệu, huấn luyện mô hình, đến suy luận và vận hành. Chỉ sau một năm, mô hình này đã được hiện thực hoá bằng hạ tầng GPU hiệu suất cao, nền tảng no-code/low-code và hệ sinh thái mở giúp doanh nghiệp tiếp cận AI như một dịch vụ: không cần đầu tư phần cứng, không cần đội ngũ kỹ thuật riêng, nhưng vẫn tạo ra công cụ thông minh sát với nhu cầu thực tế. Đây không phải AI để trình diễn, mà là năng lực có thể triển khai trên quy mô lớn, đúng như tinh thần “make-in-Vietnam”, từ năng lực tính toán đến mô hình ngôn ngữ và giải pháp bản địa hóa. Một chuyên viên nhân sự có thể tạo chatbot trả lời câu hỏi về chính sách công ty, một trưởng phòng logistics có thể huấn luyện mô hình phân tích rủi ro tồn kho, một nhân viên CSKH có thể dùng AI để phân loại và phản hồi email. Họ không cần biết cách viết hàm loss hay chọn optimizer - những thứ từng là “bức tường kỹ thuật” ngăn phần lớn người dùng tiếp cận AI, mà chỉ cần có vấn đề thực tế và dữ liệu thật. Một trong những đặc trưng của nền tảng AI do FPT phát triển là khả năng thích ứng sâu với ngữ cảnh địa phương từ ngôn ngữ, hành vi người dùng đến cấu trúc nghiệp vụ. Các mô hình được huấn luyện trên dữ liệu chính quy tại từng thị trường mục tiêu, giúp hiểu chính xác sắc thái từ ngữ, quy trình vận hành và đặc thù ngành. Thay vì yêu cầu doanh nghiệp thay đổi hệ thống lõi, các dịch vụ AI được thiết kế để tương thích linh hoạt với hạ tầng sẵn có từ CRM, ERP đến các hệ thống nội bộ cho phép AI hoạt động như một phần mở rộng tự nhiên trong hệ sinh thái công nghệ hiện hữu. Chiến lược này giúp bảo toàn dữ liệu, rút ngắn thời gian triển khai và giữ vững quyền kiểm soát công nghệ tại chỗ - những yếu tố cốt lõi để xây dựng năng lực AI có chủ quyền, nhưng không giới hạn ở một quốc gia. Với kiến trúc mở và tư duy bản địa hóa, mô hình này có thể nhanh chóng nhân rộng sang các thị trường quốc tế với nhu cầu tương tự. Năng lực của FPT AI Factory còn được công nhận qua những chuẩn mực toàn cầu. Trên bảng xếp hạng TOP500 các siêu máy tính mạnh nhất thế giới (chuẩn LINPACK), hệ thống của FPT hiện xếp 38 tại Việt Nam và 36 tại Nhật Bản - tiền đề vững chắc để chinh phục các thị trường có yêu cầu cao về hiệu năng xử lý. Tầm vóc của một nhà máy AI cũng được thể hiện qua việc thu hút các đối tác toàn cầu đồng hành. Một trong những ví dụ tiêu biểu là LandingAI - công ty do Andrew Ng sáng lập, nổi tiếng với nền tảng Visual AI cho các doanh nghiệp. Trong quá trình mở rộng thị trường, LandingAI chọn sử dụng hạ tầng Metal Cloud từ FPT AI Factory để triển khai tác vụ suy luận hình ảnh. Nhờ đó, họ giảm đáng kể chi phí, rút ngắn thời gian triển khai mô hình từ vài tuần xuống còn vài ngày - yếu tố quan trọng với doanh nghiệp có nhu cầu mở rộng nhanh. Một năm không phải là khoảng thời gian dài trong ngành công nghệ, nhưng với AI thì mọi thứ thay đổi theo cấp số mũ, chừng đó thời gian đủ để xác lập hướng đi. Trong khi thế giới vẫn còn loay hoay, FPT chọn đặt cược sớm vào hạ tầng AI vận hành thực, để không chỉ bắt nhịp xu hướng mà còn tạo ra giá trị thật nhanh chóng, rõ ràng và chiến lược: Xây dựng AI theo cách phù hợp với thị trường bản địa và mở ra khả năng tự chủ trong một lĩnh vực được xem là “trò chơi quyền lực” của thế kỷ XXI. T​uyên bố sẽ xây dựng 5 nhà máy trí tuệ nhân tạo trên toàn cầu đến năm 2030 của FPT không mang tính khuếch trương, mà là cam kết đi đến cùng trong cuộc đua công nghệ: đầu tư vào hạ tầng AI mạnh mẽ và đồng thời xây dựng lực lượng nhân sự AI sẵn sàng như một năng lực thiết yếu. Ở phần “cứng” FPT đang sở hữu hệ thống tính toán AI mạnh hàng đầu khu vực, hợp tác cùng các đối tác toàn cầu như Nvidia, và liên tục mở rộng năng lực tại Việt Nam, Nhật Bản. Nhưng theo ông Trương Gia Bình - Chủ tịch HĐQT FPT - “thế giới đang thiếu nhân lực trầm trọng, nhưng đó lại là lợi thế của FPT”. Vì thế, phần "mềm" trong chiến lược này là đào tạo và phổ cập năng lực sử dụng và tích hợp AI rộng khắp từ sinh viên, kỹ sư, đến các chuyên gia vận hành trong doanh nghiệp. FPT xem đây là hành trình kết hợp giữa năng lực tính toán của máy và khả năng tư duy, thích nghi mạnh mẽ của con người để từ đó tạo ra các giải pháp mang tính đột phá. “Khi AI trở nên phổ cập, càng bình dân bao nhiêu thì nhu cầu về nhà máy AI sẽ càng lớn bấy nhiêu. Trong tương lai gần, chúng tôi không giới hạn ở hai nhà máy, vì rất nhiều tập đoàn trên thế giới đã đề xuất làm cùng FPT”, ông Bình chia sẻ thêm. Bắt đầu từ hạ tầng đến dữ liệu, trong khi thế giới đã bước vào cuộc đua mô hình hàng nghìn tỷ tham số, thì chỉ riêng việc huấn luyện một mô hình 32 tỷ tham số cũng cần khoảng 400 tỷ token - để so sánh thì khả năng xử lý ngôn ngữ của con người trong cả đời người chỉ tiếp cận được khoảng 50-100 triệu token. Trong bối cảnh dữ liệu số tại Việt Nam còn phân tán và thiếu cơ chế chia sẻ, đây là một thách thức không nhỏ cho hành trình xây dựng năng lực AI bản địa. Giải pháp nằm ở chính những dữ liệu đặc thù mà Việt Nam đang nắm giữ: y tế, giáo dục đến bảo hiểm. Khi số hóa được các lĩnh vực này, chúng ta có thể không chỉ tạo ra mô hình phản ánh thực tế địa phương, mà còn chủ động chăm sóc sức khỏe cộng đồng hay tối ưu các dịch vụ công. Tự chủ dữ liệu vì vậy không phải khẩu hiệu, mà là yêu cầu chiến lược quốc gia, cần hạ tầng số đủ mạnh, cơ chế chia sẻ dữ liệu minh bạch và cam kết xây dựng các nền tảng AI vì lợi ích người Việt. Dưới góc nhìn của ông Lê Hồng Việt - CEO FPT Smart Cloud, Tập đoàn FPT việc đầu tư ngay trên đất Việt không đơn thuần là xây dựng hạ tầng điện toán hiệu năng cao, mà là để giải quyết điểm nghẽn cốt lõi cho toàn thị trường, đưa AI ra khỏi không gian thử nghiệm, trở thành công cụ thiết thực cho doanh nghiệp. “AI Factory ra đời để làm cho AI trở nên dễ tiếp cận bởi mọi người, từ doanh nghiệp lớn đến startup nhỏ, các cơ sở nghiên cứu tại Việt Nam”, ông Việt nói. Theo ông Việt, với FPT, AI không chỉ là công cụ nâng năng suất nội bộ hay tạo giá trị cho khách hàng, mà còn là một sân chơi chiến lược để định vị năng lực trên bản đồ công nghệ toàn cầu. Tư duy AI-first đã nằm trong DNA của FPT từ rất sớm và đang trở thành kim chỉ nam cho các bước phát triển tiếp theo. Hạ tầng chỉ là điểm khởi đầu, vấn đề nằm ở khả năng chuyển giao công nghệ. Chính vì vậy, FPT chọn con đường đầu tư song song vừa đưa về Việt Nam các dòng chip tiên tiến nhất từ Nvidia, vừa phát triển công cụ giúp doanh nghiệp tinh chỉnh (fine-tune) mô hình riêng với chi phí thấp, vừa đào tạo đội ngũ vận hành và nghiên cứu chuyên sâu. Theo ông Việt, trước đây, việc fine-tune một mô hình có thể tiêu tốn hàng chục nghìn USD, thì nay với dịch vụ của FPT, doanh nghiệp có thể rút chi phí đó xuống còn vài trăm USD, thậm chí có thể sử dụng theo hình thức “pay as you go” - dùng bao nhiêu trả bấy nhiêu. Điều này mở ra khả năng tiếp cận công nghệ tiên tiến nhất cho cả doanh nghiệp nhỏ, trường đại học, tổ chức nghiên cứu… - những đối tượng vốn dễ bị bỏ lại phía sau trong cuộc chơi AI toàn cầu. Cùng lúc đó, FPT cũng không giấu tham vọng mở rộng mô hình AI Factory ra thị trường quốc tế, bắt đầu từ Nhật Bản - một trong những nền kinh tế có tốc độ số hóa doanh nghiệp cao, nhưng chưa có hạ tầng AI chuyên biệt tương xứng. Nối tiếp Nhật Bản, các thị trường mà FPT có thể tăng tốc sau đó là Malaysia, Hàn Quốc, châu Âu... “Chúng tôi tiếp cận thị trường Nhật Bản để đón đầu làn sóng ứng dụng AI tại đó. FPT sẽ xây dựng doanh nghiệp như một công ty Nhật thực thụ để thúc đẩy phát triển sovereign AI (AI có chủ quyền) tại Nhật Bản”, ông Việt chia sẻ. Với sự tham gia của các đối tác như Sumitomo và SBI Holdings, AI Factory tại Nhật không chỉ là bản sao của mô hình Việt Nam, mà là một thực thể được bản địa hóa - từ cơ cấu tổ chức đến hệ sinh thái tích hợp. Ở tầng chiến lược, ông Việt thẳng thắn nhìn nhận: “Chiến lược thúc đẩy AI có chủ quyền sẽ giúp Việt Nam tăng năng lực cạnh tranh quốc gia thông qua tăng năng suất lao động và tự động hóa”. Tại một quốc gia như Việt Nam, nơi dữ liệu ngày càng trở thành tài sản cốt lõi, việc phụ thuộc vào các nền tảng nước ngoài đồng nghĩa với mất đi khả năng kiểm soát và định đoạt giá trị số của chính mình. Do đó, AI có chủ quyền không phải là khái niệm lý tưởng, mà là năng lực phòng vệ kỹ thuật số, là cách để đảm bảo mỗi dòng dữ liệu được xử lý, lưu trữ và vận hành trên nền tảng do người Việt phát triển, vì lợi ích của người Việt. Tuy nhiên, nếu không có lực lượng nhân sự sẵn sàng, mọi công nghệ đều chỉ dừng ở hạ tầng và tập đoàn FPT ý thức rõ điều đó. “Đào tạo nhân sự ở các cấp khác nhau là điều quan trọng nhất trong quá trình chuyển đổi thông minh”, ông Lê Hồng Việt nhấn mạnh. FPT AI Factory là bài toán lớn, đồng thời cũng là sân chơi để FPT thu hút nhân tài, phát triển lực lượng lao động AI có tính sẵn sàng cao và nuôi dưỡng tư duy AI-first cho toàn hệ thống. Từ lãnh đạo doanh nghiệp (cấp độ 1), đến người lao động sử dụng AI như công cụ (cấp độ 2) và xa hơn là đào tạo kỹ sư AI (cấp độ 3), FPT đặt mục tiêu đào tạo 500.000 nhân lực AI trong 5 năm tới. Từ góc độ hạ tầng đến nhân lực, từ bài toán nội địa đến thế trận toàn cầu, FPT không đứng ngoài cuộc chơi AI. Họ chọn cách đầu tư, triển khai và để thực tế trả lời thay cho cam kết của mình. “Cái khác của FPT là chúng tôi không dùng AI để trình diễn, mà để triển khai được. Và chúng tôi dùng chính nền tảng này trong hoạt động vận hành của FPT”, ông Việt nhấn mạnh. Ở thời điểm mà mọi mô hình AI đều có thể được sao chép về mặt kỹ thuật, chính khả năng làm cho mô hình ấy hoạt động thực sự theo đúng bối cảnh người dùng mới là điểm khác biệt bền vững nhất và đó là điều mà FPT đang cố gắng từng bước định hình. Sau 1 năm ra mắt mô hình FPT AI Factory, FPT đang đặt nền móng cho một tương lai mà AI không chỉ là lợi thế cạnh tranh của doanh nghiệp, mà trở thành tiền đề cho năng lực cạnh tranh quốc gia. Hành trình ấy có thể không ngắn, nhưng với bước đi cụ thể, FPT đang khẳng định một điều quan trọng: Việt Nam có thể tự chủ về công nghệ và đón sóng ở những ngã rẽ chiến lược.

Hai nhà máy AI của FPT lọt TOP500 siêu máy tính mạnh nhất thế giới

18:12 24/06/2025
Hai nhà máy AI (AI Factory) do Tập đoàn FPT phát triển đã chính thức lọt TOP500 các siêu máy tính mạnh nhất thế giới, khẳng định năng lực vượt trội của FPT trong lĩnh vực trí tuệ nhân tạo (AI) và điện toán đám mây (Cloud). TOP500 là bảng xếp hạng uy tín toàn cầu về siêu máy tính hiệu năng cao (HPC) dựa trên chuẩn đo lường LINPACK – tiêu chuẩn đánh giá khả năng thực hiện các phép tính số học phức tạp của hệ thống trong mỗi giây (FLOPS).   Bảng xếp hạng TOP500 do ba nhà nghiên cứu nổi tiếng trong lĩnh vực HPC thành lập từ năm 1993 và công bố hai lần mỗi năm. TOP500 được các chính phủ, tổ chức khoa học và doanh nghiệp trên toàn thế giới xem như tiêu chuẩn đánh giá năng lực phần cứng, thiết kế hệ thống, tối ưu vận hành và khả năng xử lý các tác vụ AI và khoa học phức tạp quy mô lớn. Trong bảng xếp hạng TOP500 công bố tháng 6/2025, hai nhà máy AI của FPT đặt tại Nhật Bản và Việt Nam lần lượt giữ vị trí thứ 36 và 38. Thành tích này đưa AI Factory của FPT vào nhóm hạ tầng siêu máy tính hàng đầu thế giới, đồng thời xác lập FPT là nhà cung cấp dịch vụ AI Cloud thương mại số 1 tại Nhật Bản với siêu chip NVIDIA H200 Tensor Core GPU SXM5.  [caption id="attachment_63304" align="aligncenter" width="800"] Hai nhà máy AI của FPT giữ vị trí thứ 36 và 38 trong BXH TOP500 (Nguồn: TOP500.org)[/caption] Cụ thể: Nhà máy AI tại Nhật Bản: 146.304 lõi xử lý, hiệu năng đạt 49,85 PFlops (chuẩn LINPACK); Nhà máy AI tại Việt Nam: 142.240 lõi xử lý, hiệu năng đạt 46,65 PFlops. Cả hai nhà máy đều sử dụng mạng InfiniBand NDR400, hỗ trợ mở rộng linh hoạt từ một GPU đơn lẻ lên tới cụm hàng trăm máy chủ xử lý song song tại mỗi khu vực, đảm bảo hiệu năng cao và độ trễ thấp khi triển khai các tác vụ AI, HPC quy mô lớn. Việc lọt vào TOP500 lần thứ 65 không chỉ khẳng định sức mạnh tính toán và năng lực kỹ thuật của AI Factory FPT, mà còn cho thấy chất lượng dịch vụ đạt chuẩn quốc tế, sẵn sàng đáp ứng nhu cầu nghiên cứu, phát triển và triển khai giải pháp AI của các tổ chức, doanh nghiệp và cá nhân toàn cầu. Đây cũng là dấu mốc đưa Việt Nam lần đầu tiên vào nhóm 15 quốc gia AI hàng đầu thế giới, cùng các cường quốc như Mỹ, Trung Quốc, Nhật Bản, Đức và Pháp - minh chứng cho nỗ lực của FPT trong nâng cao vị thế công nghệ quốc gia. FPT đặt mục tiêu trong 5 năm tới sẽ phát triển thêm 3 nhà máy AI trên toàn cầu, góp phần đưa Việt Nam trở thành quốc gia dẫn đầu khu vực về hạ tầng tính toán AI. “Ra đời với triết lý ‘Build Your Own AI’, FPT AI Factory không chỉ là bước tiến về hạ tầng điện toán hiệu năng cao mà còn giải quyết điểm nghẽn của thị trường: đưa AI trở nên dễ tiếp cận và ứng dụng trong mọi lĩnh vực. Với nền tảng này, mọi tổ chức, doanh nghiệp hay cá nhân - không chỉ tại Việt Nam, Nhật Bản mà trên toàn cầu - đều có thể chủ động phát triển AI phù hợp, tạo lợi thế cạnh tranh riêng và thúc đẩy chuyển đổi số toàn diện”, ông Lê Hồng Việt, CEO FPT Smart Cloud, Tập đoàn FPT cho biết. [caption id="attachment_63358" align="aligncenter" width="800"] Nhà máy AI đa quốc gia của FPT đạt chuẩn quốc tế, đáp ứng nhu cầu phát triển AI trên toàn cầu (Nguồn: FPT)[/caption] Ra mắt từ tháng 11/2024, AI Factory của FPT đã được các công ty công nghệ hàng đầu như LandingAI lựa chọn để phát triển các giải pháp AI tiên tiến, góp phần tạo ra giá trị thực tiễn cho xã hội. FPT là tập đoàn công nghệ toàn cầu, tiên phong trong chuyển đổi số và cung cấp giải pháp công nghệ, viễn thông, giáo dục. AI là công nghệ mũi nhọn trong chiến lược của FPT, được tích hợp vào mọi sản phẩm, giải pháp thuộc hệ sinh thái Made by FPT, mang lại lợi ích thiết thực cho người dùng. FPT đang đầu tư toàn diện vào AI với nhân lực, R&D, cơ sở hạ tầng và đối tác chiến lược (NVIDIA, Mila, AITOMATIC…) nhằm hướng tới mục tiêu đạt 5 tỷ USD doanh thu dịch vụ CNTT từ thị trường nước ngoài vào năm 2030 và nâng tầm vị thế trong nhóm doanh nghiệp CNTT tỷ đô toàn cầu. Thông tin chi tiết tại https://fpt.com/