Blogs Tech

Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory: Giải pháp giúp doanh nghiệp tăng tốc phát triển AI

11:34 03/09/2025
Vừa qua, FPT đã tổ chức webinar với chủ đề“Tinh chỉnh Llama 3 trong 30 phút trên FPT AI Factory” (“Fine-Tuning Llama 3 in 30 minutes on FPT AI Factory”) cùng sự tham gia của ông Donald Murataj, Chuyên gia AI tại FPT, xoay quanh chủ đề về ứng dụng kỹ thuật tinh chỉnh hiệu quả mô hình Llama 3 trên FPT AI Factory.   AI tạo sinh – Xu hướng tất yếu của doanh nghiệp  Trong bối cảnh hiện nay, trí tuệ nhân tạo (AI) đã trở thành một trong những yếu tố quan trọng thúc đẩy sự phát triển của doanh nghiệp. Đặc biệt, AI tạo sinh (Gen AI) nổi lên như một công nghệ đột phá, không chỉ giúp tối ưu hiệu quả vận hành và nâng cao trải nghiệm khách hàng, mà còn mở ra những mô hình kinh doanh hoàn toàn mới.   Thách thức lớn nhất đối với doanh nghiệp là làm thế nào để "cá nhân hóa" những mô hình ngôn ngữ khổng lồ như Llama 3 theo dữ liệu và ngữ cảnh đặc thù của mình. Đây chính là lúc tinh chỉnh trở thành chìa khóa để GenAI thực sự tạo ra giá trị đột phá. Buổi webinar của FPT đã cho thấy quá trình phức tạp này có thể được thực hiện một cách nhanh chóng, đơn giản và hiệu quả ngay trên FPT AI Factory.  Trải nghiệm tinh chỉnh Llama 3 chỉ trong 30 phút  Điểm nhấn của webinar là màn trình diễn trực tiếp, nơi chuyên gia FPT thực hiện toàn bộ quy trình tinh chỉnh Llama 3 chỉ trong 30 phút, hướng dẫn người tham dự chi tiết qua từng bước:   Bước 1: Chuẩn bị bộ dữ liệu huấn luyện sát với nhu cầu thực tế, giúp mô hình hiểu đúng bối cảnh và ngôn ngữ riêng của doanh nghiệp.  Bước 2: Khởi tạo môi trường GPU Container trên FPT AI Factory để đảm bảo tốc độ xử lý nhanh, ổn định và dễ dàng mở rộng khi cần.  Bước 3: Thực hiện fine-tuning ngay trên giao diện trực quan, vừa đơn giản thao tác vừa cho phép kiểm soát toàn bộ quá trình.  Bước 4: Đánh giá kết quả và so sánh với mô hình gốc để nhận thấy rõ sự cải thiện về hiệu năng và độ chính xác.  Điều khiến người tham dự ấn tượng nhất chính là sự đơn giản và dễ tiếp cận của FPT AI Factory. Ngay cả đội ngũ kỹ thuật chưa có nhiều kinh nghiệm phát triển AI cũng có thể nhanh chóng tạo ra mô hình AI riêng của mình. Nếu như trước đây quá trình tinh chỉnh thường mất vài ngày, thì nay chỉ trong chưa đầy một giờ, toàn bộ quy trình đã hoàn thiện, minh chứng rõ ràng cho sức mạnh tối ưu của FPT AI Factory.  Trải nghiệm này đã biến một quy trình vốn phức tạp trở nên nhanh chóng và dễ áp dụng, mở ra cơ hội để mọi doanh nghiệp bắt tay vào ứng dụng AI ngay từ bước thử nghiệm đầu tiên.  >>> Xem lại webinar tại đây: https://www.youtube.com/watch?v=6L1nQteXAnM&ab_channel=FPTAIFactory  FPT AI Factory – Bộ giải pháp phát triển AI toàn diện dành cho doanh nghiệp Tất cả những điều này trở thành hiện thực nhờ FPT AI Factory – bộ giải pháp phát triển AI toàn diện được xây dựng trên hạ tầng hiện đại, khai thác sức mạnh của siêu chip NVIDIA H100/H200 GPU và phần mềm NVIDIA AI Enterprise. Kết hợp với kinh nghiệm triển khai thực tiễn từ FPT, FPT AI Factory giúp doanh nghiệp rút ngắn thời gian phát triển mô hình, tối ưu chi phí và mở rộng quy mô triển khai một cách linh hoạt, bảo mật.  Nền tảng bao gồm 4 thành phần chính:  FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, tiết kiệm năng lượng cho LLM và mô hình đa phương thức.  FPT AI Studio: Môi trường fine-tuning, thử nghiệm và prototyping nhanh chóng, tiết kiệm chi phí.  FPT AI Inference: Nền tảng phục vụ AI với độ trễ thấp, hiệu năng cao, phù hợp cho ứng dụng ở môi trường sản xuất.  FPT AI Agents: Nền tảng xây dựng và vận hành AI agent thông minh, đa ngôn ngữ, tích hợp liền mạch với quy trình doanh nghiệp.  Ngoài ra, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng sử dụng, giúp doanh nghiệp nhanh chóng ứng dụng AI vào trải nghiệm khách hàng, vận hành, quản trị nhân sự và tối ưu chi phí. 

Tinh chỉnh OpenFlamingo với GPU NVIDIA H100

10:35 03/09/2025
1. Giới thiệu Flamingo: Few-shot learning cho các mô hình ngôn ngữ thị giác  Flamingo (tài liệu gốc: [https://arxiv.org/pdf/2204.14198]) là một nhánh của mô hình ngôn ngữ thị giác (VLMs) được xây dựng bởi nhóm các chuyên gia tại Google DeepMind để giải quyết các bài toán về Few-shot learning trong học máy đa phương thức. Mô hình này được xây dựng dựa trên ba tầng lớp quan trọng:  Kết hợp sức mạnh của các mô hình đã huấn luyện sẵn cho xử lý hình ảnh và xử lý ngôn ngữ.  Xử lý linh hoạt chuỗi dữ liệu gồm cả hình ảnh và văn bản xen kẽ.  Dễ dàng nhận hình ảnh hoặc video làm đầu vào.  Sự linh hoạt này giúp Flamingo có thể được huấn luyện trên khối lượng dữ liệu web quy mô lớn, nơi hình ảnh và văn bản được kết hợp lẫn nhau. Đây chính là yếu tố quan trọng để Flamingo có khả năng học những nhiệm vụ mới chỉ với một vài ví dụ.  Nhờ vậy, bằng cách sử dụng một vài ví dụ mẫu phù hợp với từng tác vụ, một mô hình Flamingo có thể đạt được hiệu năng hàng đầu trong nhiều tác vụ khác nhau, bao gồm trả lời câu hỏi dựa trên hình ảnh, tạo chú thích (caption) và trả lời câu hỏi trắc nghiệm.  Cách tiếp cận few-shot này thường giúp Flamingo vượt trội hơn cả những mô hình đã được tinh chỉnh bằng lượng dữ liệu nhiều gấp hàng nghìn lần.  2. Flamingo vận hành như thế nào? Flamingo hoạt động thông qua một giao diện đa phương thức, xử lý kết hợp hình ảnh, video và văn bản để tạo ra phản hồi dưới dạng văn bản phù hợp. Thiết kế này giúp Flamingo dễ dàng thích ứng với nhiều tác vụ khác nhau, tương tự như các mô hình ngôn ngữ lớn (LLM), vốn sử dụng các gợi ý bằng văn bản để giải quyết nhiều thách thức liên quan đến ngôn ngữ.  Kiến trúc mô hình   OpenFlamingo kết hợp một bộ mã hóa thị giác đã được huấn luyện sẵn với một mô hình ngôn ngữ thông qua các lớp cross-attention. Kiến trúc mô hình được minh họa bên dưới.  Kiến trúc này hoạt động thông qua hai nhánh chính:     a. Nhánh thị giác (bên trái) Nhánh này chịu trách nhiệm xử lý dữ liệu thị giác (hình ảnh) và chuẩn bị cho mô hình ngôn ngữ.  Vision Encoder: Đây là một mô hình đã được huấn luyện sẵn (biểu thị bằng biểu tượng bông tuyết “đóng băng”), có nhiệm vụ trích xuất đặc trưng từ hình ảnh đầu vào. Một điểm quan trọng trong thiết kế là các trọng số của bộ mã hóa này được “đóng băng” và không thay đổi trong quá trình huấn luyện.  Perceiver Resampler: Đầu ra từ bộ mã hóa thị giác sau đó được đưa vào Perceiver Resampler. Thành phần này ánh xạ các đặc trưng thị giác có kích thước thay đổi thành một số lượng nhỏ, cố định các token đầu ra. Mô-đun này được huấn luyện từ đầu (biểu thị bằng màu tím), học cách tạo ra phiên bản rút gọn của dữ liệu hình ảnh. Trong Flamingo, số lượng token hình ảnh đầu ra được đặt là 5.  b. Nhánh ngôn ngữ (bên phải) Nhánh này xử lý văn bản và kết hợp nó với thông tin thị giác để tạo ra đầu ra cuối cùng.  Interleaved Input: Mô hình nhận một chuỗi đầu vào gồm văn bản xen kẽ với các ký hiệu giữ chỗ cho hình ảnh (<image>).  LM Blocks: Nền tảng của nhánh này là một mô hình ngôn ngữ lớn (Language Model – LM) đã được huấn luyện sẵn (ví dụ: Chinchilla). Tương tự như Bộ mã hóa thị giác, các khối LM này cũng được “đóng băng”, nghĩa là tận dụng vốn kiến thức ngôn ngữ khổng lồ mà không cần huấn luyện lại.  Gated XATTN-DENSE: Đây là điểm đổi mới then chốt giúp kết nối hai nhánh. Đây là những mô-đun mới, được huấn luyện từ đầu và chèn vào giữa các khối LM. Khi mô hình gặp một ký hiệu <image> trong dòng văn bản, lớp Gated XATTN-DENSE sẽ thực hiện phép cross-attention, dùng thông tin văn bản làm “truy vấn” để “nhìn vào” các token hình ảnh do Perceiver Resampler sinh ra. Thành phần “gated” là cơ chế kiểm soát mức độ thông tin hình ảnh được phép ảnh hưởng đến quá trình sinh ngôn ngữ, giúp kết hợp linh hoạt hai loại dữ liệu.  Thiết lập tiêu chuẩn mới cho Few-Shot learning  Flamingo đã được kiểm chứng nghiêm ngặt trên 16 tác vụ khác nhau và luôn đạt kết quả tốt hơn so với các mô hình few-shot learning trước đây, ngay cả khi mỗi tác vụ chỉ có bốn ví dụ. Trong một số trường hợp, Flamingo còn cho thấy hiệu năng tốt hơn cả những phương pháp cần tinh chỉnh trên quy mô lớn và sử dụng tập dữ liệu khổng lồ, cho thấy khả năng khái quát hóa rất hiệu quả.  Bằng cách giảm thiểu nhu cầu gắn nhãn dữ liệu quy mô lớn và huấn luyện lại riêng cho từng tác vụ, Flamingo đánh dấu một bước tiến quan trọng về hiệu quả của các mô hình ngôn ngữ thị giác. Khả năng học nhanh từ số lượng ví dụ hạn chế đưa AI tiến gần hơn đến sự thích ứng tự nhiên như con người, mở ra nhiều ứng dụng thực tiễn với độ chính xác cao và dễ dàng hơn. 3. Tại sao phải tinh chỉnh Flamingo? Để kiểm chứng hiệu năng của hệ thống H100 mới, chúng tôi tiến hành thử nghiệm khả năng vận hành một mô hình ngôn ngữ lớn (LLMs). Trong quá trình đánh giá này, chúng tôi chọn tinh chỉnh một phiên bản Flamingo do cộng đồng phát triển. Dự án này đồng thời phục vụ hai mục tiêu:  System Validation: Chúng tôi sử dụng tác vụ tinh chỉnh này để kiểm thử nghiêm ngặt hạ tầng H100, nhằm đảm bảo nó có thể đáp ứng các yêu cầu tính toán khắt khe trong việc huấn luyện và vận hành một mô hình lớn.  Code Verification: Do mã nguồn gốc của mô hình Flamingo không được công bố rộng rãi, chúng tôi dựa vào phiên bản do cộng đồng phát triển. Quá trình này giúp kiểm chứng xem bản mã nguồn mở đó có tái hiện chính xác và vận hành được mô hình như mô tả trong bài báo nghiên cứu hay không.  Do đó, xin lưu ý rằng trọng tâm của chúng tôi ở đây là khả năng của hệ thống, chứ không phải đánh giá độ chính xác của mô hình.  Trong dự án này, một bản sao Flamingo có tên OpenFlamingo, do ML-Foundation phát triển, đã được sử dụng vì mô hình Flamingo gốc chưa được công bố rộng rãi. Mục tiêu là tinh chỉnh OpenFlamingo trên bộ dữ liệu gốc và đánh giá hiệu năng của nó trong điều kiện kiểm soát.   Những kết quả này giúp xác định tính khả thi của việc triển khai OpenFlamingo trong các ứng dụng thực tiễn, đồng thời tối ưu hóa việc khai thác phần cứng. 4. Flamingo được tinh chỉnh như thế nào? Cài đặt OpenFlamingo  Để cài đặt gói này trong môi trường hiện có, hãy chạy lệnh sau:  [code lang="js"] pip install open-flamingo [/code] Hoặc để tạo một môi trường Conda dành cho việc chạy OpenFlamingo, hãy chạy lệnh sau: [code lang="js"] conda env create -f environment.yml [/code] Để cài đặt các dependencies phục vụ huấn luyện hoặc đánh giá, hãy chạy một trong hai lệnh đầu tiên. Để cài đặt toàn bộ, hãy chạy lệnh thứ ba. [code lang="js"] pip install open-flamingo[training] pip install open-flamingo[eval] pip install open-flamingo[all] [/code] Có ba tệp câu lệnh requirements.txt:  requirements.txt  requirements-training.txt  requirements-eval.txt   Tùy theo mục đích sử dụng, bạn có thể cài đặt bất kỳ gói nào trong số này bằng lệnh: pip install -r <requirements-file.txt>. Tệp base chỉ bao gồm các dependencies cần thiết để chạy mô hình.  Phát triển   Các tác giả mã nguồn mở sử dụng pre-commit hooks để đồng bộ định dạng mã với các kiểm tra trong kho lưu trữ. Để cài đặt pre-commit, hãy chạy lệnh sau:  [code lang="js"] pip install pre-commit [/code] hoặc sử dụng brew cho MacOS:  [code lang="js"] brew install pre-commit [/code] Kiểm tra phiên bản đã cài đặt với:  [code lang="js"] pre-commit --version [/code] Sau đó, tại thư mục gốc của kho lưu trữ này, hãy chạy lệnh:  [code lang="js"] pre-commit install [/code] Sau đó, mỗi lần chúng ta chạy git commit, các kiểm tra sẽ được thực hiện. Nếu các tệp bị định dạng lại bởi các hooks, hãy chạy lại lệnh:  [code lang="js"] git add [/code] cho các tệp bạn đã thay đổi, và hãy chạy lại lệnh  [code lang="js"] git commit [/code] Quy trình huấn luyện   Để huấn luyện OpenFlamingo, hãy đảm bảo môi trường của bạn khớp với môi trường của environment.yml.  Xử lý dữ liệu   Mã nguồn sử dụng WebDataset để tải các tệp .tar chứa các chuỗi hình ảnh và văn bản một cách hiệu quả. Chúng tôi khuyến nghị lấy mẫu lại các shard với thay thế trong quá trình huấn luyện bằng cách gắn cờ -- dataset_resampled.  Bộ dữ liệu LAION-2B  LAION-2B chứa 2 tỷ cặp (hình ảnh, văn bản) được trích xuất từ web. Vui lòng sử dụng img2dataset để tải xuống bộ dữ liệu này thành các tệp tar.  Bộ dữ liệu đa phương thức C4 (Multimodal C4 - MMC4)  OpenFlamingo được huấn luyện trên phiên bản đầy đủ của MMC4, bao gồm 103 triệu tài liệu với chuỗi hình ảnh và văn bản xen kẽ. Trong quá trình huấn luyện, chuỗi được cắt ngắn còn 256 token văn bản và 6 hình ảnh mỗi chuỗi. Codebase yêu cầu các tệp .tar chứa các tệp .json, trong đó bao gồm hình ảnh gốc được mã hóa bằng base64.   Các script được cung cấp để chuyển đổi MMC4 sang định dạng này:   (1) Tải xuống các shard MMC4 thành các tệp .zip bằng các script do MMC4 cung cấp (ví dụ: fewer_facesv2.sh).   (2) Tải xuống hình ảnh gốc MMC4 vào một thư mục hình ảnh bằng các script do MMC4 cung cấp (ví dụ: download_images.py).   (3) Chạy scripts/convert_mmc4_to_wds.py để chuyển đổi các mục đã tải xuống thành các tệp định dạng  tar.  Bộ dữ liệu tùy chỉnh  Gần đây có báo cáo rằng các URL tải xuống bộ dữ liệu MMC4 đang gặp một số vấn đề về quyền truy cập. Do đó, chúng tôi đã tạo một script giúp chuẩn bị bộ dữ liệu tùy chỉnh bằng cách chuyển đổi nó sang định dạng của MMC4 (chúng tôi đã sử dụng bộ dữ liệu ADNI làm mục tiêu cho ví dụ này, với dữ liệu hình ảnh base64 mẫu cố định). Bạn có thể sửa đổi script này theo bộ dữ liệu tùy chỉnh của mình:  [code lang="js"] import json  import os  import tarfile    def compress_directory_to_tar(directory_path):      json_files = [f for f in os.listdir(directory_path) if f.endswith('.json')]      os.makedirs('replicate_mmc4', exist_ok=True)        for i in range(0, len(json_files), 20):          batch_files = json_files[i:i+20]          tar_file_path = os.path.join('replicate_mmc4', f"{i//20:09d}.tar")            with tarfile.open(tar_file_path, "w:gz") as tar:              for file in batch_files:                  tar.add(os.path.join(directory_path, file), arcname=file)            print(f"Batch {i//20} compressed to {tar_file_path}")    def convert_adni_to_mmc4(input_json_path, output_folder):      # Ensure the output folder exists      os.makedirs(output_folder, exist_ok=True)        # Load the large JSON file      with open(input_json_path, 'r') as f:          data = json.load(f)        matched_text_index = 0        # Iterate over each item in the list and save it as a separate JSON file      for idx, item in enumerate(data):          # Ensure compatibility with the structure of f9773b9c866145c28fe0b701dde8dfbe.json            # Handle text list:          conversations = item.get("conversations", None)          if conversations is not None:              text_list = []              for conversation in conversations:                  text_list.append(conversation["value"])            # Check for <image> tag in the first element of conversations list          first_convo = conversations[0]["value"]          if "<image>" in first_convo:              if first_convo.startswith("<image>"):                  matched_text_index = 0              elif first_convo.endswith("<image>"):                  matched_text_index = 1            item["text_list"] = text_list            # Handle image's base64 content:          with open('./sample_base64.txt', 'r') as f:              sample_img_base64_data = f.read()            # Handle image info:          img_info = []          images_list = item.get("image", None)          if images_list is not None:              for img in images_list:                  img_obj = {}                  img_obj["image_name"] = img                  img_obj["raw_url"] = "https://example.com/{}".format(img)                  img_obj["matched_text_index"] = matched_text_index                  img_obj["matched_sim"] = 0.75                  img_obj["image_base64"] = sample_img_base64_data                  img_info.append(img_obj)            # Create similarity_matrix          similarity_matrix = []          for img in img_info:              for _ in range(len(text_list)):                  inner_list = [0] * len(text_list)                  inner_list[matched_text_index] = 1                  similarity_matrix.append(inner_list)            # item["similarity_matrix"] = similarity_matrix            output_item = {              "id": item.get("id", None),              "url": "https://example.com",              "text_list": item.get("text_list", None),              "image_info": img_info,              "similarity_matrix": similarity_matrix,              "could_have_url_duplicate": 0          }            # Save the item as a separate JSON file          output_path = os.path.join(output_folder, f"{idx:05d}.json")          with open(output_path, 'w') as out_f:              json.dump(output_item, out_f) [/code] Các chuỗi do ChatGPT khởi tạo  Một tập con các mô hình của chúng tôi (liệt kê bên dưới) cũng được huấn luyện trên các chuỗi (hình ảnh, văn bản) do ChatGPT tạo thử nghiệm, trong đó hình ảnh được lấy từ LAION. Các shard chứa những chuỗi này có thể tìm thấy tại bảng tính CodaLab này. Họ không thể phân phối hình ảnh gốc trong các shard phát hành; hình ảnh cần được tải trước từ các URL trong các tệp JSON và chuyển sang định dạng base64 trước khi sử dụng dữ liệu này để huấn luyện trong codebase của chúng tôi.  Các mô hình được huấn luyện với các chuỗi do ChatGPT tạo:  OpenFlamingo-4B-vitl-rpj3b  OpenFlamingo-4B-vitl-rpj3b-langinstruct  Lệnh huấn luyện   Một Slurm mẫu được cung cấp trong script huấn luyện trong scripts/. Bạn cũng có thể sửa đổi lệnh sau:  [code lang="js"] torchrun --nnodes=1 --nproc_per_node=8 open_flamingo/train/train.py \      --lm_path anas-awadalla/mpt-1b-redpajama-200b \      --tokenizer_path anas-awadalla/mpt-1b-redpajama-200b \      --cross_attn_every_n_layers 1 \      --dataset_resampled \      --batch_size_mmc4 2 \      --train_num_samples_mmc4 1000 \      --workers=4 \      --run_name OpenFlamingo-3B-vitl-mpt1b \      --num_epochs 20 \      --warmup_steps 1875 \      --mmc4_textsim_threshold 0.24 \      --mmc4_shards "modifications/VLM_ADNI_DATA/replicate_mmc4/{000000000..000000040}.tar" \      --report_to_wandb  [/code] Mã nguồn của mô hình MPT-1B (base và instruct) không nhận tham số labels và cũng không tính trực tiếp hàm mất mát cross-entropy trong forward(). Chúng tôi khuyến nghị sử dụng một phiên bản các mô hình MPT-1B đã được chỉnh sửa, có thể tìm thấy tại đây.  Huấn luyện phân tán   Theo mặc định, train.py sử dụng Distributed Data Parallel của Pytorch để huấn luyện.   Để sử dụng Fully Sharded Data Parallel (FSDP), hãy gắn cờ --fsdp.   Một số lưu ý về FSDP từ nhóm OpenFlamingo: Chúng tôi khuyến nghị sử dụng cờ --fsdp_use_orig_params df. Nếu --fsdp được bật mà không có cờ này, tất cả embeddings của mô hình ngôn ngữ sẽ được mở khóa trong quá trình huấn luyện. (Ngược lại, hành vi mặc định là chỉ huấn luyện các token <image> và <|endofchunk|> mới được thêm vào.)   Lưu ý: Chúng tôi đã gặp vấn đề khi sử dụng OPT với cờ này. Các mô hình ngôn ngữ khác sẽ tương thích hơn.   Chiến lược đóng gói FSDP hiện tại không cho phép huấn luyện embeddings của mô hình ngôn ngữ sử dụng tied weights (tức là embeddings đầu vào/đầu ra được liên kết). Để huấn luyện các mô hình như vậy với FSDP, embeddings của mô hình ngôn ngữ phải được đóng băng bằng cờ —freeze_lm_embeddings.   Chúng tôi cũng triển khai gradient checkpointing và huấn luyện với mixed precision. Sử dụng lần lượt các cờ —gradient_checkpointing và —precision.  Khởi tạo mô hình OpenFlamingo   OpenFlamingo hỗ trợ các bộ mã hóa thị giác đã được huấn luyện trước từ gói OpenCLIP, bao gồm các mô hình đã được huấn luyện trước của OpenAI. Chúng cũng hỗ trợ các mô hình ngôn ngữ đã được huấn luyện sẵn từ gói transformers, chẳng hạn như MPT, RedPajama, LLaMA, OPT, GPT-Neo, GPT-J hay các mô hình Pythia [code lang="js"] from open_flamingo import create_model_and_transforms    model, image_processor, tokenizer = create_model_and_transforms(      clip_vision_encoder_path="ViT-L-14",      clip_vision_encoder_pretrained="openai",      lang_encoder_path="anas-awadalla/mpt-1b-redpajama-200b",      tokenizer_path="anas-awadalla/mpt-1b-redpajama-200b",      cross_attn_every_n_layers=1,      cache_dir="PATH/TO/CACHE/DIR" # Defaults to ~/.cache  )  [/code] 5. Kết quả đạt được Dưới đây là kết quả được báo cáo từ WandBs của chúng tôi: GPU NVIDIA H100  Hệ thống NVIDIA H100 đã được sử dụng:   Hệ thống được trang bị 8 * GPU NVIDIA H100 80GB HBM3. Tuy nhiên, đối với thiết lập huấn luyện này, chỉ cần 2 GPU với huấn luyện phân tán là hoàn thiện.   Mỗi GPU NVIDIA H100 có 80GB bộ nhớ băng thông cao (HBM3), tạo ra một hệ thống tính toán hiệu năng cao (HPC) hoặc huấn luyện AI.   Các GPU NVIDIA H100 ở trạng thái hiệu suất P0, cho thấy chúng đang ở chế độ hiệu suất cao nhất hiện có.  Các số liệu được báo cáo của mô hình    Dữ liệu huấn luyện cho thấy quá trình đang vận hành tốt, với các hành vi đúng như yêu cầu trên các thông số khác nhau. Đường cong loss giảm mạnh ở giai đoạn đầu rồi dần ổn định, cho thấy mô hình đang đạt kết quả tốt. Learning rate tuân theo lịch trình khởi động tuyến tính (linear warm-up). Đây chính là phương pháp phổ biến để giữ cho giai đoạn huấn luyện ban đầu ổn định.  Thời gian xử lý từng bước (step time) và thời gian tải dữ liệu nhìn chung ổn định, chỉ có một vài đột biến có thể xuất phát từ biến động hệ thống, quá trình lưu checkpoint hoặc độ trễ khi tải dữ liệu. Global step tăng tuyến tính, xác nhận rằng quá trình huấn luyện đang tiến triển ổn định.  Chỉ số samples per second per GPU cũng duy trì mức ổn định, chỉ có một chút sụt giảm nhỏ nhưng không gây ảnh hưởng đáng kể đến hiệu năng tổng thể. Nhìn chung, các chỉ số này cho thấy mô hình huấn luyện hoạt động bình thường, tuy nhiên việc giám sát kỹ hơn những đột biến về thời gian xử lý bước và tải dữ liệu có thể giúp tối ưu hóa hiệu quả hơn nữa.  Các số liệu được báo cáo của hệ thống  Lỗi bộ nhớ không được sửa của GPU (Trên cùng bên trái): Đường này vẫn ở mức 0, cho thấy không có lỗi bộ nhớ nào chưa được sửa.  Lỗi bộ nhớ đã được sửa của GPU (Trên cùng ở giữa): Biểu đồ cũng thẳng ở mức 0, nghĩa là không có lỗi bộ nhớ đã được sửa.  Tốc độ xung nhịp bộ nhớ GPU (Trên cùng bên phải): Bình thường; tốc độ xung nhịp ổn đỉnh cho thấy không có sự thay đổi tần số động hay giới hạn hiệu năng.  Tốc độ xung nhịp Bộ đa xử lý Streaming (SM) của GPU (Dưới cùng bên trái): Bình thường; tốc độ xung nhịp ổn định cho thấy không có điều tiết nhiệt.  Mức sử dụng điện năng GPU (W) (Dưới cùng ở giữa): Hiển thị dạng chu kỳ, cho thấy mức tiêu thụ điện năng của GPU dao động trong quá trình thực thi tác vụ ⇒ có thể do xử lý theo nhóm, lập lịch công việc hoặc cơ chế quản lý điện năng. Giới hạn điện năng cưỡng bức của GPU (W) (Trên cùng bên trái): Bình thường; điều này cho thấy GPU không vượt quá giới hạn điện năng được xác định trước. Bộ nhớ GPU được phân bổ (Bytes) (Trên cùng ở giữa): Việc phân bổ bộ nhớ vẫn ổn định nhưng đột ngột giảm vào cuối => Sự sụt giảm này là khi quá trình huấn luyện kết thúc.  Bộ nhớ GPU được phân bổ (%) (Trên cùng bên phải): Bình thường, tương tự như Bộ nhớ GPU được phân bổ (Bytes).  Thời gian GPU dành để truy cập bộ nhớ (%) (Dưới cùng bên trái): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Nhiệt độ GPU (°C) (Dưới cùng ở giữa): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.  Mức sử dụng GPU (%) (Dưới cùng bên phải): Tương quan với Mức sử dụng điện năng GPU (W) ở trên.

Nhà Máy AI Đang Tái Định Hình Trung Tâm Dữ Liệu Cho Một Tương Lai Thông Minh

15:45 08/08/2025
Từ các startup đến những tập đoàn hàng đầu thế giới, làn sóng AI đang từng bước thay đổi cách chúng ta kiến tạo, vận hành và phát triển. NVIDIA và các đối tác đang không ngừng mở rộng mạng lưới nhà máy AI trên toàn cầu và trong tương lai không xa, đây sẽ trở thành nền tảng không thể thiếu để doanh nghiệp duy trì và nâng cao lợi thế cạnh tranh.  Thời đại AI làm chủ cuộc chơi: Nhà máy AI mở đường cho tương lai trí tuệ  AI không còn là công nghệ của tương lai , nó đang hiện diện trong mọi mặt đời sống hiện đại ngày nay. Từ cách chúng ta học tập, làm việc đến cách doanh nghiệp vận hành và phát triển, trí tuệ nhân tạo đang dần trở thành nền tảng không thể thiếu. Ngày nay, thay vì gõ từ khóa tìm kiếm, nhiều bạn trẻ đã quen với việc trò chuyện trực tiếp cùng trợ lý AI. Các công ty như Amazon dùng AI để điều phối hàng triệu đơn hàng mỗi ngày với tốc độ cực nhanh. Tesla thu thập lượng dữ liệu khổng lồ từ thực tế mỗi ngày để cải tiến công nghệ lái xe tự động. Thậm chí, nhiều chính phủ cũng bắt đầu sử dụng AI như một “trợ lý đồng hành” để nâng cao hiệu quả phục vụ người dân và xây dựng chính sách.  AI đang dần thấm vào mọi sản phẩm, mọi quyết định, và từng trải nghiệm của khách hàng. Với các tổ chức được xây dựng dựa trên nền tảng AI ngay từ đầu, trí tuệ nhân tạo không chỉ cần thông minh mà còn phải luôn sẵn sàng hoạt động, tạo ra giá trị mới và dễ dàng mở rộng theo nhu cầu. Để đáp ứng điều đó, chúng ta cần một hạ tầng công nghệ hoàn toàn mới, được thiết kế riêng cho kỷ nguyên AI. Đây chính là động lực cho sự ra đời của nhà máy AI - nơi không chỉ lưu trữ dữ liệu, mà là "nhà máy sản xuất trí tuệ", nơi AI được tạo ra, huấn luyện và triển khai với quy mô lớn, sẵn sàng phục vụ liên tục cho các sản phẩm, dịch vụ và hoạt động vận hành thông minh.  Từ Trung tâm Dữ liệu đến Nhà máy AI  Các trung tâm dữ liệu truyền thống được xây dựng cho mục đích điện toán chung, có thể xử lý nhiều loại tác vụ khác nhau với độ linh hoạt nhất định. Tuy nhiên, trong nền kinh tế vận hành bằng AI ngày nay, tốc độ, quy mô và tính chuyên biệt mới là yếu tố then chốt. Các doanh nghiệp và chính phủ không thể tiếp tục chờ đợi hàng tháng để những sáng kiến AI rời rạc mang lại kết quả. Thay vào đó, họ cần những hệ thống có quy mô công nghiệp, có khả năng xử lý toàn bộ vòng đời AI, từ thu thập dữ liệu, đào tạo, tinh chỉnh đến suy luận khối lượng lớn theo thời gian thực.  Nhà máy AI được thiết kế có chủ đích để đáp ứng chính xác nhu cầu đó. Từ dữ liệu chưa qua xử lý, các nhà máy AI tạo ra tri thức có thể áp dụng ngay vào thực tế với chi phí hợp lý. Trong mô hình này, những dữ liệu không còn là sản phẩm phụ mà trở thành sản phẩm cốt lõi.  Hiệu quả của một Nhà máy AI được đánh giá qua số lượng AI token mà nó có thể xử lý, qua đó cho thấy khả năng suy luận và dự đoán để đưa ra quyết định, thúc đẩy tự động hóa và mang lại giá trị thực tế.  Nhà máy AI: Hạ tầng chiến lược cho nền kinh tế trí tuệ nhân tạo  Trên toàn cầu, chính phủ và doanh nghiệp đang tăng tốc đầu tư vào các Nhà máy AI như một phần của hạ tầng chiến lược, nhằm thúc đẩy tăng trưởng kinh tế, đẩy mạnh đổi mới sáng tạo và nâng cao hiệu suất vận hành.  Tại châu Âu, Liên doanh Điện toán Hiệu năng cao (European High Performance Computing Joint Undertaking) vừa công bố kế hoạch xây dựng 7 nhà máy AI, phối hợp cùng 17 quốc gia thành viên EU. Đây là một bước đi quan trọng trong hành trình kiến tạo hạ tầng AI quy mô lớn cho toàn khu vực.  Đây không phải là câu chuyện của riêng một quốc gia mà là xu hướng chung trên toàn thế giới, với các khoản đầu tư vào Nhà máy AI nhằm bắt kịp cuộc đua công nghệ và nâng cao năng lực cạnh tranh.  Ấn Độ: Yotta Data Services hợp tác với NVIDIA để ra mắt nền tảng Shakti Cloud – phổ cập khả năng tiếp cận GPU hiệu năng cao, kết hợp phần mềm NVIDIA AI Enterprise và nhiều công cụ mã nguồn mở.  Nhật Bản: Các nhà cung cấp dịch vụ đám mây như GMO Internet, Highreso, KDDI, Rutilea và SAKURA Internet đang đầu tư mạnh vào hạ tầng AI của NVIDIA để chuyển đổi các lĩnh vực then chốt như robotics, ô tô, y tế và viễn thông.  Na Uy: Tập đoàn Telenor đã khởi động một Nhà máy AI ứng dụng công nghệ NVIDIA, hướng tới mục tiêu thúc đẩy AI toàn khu vực Bắc Âu – với trọng tâm là phát triển bền vững và nâng cao kỹ năng số cho lực lượng lao động.  Nhà máy AI đang từng bước trở thành một phần không thể thiếu trong hạ tầng số của các quốc gia hiện đại, giữ vai trò chiến lược trong tăng trưởng kinh tế, đổi mới công nghệ và nâng cao năng lực cạnh tranh toàn cầu.  Bên trong một Nhà máy AI: Nơi trí tuệ được “sản xuất”  Cốt lõi mỗi nhà máy AI là sự kết hợp hài hòa giữa ba yếu tố then chốt: các mô hình nền tảng (foundation models), nguồn dữ liệu từ khách hàng, và một hệ sinh thái công cụ AI mạnh mẽ. Tất cả những thành phần này được tích hợp trong một môi trường được thiết kế chuyên biệt, nơi các mô hình có thể được tinh chỉnh, thử nghiệm và tối ưu hóa để sẵn sàng triển khai vào thực tế.  Khi các mô hình bắt đầu đi vào vận hành, chúng tạo ra một vòng lặp học tập, liên tục cập nhật từ dữ liệu mới, cải thiện hiệu suất qua từng vòng phản hồi, và phát triển theo thời gian. Quy trình này tạo nên một “vòng quay dữ liệu” (data flywheel), cho phép tổ chức khai phá những cấp độ AI ngày càng thông minh hơn, từ đó nâng cao khả năng thích ứng, độ chính xác và mở rộng quy mô, góp phần thúc đẩy tăng trưởng cho toàn doanh nghiệp.  Source: NVIDIA  FPT AI Factory: Nhà máy AI tiên phong tại Việt Nam, đối tác tin cậy tại Nhật Bản  Trong làn sóng chuyển đổi sang AI đang diễn ra trên toàn cầu, FPT AI Factory đang từng bước khẳng định vai trò tiên phong tại khu vực. Đây là nhà máy AI đầu tiên của Việt Nam, đồng thời cũng là đối tác hạ tầng đáng tin cậy của các doanh nghiệp hàng đầu tại Nhật Bản, góp phần thúc đẩy quá trình chuyển đổi số một cách thông minh và hiệu quả hơn. Ra đời từ mối quan hệ hợp tác chiến lược với NVIDIA, FPT AI Factory được thiết kế chuyên biệt để giúp doanh nghiệp ứng dụng AI một cách toàn diện và hiệu quả vào hoạt động vận hành, ra quyết định và đổi mới sáng tạo. FPT AI Factory cung cấp một môi trường tối ưu cho toàn bộ quá trình phát triển AI – từ xây dựng mô hình, huấn luyện, tinh chỉnh đến triển khai và giám sát. FPT AI Factory là sự kết hợp giữa sức mạnh công nghệ của NVIDIA và kinh nghiệm triển khai AI thực tế của FPT, từ đó tạo nên một hạ tầng vững chắc, tối ưu cho hiệu năng, khả năng mở rộng và tính bền vững. Đây chính là bệ phóng giúp các tổ chức triển khai AI nhanh chóng và hiệu quả ở quy mô lớn.   FPT AI Factory được thiết kế như một dây chuyền sản xuất hiện đại dành riêng cho AI – nơi mọi công đoạn, từ phát triển đến triển khai, đều được tối ưu hóa để đưa AI vào ứng dụng thực tế ở quy mô lớn. Nền tảng này cung cấp đầy đủ các thành phần cần thiết để doanh nghiệp dễ dàng tiếp cận và vận hành AI hiệu quả, bao gồm: FPT AI Infrastructure: Hạ tầng tính toán hiệu năng cao, được xây dựng trên nền tảng GPU NVIDIA H100/H200 tiên tiến, sẵn sàng xử lý mọi khối lượng công việc AI chuyên sâu – từ huấn luyện mô hình ngôn ngữ lớn (LLMs) đến AI đa phương thức với hiệu suất vượt trội và tối ưu năng lượng FPT AI Studio: Bộ công cụ toàn diện cho việc phát triển mô hình AI thế hệ mới, hỗ trợ huấn luyện, tinh chỉnh và thử nghiệm nhanh. FPT AI Studio giúp rút ngắn chu trình phát triển, giảm chi phí và tăng tốc đưa AI vào ứng dụng thực tế FPT AI Inference: Nền tảng triển khai AI linh hoạt và hiệu quả, tối ưu hóa cho độ trễ thấp, khả năng mở rộng và chi phí hợp lý. Phù hợp với các ứng dụng AI đòi hỏi khả năng phục vụ ổn định ở quy mô lớn và đảm bảo SLA khắt khe FPT AI Agents: Nền tảng GenAI cho phép doanh nghiệp xây dựng các trợ lý ảo thông minh, có thể giao tiếp đa ngôn ngữ, xử lý đa tác vụ và tích hợp linh hoạt vào quy trình nghiệp vụ. Các trợ lý AI này được thiết kế để tương tác tự nhiên như con người và dễ dàng tùy biến theo từng mục tiêu sử dụng.  Ảnh: FPT Smart Cloud  Bên cạnh đó, FPT AI Factory còn tích hợp hơn 20 sản phẩm GenAI sẵn sàng triển khai, hỗ trợ doanh nghiệp ứng dụng AI vào thực tiễn một cách dễ dàng, từ đó nâng cao hiệu suất làm việc và tối ưu hóa chi phí vận hành.  Được trang bị hàng nghìn siêu chip NVIDIA H100 & H200 cùng nền tảng phần mềm NVIDIA AI Enterprise mới nhất, FPT AI Factory hỗ trợ doanh nghiệp rút ngắn thời gian phát triển và triển khai các giải pháp AI tiên tiến, đồng thời tinh tối ưu tổng chi phí vận hành. Nhờ đó, doanh nghiệp có thể đổi mới nhanh hơn và mở rộng quy mô hiệu quả hơn. Kiến tạo tương lai doanh nghiệp thông minh cùng Nhà máy AI  Trí tuệ nhân tạo ngày nay không còn chỉ là một giải pháp công nghệ tiên tiến, mà đang trở thành yếu tố cốt lõi giúp doanh nghiệp thay đổi cách vận hành, nâng cao hiệu quả và tăng sức cạnh tranh trên quy mô quốc gia. Trên toàn thế giới, các nhà máy AI đang dần hình thành như một phần của hạ tầng chiến lược, cho phép tổ chức xây dựng, triển khai và mở rộng các hệ thống thông minh một cách nhanh chóng. Không chỉ là tài sản công nghệ, đây còn là động lực thúc đẩy năng suất và tăng trưởng bền vững trong dài hạn.  FPT AI Factory đánh dấu bước đi đầu tiên của Việt Nam trong việc tham gia vào làn sóng về phát triển hạ tầng AI. Nền tảng này được xây dựng để đáp ứng linh hoạt nhu cầu của doanh nghiệp , từ triển khai tại chỗ (on-premises), trên nền tảng đám mây cho đến mô hình kết hợp. FPT AI Factory giúp đơn giản hóa toàn bộ quá trình ứng dụng AI, từ xây dựng mô hình đến triển khai và mở rộng. Với các khoản đầu tư chiến lược tại cả Việt Nam và Nhật Bản, FPT đang góp phần xây dựng một tương lai, nơi AI không còn là công nghệ xa vời, mà trở thành phần lõi trong mọi hoạt động kinh doanh, sản xuất và điều hành, sẵn sàng cho một kỷ nguyên phát triển mới do trí tuệ nhân tạo dẫn dắt. 

Vị Trí Cho Thuê Cloud Server Ảnh Hưởng Như Thế Nào Đến Hiệu Suất Dịch Vụ Thuê Máy Chủ Cloud?

09:14 07/08/2025
5 ảnh hưởng vị trí thuê cloud server đến hiệu suất dịch vụ thuê máy chủ cloud (máy chủ đám mây ảo) là: Độ trễ truy cập (Latency) Tốc độ truyền tải và băng thông quốc tế  Khả năng tuân thủ luật pháp và quy định pháp lý Khả năng mở rộng, tính sẵn sàng (Availability) Chi phí thuê server ảo 1. Độ trễ mạng và truy cập (Latency) [caption id="attachment_65315" align="aligncenter" width="800"] Ảnh hưởng của vị trí thuê máy chủ cloud đến hiệu suất của hệ thống hạ tầng đám mây[/caption] Độ trễ (Latency) là khoảng thời gian từ khi một yêu cầu được gửi đi cho đến khi nhận được phản hồi. Vị trí thuê cloud server ảnh hưởng trực tiếp đến tốc độ phản hồi và trải nghiệm của người dùng khi truy cập ứng dụng, website hay hệ thống được lưu trữ trên cloud server.  Khoảng cách địa lý giữ người dùng và máy chủ cloud càng xa thì độ trễ càng lớn, bởi vì tín hiệu mạng phải đi qua nhiều điểm trung gian, dễ bị tắc nghẽn, mất tín hiệu hoặc đứt cáp quang biển. Hơn nữa một vài khu vực hạ tầng mạng quốc tế kém phát triển hoặc bị kiểm soát nghiêm ngặt về lưu lượng cũng khiến độ trễ tăng cao. Để đảm bảo hiệu suất và trải nghiệm của người thì các cá nhân, doanh nghiệp nên ưu tiên thuê máy chủ cloud có vị trí đặt gần người dùng, có hệ thống phân phối nội dung (CDN) để rút ngắn thời gian truyền dẫn dữ liệu. 2. Tốc độ truyền tải dữ liệu và Băng thông quốc tế Tốc độ truyền tải dữ liệu phụ thuộc vào chất lượng tuyến cáp quốc tế từ vị trí đặt máy chủ đến người dùng truy cập. Nếu vị trí thuê server cloud được đặt tại các trung tâm dữ liệu (Datacenter) có kết nối quốc tế mạnh như Singapore, Mỹ, Tokyo, Frankfurt,...thì khả năng truyền dữ liệu nhanh hơn nhờ băng thông lớn và ít bị tắc nghẽn hơn. Ngược lại những máy chủ cloud đặt tại nơi có kết nối quốc tế yếu hoặc bị giới hạn bởi nhà mạng địa phương thì dữ liệu truyền chậm, dễ bị nghẽn vào giờ cao điểm. Cá nhân và doanh nghiệp nên ưu tiên chọn nhà cung cấp dịch vụ cho thuê cloud server có Data Center đặt tại quốc gia hoặc khu vực có tuyến cáp quang mạnh như Việt Nam. Nếu cần phục vụ người dùng toàn cầu thì nên chọn vị trí đặt máy chủ quốc tế tại Singapore, Nhật bản, Mỹ, Hồng Kông,... 3. Khả năng tuân thủ pháp lý Việc lựa chọn vị trí đặt máy chủ cloud đóng vai trò quan trọng trong việc đảm bảo tuân thủ pháp lý, quy định quản lý bảo mật dữ liệu tại từng quốc gia giúp doanh nghiệp hoạt động hợp pháp bền vững và xây dựng lòng tin từ khách hàng. Đặc biệt trong nhiều lĩnh vực kinh doanh, tài chính, y tế, thương mại điện tử hay giáo dục thì việc đảm bảo dữ liệu được lưu trữ và xử lý theo đúng pháp luật là bắt buộc. Doanh nghiệp cần xem xét quy định pháp lý tại nơi đặt máy chủ và tại quốc gia mà doanh nghiệp đang hoạt động.  Đồng thời chọn nhà cung cấp dịch vụ thuê server ảo tuân thủ đầy đủ các tiêu chuẩn bảo mật và pháp lý như: ISO/IEC 27001, SOC 2, GDPR, HIPAA,...Đối với doanh nghiệp đa quốc gia, nên sử dụng Multi-region cloud (đám mây đa vùng) - mô hình triển khai dịch vụ cloud sử dụng nhiều  Data Center đặt nhiều khu vực địa lý khác nhau để dễ dàng phân tách dữ liệu theo yêu cầu từng khu vực. 4. Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ đám mây [caption id="attachment_65314" align="aligncenter" width="800"] Khả năng mở rộng và tính sẵn sàng đáp ứng của hệ thống thuê server cloud (máy chủ đám mây ảo[/caption] Khả năng mở rộng và tính sẵn sàng của hệ thống máy chủ cloud là hai yếu tố cốt lõi trong hạ tầng điện toán đám mây giúp hệ thống hoạt động ổn định, không bị gián đoạn và dễ dàng tương thích với lưu lượng truy cập tăng cao. Việc chọn vị trí thuê cloud server ảnh hưởng lớn đến hai yếu tố này. Về khả năng mở rộng, không phải trung tâm dữ liệu nào cũng hỗ trợ mở rộng linh hoạt, có thể bị hạn chế về tài nguyên khó mở rộng hệ thống. Nên chọn những vị trí đặt máy chủ tại khu vực trung tâm hạ tầng như Việt Nam và một số hạ tầng lớn quốc tế tại Singapore, Tokyo, California, Frankfurt… Tính sẵn sàng phụ thuộc vào khả năng dự phòng theo vùng, các nhà cung cấp lớn thường chia hạ tầng thành nhiều vùng (zones) trong cùng khu vực. Nên chọn vị trí đặt server có đầy đủ vùng dữ liệu được hỗ trợ bởi các nhà cung cấp uy tín (AWS, Google Cloud, Microsoft Azure...), hệ thống máy chủ cloud có thể tự động sao lưu, chuyển đổi khi có sự cố để tăng tính sẵn sàng. Ngược lại, nếu vị trí đặt máy chủ ở vị trí chỉ có 1 zones hoặc hạ tầng yếu thì khi xảy ra sự cố như mất điện, cháy, thiên tai, bảo trì,...sẽ không có vùng thay thế dễ bị downtime (ngừng hoạt động tạm thời) gây ảnh hưởng nghiêm trọng đến trải nghiệm người dùng và hoạt động kinh doanh. 5. Chi phí thuê server cloud [caption id="attachment_65313" align="aligncenter" width="800"] Chi phí và giá thuê server là yếu tố quan trọng mà doanh nghiệp cần xem xét và cân nhắc khi thuê máy chủ cloud[/caption] Vị trí đặt máy chủ là yếu tố quan trọng quyết định đến giá thuê server, bởi mỗi khu vực địa lý sẽ có mức đầu tư hạ tầng, nhân lực, năng lượng và thuế phí khác nhau. Giá thuê cloud server tại khu vực Bắc Mỹ, Tây Âu hay Nhật Bản sẽ cao hơn so với khu vực Đông Nam Á như Singapore, Việt Nam. Nếu bạn đang cần thuê server cloud tại khu vực phía Bắc thì nên chọn những đơn vị có Datacenter được đặt tại Thành Phố Hà Nội như FPT Cloud để đảm bảo có được hiệu suất cao và chi phí thuê cạnh tranh. Một số quốc gia đánh thuế cao đối với dịch vụ lưu trữ dữ liệu hoặc có những quy định pháp lý khắt khe nên chi phí triển khai thuê server cloud sẽ cao hơn. Ngoài ra, nếu đặt máy chủ tại quốc gia có tuyến cáp quang quốc tế đắt đỏ hoặc bị hạn chế kết nối, chi phí băng thông cao dẫn đến giá thuê máy cloud server cao. Doanh nghiệp cần so sánh giá theo từng vùng của nhà cung cấp, nếu phục vụ khách hàng trong nước hãy thuê server cloud tại Việt Nam để tối ưu chi phí và hiệu suất truy cập. 6. Dịch vụ cho thuê máy chủ cloud giá tốt Hà Nội ở đâu? Bạn đang tìm kiếm dịch vụ cho thuê cloud server Hà Nội với chất lượng ổn định, hạ tầng hiện đại và chi phí hợp lý, FPT Cloud là một trong những đơn vị tiên phong trong lĩnh vực điện toán đám mây tại Việt Nam và là lựa chọn hàng đầu cho doanh nghiệp hiện nay. Lợi thế khi thuê máy chủ cloud Hà Nội tại FPT Cloud:  Data Center đặt tại Hà Nội đạt chuẩn Uptime Tier III: Đảm bảo ổn định, an toàn và khả năng hoạt động liên tục với thời gian uptime lên đến 99,99%. Ngoài ra, hạ tầng server còn được tích hợp giải pháp backup services, disaster recovery và object storage. Hiệu suất vượt trội, độ trễ thấp: Khi thuê server cloud tại Hà Nội thì hệ thống sẽ vận hành nhanh chóng, mượt mà. Hạ tầng mạnh mẽ, bảo mật cao: Thuê server ảo Hà Nội, máy chủ được vận hành trên nền tảng hạ tầng hiện đại, công nghệ ảo hóa tiên tiến, backup tự động, chống tấn công DDos, tường lửa đa lớp và phân quyền truy cập an toàn. Đội ngũ kỹ thuật FPT Cloud túc trực 24/7/365: Luôn sẵn sàng hỗ trợ nhanh chóng, đảm bảo hệ thống vận hành liên tục và không gián đoạn. Giá thuê cạnh tranh, tối ưu: Với nhiều gói thuê linh hoạt phù hợp với mọi quy mô nhu cầu doanh nghiệp từ nhỏ, vừa đến lớn. [caption id="attachment_65311" align="aligncenter" width="1349"] Các gói dịch vụ STANDARD cho thuê cloud server giá tốt tại Hà Nội dành cho doanh nghiệp của FPT Cloud[/caption]   [caption id="attachment_65312" align="alignnone" width="1545"] Dịch vụ cho thuê máy chủ cloud tại Hà Nội có Performance cao dành cho các tổ chức, doanh nghiệp có nhu cầu chuyên biệt[/caption] Vị trí thuê cloud server ảnh hưởng trực tiếp đến độ trễ truy cập, tốc độ truyền tải, độ ổn định, pháp lý và chi phí. Do vậy, các cá nhân và doanh nghiệp nên lựa chọn đơn vị uy tín có Data Center đặt tại trung tâm các thành phố lớn Hà Nội và Hồ Chí Minh như FPT Cloud để đạt hiệu suất cao, độ tin cậy và chi phí tối ưu. Liên hệ ngay FPT Cloud để được tư vấn và báo giá chi tiết dịch vụ cho thuê máy chủ cloud tại Phường Cầu Giấy, Thành Phố Hà Nội! Lấy Code

Hướng dẫn tích hợp FPT AI Marketplace API Key vào Cursor IDE để sinh Code nhanh chóng

12:16 18/07/2025
Trong kỷ nguyên AI, việc tận dụng mô hình ngôn ngữ lớn (LLM) để hỗ trợ lập trình ngày càng phổ biến. Tuy nhiên, thay vì dùng các dịch vụ quốc tế chi phí cao, bạn hoàn toàn có thể khai thác FPT AI Marketplace — nền tảng AI Inference nội địa với chi phí cạnh tranh, độ ổn định cao, và data locality ưu việt.  Bài viết này sẽ hướng dẫn bạn cách tích hợp AI Model API từ FPT AI Marketplace vào Cursor IDE để sử dụng các mô hình sinh code mạnh mẽ. 1. Tạo Tài Khoản FPT AI Marketplace Truy cập trang https://marketplace.fptcloud.com/ và đăng ký tài khoản.  Ưu đãi: Tài khoản mới sẽ được tặng 1 USD miễn phí để trải nghiệm các dịch vụ AI Inference!   2. Xem Danh Sách Model Khả Dụng Sau khi đăng nhập, bạn có thể xem các mô hình khả dụng trên FPT Marketplace  [Hình 1: Danh sách model trên FPT AI Marketplace]  Bạn nên chọn những model như Qwen-32B Coder, Llama-8B, hoặc DeepSeek để có kết quả sinh code tối ưu. 3. Tạo API Key Bạn vui lòng đăng nhập & truy cập https://marketplace.fptcloud.com/en/my-account#my-api-key   Click “Create new API Key” và chọn models, điền tên API Key và ấn “Create”   [Hình 2: Giao diện tạo API Key]  Xác nhận và lấy API Key mới tạo  [Hình 3: Giao diện hoàn thành tạo API Key] 4. Cấu Hình Cursor IDE Với API trên FPT AI Marketplace Các bước thực hiện:  1. Mở Cursor IDE -> Vào Cursor Settings -> Models.  2. Thêm Model:  a. Nhấn Add model  b. Thêm tên model (ví dụ: qwen_coder, deepseek_r1).  3. Điền API Key:  a. rong phần OpenAI API Key, dán API Key bạn vừa tạo từ FPT AI Marketplace.  4. Cấu hình URL FPT AI:  a. Bật Override OpenAI Base URL.  b. Điền URL: https://mkp-api.fptcloud.com  [Hình 4: Cấu hình API Key và URL trong Cursor]  5. Xác nhận:  a. Nhấn nút Verify.  b. Nếu hiện Verified Successfully, bạn đã sẵn sàng sử dụng mô hình! 5. Sử Dụng Model Sinh Code Trong Cursor Bây giờ, bạn có thể:  Dùng AI Assistant ngay trong IDE để sinh code.  Yêu cầu AI refactor, tối ưu, hoặc giải thích code hiện có.  Chọn model muốn sử dụng.  [Hình 5: Sử dụng model Llama-3.3-70B-Instruction của FPT AI Marketplace để refactor code] 6. Theo Dõi Lượng Token Đã Dùng Để quản lý chi phí:  Vào My Usage trong FPT AI Marketplace.  Xem số lượng requests, tokens input/output, và tổng lượng usage.  Bạn sẽ biết mình đã dùng bao nhiêu tokens, từ đó kiểm soát được chi phí tốt hơn.  Kết Luận  Chỉ với vài thao tác đơn giản, bạn có thể khai thác trọn vẹn sức mạnh từ FPT AI Marketplace. Từ việc sinh code nguồn nhanh chóng, review thông minh, tối ưu hiệu suất cho đến hỗ trợ debug tự động, tất cả đều được thiết kế để giúp người dùng tăng tốc quy trình làm việc. Đồng thời, các mô hình AI tiên tiến được cung cấp với chi phí hợp lý, đi kèm khả năng theo dõi và quản lý mức sử dụng một cách rõ ràng, minh bạch.   

FPT AI Factory – Từ ván cược 200 triệu USD đến chủ quyền AI

15:47 16/07/2025
  Từ hạ tầng, sản phẩm lõi đến nguồn nhân lực bản địa, FPT AI Factory đặt những viên gạch đầu tiên cho tham vọng dài hơi về một Việt Nam có năng lực làm chủ trí tuệ nhân tạo (AI). Tháng 4/2024, dòng chữ đơn giản hiện lên trong ánh đèn trắng của hội trường chính FPT ở Hà Nội: “AI Factory - Make-in-Vietnam”, đặt cạnh logo Nvidia. Thông điệp không ồn ào, nhưng mang trong nó sự tự hào, khát vọng lớn của những kỹ sư người Việt. Trong bối cảnh dữ liệu đang trở thành nguồn “dầu mỏ mới” và thuật toán quyết định quyền lực cạnh tranh, việc một doanh nghiệp Việt đầu tư vào AI với nền tảng hạ tầng đặt tại Việt Nam, phát triển bởi kỹ sư Việt, hướng đến đáp ứng các nhu cầu của người dùng Việt không còn là chuyện nội bộ của đơn lẻ tập đoàn. Đó là những chỉ dấu cụ thể cho thấy Việt Nam đang dần khẳng định vị thế trên bản đồ AI toàn cầu, thay vì chỉ là điểm tiêu thụ công nghệ ngoại nhập. Quyết định 1131/QĐ-TTg là cú hích chiến lược đưa AI thành một trong 11 công nghệ trọng điểm quốc gia. Với FPT, đây là sự tiếp sức cho giấc mơ làm chủ công nghệ lõi đã được ươm mầm từ nhiều năm trước. FPT AI Factory - nhà máy AI đầu tiên tại Việt Nam - chính là bước hiện thực hóa giấc mơ đó: Nơi quy tụ dữ liệu, thuật toán, tài năng và khát vọng, từng bước đưa trí tuệ Việt từ ý tưởng thành sản phẩm mang tầm quốc gia. Bắt đầu với AI Factory, FPT không chọn lối đi an toàn, mà xem AI là “ván cược chiến lược” - đầu tư thẳng vào năng lực lõi, xây dựng hạ tầng tính toán, phát triển hệ sinh thái mở để không chỉ phục vụ chính mình mà còn trao quyền cho cả hệ thống doanh nghiệp. Từ startup 5 người đến tập đoàn hàng nghìn nhân sự, bất kỳ ai cũng có thể truy cập nền tảng và tạo ra giải pháp AI cho chính họ. Với khoản đầu tư 200 triệu USD công bố vào tháng 4/2024, FPT không xây thêm một trung tâm dữ liệu truyền thống mà hình thành một nhà máy trí tuệ - nơi không sản xuất phần cứng, cũng không viết phần mềm bán lẻ, mà sản sinh ra những gì nền kinh tế số tương lai cần: Năng lực tính toán, mô hình ngôn ngữ và các tác nhân thông minh (AI Agents). Chiến lược “Build Your Own AI” mà FPT theo đuổi không chỉ là một khẩu hiệu công nghệ hay một chiến lược phát triển sản phẩm, đó còn là cách để rút ngắn khoảng cách với các cường quốc số. Thay vì tái tạo mô hình thế giới, FPT thiết kế nền tảng giúp tổ chức nội địa chủ động phát triển mô hình AI phù hợp với ngôn ngữ, hành vi người dùng và hệ thống nghiệp vụ bản địa. Đó không chỉ là bước tiến công nghệ, mà là lựa chọn chiến lược mang nhiều tầng nghĩa. Làm sao để AI không chỉ dành cho kỹ sư, mà cho cả những người “không sống bằng thuật toán nhưng sống cùng hệ thống” từ trưởng phòng logistics đến người vận hành chăm sóc khách hàng (CSKH). Không đơn thuần chỉ là một dự án công nghệ, FPT AI Factory đại diện cho một khái niệm ngày càng được nhắc đến với nhiều tầng nghĩa: AI có chủ quyền khi năng lực tính toán không còn lệ thuộc, dữ liệu không bị xuất khẩu ngầm và cơ hội sáng tạo không còn bị giới hạn trong “hộp đen” nhập khẩu, đóng gói sẵn, ít khả năng tùy biến. Năm 2023, một kỹ sư tên Pieter Leves đã tự tạo một startup AI từ một quán cà phê ở Bali. Mô hình này sau đó tạo ra doanh thu 1 triệu USD/năm chỉ với… một người điều hành. Một giai thoại khác từng làm nhiều người ngạc nhiên khi một lập trình viên đã dùng GPT-4 để tạo nguyên một game phiêu lưu tương tác chỉ trong vài giờ... khi ngồi đợi vợ sinh con trong bệnh viện. Với sự ra mắt của ChatGPT, AI không còn tiến lên theo quán tính tuyến tính mà bứt phá theo lũy thừa. Trong vòng 5 năm, AI từ chỗ là một khái niệm chuyên ngành đã trở thành nền công cụ khi ChatGPT viết email, Midjourney tạo ra hình ảnh mà chính nghệ sĩ cũng phải trầm trồ, Copilot được dân lập trình sử dụng và nói vui là “lười có tổ chức”. Hàng loạt ứng dụng nhúng AI (AI-embedded) đã và đang len lỏi vào từng phần mềm doanh nghiệp, nền tảng cộng tác, công cụ sáng tạo... để hỗ trợ con người đưa ra quyết định nhanh hơn, chính xác hơn, và hoàn thành công việc hiệu quả hơn.​ Sự hiện diện của AI không diễn ra bằng tiếng nổ lớn, mà bằng hàng triệu cú click nhỏ mỗi ngày. Đó là lúc người dùng chỉnh sửa văn bản, đặt lịch họp, phân tích báo cáo khách hàng... tất cả đều đang có AI “âm thầm chạy nền” phía sau. Những gì từng cần một đội ngũ kỹ sư nay nằm gọn trong trình duyệt. Sự chuyển dịch ấy không còn là dấu hiệu của một xu thế công nghệ, mà là tín hiệu cho thấy AI đã trở thành một phần của hạ tầng số, len lỏi một cách tự nhiên vào mọi ngõ ngách đời sống. Trong bối cảnh đó, các nền tảng no-code/low-code AI - cho phép người không lập trình vẫn có thể xây dựng giải pháp thông minh - đã và đang định hình lại bức tranh chuyển đổi số. Theo báo cáo của Mordor Intelligence, quy mô thị trường này dự kiến đạt 8,89 tỷ USD vào năm 2030, với tốc độ tăng trưởng kép hàng năm (CAGR) lên tới 17,03%. Đồng thời, khái niệm AI Agents - các “tác nhân AI” có khả năng thực thi nhiệm vụ độc lập trong doanh nghiệp, đang bứt tốc không kém, với giá trị thị trường dự đoán đạt 52,62 tỷ USD vào cùng mốc 2030 (Theo MarketsandMarkets). Sự phát triển của các nền tảng này khiến AI không còn là tài sản dành riêng cho giới nghiên cứu hay Big tech, mà trở thành công cụ có thể đưa vào vận hành ở bất kỳ quy mô nào. Với những cú nhấp chuột đơn giản, một người không chuyên có thể tạo chatbot tư vấn khách hàng, hệ thống phân loại dữ liệu hoặc trợ lý số riêng - điều vốn trước đây đòi hỏi đội ngũ hàng chục kỹ sư. Nhưng chính sự bình dân hóa ấy lại đặt ra yêu cầu mới về hạ tầng. Các mô hình ngôn ngữ lớn như DeepSeek-R1 với 671 tỷ tham số nếu không được tối ưu kiến trúc sẽ tiêu tốn lượng tài nguyên khổng lồ để chạy hiệu quả. Nhờ kiến trúc Mixture of Experts (MoE) - vốn chỉ kích hoạt một phần mô hình tại mỗi lượt suy luận - DeepSeek-R1 đã giảm tới 94% chi phí tính toán, trong khi vẫn giữ được độ chính xác cao. Tại đây, mô hình AI Factory trở nên cần thiết với một dây chuyền sản xuất năng lực AI - nơi mọi bước từ thu thập và tinh chỉnh dữ liệu đến huấn luyện, triển khai và vận hành mô hình đều được tối ưu như một quy trình công nghiệp hóa. Điểm khác biệt lớn nhất không nằm ở phần cứng, mà ở triết lý tiếp cận, phát triển các mô hình AI bản địa hóa; không chỉ hiểu ngôn ngữ, mà còn thấu cảm hành vi, tập quán, và cấu trúc vận hành của từng thị trường cụ thể. Ở Việt Nam, đó là những mô hình hiểu tiếng Việt, xử lý được ngữ cảnh, cú pháp đặc thù, hỗ trợ tốt cho các nghiệp vụ hành chính, CSKH hay tài chính nội địa. Nhưng cách tiếp cận ấy không dừng lại ở biên giới bản đồ chữ S. Ở Nhật Bản, nơi FPT đang hợp tác cùng Sumitomo và SBI Holdings để xây dựng nhà máy AI thứ hai, mục tiêu là hỗ trợ và đồng hành các đơn vị bản địa phát triển năng lực "AI có chủ quyền" phù hợp với cấu trúc xã hội và tiêu chuẩn khắt khe của thị trường sở tại. Điều đó có nghĩa, mỗi khi đặt chân đến một quốc gia, một thị trường mới, FPT không áp dụng rập khuôn một mô hình cố định. Thay vào đó, tập đoàn luôn chủ động tiếp cận, nội địa hóa từ dữ liệu đến thiết kế sản phẩm. Nhờ lợi thế hiện diện tại hơn 30 quốc gia và vùng lãnh thổ, FPT tích luỹ được đa dạng sự thấu hiểu thị trường (insight) bản địa, giúp các giải pháp AI trở nên thực sự “vừa vặn” với người dùng bản địa, đúng như tinh thần của chiến lược “Build Your Own AI”. Trên thế giới, xu hướng này không còn mới, đơn cử như chính phủ Nhật Bản đã đầu tư 740 triệu USD để xây dựng AI Factory trong nước, hợp tác với Nvidia nhằm bảo đảm tính độc lập hạ tầng (Nvidia Blog). Liên minh châu Âu lên kế hoạch tài trợ 20 nhà máy AI quy mô lớn từ năm 2025-2026 (Digital Strategy EU). SoftBank, gã khổng lồ viễn thông cũng chi hơn 960 triệu USD đầu tư vào hệ thống AI nội địa. Trong dòng chuyển đó, Việt Nam cần cách tiếp cận phù hợp. Chúng ta không thể cạnh tranh về quy mô với Mỹ, Trung Quốc, nhưng có thể tạo ra khác biệt bằng cách xây dựng hạ tầng tinh gọn, linh hoạt và hiểu người dùng bản địa. FPT đã chọn đặt viên gạch đầu tiên với hành động thực tế khi đầu tư vào năng lực lõi, phát triển nền tảng cho doanh nghiệp Việt và góp phần thúc đẩy tương lai trong đó AI không còn là lựa chọn, mà trở thành điều kiện nền tảng cho tăng trưởng kinh tế và năng lực cạnh tranh quốc gia. B​ên cạnh việc khẳng định năng lực nội tại, hợp tác cùng Nvidia cho thấy FPT đã sớm tham gia vào hành trình mà nhiều quốc gia còn cân nhắc. Không xây dựng theo lối truyền thống, FPT AI Factory là nơi sản xuất ra chính năng lực trí tuệ nhân tạo, từ thu thập dữ liệu, huấn luyện mô hình, đến suy luận và vận hành. Chỉ sau một năm, mô hình này đã được hiện thực hoá bằng hạ tầng GPU hiệu suất cao, nền tảng no-code/low-code và hệ sinh thái mở giúp doanh nghiệp tiếp cận AI như một dịch vụ: không cần đầu tư phần cứng, không cần đội ngũ kỹ thuật riêng, nhưng vẫn tạo ra công cụ thông minh sát với nhu cầu thực tế. Đây không phải AI để trình diễn, mà là năng lực có thể triển khai trên quy mô lớn, đúng như tinh thần “make-in-Vietnam”, từ năng lực tính toán đến mô hình ngôn ngữ và giải pháp bản địa hóa. Một chuyên viên nhân sự có thể tạo chatbot trả lời câu hỏi về chính sách công ty, một trưởng phòng logistics có thể huấn luyện mô hình phân tích rủi ro tồn kho, một nhân viên CSKH có thể dùng AI để phân loại và phản hồi email. Họ không cần biết cách viết hàm loss hay chọn optimizer - những thứ từng là “bức tường kỹ thuật” ngăn phần lớn người dùng tiếp cận AI, mà chỉ cần có vấn đề thực tế và dữ liệu thật. Một trong những đặc trưng của nền tảng AI do FPT phát triển là khả năng thích ứng sâu với ngữ cảnh địa phương từ ngôn ngữ, hành vi người dùng đến cấu trúc nghiệp vụ. Các mô hình được huấn luyện trên dữ liệu chính quy tại từng thị trường mục tiêu, giúp hiểu chính xác sắc thái từ ngữ, quy trình vận hành và đặc thù ngành. Thay vì yêu cầu doanh nghiệp thay đổi hệ thống lõi, các dịch vụ AI được thiết kế để tương thích linh hoạt với hạ tầng sẵn có từ CRM, ERP đến các hệ thống nội bộ cho phép AI hoạt động như một phần mở rộng tự nhiên trong hệ sinh thái công nghệ hiện hữu. Chiến lược này giúp bảo toàn dữ liệu, rút ngắn thời gian triển khai và giữ vững quyền kiểm soát công nghệ tại chỗ - những yếu tố cốt lõi để xây dựng năng lực AI có chủ quyền, nhưng không giới hạn ở một quốc gia. Với kiến trúc mở và tư duy bản địa hóa, mô hình này có thể nhanh chóng nhân rộng sang các thị trường quốc tế với nhu cầu tương tự. Năng lực của FPT AI Factory còn được công nhận qua những chuẩn mực toàn cầu. Trên bảng xếp hạng TOP500 các siêu máy tính mạnh nhất thế giới (chuẩn LINPACK), hệ thống của FPT hiện xếp 38 tại Việt Nam và 36 tại Nhật Bản - tiền đề vững chắc để chinh phục các thị trường có yêu cầu cao về hiệu năng xử lý. Tầm vóc của một nhà máy AI cũng được thể hiện qua việc thu hút các đối tác toàn cầu đồng hành. Một trong những ví dụ tiêu biểu là LandingAI - công ty do Andrew Ng sáng lập, nổi tiếng với nền tảng Visual AI cho các doanh nghiệp. Trong quá trình mở rộng thị trường, LandingAI chọn sử dụng hạ tầng Metal Cloud từ FPT AI Factory để triển khai tác vụ suy luận hình ảnh. Nhờ đó, họ giảm đáng kể chi phí, rút ngắn thời gian triển khai mô hình từ vài tuần xuống còn vài ngày - yếu tố quan trọng với doanh nghiệp có nhu cầu mở rộng nhanh. Một năm không phải là khoảng thời gian dài trong ngành công nghệ, nhưng với AI thì mọi thứ thay đổi theo cấp số mũ, chừng đó thời gian đủ để xác lập hướng đi. Trong khi thế giới vẫn còn loay hoay, FPT chọn đặt cược sớm vào hạ tầng AI vận hành thực, để không chỉ bắt nhịp xu hướng mà còn tạo ra giá trị thật nhanh chóng, rõ ràng và chiến lược: Xây dựng AI theo cách phù hợp với thị trường bản địa và mở ra khả năng tự chủ trong một lĩnh vực được xem là “trò chơi quyền lực” của thế kỷ XXI. T​uyên bố sẽ xây dựng 5 nhà máy trí tuệ nhân tạo trên toàn cầu đến năm 2030 của FPT không mang tính khuếch trương, mà là cam kết đi đến cùng trong cuộc đua công nghệ: đầu tư vào hạ tầng AI mạnh mẽ và đồng thời xây dựng lực lượng nhân sự AI sẵn sàng như một năng lực thiết yếu. Ở phần “cứng” FPT đang sở hữu hệ thống tính toán AI mạnh hàng đầu khu vực, hợp tác cùng các đối tác toàn cầu như Nvidia, và liên tục mở rộng năng lực tại Việt Nam, Nhật Bản. Nhưng theo ông Trương Gia Bình - Chủ tịch HĐQT FPT - “thế giới đang thiếu nhân lực trầm trọng, nhưng đó lại là lợi thế của FPT”. Vì thế, phần "mềm" trong chiến lược này là đào tạo và phổ cập năng lực sử dụng và tích hợp AI rộng khắp từ sinh viên, kỹ sư, đến các chuyên gia vận hành trong doanh nghiệp. FPT xem đây là hành trình kết hợp giữa năng lực tính toán của máy và khả năng tư duy, thích nghi mạnh mẽ của con người để từ đó tạo ra các giải pháp mang tính đột phá. “Khi AI trở nên phổ cập, càng bình dân bao nhiêu thì nhu cầu về nhà máy AI sẽ càng lớn bấy nhiêu. Trong tương lai gần, chúng tôi không giới hạn ở hai nhà máy, vì rất nhiều tập đoàn trên thế giới đã đề xuất làm cùng FPT”, ông Bình chia sẻ thêm. Bắt đầu từ hạ tầng đến dữ liệu, trong khi thế giới đã bước vào cuộc đua mô hình hàng nghìn tỷ tham số, thì chỉ riêng việc huấn luyện một mô hình 32 tỷ tham số cũng cần khoảng 400 tỷ token - để so sánh thì khả năng xử lý ngôn ngữ của con người trong cả đời người chỉ tiếp cận được khoảng 50-100 triệu token. Trong bối cảnh dữ liệu số tại Việt Nam còn phân tán và thiếu cơ chế chia sẻ, đây là một thách thức không nhỏ cho hành trình xây dựng năng lực AI bản địa. Giải pháp nằm ở chính những dữ liệu đặc thù mà Việt Nam đang nắm giữ: y tế, giáo dục đến bảo hiểm. Khi số hóa được các lĩnh vực này, chúng ta có thể không chỉ tạo ra mô hình phản ánh thực tế địa phương, mà còn chủ động chăm sóc sức khỏe cộng đồng hay tối ưu các dịch vụ công. Tự chủ dữ liệu vì vậy không phải khẩu hiệu, mà là yêu cầu chiến lược quốc gia, cần hạ tầng số đủ mạnh, cơ chế chia sẻ dữ liệu minh bạch và cam kết xây dựng các nền tảng AI vì lợi ích người Việt. Dưới góc nhìn của ông Lê Hồng Việt - CEO FPT Smart Cloud, Tập đoàn FPT việc đầu tư ngay trên đất Việt không đơn thuần là xây dựng hạ tầng điện toán hiệu năng cao, mà là để giải quyết điểm nghẽn cốt lõi cho toàn thị trường, đưa AI ra khỏi không gian thử nghiệm, trở thành công cụ thiết thực cho doanh nghiệp. “AI Factory ra đời để làm cho AI trở nên dễ tiếp cận bởi mọi người, từ doanh nghiệp lớn đến startup nhỏ, các cơ sở nghiên cứu tại Việt Nam”, ông Việt nói. Theo ông Việt, với FPT, AI không chỉ là công cụ nâng năng suất nội bộ hay tạo giá trị cho khách hàng, mà còn là một sân chơi chiến lược để định vị năng lực trên bản đồ công nghệ toàn cầu. Tư duy AI-first đã nằm trong DNA của FPT từ rất sớm và đang trở thành kim chỉ nam cho các bước phát triển tiếp theo. Hạ tầng chỉ là điểm khởi đầu, vấn đề nằm ở khả năng chuyển giao công nghệ. Chính vì vậy, FPT chọn con đường đầu tư song song vừa đưa về Việt Nam các dòng chip tiên tiến nhất từ Nvidia, vừa phát triển công cụ giúp doanh nghiệp tinh chỉnh (fine-tune) mô hình riêng với chi phí thấp, vừa đào tạo đội ngũ vận hành và nghiên cứu chuyên sâu. Theo ông Việt, trước đây, việc fine-tune một mô hình có thể tiêu tốn hàng chục nghìn USD, thì nay với dịch vụ của FPT, doanh nghiệp có thể rút chi phí đó xuống còn vài trăm USD, thậm chí có thể sử dụng theo hình thức “pay as you go” - dùng bao nhiêu trả bấy nhiêu. Điều này mở ra khả năng tiếp cận công nghệ tiên tiến nhất cho cả doanh nghiệp nhỏ, trường đại học, tổ chức nghiên cứu… - những đối tượng vốn dễ bị bỏ lại phía sau trong cuộc chơi AI toàn cầu. Cùng lúc đó, FPT cũng không giấu tham vọng mở rộng mô hình AI Factory ra thị trường quốc tế, bắt đầu từ Nhật Bản - một trong những nền kinh tế có tốc độ số hóa doanh nghiệp cao, nhưng chưa có hạ tầng AI chuyên biệt tương xứng. Nối tiếp Nhật Bản, các thị trường mà FPT có thể tăng tốc sau đó là Malaysia, Hàn Quốc, châu Âu... “Chúng tôi tiếp cận thị trường Nhật Bản để đón đầu làn sóng ứng dụng AI tại đó. FPT sẽ xây dựng doanh nghiệp như một công ty Nhật thực thụ để thúc đẩy phát triển sovereign AI (AI có chủ quyền) tại Nhật Bản”, ông Việt chia sẻ. Với sự tham gia của các đối tác như Sumitomo và SBI Holdings, AI Factory tại Nhật không chỉ là bản sao của mô hình Việt Nam, mà là một thực thể được bản địa hóa - từ cơ cấu tổ chức đến hệ sinh thái tích hợp. Ở tầng chiến lược, ông Việt thẳng thắn nhìn nhận: “Chiến lược thúc đẩy AI có chủ quyền sẽ giúp Việt Nam tăng năng lực cạnh tranh quốc gia thông qua tăng năng suất lao động và tự động hóa”. Tại một quốc gia như Việt Nam, nơi dữ liệu ngày càng trở thành tài sản cốt lõi, việc phụ thuộc vào các nền tảng nước ngoài đồng nghĩa với mất đi khả năng kiểm soát và định đoạt giá trị số của chính mình. Do đó, AI có chủ quyền không phải là khái niệm lý tưởng, mà là năng lực phòng vệ kỹ thuật số, là cách để đảm bảo mỗi dòng dữ liệu được xử lý, lưu trữ và vận hành trên nền tảng do người Việt phát triển, vì lợi ích của người Việt. Tuy nhiên, nếu không có lực lượng nhân sự sẵn sàng, mọi công nghệ đều chỉ dừng ở hạ tầng và tập đoàn FPT ý thức rõ điều đó. “Đào tạo nhân sự ở các cấp khác nhau là điều quan trọng nhất trong quá trình chuyển đổi thông minh”, ông Lê Hồng Việt nhấn mạnh. FPT AI Factory là bài toán lớn, đồng thời cũng là sân chơi để FPT thu hút nhân tài, phát triển lực lượng lao động AI có tính sẵn sàng cao và nuôi dưỡng tư duy AI-first cho toàn hệ thống. Từ lãnh đạo doanh nghiệp (cấp độ 1), đến người lao động sử dụng AI như công cụ (cấp độ 2) và xa hơn là đào tạo kỹ sư AI (cấp độ 3), FPT đặt mục tiêu đào tạo 500.000 nhân lực AI trong 5 năm tới. Từ góc độ hạ tầng đến nhân lực, từ bài toán nội địa đến thế trận toàn cầu, FPT không đứng ngoài cuộc chơi AI. Họ chọn cách đầu tư, triển khai và để thực tế trả lời thay cho cam kết của mình. “Cái khác của FPT là chúng tôi không dùng AI để trình diễn, mà để triển khai được. Và chúng tôi dùng chính nền tảng này trong hoạt động vận hành của FPT”, ông Việt nhấn mạnh. Ở thời điểm mà mọi mô hình AI đều có thể được sao chép về mặt kỹ thuật, chính khả năng làm cho mô hình ấy hoạt động thực sự theo đúng bối cảnh người dùng mới là điểm khác biệt bền vững nhất và đó là điều mà FPT đang cố gắng từng bước định hình. Sau 1 năm ra mắt mô hình FPT AI Factory, FPT đang đặt nền móng cho một tương lai mà AI không chỉ là lợi thế cạnh tranh của doanh nghiệp, mà trở thành tiền đề cho năng lực cạnh tranh quốc gia. Hành trình ấy có thể không ngắn, nhưng với bước đi cụ thể, FPT đang khẳng định một điều quan trọng: Việt Nam có thể tự chủ về công nghệ và đón sóng ở những ngã rẽ chiến lược.

Hai nhà máy AI của FPT lọt TOP500 siêu máy tính mạnh nhất thế giới

18:12 24/06/2025
Hai nhà máy AI (AI Factory) do Tập đoàn FPT phát triển đã chính thức lọt TOP500 các siêu máy tính mạnh nhất thế giới, khẳng định năng lực vượt trội của FPT trong lĩnh vực trí tuệ nhân tạo (AI) và điện toán đám mây (Cloud). TOP500 là bảng xếp hạng uy tín toàn cầu về siêu máy tính hiệu năng cao (HPC) dựa trên chuẩn đo lường LINPACK – tiêu chuẩn đánh giá khả năng thực hiện các phép tính số học phức tạp của hệ thống trong mỗi giây (FLOPS).   Bảng xếp hạng TOP500 do ba nhà nghiên cứu nổi tiếng trong lĩnh vực HPC thành lập từ năm 1993 và công bố hai lần mỗi năm. TOP500 được các chính phủ, tổ chức khoa học và doanh nghiệp trên toàn thế giới xem như tiêu chuẩn đánh giá năng lực phần cứng, thiết kế hệ thống, tối ưu vận hành và khả năng xử lý các tác vụ AI và khoa học phức tạp quy mô lớn. Trong bảng xếp hạng TOP500 công bố tháng 6/2025, hai nhà máy AI của FPT đặt tại Nhật Bản và Việt Nam lần lượt giữ vị trí thứ 36 và 38. Thành tích này đưa AI Factory của FPT vào nhóm hạ tầng siêu máy tính hàng đầu thế giới, đồng thời xác lập FPT là nhà cung cấp dịch vụ AI Cloud thương mại số 1 tại Nhật Bản với siêu chip NVIDIA H200 Tensor Core GPU SXM5.  [caption id="attachment_63304" align="aligncenter" width="800"] Hai nhà máy AI của FPT giữ vị trí thứ 36 và 38 trong BXH TOP500 (Nguồn: TOP500.org)[/caption] Cụ thể: Nhà máy AI tại Nhật Bản: 146.304 lõi xử lý, hiệu năng đạt 49,85 PFlops (chuẩn LINPACK); Nhà máy AI tại Việt Nam: 142.240 lõi xử lý, hiệu năng đạt 46,65 PFlops. Cả hai nhà máy đều sử dụng mạng InfiniBand NDR400, hỗ trợ mở rộng linh hoạt từ một GPU đơn lẻ lên tới cụm hàng trăm máy chủ xử lý song song tại mỗi khu vực, đảm bảo hiệu năng cao và độ trễ thấp khi triển khai các tác vụ AI, HPC quy mô lớn. Việc lọt vào TOP500 lần thứ 65 không chỉ khẳng định sức mạnh tính toán và năng lực kỹ thuật của AI Factory FPT, mà còn cho thấy chất lượng dịch vụ đạt chuẩn quốc tế, sẵn sàng đáp ứng nhu cầu nghiên cứu, phát triển và triển khai giải pháp AI của các tổ chức, doanh nghiệp và cá nhân toàn cầu. Đây cũng là dấu mốc đưa Việt Nam lần đầu tiên vào nhóm 15 quốc gia AI hàng đầu thế giới, cùng các cường quốc như Mỹ, Trung Quốc, Nhật Bản, Đức và Pháp - minh chứng cho nỗ lực của FPT trong nâng cao vị thế công nghệ quốc gia. FPT đặt mục tiêu trong 5 năm tới sẽ phát triển thêm 3 nhà máy AI trên toàn cầu, góp phần đưa Việt Nam trở thành quốc gia dẫn đầu khu vực về hạ tầng tính toán AI. “Ra đời với triết lý ‘Build Your Own AI’, FPT AI Factory không chỉ là bước tiến về hạ tầng điện toán hiệu năng cao mà còn giải quyết điểm nghẽn của thị trường: đưa AI trở nên dễ tiếp cận và ứng dụng trong mọi lĩnh vực. Với nền tảng này, mọi tổ chức, doanh nghiệp hay cá nhân - không chỉ tại Việt Nam, Nhật Bản mà trên toàn cầu - đều có thể chủ động phát triển AI phù hợp, tạo lợi thế cạnh tranh riêng và thúc đẩy chuyển đổi số toàn diện”, ông Lê Hồng Việt, CEO FPT Smart Cloud, Tập đoàn FPT cho biết. [caption id="attachment_63358" align="aligncenter" width="800"] Nhà máy AI đa quốc gia của FPT đạt chuẩn quốc tế, đáp ứng nhu cầu phát triển AI trên toàn cầu (Nguồn: FPT)[/caption] Ra mắt từ tháng 11/2024, AI Factory của FPT đã được các công ty công nghệ hàng đầu như LandingAI lựa chọn để phát triển các giải pháp AI tiên tiến, góp phần tạo ra giá trị thực tiễn cho xã hội. FPT là tập đoàn công nghệ toàn cầu, tiên phong trong chuyển đổi số và cung cấp giải pháp công nghệ, viễn thông, giáo dục. AI là công nghệ mũi nhọn trong chiến lược của FPT, được tích hợp vào mọi sản phẩm, giải pháp thuộc hệ sinh thái Made by FPT, mang lại lợi ích thiết thực cho người dùng. FPT đang đầu tư toàn diện vào AI với nhân lực, R&D, cơ sở hạ tầng và đối tác chiến lược (NVIDIA, Mila, AITOMATIC…) nhằm hướng tới mục tiêu đạt 5 tỷ USD doanh thu dịch vụ CNTT từ thị trường nước ngoài vào năm 2030 và nâng tầm vị thế trong nhóm doanh nghiệp CNTT tỷ đô toàn cầu. Thông tin chi tiết tại https://fpt.com/

FPT AI Factory: BỘ GIẢI PHÁP AI mạnh mẽ với siêu chip NVIDIA H100 và H200

13:06 10/06/2025
Trong thời đại trí tuệ nhân tạo (AI) đang bùng nổ, Việt Nam ghi dấu ấn mạnh mẽ trên bản đồ công nghệ toàn cầu thông qua sự hợp tác chiến lược giữa Tập đoàn FPT và NVIDIA – nhà cung cấp giải pháp điện toán hiệu năng cao hàng đầu thế giới để phát triển giải pháp FPT AI Factory, một hệ sinh thái AI toàn diện dành cho doanh nghiệp, được phát triển trên nền tảng siêu chip NVIDIA H100 và NVIDIA H200, hiện đại bậc nhất thế giới trong công nghệ chip trí tuệ nhân tạo. Video: Ông Trương Gia Bình (Chủ tịch Tập đoàn FPT) chia sẻ hợp tác chiến lược với NVIDIA trong việc phát triển các ứng dụng AI toàn diện cho doanh nghiệp Theo Báo Chính Phủ (2024), ông Trương Gia Bình – Chủ tịch Hội đồng Quản trị kiêm Nhà sáng lập Tập đoàn FPT – nhấn mạnh rằng FPT đang hướng đến mục tiêu nâng cao năng lực nghiên cứu và phát triển công nghệ, đồng thời xây dựng một hệ sinh thái toàn diện các sản phẩm và dịch vụ tiên tiến, dựa trên nền tảng AI và Cloud. Hệ sinh thái này bao gồm từ hạ tầng công nghệ hiện đại, đội ngũ chuyên gia hàng đầu, đến năng lực hiểu biết sâu sắc về từng lĩnh vực chuyên môn. "Chúng tôi cam kết đưa Việt Nam trở thành Trung tâm phát triển AI của thế giới". 1. Tổng quan về hai siêu chip NVIDIA H100 & H200: Bước Tiến Mới Trong Điện Toán AI 1.1 Thông tin về Chip NVIDIA H100 (GPU NVIDIA H100 Tensor Core) NVIDIA H100 Tensor Core GPU là một kiến trúc đột phá, được xây dựng trên nền tảng Kiến trúc Hopper™ (kiến trúc bộ xử lý đồ họa GPU do Nvidia phát triển). Đây không chỉ là một con chip xử lý đồ họa thông thường, mà là một cỗ máy được tối ưu hóa đặc biệt cho Học sâu (Deep Learning) và các ứng dụng Trí tuệ nhân tạo (Artificial Intelligence). [caption id="attachment_62784" align="aligncenter" width="1200"] Chip NVIDIA H100 (GPU NVIDIA H100 Tensor Core)[/caption] Siêu chip NVIDIA H100 được chế tạo bằng quy trình TSMC N4 tiên tiến, tích hợp đến 80 tỷ bóng bán dẫn. Sức mạnh xử lý của nó đến từ việc trang bị tối đa 144 bộ xử lý đa luồng (SMs - Streaming Multiprocessors), được thiết kế để xử lý các tác vụ AI phức tạp. Điểm đặc biệt là NVIDIA Hopper H100 có thể phát huy hiệu suất tối ưu khi sử dụng ổ cắm SXM5. Nhờ băng thông bộ nhớ tăng cường mà chuẩn SXM5 cung cấp, H100 mang lại hiệu năng vượt trội hơn đáng kể so với khi được triển khai qua các ổ cắm PCIe thông thường, đặc biệt quan trọng cho các ứng dụng của các doanh nghiệp đòi hỏi lượng dữ liệu lớn và tốc độ xử lý cao trong AI. [caption id="attachment_62786" align="aligncenter" width="1579"] GPU NVIDIA H100 Tensor Core: Khả năng tăng tốc huấn luyện AI nhanh hơn 9 lần và suy luận AI nhanh hơn 30 lần so với thế hệ A100 trước đó trong các mô hình ngôn ngữ lớn[/caption] NVIDIA đã tạo ra hai phiên bản đóng gói khác nhau về yếu tố hình thức (form factor) từ chip H100 là: H100 SXM và H100 NVL nhằm đáp ứng nhu cầu của các doanh nghiệp hiện nay trên thị trường, cụ thể về ứng dụng của hai sản phẩm này: Phiên bản H100 SXM: Dành cho các hệ thống chuyên dụng, siêu máy tính, hoặc các trung tâm dữ liệu AI lớn muốn khai thác toàn bộ tiềm năng của GPU với khả năng mở rộng NVLink tối đa. Đây là lựa chọn lý tưởng cho các tác vụ như: huấn luyện mô hình AI lớn (LLMs, Transformer), ứng dụng HPC kết hợp AI, hoặc mô phỏng khoa học, y sinh và tài chính ở cấp độ exascale. Phiên bản H100 NVL: Phiên bản này tối ưu cho các máy chủ tiêu chuẩn, dễ dàng tích hợp vào hạ tầng hiện có với chi phí và độ phức tạp thấp hợp so với hệ thống SX chuyên biệt, phù hợp với các doanh nghiệp cần triển khai suy luận AI thời gian thực, xử lý dữ liệu lớn, NLP, thị giác máy tính, hoặc các ứng dụng AI trong môi trường hybrid cloud. Thông số kỹ thuật  H100 SXM H100 NVL FP64 34 teraFLOPS 30 teraFLOP Lõi Tensor FP64 (FP64 Tensor Core) 67 teraFLOPS 60 teraFLOP FP32 67 teraFLOPS 60 teraFLOP Lõi Tensor TF32 * (TF32 Tensor Core*) 989 teraFLOPS 835 teraFLOP Lõi Tensor BFLOAT16 * (BFLOAT16 Tensor Core*) 1.979 teraFLOPS 1.671 teraFLOPS Lõi Tensor FP16 * (FP16 Tensor Core*) 1.979 teraFLOPS 1.671 teraFLOPS Lõi Tensor FP8 * (FP8 Tensor Core*) 3.958 teraFLOPS 3.341 teraFLOPS Lõi Tensor INT8 * (INT8 Tensor Core*) 3.958 TOPS 3.341 TOPS Bộ nhớ GPU (GPU Memory) 80GB 94GB Băng thông bộ nhớ GPU (GPU Memory Bandwidth) 3,35TB/giây 3,9TB/giây Bộ giải mã (Decoders) 7 NVDEC 7 JPEG 7 NVDEC 7 JPEG Công suất thiết kế nhiệt tối đa (TDP) Lên đến 700W (có thể cấu hình) 350 - 400W (có thể cấu hình) GPU đa phiên bản (Multi-Instance GPUs) Tối đa 7 MIGS @ 10GB mỗi MIGS Tối đa 7 MIGS @ 12GB mỗi MIGS Yếu tố hình thức (Form Factor) SXM PCIe khe cắm kép làm mát bằng không khí Kết nối (Interconnect) NVIDIA NVLink™: 900GB/giây PCIe Gen5: 128GB/giây NVIDIA NVLink: 600GB/giây PCIe Gen5: 128GB/giây Tùy chọn máy chủ (Server Options) Đối tác NVIDIA HGX H100 và NVIDIA - Certified Systems ™ với 4 hoặc 8 GPU NVIDIA DGX H100 với 8 GPU Đối tác và Hệ thống được NVIDIA chứng nhận với 1 – 8 GPU NVIDIA AI Doanh nghiệp (NVIDIA AI Enterprise) Bổ sung Đã bao gồm Bảng 1.1: Bảng thông số kỹ thuật của hai form factors chip H100: H100 SXM và H100 NVL 1.2 Thông tin về Chip NVIDIA H200 (GPU NVIDIA H200 Tensor Core) [caption id="attachment_62787" align="aligncenter" width="1200"] Thông tin về Chip NVIDIA H200 (GPU NVIDIA H200 Tensor Core) bao gồm cả hai form factor: H200 SXM và H200 NVL[/caption] Kế thừa và phát triển từ kiến trúc Hopper™, NVIDIA H200 Tensor Core GPU là phiên bản nâng cấp mạnh mẽ của H100, được NVIDIA giới thiệu là chip AI mạnh nhất thế giới với khả năng cho ra kết quả nhanh gấp đôi H100, tại thời điểm công bố vào tháng 11 2023. H200 được thiết kế để xử lý các mô hình AI lớn hơn và phức tạp hơn nữa, đặc biệt là các mô hình AI tạo sinh và mô hình ngôn ngữ lớn (LLMs). Tương tự như superchip H100, NVIDIA cũng cung cấp hai form factors khác nhau cho sản phẩm H200 Tensor Core của mình là hai phiên bản dành cho doanh nghiệp: H200 SXM và H200 NVL. NVIDIA H200 SXM: Được thiết kế để đẩy mạnh các tác vụ AI tạo sinh và điện toán hiệu năng cao (HPC), đặc biệt với khả năng xử lý lượng dữ liệu khổng lồ. Đây là lựa chọn lý tưởng cho các hệ thống chuyên dụng, siêu máy tính và các trung tâm dữ liệu AI lớn muốn khai thác toàn bộ tiềm năng của GPU với khả năng mở rộng NVLink tối đa. Doanh nghiệp nên sử dụng H200 SXM cho các trường hợp: huấn luyện các mô hình AI cực lớn, Ứng dụng HPC đòi hỏi nhiều bộ nhớ và triển khai AI tạo sinh (Generative AI) cấp độ doanh nghiệp. NVIDIA H200 NVL: Được tối ưu hóa để đưa khả năng tăng tốc AI vào các máy chủ doanh nghiệp tiêu chuẩn, dễ dàng tích hợp vào hạ tầng hiện có. Phiên bản này đặc biệt phù hợp với các doanh nghiệp có giới hạn về không gian và cần các thiết kế tủ rack tản nhiệt bằng không khí với cấu hình linh hoạt, mang lại khả năng tăng tốc cho mọi khối lượng công việc AI và HPC bất kể quy mô. Các trường ứng dụng H200 NVL trong doanh nghiệp: suy luận AI thời gian thực, triển khai AI trong môi trường hybrid cloud, xử lý dữ liệu lớn và NLP (Xử lý ngôn ngữ tự nhiên). Thông số kỹ thuật H200 SXM H200 NVL FP64 34 TFLOPS 30 TFLOPS Lõi Tensor FP64 (FP64 Tensor Core) 67 TFLOPS 60 TFLOPS FP32 67 TFLOPS 60 TFLOPS Lõi Tensor TF32² (TF32 Tensor Core²) 989 TFLOPS 835 TFLOPS Lõi Tensor BFLOAT16² (BFLOAT16 Tensor Core²) 1.979 TFLOPS 1.671 TFLOPS Lõi Tensor FP16² (FP16 Tensor Core²) 1.979 TFLOPS 1.671 TFLOPS Lõi Tensor FP8² (FP8 Tensor Core²) 3.958 TFLOPS 3.341 TFLOPS Lõi Tensor INT8² (INT8 Tensor Core²) 3.958 TFLOPS 3.341 TFLOPS Bộ nhớ GPU (GPU Memory) 141GB 141GB Băng thông bộ nhớ GPU (GPU Memory Bandwidth) 4,8TB/giây 4,8TB/giây Bộ giải mã (Decoders) 7 NVDEC 7 JPEG 7 NVDEC 7 JPEG Điện toán bảo mật (Confidential Computing) Được hỗ trợ Được hỗ trợ Công suất thiết kế nhiệt tối đa (TDP) Lên đến 700W (có thể cấu hình) Lên đến 600W (có thể cấu hình) GPU đa phiên bản (Multi-Instance GPUs) Tối đa 7 MIG @18GB mỗi MIG Tối đa 7 MIG @16,5 GB mỗi MIG Yếu tố hình thức (Form Factor) SXM PCIe làm mát bằng không khí khe cắm kép Kết nối (Interconnect) NVIDIA NVLink™: 900GB/giây PCIe Gen5: 128GB/giây Cầu nối NVIDIA NVLink 2 hoặc 4 chiều: 900GB/giây cho mỗi GPU PCIe Gen5: 128GB/giây Tùy chọn máy chủ (Server Options) Đối tác NVIDIA HGX™ H200 và NVIDIA-Certified Systems™ với 4 hoặc 8 GPU Đối tác NVIDIA MGX™ H200 NVL và Hệ thống được chứng nhận NVIDIA với tối đa 8 GPU NVIDIA AI Doanh nghiệp (NVIDIA AI Enterprise) Bổ sung Đã bao gồm Bảng 1.2: Bảng thông số kỹ thuật của hai form là H200 SXM và H200 NVL 1.3 So sánh chi tiết giữa hai siêu chip NVIDIA H100 và NVIDIA H200 [caption id="attachment_62788" align="aligncenter" width="1200"] Sự khác nhau giữa hai Super Chip: H100 và H200 của các form factor SXM - NVL, đặc biệt trong xây dựng hạ tầng và ứng dụng AI cho doanh nghiệp[/caption] Dựa trên thông tin về hai sản phẩm NVIDIA H100 (H100 SXM - H100 NVL) và H200 (H200 SXM - H200 NVL) mà FPT Cloud đã cung cấp, đây là bảng so sánh chi tiết giữa NVIDIA H100 & H200 mà bạn có thể tham khảo: Đặc điểm NVIDIA H100 (SXM) NVIDIA H100 (NVL) NVIDIA H200 (SXM) NVIDIA H200 (NVL) Kiến trúc (Architecture) Hopper™ Hopper™ Kế thừa và phát triển từ Hopper™ Kế thừa và phát triển từ Hopper™ Quy trình chế tạo (Manufacturing Process) TSMC N4 (tích hợp 80 tỷ bóng bán dẫn) TSMC N4 (tích hợp 80 tỷ bóng bán dẫn) Phiên bản nâng cấp từ H100 Phiên bản nâng cấp từ H100 FP64 34 teraFLOPS 30 teraFLOP 34 TFLOPS 30 TFLOPS Lõi Tensor FP64 (FP64 Tensor Core) 67 teraFLOPS 60 teraFLOP 67 TFLOPS 60 TFLOPS FP32 67 teraFLOPS 60 teraFLOP 67 TFLOPS 60 TFLOPS Lõi Tensor TF32 (TF32 Tensor Core) 989 teraFLOPS 835 teraFLOP 989 TFLOPS 835 TFLOPS Lõi Tensor BFLOAT16 (BFLOAT16 Tensor Core) 1.979 teraFLOPS 1.671 teraFLOPS 1.979 TFLOPS 1.671 TFLOPS Lõi Tensor FP16 (FP16 Tensor Core) 1.979 teraFLOPS 1.671 teraFLOPS 1.979 TFLOPS 1.671 TFLOPS Lõi Tensor FP8 (FP8 Tensor Core) 3.958 teraFLOPS 3.341 teraFLOPS 3.958 TFLOPS 3.341 TFLOPS Lõi Tensor INT8 (INT8 Tensor Core) 3.958 TFLOPS 3.341 TFLOPS 3.958 TFLOPS 3.341 TFLOPS Bộ nhớ GPU (GPU Memory) 80GB 94GB 141GB 141GB Băng thông bộ nhớ GPU (GPU Memory Bandwidth) 3.35TB/giây 3.9TB/giây 4.8TB/giây 4.8TB/giây Bộ giải mã (Decoders) 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG Điện toán bảo mật (Confidential Computing) Không có thông tin về Confidential Computing Không có thông tin về Confidential Computing Được hỗ trợ Được hỗ trợ TDP tối đa (Max Thermal Design Power - TDP) Lên đến 700W (có thể cấu hình) 350 - 400W (có thể cấu hình) Lên đến 700W (có thể cấu hình) Lên đến 600W (có thể cấu hình) GPU đa phiên bản (MIG) Tối đa 7 MIGs @ 10GB mỗi MIGs Tối đa 7 MIGs @ 12GB mỗi MIGs Tối đa 7 MIG @18GB mỗi MIG Tối đa 7 MIG @16.5 GB mỗi MIG Yếu tố hình thức (Form Factor) SXM PCIe, khe cắm kép làm mát bằng không khí SXM PCIe, khe cắm kép làm mát bằng không khí Kết nối (Interconnect) NVIDIA NVLink™: 900GB/giây; PCIe Gen5: 128GB/giây NVIDIA NVLink: 600GB/giây; PCIe Gen5: 128GB/giây NVIDIA NVLink™: 900GB/giây; PCIe Gen5: 128GB/giây Cầu nối NVIDIA NVLink 2 hoặc 4 chiều: 900GB/giây cho mỗi GPU; PCIe Gen5: 128GB/giây Tùy chọn máy chủ (Server Options) Đối tác NVIDIA HGX H100 và NVIDIA-Certified Systems™ với 4 hoặc 8 GPU; NVIDIA DGX H100 với 8 GPU Đối tác và Hệ thống được NVIDIA chứng nhận với 1–8 GPU Đối tác NVIDIA HGX™ H200 và NVIDIA-Certified Systems™ với 4 hoặc 8 GPU Đối tác NVIDIA MGX™ H200 NVL và Hệ thống được chứng nhận NVIDIA với tối đa 8 GPU NVIDIA AI Enterprise Bổ sung Đã bao gồm Bổ sung Đã bao gồm Bảng 1.3: So sánh chi tiết giữa NVIDIA H100 (SXM - NVL) và NVIDIA H200 (SXM - NVL) 2. FPT hợp tác chiến lược cùng NVIDIA trong việc xây dựng các giải pháp FPT AI Factory đầu tiên tại Việt Nam Sự kết hợp mang tầm chiến lược của công ty công nghệ hàng đầu NVIDIA và kinh nghiệm triển khai giải pháp cho các doanh nghiệp của FPT đã tạo nên một sức mạnh cộng hưởng trong việc phát triển các sản phẩm AI, tiên phong tại thị trường Việt Nam. NVIDIA không chỉ cung cấp các siêu chip GPU NVIDIA H100 và H200 mà còn chia sẻ những kiến thức chuyên sâu về kiến trúc AI. Đối với Tập đoàn FPT, FPT Smart Cloud – sẽ là đơn vị tiên phong cung cấp các dịch vụ điện toán đám mây (cloud computing) được xây dựng trên nền tảng của nhà máy AI này, giúp các doanh nghiệp Việt Nam dễ dàng tiếp cận và khai thác sức mạnh của AI. [caption id="attachment_62791" align="aligncenter" width="2560"] Tập đoàn FPT là đối tác chiến lược của NVIDIA trong việc xây dựng và phát triển các giải pháp FPT AI Factory: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference[/caption] Đặc biệt, FPT sẽ tập trung vào việc phát triển các mô hình AI tạo sinh (Generative AI Models), mang đến khả năng sáng tạo nội dung, tự động hóa quy trình và giải quyết các bài toán phức tạp mà trước đây khó có thể thực hiện. Trong thời đại của các công nghệ trí tuệ nhân tạo AI, các doanh nghiệp B2B thuộc mọi lĩnh vực như: Tài chính, Chứng khoán, Bảo hiểm, đến Sản xuất và Giáo dục…  đều đứng trước nhu cầu cấp thiết về một đối tác tin cậy để bứt phá chuyển đổi số. FPT AI Factory của FPT Cloud chính là giải pháp tối ưu, mang đến những lợi thế vượt trội sau cho doanh nghiệp của bạn: Cơ sở hạ tầng AI hàng đầu: Với việc sử dụng trực tiếp các siêu chip NVIDIA H100 và H200, FPT AI Factory mang đến một nền tảng điện toán AI mạnh mẽ bậc nhất, đảm bảo hiệu suất và tốc độ vượt trội cho mọi tác vụ AI. Hệ sinh thái dịch vụ đa dạng: FPT AI Factory không chỉ là phần cứng, mà là một hệ sinh thái toàn diện, được thiết kế để hỗ trợ doanh nghiệp từ khâu xây dựng, huấn luyện đến vận hành các giải pháp AI. Tối ưu chi phí: Thay vì đầu tư hàng triệu đô la vào cơ sở hạ tầng AI phức tạp, các doanh nghiệp có thể tận dụng FPT AI Factory dưới dạng dịch vụ đám mây, giúp tối ưu hóa chi phí đầu tư ban đầu và chi phí vận hành. Bảo mật, tuân thủ và tích hợp: FPT cam kết mang đến một môi trường AI an toàn, tuân thủ các tiêu chuẩn bảo mật quốc tế, đồng thời dễ dàng tích hợp với các hệ thống hiện có của doanh nghiệp. [caption id="attachment_62792" align="aligncenter" width="1594"] Những ưu điểm vượt trội của giải pháp FPT AI Factory dành cho các doanh nghiệp thuộc tất cả các lĩnh vực khác nhau trên thị trường[/caption]   3. Kiến tạo hệ sinh thái toàn diện FPT AI Factory (FPT AI Infrastructure, FPT AI Studio và FPT AI Inference) Vững Mạnh Với Super Chip NVIDIA H100 & H200 FPT AI Factory hiện đang cung cấp bộ ba giải pháp AI được phát triển dựa trên công nghệ lõi là super chip NVIDIA H100 & NVIDIA H200 cho các doanh nghiệp bao gồm: FPT AI Infrastructure (Cơ sở hạ tầng AI của FPT): Đây là nhóm sản phẩm thuộc hạ tầng của doanh nghiệp. FPT AI Studio (Môi trường phát triển AI của FPT): Đây là nhóm sản phẩm thuộc nền tảng về công cụ và dịch vụ dành cho doanh nghiệp. FPT AI Inference (Suy luận AI của FPT): Đây là nhóm sản phẩm thuộc nền tảng về mô hình AI (Artificial Intelligence)/ML (Machine Learning) cho doanh nghiệp. Video: Bộ ba giải pháp AI của FPT: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference cho phép doanh nghiệp xây dựng, huấn luyện và vận hành các giải pháp AI một cách đơn giản, dễ dàng và hiệu quả 3.1 Giải pháp FPT AI Infrastructure [caption id="attachment_62793" align="aligncenter" width="1598"] Giải pháp FPT AI Infrastructure giúp doanh nghiệp triển khai hệ thống hạ tầng siêu tính toán, phát triển các giải pháp AI và dễ dàng mở rộng theo nhu cầu[/caption] FPT AI Infrastructure là nền tảng cơ sở hạ tầng điện toán đám mây mạnh mẽ, được tối ưu hóa đặc biệt cho các tác vụ AI. Đây là nơi cung cấp sức mạnh tính toán vượt trội từ các GPU NVIDIA H100 và H200, cho phép doanh nghiệp xây dựng hạ tầng siêu tính toán, dễ dàng truy cập và sử dụng tài nguyên để huấn luyện các mô hình AI một cách nhanh chóng và có thể linh hoạt mở rộng theo nhu cầu của mình bằng các công nghệ như: Meta Cloud, GPU Virtual Machine, Managed CPU Cluster và GPU Container. Đăng ký FPT AI Infrastructure để xây dựng và phát triển hạ tầng mạnh mẽ cho doanh nghiệp của bạn ngay hôm nay! 3.2 Sản phẩm AI Studio được phát triển bởi FPT Cloud [caption id="attachment_62794" align="aligncenter" width="1621"] Sản phẩm FPT AI Studio giúp doanh nghiệp xử lý dữ liệu, phát triển, đào tạo, đánh giá và triển khai các mô hình trí tuệ nhân tạo và học máy theo nhu cầu[/caption] Sau khi đã xây dựng được hệ thống hạ tầng với công nghệ GPU tiên tiến thì tiếp theo doanh nghiệp cần xây dựng và phát triển các mô hình trí tuệ nhân tạo và học máy cho riêng mình nhằm phục vụ cho những nhu cầu riêng biệt trong khâu vận hành và ứng dụng khác nhau thì FPT AI Studio chính là giải pháp tối ưu dành cho doanh nghiệp. FPT AI Studio là một môi trường phát triển AI toàn diện, cung cấp đầy đủ các công cụ và dịch vụ hỗ trợ các doanh nghiệp trong quy trình xử lý dữ liệu, phát triển mô hình, đào tạo, đánh giá và triển khai các mô hình AI/ML thực tế theo nhu cầu thông qua các công nghệ hiện đại và tiên tiến: Data Hub, AI Notebook, Model PRe-training, Model Fine-tuning và Model Hub. Đăng ký để bắt đầu xây dựng và triển khai mô hình AI và Machine Learning dành cho doanh nghiệp của bạn ngay hôm nay! 3.3 Dịch vụ AI Inference của FPT [caption id="attachment_62795" align="aligncenter" width="1708"] Dịch vụ FPT AI Inference giúp nâng cao khả năng suy luận cho mô hình AI và Machine Learning của doanh nghiệp[/caption] Khi mô hình AI hay Machine Learning của doanh nghiệp đã được huấn luyện dựa trên dữ liệu nội bộ và các dữ liệu quan trọng khác, việc triển khai và vận hành nó trong môi trường thực tế đòi hỏi một giải pháp hiệu quả. FPT AI Inference chính là lựa chọn thông minh dành cho doanh nghiệp của bạn. Đây là giải pháp được tối ưu hóa để cung cấp tốc độ suy luận (inference) cao và độ trễ thấp, FPT AI Inference đảm bảo các mô hình AI của bạn có thể hoạt động nhanh chóng và chính xác trong các ứng dụng thực tế như trợ lý ảo, dịch vụ tư vấn khách hàng, hệ thống khuyến nghị, nhận diện hình ảnh, hay xử lý ngôn ngữ tự nhiên thông qua các công nghệ tiên tiến: Model Servering và Model-as-a-Service. Đây là mảnh ghép cuối cùng trong bộ giải pháp FPT AI Factory giúp doanh nghiệp đưa AI vào ứng dụng thực tiễn, mang lại giá trị kinh doanh ngay lập tức. Nâng cao khả năng suy luận và ứng dụng thực tế cho mô hình AI của doanh nghiệp bạn ngay hôm nay cùng FPT AI Inference! 4. Ưu đãi độc quyền dành riêng cho khách hàng đăng ký trải nghiệm FPT AI Factory tại FPT Cloud [caption id="attachment_62796" align="aligncenter" width="1460"] Quyền lợi đặc biệt dành cho các doanh nghiệp khi đăng ký sử dụng dịch vụ FPT AI Factory trong thời gian sớm nhất[/caption] Những ưu đãi độc quyền mà FPT Cloud dành riêng cho bạn khi đăng ký trải nghiệm sớm bộ ba giải pháp toàn diện Nhà máy AI: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference ngay hôm nay: Ưu tiên trải nghiệm các dịch vụ của FPT AI Infrastructure với mức giá ưu đãi: Tiết kiệm chi phí đáng kể khi tiếp cận cơ sở hạ tầng, bộ công cụ và ứng dụng AI hiện đại nhất thế giới ngay tại Việt Nam. Cung cấp quyền truy cập, sử dụng sớm các tính năng cao cấp của FPT AI Factory: Doanh nghiệp của bạn luôn là đơn vị tiên phong và dẫn đầu với những công nghệ và công cụ AI mới nhất trong thời đại chuyển đổi số. Nhận tín dụng Cloud để trải nghiệm hệ sinh thái AI và Cloud đa dạng: Doanh nghiệp của bạn có thể trải nghiệm các sản phẩm và dịch vụ khác của FPT Cloud nhằm nâng cao hiệu suất vận hành của mình như: FPT Backup Services, FPT Disaster Recovery và FPT Object Storage. Nhận tư vấn chuyên sâu từ các chuyên gia AI & Cloud giàu kinh nghiệm: Các chuyên gia AI và Cloud tại FPT sẽ hỗ trợ doanh nghiệp trong việc ứng dụng và vận hành bộ ba giải pháp FPT AI Factory vào trong quy trình thực tế của doanh nghiệp để mang lại hiệu quả kinh doanh tức thì. Đăng ký ngay để nhận tư vấn chuyên sâu về giải pháp FPT AI Factory từ đội ngũ chuyên gia AI & Cloud giàu kinh nghiệm của FPT Cloud! [caption id="attachment_62797" align="aligncenter" width="1078"] Form đăng ký nhận tư vấn chuyên sâu của chuyên gia AI & Cloud về bộ ba giải pháp FPT AI Factory dành cho doanh nghiệp[/caption]