Blogs Tech

Nền tảng công nghệ toàn diện cho ngành chứng khoán: kiến tạo năng lực mới cho một thị trường mới nổi

10:50 13/10/2025
Sau khi FTSE Russell chính thức nâng hạng Việt Nam lên nhóm thị trường mới nổi, ngành chứng khoán đang bước vào giai đoạn bản lề với những thay đổi có tính hệ thống. Dòng vốn quốc tế được dự báo sẽ đổ vào mạnh mẽ hơn, kéo theo yêu cầu mới về hiệu năng giao dịch, minh bạch dữ liệu và an toàn thông tin. Trong bối cảnh đó, việc đổi mới hạ tầng và nâng cao năng lực công nghệ trở thành ưu tiên hàng đầu của các công ty chứng khoán (CTCK), không chỉ để vận hành ổn định, mà để sẵn sàng cho thế hệ sản phẩm tài chính mới như CCP (trung tâm bù trừ bắt buộc), giao dịch T+0, đầu tư theo thuật toán và nền tảng Fintech tích hợp. Nhằm đồng hành cùng các CTCK trong giai đoạn chuyển mình này, FPT phối hợp cùng Navisoft tổ chức hội thảo: “Tăng tốc quản trị và vận hành linh hoạt cho ngành chứng khoán”. Mục tiêu của chương trình không chỉ là giới thiệu công nghệ, mà là định hình tầm nhìn chiến lược, chia sẻ năng lực thực thi thực tế và mang đến giá trị cụ thể giúp các CTCK chuẩn bị sẵn sàng cho giai đoạn hậu nâng hạng, nơi tốc độ, tính tuân thủ và khả năng đổi mới sẽ quyết định vị thế doanh nghiệp trên thị trường. Hệ sinh thái công nghệ toàn diện, nền tảng của thị trường chứng khoán hiện đại Nếu ví thị trường chứng khoán như một cơ thể sống, thì hệ sinh thái công nghệ chính là hệ thần kinh trung ương, điều phối mọi giao dịch, dữ liệu và quyết định theo thời gian thực. Một nền tảng hiện đại cần bảo đảm ba yếu tố cốt lõi: hiệu năng, an toàn, khả năng mở rộng, đồng thời đủ linh hoạt để kết nối với đối tác Fintech, sàn giao dịch và hệ thống giám sát của cơ quan quản lý. Tuy nhiên, chuyển đổi số trong ngành chứng khoán không còn là việc đưa dữ liệu lên Cloud như giai đoạn trước, mà là tái cấu trúc toàn diện kiến trúc vận hành dựa trên năm quan điểm phát triển ứng dụng cốt lõi. Hệ thống hiện đại phải luôn sẵn sàng để đảm bảo giao dịch ổn định, thích ứng linh hoạt trước biến động thị trường, mở và dễ tích hợp với các nền tảng tài chính khác, vận hành thông minh bằng AI để giám sát, phát hiện rủi ro, ngăn chặn gian lận và phân tích cảm xúc thị trường, đồng thời lấy dữ liệu làm trung tâm để tạo ra sản phẩm tài chính mới và trải nghiệm đầu tư cá nhân hóa. Đặc biệt, blockchain đang được xem như lớp bảo mật và xác thực niềm tin mới cho thị trường chứng khoán. Khi được triển khai trên nền tảng Cloud, blockchain giúp đảm bảo tính toàn vẹn dữ liệu, tự động hóa quy trình bù trừ, lưu ký và xác nhận giao dịch, từ đó mở ra cơ hội hình thành nền tài chính phân tán trong tương lai gần. Chia sẻ tại hội thảo, đại diện tập đoàn FPT, ông Lã Hồng Nguyên, Kiến trúc sư giải pháp Cloud, FPT Smart Cloud nhấn mạnh: “Một hệ thống chứng khoán vững mạnh không chỉ cần phần mềm nhanh, mà cần cả hạ tầng đủ thông minh để tự mở rộng, tự phòng vệ và luôn sẵn sàng. Cloud giúp các CTCK Việt Nam đạt được điều đó, không chỉ vận hành ổn định, mà còn chủ động thích ứng với thị trường ngày càng năng động.” FPT hợp tác cùng Navisoft đồng hành kiến tạo nền tảng công nghệ toàn diện Với năng lực triển khai từ nền tảng đến ứng dụng, FPT và Navisoft đang đồng hành cùng các CTCK trong hành trình hiện đại hóa toàn bộ hạ tầng và vận hành số. Nền tảng Cloud hiệu năng cao của FPT không chỉ đáp ứng yêu cầu an toàn, tuân thủ và độ trễ thấp, mà còn tạo điều kiện cho doanh nghiệp phát triển nhanh các ứng dụng phân tích dữ liệu và AI, phục vụ quản trị rủi ro, phát hiện gian lận, phân tích cảm xúc nhà đầu tư và tối ưu vận hành. Cùng với đó, Navisoft, đơn vị chuyên phát triển giải pháp đặc thù cho ngành chứng khoán, phối hợp chặt chẽ với FPT để xây dựng hệ sinh thái công nghệ thống nhất, nơi Cloud, Data, AI và Blockchain được tích hợp liền mạch. Hệ sinh thái này giúp các công ty chứng khoán vận hành theo mô hình tích hợp bảo mật ngay trong quy trình phát triển và quản trị hệ thống, ứng dụng linh hoạt trên nền tảng điện toán đám mây, đồng thời được tăng cường bởi trí tuệ nhân tạo để tự động hóa, dự báo và nâng cao hiệu quả vận hành Sau cột mốc nâng hạng, câu hỏi không còn là có đầu tư vào công nghệ hay không, mà là đầu tư như thế nào để công nghệ trở thành năng lực cạnh tranh thực sự. Công nghệ giờ đây không chỉ là công cụ hỗ trợ vận hành, mà là nền tảng để kiến tạo niềm tin và dẫn dắt thị trường, nơi Cloud đảm bảo tốc độ, Data mang lại minh bạch, AI nâng cao năng lực dự báo, và Blockchain củng cố niềm tin nhà đầu tư. FPT và Navisoft tin rằng, tương lai của thị trường chứng khoán Việt Nam sẽ được dẫn dắt bởi những doanh nghiệp dám nhìn xa, dám đầu tư và dám đổi mới, những CTCK coi công nghệ là sức mạnh lõi để vươn tầm khu vực và định hình chuẩn mực vận hành mới cho một thị trường chứng khoán minh bạch, an toàn và bền vững.  

FPT Database Engine – Chủ động quản trị backup và nâng cấp hiệu năng với MariaDB 10.9

08:57 09/10/2025
Nằm trong lộ trình phát triển sản phẩm hướng tới trải nghiệm quản trị linh hoạt và an toàn hơn cho người dùng, FPT Cloud chính thức ra mắt bản cập nhật mới cho FPT Database Engine với hai tính năng nổi bật: Report Export - hỗ trợ xuất báo cáo backup trực quan, và MariaDB 10.9 - phiên bản mới nhất mang lại hiệu năng mạnh mẽ và bảo mật vượt trội.  Reporting - Report Export: Xuất báo cáo backup nhanh chóng, chủ động và an toàn  Tính năng Report Export cho phép người dùng xuất dữ liệu thống kê liên quan đến trạng thái và lịch sử backup của từng cụm cơ sở dữ liệu trong một khoảng thời gian cụ thể, dưới dạng file .CSV. Người dùng có thể dễ dàng phân tích, kiểm tra, hoặc tích hợp với các hệ thống BI, Power BI, Google Sheets để quản lý và đánh giá hiệu quả hoạt động của hệ thống backup.  Không chỉ hỗ trợ xuất báo cáo, Report Export còn giúp tăng tính chủ động cho admin trong việc giám sát hoạt động sao lưu định kỳ, đảm bảo tuân thủ các quy trình quản lý dữ liệu - đặc biệt hữu ích trong những lĩnh vực đòi hỏi tính xác thực cao như ngân hàng, tài chính hay y tế.  Tính năng này nằm trong nhóm Advanced Features, được áp dụng cho tất cả các database engine thuộc dịch vụ FPT Database Engine.   Người dùng có thể chọn cụm database, loại báo cáo, thời gian cần thống kê và xuất báo cáo chỉ với vài thao tác đơn giản ngay trên giao diện Console.  Báo cáo được xuất ra ở định dạng chuẩn .CSV, bao gồm đầy đủ thông tin chi tiết như: Tenant, VPC, Cluster ID, loại và phiên bản cơ sở dữ liệu, trạng thái cluster, loại backup, chính sách lưu trữ, dung lượng sử dụng, tên file, cùng thời gian bắt đầu và kết thúc backup. Quá trình xuất dữ liệu hoàn toàn không ảnh hưởng tới hoạt động của hệ thống hoặc các tác vụ backup đang chạy.  Người dùng được phân quyền IAM Role phù hợp có thể thực hiện tính năng này, đảm bảo tính bảo mật và trách nhiệm trong quá trình quản lý dữ liệu. Sau khi xuất, file có thể được lưu lại trên máy cá nhân hoặc đồng bộ với hệ thống lưu trữ nội bộ doanh nghiệp để tiện theo dõi.  MariaDB 10.9 - Cải thiện hiệu năng, tối ưu trải nghiệm nâng cấp  Song song với Report Export, bản cập nhật tháng 7/2025 còn mang đến hỗ trợ MariaDB phiên bản 10.9, giúp doanh nghiệp nâng cấp hiệu năng và bảo mật cơ sở dữ liệu lên tầm cao mới.  Hỗ trợ version 10.9 khi provision cụm mới  FPT Database Engine hiện đã hỗ trợ provision cụm MariaDB mới trên version 10.9, mang đến nhiều cải tiến về hiệu năng, độ ổn định, và khả năng bảo mật. Người dùng có thể thực hiện provision trực tiếp từ giao diện quản trị cụm cơ sở dữ liệu.  Cho phép upgrade từ version cũ hơn lên 10.9  Để cập nhật MariaDB database đã được tạo với phiên bản cũ, người dùng có thể thực hiện nâng cấp từ màn hình Overview của cụm MariaDB mục tiêu bằng cách click vào icon.  Một hộp thoại sẽ hiện ra, hiển thị phiên bản hiện tại và các phiên bản hỗ trợ nâng cấp (ví dụ: 10.9). Nhập từ khóa xác nhận "upgrade" và nhấn nút Upgrade để bắt đầu.  Lưu ý khi thực hiện nâng cấp  Hành động nâng cấp không thể hoàn tác.  Người dùng cần ngắt kết nối tất cả ứng dụng đang kết nối tới cơ sở dữ liệu trước khi thực hiện.  Nên đảm bảo backup hoàn tất trước khi bắt đầu nâng cấp.  Trong quá trình nâng cấp, database sẽ được khởi động lại, sau đó hệ thống FPT sẽ tự động kiểm soát và khởi động lại dịch vụ với phiên bản mới.  Với bản cập nhật lần này, FPT Database Engine không chỉ giúp người dùng dễ dàng hơn trong việc quản lý và giám sát hệ thống dữ liệu, mà còn mang lại hiệu năng và độ ổn định vượt trội hơn trước. Đây là bước tiến tiếp theo trong hành trình giúp doanh nghiệp vận hành hạ tầng cơ sở dữ liệu thông minh, an toàn và hiệu quả hơn cùng FPT Cloud.  Liên hệ với chúng tôi để được tư vấn chi tiết về các giải pháp, dịch vụ của FPT Cloud  Hotline: 1900 638 399     Email: [email protected]     Support: m.me/fptsmartcloud   

Ra mắt FPT Cloud Desktop 2.5: Nâng tầm trải nghiệm quản trị và tối ưu độ ổn định hệ thống

20:15 07/10/2025
Nhằm mang đến trải nghiệm quản trị tối ưu và tăng cường độ ổn định cho hệ thống, FPT Cloud Desktop chính thức ra mắt phiên bản 2.5 với loạt tính năng mới tập trung vào việc mở rộng khả năng quản lý linh hoạt cho Virtual Desktop và cải thiện hệ thống giám sát, đảm bảo hiệu năng, tính ổn định và khả năng mở rộng vượt trội.  Phiên bản 2.5 mở khóa nhiều tính năng mới  Restart Virtual Desktop trên Admin Portal  Quản trị viên có thể chủ động thực hiện restart Virtual Desktop trực tiếp trên Portal, hỗ trợ hai chế độ: Soft restart - Khởi động lại hệ điều hành của máy ảo; Hard restart - Khởi động lại toàn bộ máy ảo. Tính năng này giúp việc xử lý và quản lý Virtual Desktop nhanh chóng, giảm thao tác thủ công và tối ưu thời gian vận hành hệ thống.  Extend Volume Virtual Desktop trên Admin Portal  Phiên bản mới cho phép mở rộng dung lượng lưu trữ của Virtual Desktop trực tiếp trên Portal, giúp việc quản trị trở nên linh hoạt hơn và giảm thiểu thời gian thao tác thủ công. Người dùng có thể nhập dung lượng mới để hệ thống tự động mở rộng mà không làm gián đoạn kết nối VD, chỉ cần thao tác extend thủ công bên trong máy để áp dụng cấu hình mới.   Nâng cấp toàn diện cho hiệu suất tối ưu  Trong bản FPT Cloud Desktop 2.5 lần này, toàn bộ hệ thống không chỉ cập nhật các tính năng mới mà còn tập trung hoàn thiện logic và hiệu năng hệ thống, đảm bảo độ ổn định khi vận hành trên quy mô lớn:  Automation Pool: Cập nhật logic đảm bảo không tạo vượt quá số lượng VD tối đa trong mỗi automation pool.  Network Allocation: Bổ sung cơ chế kiểm tra và chặn tạo máy khi dải IP đã hết, tránh lỗi phát sinh khi tạo máy mới.  Monitoring trên Kubernetes: Thêm mô hình monitor mới trên K8S, tăng khả năng giám sát và giảm tải hệ thống.  FCDAgent: Tăng dung lượng lưu trữ event logs, cải thiện độ ổn định, giảm phụ thuộc vào các thành phần bên ngoài.  Trong giai đoạn tiếp theo, FPT Cloud Desktop sẽ tiếp tục được cập nhật với giao diện FCD Client thân thiện hơn và tính năng xem, xuất thời lượng sử dụng của người dùng cuối trực tiếp trên Portal quản trị, giúp doanh nghiệp dễ dàng theo dõi hiệu quả sử dụng tài nguyên, tối ưu vận hành và nâng cao trải nghiệm người dùng một cách linh hoạt.  Liên hệ với chúng tôi để được tư vấn chi tiết về các giải pháp, dịch vụ của FPT Cloud Hotline: 1900 638 399    Email: [email protected]    Support: m.me/fptsmartcloud  

Tingee by HENO “nội địa hóa” hạ tầng công nghệ, tối ưu chi phí và nâng tầm trải nghiệm thanh toán số cho người Việt

15:55 07/10/2025
Là nền tảng thanh toán số được phát triển bởi HENO, Tingee ra đời với sứ mệnh mang đến cho người Việt một giải pháp thông báo giao dịch nhanh chóng, an toàn và tiện lợi trong kỷ nguyên tài chính số. Với chi phí hợp lý, khả năng triển khai linh hoạt và trải nghiệm liền mạch, Tingee đã nhanh chóng mở rộng quy mô, phục vụ xử lý hàng triệu giao dịch mỗi ngày trên toàn quốc. Vậy đâu là yếu tố giúp Tingee khẳng định vị thế trong hệ sinh thái fintech Việt Nam đang bùng nổ? [caption id="attachment_67481" align="aligncenter" width="2048"] Tingee - Giải pháp thông báo thanh toán số. Nguồn ảnh: Tingee[/caption] Hạ tầng, tốc độ & an toàn - Những thách thức của HENO trong hành trình mở rộng Tingee  Với định hướng trở thành nền tảng thanh toán số tiên phong, Công ty Cổ phần Công nghệ HENO đã xây dựng Tingee - giải pháp thông báo thanh toán số phục vụ hàng triệu giao dịch tức thời mỗi ngày. Tingee by HENO đã xây dựng hệ sinh thái sản phẩm đa dạng gồm phần mềm quản lý giao dịch Tingee Merchant, loa báo chuyển khoản Tingee, ứng dụng Tingee SoftPOS,… đáp ứng nhu cầu ngày càng cao của thị trường. Đặc biệt, Tingee tập trung phát triển nền tảng API tài chính với khả năng kết nối linh hoạt, dễ dàng tích hợp vào hệ thống ngân hàng và các ứng dụng thanh toán khác. Tuy nhiên, chính định hướng mở rộng và chuẩn hóa này cũng khiến Tingee đối mặt với những yêu cầu khắt khe của ngành tài chính - thanh toán từ tốc độ xử lý, độ trễ thấp cho đến khả năng mở rộng tức thì và bảo mật tuyệt đối  Trong bối cảnh mở rộng thị trường, lưu lượng giao dịch tăng trưởng nhanh chóng khiến hệ thống cũ trở nên thiếu linh hoạt, khó đáp ứng kịp nhu cầu thực tế. Việc vận hành hạ tầng truyền thống không chỉ tốn kém chi phí đầu tư ban đầu, mà còn mất nhiều thời gian triển khai và đòi hỏi đội ngũ kỹ thuật lớn để duy trì hoạt động, từ đó làm giảm sự tập trung vào phát triển sản phẩm cốt lõi. Ngoài ra, với đặc thù ngành tài chính, hệ thống Tingee buộc phải tuân thủ nghiêm ngặt các tiêu chuẩn bảo mật và an toàn thông tin, đồng thời tối ưu chi phí vận hành để đội ngũ kỹ thuật tập trung cho việc phát triển sản phẩm thay vì phải “gồng gánh” khâu vận hành.  Tối ưu chi phí, cải thiện hạ tầng và nâng tầm trải nghiệm với bộ giải pháp điện toán đám mây mạnh mẽ  Trong hành trình tìm kiếm một hạ tầng công nghệ vừa mạnh mẽ, vừa phù hợp với thị trường nội địa, HENO đã lựa chọn hợp tác cùng FPT Cloud với các dịch vụ gồm FPT Cloud Server, FPT Kubernetes Engine và FPT Database-as-a-Service (DBaaS). Đây được xem là bước đi chiến lược nhằm “nội địa hóa” hạ tầng, giúp Tingee không chỉ nâng cao tốc độ xử lý giao dịch mà còn đảm bảo tính liên tục và an toàn trong vận hành.  Với đặc thù thị trường tài chính đòi hỏi hệ thống luôn sẵn sàng và hoạt động trơn tru mọi thời điểm, Cloud Server của FPT Cloud đã trở thành nền tảng hạ tầng chiến lược cốt lõi cho vận hành hệ thống của Tingee. Dịch vụ mang lại khả năng vận hành ổn định, hiệu năng cao và đảm bảo hệ thống duy trì liên tục 24/7. Đây là yếu tố quan trọng giúp Tingee đáp ứng tốt nhu cầu giao dịch tăng đột biến của người dùng, đồng thời hạn chế tối đa rủi ro gián đoạn dịch vụ - vốn có thể ảnh hưởng trực tiếp đến trải nghiệm khách hàng cũng như uy tín của công ty.  Với FPT Kubernetes Engine, Tingee triển khai kiến trúc microservices hiện đại, cho phép quản lý container một cách linh hoạt và tối ưu. Hệ thống hỗ trợ mở rộng tài nguyên tự động chỉ trong vài phút khi nhu cầu giao dịch tăng đột biến, đảm bảo mọi hoạt động không bị gián đoạn. Ngoài khả năng scale tức thì, FPT Kubernetes Engine, còn giúp Tingee rút ngắn thời gian đưa sản phẩm mới ra thị trường, khi doanh nghiệp có thể triển khai và thử nghiệm các dịch vụ, tính năng trong môi trường an toàn trước khi go-live chính thức. Điều này mang lại lợi thế cạnh tranh đáng kể trong bối cảnh ngành fintech liên tục thay đổi và đòi hỏi tốc độ đổi mới nhanh chóng.  Để tối ưu hiệu quả vận hành, Tingee lựa chọn FPT Database-as-a-Service (DBaaS) nhằm giảm gánh nặng quản trị cơ sở dữ liệu. Hệ thống DBaaS cho phép triển khai nhanh chóng, dễ dàng mở rộng khi khối lượng dữ liệu tăng nhanh theo sự phát triển của khách hàng. Đồng thời, dịch vụ này còn tích hợp cơ chế khôi phục dữ liệu tự động, giúp đảm bảo sự liên tục và an toàn trong toàn bộ quá trình giao dịch. Nhờ đó, Tingee có thể tập trung nhiều hơn vào việc phát triển sản phẩm và nâng cao trải nghiệm người dùng, thay vì phải phân tán nguồn lực lớn cho việc duy trì và quản lý dữ liệu.  Ngoài ra, đội ngũ kỹ thuật FPT Cloud đồng hành xuyên suốt từ giai đoạn migrate, test, go-live cho đến vận hành thực tế, đảm bảo hệ thống hoạt động trơn tru, ổn định và luôn được hỗ trợ 24/7. Việc đặt hạ tầng ngay tại Việt Nam còn mang lại lợi thế vượt trội về độ trễ thấp, giúp giao dịch diễn ra mượt mà, nhanh chóng hơn so với hạ tầng quốc tế, đồng thời tối ưu đáng kể chi phí băng thông và lưu trữ.  Nhờ sự hợp tác với FPT, HENO đã tiết kiệm hơn 50% chi phí vận hành so với việc duy trì hạ tầng cloud cũ, đặc biệt ở các hạng mục băng thông và lưu trữ. Hệ thống Tingee hiện tại có thể xử lý tức thời khối lượng giao dịch khổng lồ, ngay cả trong những thời điểm cao điểm, đảm bảo người dùng luôn có được trải nghiệm thanh toán nhanh chóng và ổn định.   Ông Phùng Ngọc Hoàng - CEO HENO chia sẻ: “Việc lựa chọn FPT Cloud thay vì các hạ tầng quốc tế đã giúp chúng tôi tối ưu chi phí vận hành, đồng thời đảm bảo hệ thống Tingee & HENO hoạt động ổn định, an toàn và linh hoạt. Đặc biệt, các dịch vụ như Kubernetes Engine hay Database-as-a-Service của FPT Cloud mang lại trải nghiệm tương đương quốc tế, nhưng tối ưu hơn nhiều cho khách hàng Việt Nam.”  Hướng đến tương lai, HENO đặt mục tiêu tiếp tục mở rộng hệ sinh thái tài chính số và phát triển các giải pháp thanh toán thông minh, đáp ứng nhu cầu ngày càng đa dạng của khách hàng. Với sự đồng hành chiến lược từ FPT Cloud, Tingee sẽ tiếp tục giữ vững đà tăng trưởng, nâng cao trải nghiệm người dùng và khẳng định vị thế là một trong những nền tảng thông báo thanh toán số hàng đầu tại Việt Nam.  Xem thêm các dịch vụ của FPT Cloud dành cho doanh nghiệp tại: https://fptcloud.com/san-pham/  Lấy Code

Quy Trình Phát Triển Toàn Diện của Agentic AI: Cách FPT AI Factory Hỗ Trợ Tăng Tốc & Phát Triển AI Agents

11:04 30/09/2025
Khi trí tuệ nhân tạo (AI) tiếp tục cách mạng hóa các ngành công nghiệp, việc hiểu rõ cách thức vận hành bên trong của các hệ thống AI không chỉ thú vị mà còn trở nên thiết yếu. Một trong những đổi mới nổi bật nhất hiện nay chính là Agentic AI – công nghệ được thiết kế để mô phỏng khả năng ra quyết định, giải quyết vấn đề và thậm chí là sáng tạo giống con người.  Khác với những công cụ thông thường, chỉ phản hồi theo lệnh của người dùng, thì các Agentic AI được xây dựng với tính tự chủ: chúng có thể hiểu được mục tiêu, tự chia nhỏ thành các bước cần làm và từng bước thực hiện cho đến khi đạt được kết quả. Chính khả năng này đã biến Agentic AI trở thành công nghệ hỗ trợ doanh nghiệp tự động xử lý các quy trình phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Vậy hành trình của một Agentic AI diễn ra như thế nào? Làm thế nào mà các AI Agents có thể xử lý các nhiệm vụ phức tạp một cách liền mạch, thích ứng với thách thức và cải thiện theo thời gian?  Dưới đây là các bước chính trong vòng đời của một tác nhân AI (AI Agents) – mỗi bước đều đóng vai trò quan trọng trong việc tạo ra những hệ thống thông minh, và có khả năng thích ứng nhanh.  1. Perception – Nhận thức  Sự nhận thức của AI Agents là khả năng thu thập và diễn giải thông tin từ môi trường – có thể qua dữ liệu hình ảnh, âm thanh, văn bản hoặc các dạng tín hiệu khác. Đây là lớp nền tảng giúp hệ thống đưa ra quyết định và giải quyết vấn đề. Nếu con người dựa vào giác quan để định hướng trong thế giới thực, thì AI Agents dựa vào khả năng nhận thức để hiểu dữ liệu đầu vào, nhận diện mẫu và phản ứng phù hợp.  Nhận thức không phải là một quá trình thụ động. Nó bao gồm việc chủ động thu thập dữ liệu, xử lý và xây dựng hiểu biết về bối cảnh hiện tại. Các loại dữ liệu mà AI Agents nhận thức có thể thay đổi tùy thuộc vào thiết kế của hệ thống, và có thể bao gồm mọi thứ từ văn bản viết, lời nói, hình ảnh, âm thanh, cho đến các thay đổi trong môi trường. Có thể coi nhận thức chính là “cửa sổ nhìn ra thế giới” của AI Agents, cung cấp thông tin cần thiết để hành động thông minh và linh hoạt.  Các tác nhân AI sử dụng nhiều loại nhận thức khác nhau để hiểu và diễn giải môi trường. Mỗi loại nhận thức cho phép tác nhân tương tác với thế giới theo những cách khác nhau, giúp xử lý các dạng dữ liệu và đưa ra quyết định thông minh. Các loại nhận thức chính bao gồm:  Nhận thức văn bản (Textual Perception): Hiểu và tạo ra văn bản thông qua xử lý ngôn ngữ tự nhiên (NLP). Điều này cho phép các hệ thống AI tương tác với dữ liệu văn bản như bài viết, sách, email và trang web, rất cần thiết cho các ứng dụng như chatbot và trợ lý ảo.  Nhận thức dự đoán (Predictive Perception): AI dự đoán các sự kiện tương lai dựa trên dữ liệu lịch sử, ứng dụng trong các lĩnh vực như tài chính và xe tự lái.  Nhận thức thị giác (Visual Perception): Sử dụng thị giác máy tính (computer vision) để diễn giải hình ảnh và video – ứng dụng trong nhận diện khuôn mặt, phát hiện vật thể.  Nhận thức môi trường (Environmental Perception): AI thu thập thông tin thông qua các cảm biến như GPS hoặc cảm biến chuyển động để thích nghi với các môi trường thay đổi. Ví dụ, robot sử dụng cảm biến này để phát hiện và tránh các chướng ngại vật khi di chuyển.  Nhận thức thính giác (Auditory Perception): Khả năng xử lý và hiểu âm thanh, đặc biệt là giọng nói, giúp hệ thống như trợ lý giọng nói hoạt động hiệu quả. 2. Reasoning and Decision-making – Lập luận và Ra quyết định Lý luận là quá trình nhận thức cho phép các tác nhân AI đưa ra quyết định, giải quyết vấn đề và suy luận các kết luận dựa trên thông tin mà chúng thu thập được. Đây là một yếu tố quan trọng giúp tác nhân AI hành động thông minh và thích nghi trong các môi trường thay đổi liên tục. Trong khi giai đoạn “Nhận thức” giúp AI thu thập dữ liệu về thế giới, “Lý luận” sẽ giúp tác nhân diễn giải dữ liệu đó, đưa ra kết luận hợp lý và đưa ra quyết định thông minh. Nói cách khác, nhận thức là việc nhận thấy đèn giao thông chuyển sang màu đỏ; lý luận là nhận ra rằng bạn cần phải dừng xe để tránh nguy hiểm.  Lý luận bao gồm việc sử dụng các quy tắc, phương pháp ước lượng, logic và các mô hình học được để xử lý thông tin từ hệ thống nhận thức. Điều này giúp các tác nhân AI không chỉ hiểu rõ trạng thái hiện tại của môi trường mà còn dự đoán kết quả, xử lý các tình huống không chắc chắn và đề ra chiến lược để đạt được mục tiêu.  Lý luận có thể được chia thành các loại khác nhau, mỗi loại đóng một vai trò đặc biệt trong việc giúp các hệ thống AI hoạt động hiệu quả trong các tình huống khác nhau:  Heuristic Reasoning: Sử dụng “luật ngón tay cái” để đơn giản hóa quyết định, phù hợp với tình huống cần phản hồi nhanh. Ví dụ, khi điều hướng trên bản đồ, AI có thể chọn "đoạn đường tốt nhất" dựa trên kinh nghiệm thay vì tính toán tất cả các tuyến đường có thể có.  ReWoo (Suy luận không cần quan sát): Quá trình cải thiện qua các lần lặp lại, giúp AI điều chỉnh và tối ưu hóa chiến lược của mình dựa trên phản hồi và thay đổi từ môi trường.  ReAct (Lý luận và hành động): Một phương pháp kết hợp lý luận và hành động đồng thời, có lợi trong những môi trường yêu cầu phản hồi ngay lập tức như lái xe tự động hay các trò chơi chiến lược thời gian thực.  Self-reflection (Tự phản ánh): AI Agents đánh giá các quyết định trong quá khứ để học hỏi và cải thiện.  Conditional Logic (Điều kiện logic): Quyết định dựa trên các điều kiện cụ thể, thường được sử dụng trong các hệ thống tự động. Ví dụ, một điều hòa thông minh có thể sử dụng logic điều kiện để điều chỉnh nhiệt độ: "Nếu nhiệt độ phòng dưới 70°F, hãy tăng nhiệt." 3. Action – Hành động Giai đoạn “Hành động” giúp các AI Agents thực thi các quyết định trong thế giới thực, cho phép nó tương tác với người dùng, các hệ thống kỹ thuật số, hoặc thậm chí là các môi trường vật lý. Sau khi “nhận thức” môi trường và “suy luận” về phương án hành động tốt nhất, tác nhân AI phải “thực thi” các quyết định của mình trong thực tế.  Trong thế giới AI, giai đôạn “hành động” không chỉ giới hạn ở các chuyển động vật lý hay tương tác, mà còn bao gồm các quá trình như thao tác dữ liệu, thực thi quyết định và kích hoạt các hệ thống tự động. Dù là robot di chuyển trong môi trường vật lý, hệ thống phần mềm xử lý dữ liệu, hay một trợ lý ảo AI phản hồi theo lệnh, “Hành động” chính là giai đoạn mà tác nhân AI đưa lý luận và sự hiểu biết của mình thành hiện thực. 4. Learning – Học Hỏi Giai đoạn “học hỏi” là quá trình giúp các AI Agents cải thiện hiệu suất thông qua việc thu thập kiến thức từ kinh nghiệm, dữ liệu, hoặc phản hồi góp ý. Thay vì chỉ dựa vào các hướng dẫn đã được lập trình sẵn, tác nhân AI có thể thích nghi và phát triển bằng cách học hỏi từ môi trường và kết quả của các hành động mà nó thực hiện. Khả năng học hỏi này là điều giúp các tác nhân AI có thể xử lý những tình huống mới, chưa được thấy trước, đưa ra quyết định tốt hơn và tối ưu hóa chiến lược trong các tình huống động, thực tế.  Đây là giai đoạn quan trọng đối với các tác nhân AI trong việc tự tạo ra hệ thống thông minh có khả năng tự cải tiến. Giống như con người học hỏi từ kinh nghiệm và áp dụng kiến thức đó vào các thử thách trong tương lai, các AI Agents sử dụng nhiều phương pháp học hỏi khác nhau để nâng cao khả năng ra quyết định và giải quyết vấn đề. Thông qua việc học hỏi liên tục, các tác nhân AI có thể tinh chỉnh hành vi và ngày càng phù hợp hơn với các mục tiêu của mình. Các phương pháp học hỏi của tác nhân AI rất đa dạng, tùy thuộc vào cách thức tác nhân tương tác với dữ liệu, phản hồi nhận được và loại nhiệm vụ mà nó cần thực hiện. Dưới đây là những phương pháp học hỏi chính mà các tác nhân AI sử dụng:  Học không giám sát: Nhận diện các mô hình và cấu trúc trong dữ liệu mà không cần các ví dụ có gán nhãn. AI có thể nhóm các khách hàng dựa trên hành vi mua sắm mà không cần biết trước các nhãn.  Học có giám sát: Huấn luyện AI trên dữ liệu có gán nhãn để dự đoán kết quả dựa trên các đầu vào đã biết.  Học tăng cường: AI Agents học tập qua việc thử nghiệm và các lỗi sai gặp phải, nhận phản hồi dưới dạng thưởng hoặc phạt.  Học đa tác nhân: Sự hợp tác và cạnh tranh giữa các tác nhân AI để giải quyết vấn đề một cách hiệu quả hơn.  AI Agents không chỉ đại diện cho một sự nâng cấp vượt bậc của các hệ thống hiện tại mà là một sự chuyển mình thực sự hướng tới trí tuệ tự thích ứng và trí tuệ tự động. Bằng cách nhận thức, lý luận, hành động và học hỏi, các tác nhân AI đang dần thành công trong quá trình mô phỏng các khía cạnh cơ bản về nhận thức của con người.  Tuy nhiên, để xây dựng lên những tác nhân AI như vậy không phải là điều đơn giản; các tổ chức cần có một cơ sở hạ tầng mạnh mẽ và linh hoạt. Từ nguồn tài nguyên GPU mạnh mẽ cho đến môi trường huấn luyện mô hình linh hoạt, tất cả đều là những yếu tố tiên quyết biến lý thuyết thành hiện thực. 5. Cách FPT AI Factory tăng tốc quá trình phát triển AI Agents Để đáp ứng nhu cầu này, FPT đã ra mắt FPT AI Factory, cung cấp một giải pháp toàn diện để hỗ trợ các doanh nghiệp phát triển AI Agents thông qua ba dịch vụ chính: FPT AI Infrastructure, FPT AI Studio và FPT AI Inference.  Xử lý dữ liệu (FPT AI Infrastructure)  Mỗi tác nhân AI thành công đều dựa vào một vòng quay dữ liệu liên tục để thúc đẩy sự cải tiến. Cơ sở hạ tầng NVIDIA H100/H200 GPU của FPT AI Factory hỗ trợ quá trình này bằng cách thu thập dữ liệu đa dạng (cuộc trò chuyện, tương tác người dùng, dữ liệu từ cảm biến), xử lý và gắn nhãn để huấn luyện AI Agents, từ đó triển khai các tác nhân AI thông minh hơn. Những tác nhân này tạo ra dữ liệu mới từ các tương tác của người dùng, truyền dữ liệu trở lại vào hệ thống để cải thiện các phiên bản tiếp theo. Chu trình tự củng cố này giúp các hệ thống AI ngày càng thông minh và phản hồi nhanh nhạy hơn khi các tác nhân được triển khai, tạo ra một vòng lặp cải tiến liên tục.  Phát triển AI Agents (FPT AI Studio)  Sau khi dữ liệu đã được chuẩn bị, các nhà phát triển có thể sử dụng FPT AI Studio để xây dựng và huấn luyện các tác nhân thông minh trong môi trường đám mây hợp tác. Nền tảng này hỗ trợ phát triển nhiều loại tác nhân AI - từ trợ lý hội thoại đến các hệ thống ra quyết định - cung cấp công cụ huấn luyện mô hình, tinh chỉnh hành vi và tối ưu hóa hiệu suất AI Agents để đảm bảo chúng phản hồi chính xác với các tình huống thực tế.  Triển khai và cung cấp AI Agents (FPT AI Inference)  Sau khi giai đoạn phát triển và kiểm tra đã hoàn thành, FPT AI Inference cho phép triển khai tác nhân AI vào các môi trường sản xuất một cách liền mạch. Những tác nhân được triển khai này không chỉ phục vụ người dùng một cách đáng tin cậy mà còn cung cấp các dữ liệu tương tác quan trọng quay trở lại vòng quay dữ liệu, tạo ra một chu trình cải tiến liên tục. Dù bạn đang triển khai một chatbot dịch vụ khách hàng, hệ thống xe tự lái, hay tích hợp AI Agents vào nền tảng thương mại điện tử, mỗi tương tác người dùng sẽ trở thành một phần của vòng quay dữ liệu giúp thế hệ tác nhân AI tiếp theo trở nên thông minh hơn.  Từ ý tưởng cho đến sản phẩm, FPT AI Factory cung cấp toàn bộ cơ sở hạ tầng cốt lõi, biến các ý tưởng về tác nhân AI thành các hệ thống thông minh và tự cải tiến thông qua sức mạnh của vòng quay dữ liệu. 

Tối ưu hóa sức mạnh của AI tạo sinh cùng Retrieval-Augmented Generation (RAG)

18:44 29/09/2025
Trí tuệ nhân tạo (AI) đang phát triển với tốc độ vượt bậc, làm thay đổi cách thức vận hành của các ngành công nghiệp và định hình lại cách doanh nghiệp tương tác với công nghệ. Ở trung tâm của làn sóng cách mạng này là các mô hình ngôn ngữ lớn (Large Language Models – LLM) như ChatGPT của OpenAI hay Google Gemini. Những mô hình này sở hữu năng lực vượt trội trong việc hiểu và tạo ra ngôn ngữ tự nhiên, trở thành công cụ hỗ trợ đắc lực cho nhiều lĩnh vực kinh doanh.  Tuy nhiên, LLMs vẫn tồn tại những hạn chế nhất định. Các mô hình này chủ yếu dựa trên dữ liệu được huấn luyện sẵn vốn có nguy cơ trở nên lỗi thời, thiếu sót hoặc chưa đáp ứng được nhu cầu chuyên sâu. Do đó, đôi khi chúng có thể tạo ra thông tin không chính xác, gây hiểu nhầm hoặc gặp khó khăn trong việc xử lý các truy vấn yêu cầu dữ liệu theo thời gian thực.  Để giải quyết thách thức này, phương pháp tăng cường truy xuất (Retrieval-Augmented Generation - RAG) đã ra đời. Cách tiếp cận này kết hợp sức mạnh sáng tạo của LLMs với khả năng truy xuất dữ liệu bên ngoài, từ đó mang lại các giải pháp AI chính xác, đáng tin cậy và sẵn sàng đáp ứng nhu cầu của doanh nghiệp.  Retrieval-Augmented Generation là gì?  Tăng cường truy xuất là một phương pháp AI được thiết kế nhằm cải thiện cách mô hình ngôn ngữ lớn tạo ra phản hồi. Thay vì chỉ dựa vào kiến thức được huấn luyện sẵn, RAG tích hợp thêm bộ truy xuất (retriever), cho phép lấy thông tin từ các kho dữ liệu bên ngoài như API, nội dung trực tuyến, cơ sở dữ liệu và tài liệu nội bộ.  RAG được phát triển nhằm nâng cao chất lượng phản hồi của các mô hình ngôn ngữ lớn  Công cụ truy xuất (retriever) có thể được lựa chọn tùy thuộc vào nhu cầu về mức độ ngữ nghĩa và độ chính xác, bao gồm:  Vector database: Các truy vấn được chuyển đổi thành vector nhúng (dense vector embedding) thông qua các mô hình như BERT (transformers- based Model). Ngoài ra, các phương pháp truyền thống như TF-IDF có thể được sử dụng để tạo ra sparse embeddings. Việc tìm kiếm dựa trên độ tương đồng ngữ nghĩa (semantic similarity) hoặc tần suất thuật ngữ (term frequency).  Graph database: Xây dựng cơ sở tri thức (knowledge base) từ các mối quan hệ giữa các thực thể (entity) được trích xuất từ văn bản. Phương pháp này đảm bảo tính chính xác của tri thức nhưng đòi hỏi truy vấn ban đầu phải chính xác, gây khó khăn trong một số trường hợp.  Regular SQL database: Lưu trữ và truy xuất dữ liệu có cấu trúc nhưng hạn chế về mặt linh hoạt trong việc xử lý ngữ nghĩa.  RAG đặc biệt hiệu quả trong xử lý lượng lớn dữ liệu phi cấu trúc, chẳng hạn như những thông tin phân tán khắp internet. Mặc dù dữ liệu này rất đa dạng, nhưng hiếm khi được tổ chức để trực tiếp trả lời truy vấn của người dùng.  Đó là lý do tại sao RAG đã được áp dụng rộng rãi trong các trợ lý ảo và chatbot (ví dụ: Siri, Alexa). Khi người dùng đặt câu hỏi, hệ thống có thể truy xuất dữ liệu liên quan và tạo câu trả lời rõ ràng, chính xác trong ngữ cảnh. Ví dụ: Khi được hỏi “Làm thế nào để cài đặt lại điều khiển ABC?”, RAG có thể truy xuất thông tin liên quan từ tài liệu sản phẩm và các tài liệu tương ứng, từ đó tạo ra câu trả lời ngắn gọn, dễ hiểu và chính xác.  Bằng cách kết hợp việc truy xuất kiến thức bên ngoài với khả năng của mô hình ngôn ngữ lớn, RAG giúp trải nghiệm người dùng trở nên chính xác, đáng tin cậy và phù hợp hơn, kể cả trong các tình huống phức tạp và chuyên ngành.  Mô hình RAG thường được ứng dụng phổ biến trong các trợ lý ảo và chatbot  Vì sao RAG quan trọng?  Các mô hình ngôn ngữ lớn như ChatGPT hay Gemini đã định hình các tiêu chuẩn mới cho xử lý ngôn ngữ tự nhiên với khả năng từ hiểu biết, tóm tắt cho đến sáng tạo nội dung. Tuy nhiên, dù có hiệu suất ấn tượng, những mô hình này vẫn có giới hạn nhất định. Khi các tác vụ đòi hỏi chuyên môn sâu trong lĩnh vực cụ thể hoặc kiến thức cập nhật vượt ra ngoài phạm vi dữ liệu đã được huấn luyện, các mô hình ngôn ngữ lớn có thể tạo ra các câu trả lời nghe có vẻ trôi chảy nhưng lại sai sự thật. Vấn đề này thường được gọi là ảo giác AI (AI hallucination).  Trong môi trường doanh nghiệp, thách thức này càng được thể hiện rõ rệt. Các tổ chức thường quản lý những kho lưu trữ khổng lồ chứa thông tin bảo mật bao gồm sổ tay kỹ thuật, tài liệu sản phẩm, các cơ sở kiến thức, mà các mô hình thường khó có thể điều hướng. Ngay cả các mô hình tiên tiến như GPT-4 vẫn có thể gặp phải hiệu ứng “lost in the middle” – một hạn chế khiến mô hình thường nhớ rõ thông tin ở đầu và cuối văn bản nhưng dễ bỏ sót các chi tiết quan trọng ở giữa, dẫn đến kết quả trả lời chưa đầy đủ.  RAG được phát triển để khắc phục toàn bộ những hạn chế này. Bằng cách tích hợp cơ chế truy xuất, RAG cho phép mô hình ngôn ngữ lớn lấy thông tin trực tiếp từ nguồn bên ngoài, từ dữ liệu công khai đến tài liệu riêng của doanh nghiệp. Điều này không chỉ bù đắp lỗ hổng kiến thức mà còn giảm thiểu rủi ro “ảo giác”, đảm bảo câu trả lời dựa trên dữ liệu có thể kiểm chứng.  Bằng cách tích hợp dữ liệu từ nguồn bên ngoài, RAG giúp LLM đưa ra phản hồi chính xác hơn và giảm nguy cơ ảo giác AI  Cách thức hoạt động của RAG  Lợi ích của RAG  RAG mang lại nhiều ưu điểm đáng kể so với các LLMs độc lập, bao gồm:  Cập nhật kiến thức nhanh chóng: Truy xuất thông tin mới nhất một cách linh hoạt mà không cần huấn luyện lại mô hình.  Giảm thiểu ảo giác AI: Các câu trả lời có căn cứ giúp giảm thiểu rủi ro nội dung bịa đặt.  Tính minh bạch: Cung cấp nguồn tham chiếu, cho phép người dùng xác minh thông tin.  Tăng hiệu quả chi phí: Loại bỏ các chu kỳ huấn luyện lại thường xuyên, giảm chi phí tính toán và tài chính.  Khả năng mở rộng dễ dàng: Hoạt động hiệu quả trên nhiều lĩnh vực, từ chăm sóc sức khỏe, tài chính đến CNTT doanh nghiệp.  Đa dạng ứng dụng: Cung cấp sức mạnh cho các ứng dụng như chatbot, hệ thống tìm kiếm và công cụ tóm tắt thông minh.  Ứng dụng thực tiễn của RAG  RAG chính là chìa khóa giúp AI tạo sinh khắc phục những hạn chế của các mô hình như ChatGPT hay Gemini, vốn chỉ dựa vào dữ liệu huấn luyện trước có thể nhanh chóng trở nên lỗi thời hoặc không chính xác.  Bằng cách kết hợp khả năng tạo sinh của các mô hình ngôn ngữ với việc truy xuất dữ liệu bên ngoài, RAG giúp đưa ra các câu trả lời rõ ràng, theo thời gian thực, giảm thiểu ảo giác AI và giúp doanh nghiệp tối ưu hóa chi phí.  Trong thực tế, RAG đang định hình tương lai của AI trong nhiều lĩnh vực, bao gồm:  Chatbot và dịch vụ khách hàng: Cung cấp phản hồi tức thì, chính xác bằng cách truy xuất câu trả lời trực tiếp từ sổ tay sản phẩm, câu hỏi thường gặp (FAQs) hoặc cơ sở kiến thức.  Chăm sóc sức khỏe: Cung cấp thông tin y khoa đáng tin cậy bằng cách tìm kiếm thông tin từ các hướng dẫn lâm sàng và nghiên cứu khoa học đã được xác minh.  Tài chính: Hỗ trợ cho các nhà phân tích với những dữ liệu được cập nhật thị trường theo thời gian thực và những hiểu biết theo ngữ cảnh được rút ra từ các dữ liệu trực tiếp, giúp mang lại những insight hữu ích.  Quản lý tri thức (Knowledge management): Giúp nhân viên tương tác với các tài liệu kỹ thuật và quy trình một cách tự nhiên.  Những trường hợp sử dụng thực tế này đã chứng minh cách RAG làm cho AI trở nên đáng tin cậy, minh bạch và thực sự có giá trị trên nhiều ngành công nghiệp.  Tương lai của RAG  RAG là bước tiến quan trọng hướng tới tạo ra giải pháp AI đáng tin cậy và có thẩm quyền. Bằng cách kết hợp giữa kiến thức đã học (parameterized knowledge) và dữ liệu truy xuất (retrieved knowledge), RAG khắc phục một trong những hạn chế lớn nhất của mô hình ngôn ngữ lớn.  Trong tương lai, với sự phát triển của tác nhân AI (AI có khả năng tự động phối hợp truy xuất, suy luận, và tạo sinh), kết hợp với tăng tốc phần cứng như NVIDIA Grace Hopper Superchip và các framework mã nguồn mở (LangChain) và hạ tầng sẵn sàng cho doanh nghiệp như FPT AI Factory với GPU hiệu năng cao, RAG sẽ ngày càng trở thành nền tảng cốt lõi cho các giải pháp AI của doanh nghiệp.  Vì vậy, RAG không chỉ là giải pháp cho vấn đề ảo giác hay thiếu hụt tri thức, mà chính là nền móng để xây dựng trợ lý thông minh, chatbot tiên tiến và hệ thống AI sẵn sàng cho doanh nghiệp trên mọi lĩnh vực. 

AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả

11:02 26/09/2025
Tại NVIDIA AI Day, ông Phạm Vũ Hùng – Solutions Architect & Senior Consultant của FPT Smart Cloud, Tập đoàn FPT đã có bài chia sẻ với chủ đề “AI Factory Playbook: Hướng dẫn Developer phát triển ứng dụng GenAI an toàn và hiệu quả”. Trong phần trình bày, ông Hùng mang đến góc nhìn về cách hiện thực hóa quy trình phát triển AI toàn trình, bao gồm từ việc xây dựng mô hình Generative AI cho đến triển khai AI Agent trong doanh nghiệp, trên nền tảng GPU Cloud H100/H200 của NVIDIA và hạ tầng AI Factory do FPT phát triển trong nước. Một vài điểm đáng chú ý trong phần chia sẻ: Phát triển AI toàn diện trong môi trường an toàn: quy trình khép kín từ huấn luyện GenAI đến triển khai AI Agent ngay tại data center trong nước. Tăng tốc với NVIDIA H100/H200 GPU: rút ngắn đáng kể thời gian training và inference. Xây dựng & tinh chỉnh GenAI bằng dữ liệu riêng: tạo ra mô hình chính xác hơn, đáp ứng nhu cầu đặc thù của doanh nghiệp. Xây dựng AI/ML Stack FPT AI Factory cung cấp hạ tầng AI/ML toàn diện, được xây dựng trên các trung tâm dữ liệu Tier 3 & 4 đạt chứng nhận NVIDIA tại Nhật Bản, xếp hạng tương ứng 36 và 38 trong danh sách TOP500 (tháng 6/2025).Trong số các dịch vụ nổi bật có GPU Container, GPU Virtual Machine và FPT AI Studio. Ngoài ra, nhà phát triển có thể tận dụng Bare Metal Server, GPU Cluster, AI Notebook và FPT AI Inference để đáp ứng đa dạng nhu cầu. [caption id="attachment_67178" align="aligncenter" width="1972"] Hình ảnh: Kiến trúc AI/ML Stack trên FPT AI Factory[/caption] GPU Container: Được thiết kế cho các tác vụ thử nghiệm, đi kèm tính năng giám sát, ghi log và sổ tay cộng tác (collaborative notebooks). Nhà phát triển có thể dễ dàng chia sẻ dữ liệu, viết mã, kiểm thử đơn vị (unit test) và thực thi trong một môi trường linh hoạt cao. GPU Virtual Machine: Máy ảo đa năng, tối ưu cho cả huấn luyện và suy luận, với tùy chọn cấu hình linh hoạt (từ 1 đến 8 GPU mỗi VM, dung lượng bộ nhớ GPU lên tới 141GB). GPU Cluster: Hạ tầng có khả năng mở rộng, hỗ trợ huấn luyện phân tán và suy luận quy mô lớn. Tích hợp NVLink, công nghệ chia sẻ GPU như MIG/MPS/Time-slice, cùng các tiện ích bảo mật nâng cao như nhật ký kiểm toán (audit logs) và CIS benchmarks. AI Notebook: Môi trường JupyterLab được quản lý, cài sẵn các thư viện AI/ML cần thiết. Nhà phát triển có thể bắt tay ngay vào lập trình trên GPU cấp doanh nghiệp mà không mất thời gian thiết lập, đồng thời tiết kiệm chi phí lên tới 70% so với môi trường notebook truyền thống. FPT AI Studio: Nền tảng MLOps no-code/low-code, tích hợp pipeline dữ liệu, các chiến lược tinh chỉnh (SFT, DPO, continual training), theo dõi thí nghiệm và quản lý mô hình. Giao diện kéo-thả trực quan cho phép nhà phát triển tinh chỉnh mô hình nhanh chóng và lưu trữ trong kho mô hình tập trung. FPT AI Inference: API sẵn sàng sử dụng với mức giá token cạnh tranh, giúp nhà phát triển triển khai mô hình đã tinh chỉnh một cách nhanh chóng và tiết kiệm chi phí. Trong phần trình bày, ông Hùng không chỉ nhấn mạnh những năng lực toàn diện của FPT AI Factory mà còn đưa ra ví dụ cụ thể từ khách hàng. Điển hình, FPT đã hợp tác với một công ty CNTT Nhật Bản để tinh chỉnh mô hình Donut (Document Understanding Transformer) trên bộ dữ liệu hơn 300GB. Bằng cách kết hợp GPU Container cùng FPT Object Storage, khách hàng có thể xử lý hiệu quả khối lượng lớn dữ liệu tài liệu, đồng thời tối ưu chi phí. Đây cũng là một ví dụ thực tiễn cho thấy doanh nghiệp có thể tận dụng hạ tầng của FPT AI Factory để triển khai các tác vụ AI trong thực tế. [caption id="attachment_67179" align="aligncenter" width="1674"] Hình ảnh: Quy trình tinh chỉnh mô hình Donut trên FPT AI Factory[/caption] Tăng tốc triển khai giải pháp AI thực tiễn Một trong những điểm nhấn của sự kiện là phần demo trực tiếp về AI Camera Agent được thiết kế cho bài toán tìm kiếm và tóm tắt nội dung video. Quy trình vận hành đơn giản nhưng mạnh mẽ: chỉ cần chọn một video, nhập mô tả ngắn gọn về nội dung cần tìm, và agent sẽ tự động xác định các đoạn liên quan, đồng thời tạo ra phần tóm tắt súc tích trong thời gian thực. NVIDIA Blueprints là yếu tố then chốt giúp hiện thực hóa giải pháp này – bộ kiến trúc giải pháp và công cụ đã được kiểm chứng, cho phép thử nghiệm nhanh chóng. Thay vì mất hàng tháng để xây dựng một nguyên mẫu từ đầu, nhóm đã có thể chuyển từ ý tưởng sang bản demo hoạt động chỉ trong một ngày. Sự tăng tốc này không chỉ chứng minh tính khả thi của giải pháp mà còn mang lại cho doanh nghiệp cách nhìn cụ thể về việc AI có thể được áp dụng như thế nào cho các thách thức xử lý dữ liệu video của riêng họ. [caption id="attachment_67180" align="aligncenter" width="1262"] Hình ảnh: Kiến trúc giải pháp AI Camera Agent (NVIDIA)[/caption] Đặc biệt, FPT AI Factory cung cấp môi trường full-stack, bao gồm từ các thành phần hạ tầng như GPU, máy ảo (VM) và Kubernetes đến các công cụ dành cho nhà phát triển, giúp triển khai giải pháp AI một cách nhanh chóng và hiệu quả. Với kiến trúc linh hoạt cùng các mô hình sẵn sàng sử dụng, nhà phát triển thậm chí có thể xây dựng giải pháp hoàn chỉnh chỉ với một NVIDIA H100 GPU, cân bằng giữa hiệu năng, khả năng mở rộng và tối ưu chi phí. Chẳng hạn, FPT AI Inference cung cấp thư viện mô hình sẵn dùng, cho phép nhà phát triển tích hợp ngay lập tức qua các API đơn giản. Với mức giá token cạnh tranh, đội ngũ phát triển có thể chạy các tác vụ suy luận nhanh hơn trong khi giảm đáng kể chi phí, giúp doanh nghiệp đưa ứng dụng AI ra thị trường một cách hiệu quả hơn. Tối ưu quy trình tinh chỉnh mô hình AI Hiện nay, nhà phát triển có thể tinh chỉnh mô hình trực tiếp trên GPU Container, điều này rất phù hợp cho mục đích thử nghiệm và phát triển nhanh. Tuy nhiên, để đưa một giải pháp vào vận hành thực tế, cần hơn cả sức mạnh tính toán - đó là khả năng tự động hóa quy trình tinh chỉnh. Để đáp ứng nhu cầu này, FPT AI Studio được giới thiệu, tích hợp các thành phần phổ biến trong quy trình MLOps như AI Notebook, xử lý dữ liệu (Data Processing) và nhiều chiến lược tinh chỉnh khác nhau như continual training. FPT AI Studio cho phép người dùng tích hợp dữ liệu, mô hình nền tảng và các chiến lược tinh chỉnh, với giao diện kéo-thả thân thiện, giúp xây dựng workflow nhanh chóng. Mô hình sau khi được tinh chỉnh có thể được lưu trữ trong Model Hub - một kho trung tâm để quản lý phiên bản, chia sẻ và tái sử dụng. Sau đó, các mô hình này có thể được chuyển ngay sang FPT AI Inference để triển khai với khả năng mở rộng và độ trễ thấp trong môi trường sản xuất. FPT AI Studio cung cấp môi trường lý tưởng để tối ưu hóa việc tinh chỉnh và triển khai mô hình. Nền tảng này vừa dễ tiếp cận cho người mới, vừa cho phép tùy chỉnh sâu cho người dùng nâng cao. Các thành phần chính của MLOps trên FPT AI Studio bao gồm: AI Notebook: môi trường thử nghiệm lập trình dựa trên mã nguồn. Các quy trình xử lý dữ liệu: xử lý dữ liệu trước khi huấn luyện và kỹ thuật tạo đặc trưng (feature engineering). Chiến lược tinh chỉnh bao gồm huấn luyện liên tục (continual training), thích ứng theo miền (domain adaptation) và học chuyển giao (transfer learning). Khi một mô hình đã được tinh chỉnh trong FPT AI Studio, nó sẽ được lưu giữ trong Model Hub để dễ dàng quản lý, chia sẻ và sử dụng lại. Từ đây, mô hình có thể được chuyển trực tiếp sang FPT AI Inference, phục vụ với hiệu suất cao và độ trễ thấp trong môi trường sản xuất. [caption id="attachment_67182" align="aligncenter" width="1312"] Hình ảnh: Quy trình huấn luyện trên FPT AI Studio[/caption] Tại buổi chia sẻ, ông Hùng đã minh họa một câu chuyện thành công về cách FPT AI Studio được ứng dụng để tùy biến một mô hình ngôn ngữ lớn phục vụ lĩnh vực y tế tại Việt Nam. Mô hình gốc được chọn là Llama-3.1-8B, cân bằng tốt giữa khả năng xử lý và hiệu suất. Nhiệm vụ đặt ra là phát triển một mô hình tối ưu cho trả lời câu hỏi y tế, yêu cầu điều chỉnh chuyên sâu theo lĩnh vực nhưng vẫn giữ nguyên năng lực suy luận tổng quát của mô hình gốc. Bộ dữ liệu sử dụng bao gồm các tài liệu y tế tiếng Việt, với mục tiêu nâng cao khả năng nhớ chính xác thông tin, độ chuyên sâu về lĩnh vực, và chất lượng phản hồi trong các tình huống hỏi đáp lâm sàng. Cách tiếp cận thứ nhất dựa trên việc huấn luyện liên tục (continual pre-training). Sử dụng 24 NVIDIA H100 GPU trên 3 node, mô hình được huấn luyện trên bộ dữ liệu y tế qua 3 epoch, toàn bộ quy trình mất khoảng 31 giờ để hoàn tất. Cách tiếp cận thứ hai áp dụng tinh chỉnh có giám sát với LoRA adapters, là giải pháp tiết kiệm tài nguyên hơn. Trong phương án này, chỉ sử dụng 4 NVIDIA H100 GPU trên một node, huấn luyện qua 5 epoch, với thời gian tổng cộng khoảng 3 giờ. Mặc dù yêu cầu tính toán thấp hơn, phương pháp này vẫn mang lại cải thiện đáng kể cho các tác vụ hỏi đáp chuyên ngành. [caption id="attachment_67183" align="aligncenter" width="922"] Hình ảnh: Kết quả của quá trình pre-training và SFT LLM với bộ dữ liệu y tế[/caption] Gợi ý triển khai hiệu quả Trước tiên, điều quan trọng là lựa chọn công cụ phù hợp cho từng loại khối lượng công việc nhằm tối đa hóa cả hiệu suất lẫn hiệu quả chi phí. Với FPT AI Factory, người dùng được trang bị đầy đủ công cụ cần thiết cho mọi loại khối lượng công việc AI/ML, giúp thúc đẩy đổi mới AI nhanh hơn và hiệu quả hơn. Đối với giai đoạn thử nghiệm ban đầu, GPU Container hoặc AI Notebook cung cấp môi trường linh hoạt cho các nhà phát triển thử nghiệm ý tưởng và chạy nguyên mẫu nhanh. Khi triển khai, lựa chọn phù hợp phụ thuộc vào khối lượng công việc: GPU Container lý tưởng cho việc suy luận nhẹ, trong khi GPU Virtual Machine mang lại hiệu suất cần thiết cho suy luận thời gian thực hoặc xử lý theo lô. Các khối lượng công việc tính toán hiệu năng cao (HPC) đạt hiệu quả tối ưu trên Metal Cloud, cung cấp hiệu suất bare metal cho các tác vụ yêu cầu cao. Cuối cùng, các tổ chức muốn sử dụng mô hình sẵn sàng có thể truy cập AI Marketplace, nơi cung cấp các LLM đã được huấn luyện sẵn và dịch vụ hỗ trợ để tăng tốc quá trình áp dụng mà không cần tinh chỉnh thêm. [caption id="attachment_67184" align="aligncenter" width="941"] Hình ảnh: Giải pháp của FPT AI Factory cho các loại khối lượng công việc AI/ML khác nhau[/caption] Thứ hai, các nhà phát triển cần tối ưu hóa khối lượng công việc huấn luyện. Việc tối ưu huấn luyện các mô hình AI sinh tạo lớn đòi hỏi kết hợp giữa kỹ thuật tận dụng phần cứng và thiết kế quy trình làm việc. Một phương pháp quan trọng là sử dụng huấn luyện chính xác hỗn hợp (mixed-precision training), áp dụng các định dạng như FP16 hoặc BF16 để tăng tốc tính toán trên NVIDIA GPU đồng thời giảm tới 50% bộ nhớ sử dụng. Điều này không chỉ rút ngắn thời gian huấn luyện mà còn duy trì độ chính xác với khả năng tự động mở rộng. Huấn luyện phân tán cũng rất quan trọng, với các chiến lược như PyTorch DDP hoặc pipeline parallelism giúp mở rộng khối lượng công việc trên nhiều GPU hoặc node, cải thiện thông lượng và rút ngắn chu kỳ phát triển. Trong môi trường đa node, tối ưu kết nối cluster bằng NVLink hoặc InfiniBand có thể tăng tốc huấn luyện lên tới 3 lần, đảm bảo đồng bộ hiệu quả cho các tác vụ AI quy mô lớn. Quy trình dữ liệu và lưu trữ cũng cần được tối ưu, sử dụng NVIDIA DALI và khả năng I/O mở rộng để tránh nghẽn cổ chai. Cuối cùng, các công cụ đối chuẩn như kiểm thử hiệu suất GPU của FPT AI Factory và kết quả MLPerf của NVIDIA giúp xác thực cấu hình, đảm bảo mở rộng hiệu quả về chi phí cho quá trình tinh chỉnh. Thứ ba, cần tối ưu hóa khối lượng công việc suy luận (inference) để cung cấp dịch vụ AI tạo sinh có khả năng mở rộng và độ trễ thấp. Một phương pháp hiệu quả là lượng tử hóa (quantization) và sử dụng độ chính xác thấp hơn với NVIDIA TensorRT, chuyển đổi mô hình sang FP8 hoặc INT8 để tăng thông lượng tới 1,4 lần với ít ảnh hưởng tới độ chính xác. Đối với các mô hình ngôn ngữ lớn, quản lý bộ nhớ KV cache hiệu quả cũng rất quan trọng; các kỹ thuật như PagedAttention và chunked prefill giúp giảm phân mảnh bộ nhớ và rút ngắn thời gian tạo token đầu tiên tới 2–5 lần trong môi trường nhiều người dùng. Speculative decoding cải thiện hiệu suất bằng cách kết hợp một mô hình nháp nhỏ với mô hình chính để dự đoán nhiều token cùng lúc, mang lại thông lượng tăng 1,9–3,6 lần, đồng thời giảm độ trễ, đặc biệt hữu ích trong ứng dụng thời gian thực như tóm tắt video. Mở rộng với multi-GPU parallelism cũng đóng vai trò then chốt, giúp tăng tới 1,5 lần hiệu suất trong các tác vụ tinh chỉnh phân tán ở cluster khối lượng lớn. Cuối cùng, model distillation và pruning giúp thu gọn mô hình, giảm chi phí và độ trễ 20 - 30% mà không làm giảm chất lượng đầu ra. Điểm nhấn chính Kiến trúc quy trình AI toàn diện và bảo mật: Phân tích kiến trúc của một “AI factory” trong thực tế, tập trung vào nguyên tắc thiết kế để xây dựng vòng đời phát triển an toàn trong trung tâm dữ liệu nội bộ. Khán giả sẽ nắm rõ các bước kỹ thuật để đảm bảo cách ly dữ liệu, quản lý hosting mô hình an toàn, và thiết lập lộ trình từ tinh chỉnh tới triển khai AI agent đạt chuẩn doanh nghiệp. Kỹ thuật thực tiễn cho vận hành LLM tăng tốc GPU: Vượt ra ngoài thông số kỹ thuật, học cách tận dụng GPU hiệu năng cao (như NVIDIA H100/H200) một cách thực tế. Phiên chia sẻ này trình bày các phương pháp tối ưu cụ thể cho cả huấn luyện và tinh chỉnh, nhằm tối đa hóa thông lượng, giảm độ trễ, và rút ngắn chu kỳ phát triển cho các ứng dụng AI sinh tạo có yêu cầu cao.

Các lỗ hổng bảo mật được công bố và sự kiện an ninh mạng đáng chú ý trong tháng 09

16:03 24/09/2025
I. Các lỗ hổng bảo mật được công bố trong tháng 09  1. Microsoft   Microsoft phát hành bản cập nhật Patch Tuesday tháng 9/2025, bao gồm các bản vá bảo mật cho 81 lỗ hổng, trong đó có hai lỗ hổng zero-day đã được công khai.   Đợt cập nhật này cũng khắc phục 09 lỗ hổng “Nghiêm trọng” (Critical), trong đó gồm 05 lỗ hổng cho phép thực thi mã từ xa (RCE), 01 lỗ hổng tiết lộ thông tin  và 02 lỗ hổng leo thang đặc quyền.   Cụ thể, số lượng lỗ hổng theo từng loại như sau:  41 lỗ hổng leo thang đặc quyền (Elevation of Privilege)   2 lỗ hổng vượt qua tính năng bảo mật (Security Feature Bypass)   22 lỗ hổng thực thi mã từ xa (Remote Code Execution)   16 lỗ hổng tiết lộ thông tin (Information Disclosure)   3 lỗ hổng từ chối dịch vụ (Denial of Service)   1 lỗ hổng giả mạo (Spoofing)   Lỗ hổng zero-day được công bố công khai gồm:  CVE-2025-55234 - Windows SMB Elevation of Privilege Vulnerability   CVE-2024-21907 - Newtonsoft.Json - Xử lý sai điều kiện ngoại lệ    Cập nhật gần đây từ các công ty khác:  Adobe: phát hành bản vá bảo mật cho lỗ hổng “SessionReaper” ảnh hưởng đến các cửa hàng thương mại điện tử Magento.   Argo: khắc phục một lỗ hổng trong Argo CD cho phép các token API có quyền hạn thấp vẫn có thể truy cập endpoint API và lấy toàn bộ thông tin xác thực repository liên kết với dự án.   Cisco: phát hành bản vá cho WebEx, Cisco ASA, và các sản phẩm khác.   Google: phát hành bản cập nhật bảo mật Android tháng 9, xử lý tổng cộng 84 lỗ hổng, trong đó có hai lỗ hổng đã bị khai thác tích cực.   SAP: phát hành bản vá bảo mật tháng 9 cho nhiều sản phẩm, bao gồm một bản vá cho lỗ hổng thực thi lệnh với mức độ nghiêm trọng tối đa trong Netweaver.   Sitecore: phát hành bản vá cho lỗ hổng zero-day CVE-2025-53690, đã bị khai thác trong các cuộc tấn công thực tế.   TP-Link: xác nhận tồn tại một lỗ hổng zero-day mới trong một số dòng router; công ty đang đánh giá khả năng khai thác và chuẩn bị phát hành bản vá cho khách hàng tại Mỹ.   Dưới đây là danh sách đầy đủ các lỗ hổng đã được giải quyết trong các bản cập nhật Patch Tuesday tháng 9 năm 2025:   Tag   CVE ID   CVE Title   Severity   Azure - Networking   CVE-2025-54914   Azure Networking Elevation of Privilege Vulnerability   Critical   Azure Bot Service   CVE-2025-55244   Azure Bot Service Elevation of Privilege Vulnerability   Critical   Azure Entra   CVE-2025-55241   Azure Entra Elevation of Privilege Vulnerability   Critical   Dynamics 365 FastTrack Implementation Assets   CVE-2025-55238   Dynamics 365 FastTrack Implementation Assets Information Disclosure Vulnerability   Critical   Graphics Kernel   CVE-2025-55236   Graphics Kernel Remote Code Execution Vulnerability   Critical   Graphics Kernel   CVE-2025-55226   Graphics Kernel Remote Code Execution Vulnerability   Critical   Microsoft Graphics Component   CVE-2025-53800   Windows Graphics Component Elevation of Privilege Vulnerability   Critical   Microsoft Office   CVE-2025-54910   Microsoft Office Remote Code Execution Vulnerability   Critical   Windows Imaging Component   CVE-2025-53799   Windows Imaging Component Information Disclosure Vulnerability   Critical   Windows NTLM   CVE-2025-54918   Windows NTLM Elevation of Privilege Vulnerability   Critical   Windows Win32K - GRFX   CVE-2025-55224   Windows Hyper-V Remote Code Execution Vulnerability   Critical   Windows Win32K - GRFX   CVE-2025-55228   Windows Graphics Component Remote Code Execution Vulnerability   Critical   Xbox   CVE-2025-55242   Xbox Certification Bug Copilot Djando Information Disclosure Vulnerability   Critical   Chi tiết về từng loại lỗ hổng và bản vá có thể xem thêm tại Tuesday Patch, paper.   2. Linux CVE-2025-20128 - ClamAV (OLE2 decryption)   Lỗi trong cơ chế giải mã OLE2 của ClamAV có thể dẫn đến điều kiện ngoài giới hạn bộ nhớ (heap buffer overflow read / integer underflow trong kiểm tra bounds) khi ClamAV quét file độc hại. Kẻ tấn công từ xa (không cần xác thực) có thể gửi file được chế tạo đặc biệt để làm crash quá trình quét (Denial-of-Service); trong một số trường hợp liên quan đến PDF/OLE2 còn có ghi nhận khả năng thực thi mã tùy ý nếu phối hợp với lỗ hổng khác.   CVE-2025-20260 - ClamAV (PDF scanning)   Lỗ hổng liên quan tới xử lý file PDF trong ClamAV có thể gây tràn bộ đệm hoặc DoS; được liệt kê cùng DLA-4292-1. Tương tự CVE-2025-20128 - khả năng crash dịch vụ quét, rủi ro nâng cao nếu kết hợp payload khác; yêu cầu cập nhật ClamAV.   CVE-2025-57804 - python-h2 (HTTP/2 request splitting → request smuggling)   Thư viện h2 (Python HTTP/2 stack) trước phiên bản vá có lỗi xử lý khiến kẻ tấn công chèn ký tự CRLF để tách/bẻ ranh giới request khi server xuống cấp (downgrade) HTTP/2 → HTTP/1.1, dẫn tới HTTP request smuggling. Kẻ tấn công có thể vượt qua các kiểm soát phía trước (WAF, CDN), thực hiện request smuggling, lấy quyền truy cập vào session của người dùng, hoặc đầu độc cache. Được đánh giá là nghiêm trọng; đã có bản vá (ví dụ h2 ≥ 4.3.0).   CVE-2025-58068 - python-eventlet (HTTP request smuggling / WSGI parser)   python-eventlet (WSGI server/parser) xử lý không đúng phần trailer của HTTP, dẫn tới request smuggling qua cách phân tách/ràng buộc header/trailer. Kẻ tấn công có thể bypass front-end security, tấn công người dùng đang hoạt động, hoặc poison web cache; ảnh hưởng đến các ứng dụng WSGI dùng eventlet. Đã có bản vá trong distro (Debian, SUSE, …).   CVE-2025-8067 - udisks2 (Out-of-bounds read)   Lỗi kiểm tra ranh giới trong udisks2 (D-Bus daemon quản lý thiết bị lưu trữ) dẫn tới out-of-bounds read khi xử lý một số thao tác tập tin/descriptor. Có thể khiến daemon udisks2 crash (DoS) hoặc lộ thông tin; kẻ tấn công cục bộ (unprivileged) có khả năng gây ảnh hưởng tới tính sẵn sàng/độc lập của dịch vụ lưu trữ. Đã có bản vá cho các distro (Debian, Fedora, Oracle Linux, Ubuntu…).   Thông tin chi tiết về các lỗ hổng có thể xem tại Advisories.  3. VMware công bố các lỗ hổng tháng 9  CVE-2025-4517 - VMware Tanzu Greenplum   Mức độ: Critical   Ảnh hưởng: Greenplum trước 7.5.4.   Mô tả: Lỗ hổng cho phép kẻ tấn công khai thác để thực hiện tấn công nghiêm trọng (chi tiết kỹ thuật hạn chế trong advisory).   Khuyến nghị: Cập nhật lên Greenplum 7.5.4.   CVE-2025-9288 - VMware Tanzu Greenplum   Mức độ: Critical   Ảnh hưởng: Greenplum trước 7.5.4.   Mô tả: Lỗ hổng bảo mật nghiêm trọng trong cơ chế xử lý dữ liệu; có thể dẫn đến compromise hệ thống.   Khuyến nghị: Cập nhật bản vá Greenplum 7.5.4.   CVE-2025-32462 - VMware Tanzu Platform / Cloud Foundry   Mức độ: Critical (CVSS 10.0)   Ảnh hưởng: Một số thành phần Tanzu Platform.   Mô tả: Cho phép khai thác từ xa, nguy cơ chiếm quyền cao.   Khuyến nghị: Cập nhật bản vá theo advisory tháng 9/2025.   CVE-2025-6395 - VMware Tanzu Platform   Mức độ: High   Ảnh hưởng: Các bản phát hành Tanzu Application Service.   Mô tả: Lỗ hổng bảo mật nghiêm trọng, chi tiết không công bố đầy đủ.   Khuyến nghị: Nâng cấp lên phiên bản bản vá mới nhất.   CVE-2025-5916 / CVE-2025-5917 - VMware Tanzu (Stemcells / Hub)   Mức độ: Critical   Ảnh hưởng: Tanzu Stemcells, Tanzu Hub.   Mô tả: Lỗ hổng bảo mật có thể khai thác từ xa, cho phép chiếm quyền hệ thống.   Khuyến nghị: Áp dụng patch từ Broadcom ngay lập tức.   Thông tin chi tiết về các bản vá có thể xem tại Advisories. II. Một số sự kiện an ninh mạng đáng chú ý 1. Apple cảnh báo người dùng bị nhắm mục tiêu trong các cuộc tấn công spyware mới  Trong tháng 9/2025, Apple cảnh báo nhiều người dùng rằng thiết bị của họ đã trở thành mục tiêu của các cuộc tấn công spyware tinh vi.    Theo CERT-FR, từ đầu năm đến nay Apple đã gửi ít nhất 4 đợt thông báo (5/3, 29/4, 25/6 và 3/9) tới tài khoản của người dùng bị ảnh hưởng. Những cảnh báo này xuất hiện trong email, số điện thoại liên kết với Apple ID và hiển thị khi đăng nhập. Các cuộc tấn công chủ yếu khai thác zero-day hoặc zero-click, không cần tương tác từ người dùng, và nhắm tới các cá nhân có vai trò nhạy cảm như nhà báo, luật sư, chính trị gia, quan chức cấp cao.    Apple gần đây cũng đã phát hành bản vá khẩn cấp cho lỗ hổng CVE-2025-43300 kết hợp với một lỗ hổng WhatsApp zero-click. Công ty khuyến nghị người dùng bị nhắm mục tiêu kích hoạt Lockdown Mode và liên hệ hỗ trợ khẩn cấp. Từ năm 2021, Apple đã gửi cảnh báo cho người dùng tại hơn 150 quốc gia nhưng không nêu rõ tác nhân tấn công đứng sau.  2. Microsoft bổ sung cảnh báo liên kết độc hại trong tin nhắn riêng trên Teams Microsoft vừa công bố tính năng cảnh báo liên kết độc hại trong tin nhắn riêng trên Teams, áp dụng cho khách hàng Microsoft Defender for Office 365 và Teams Enterprise. Tính năng này sẽ hiển thị banner cảnh báo trực tiếp trên tin nhắn có chứa URL bị gắn nhãn spam, phishing hoặc malware, giúp nâng cao nhận thức của người dùng.    Public preview bắt đầu từ tháng 9/2025 trên desktop, web, Android, iOS, và dự kiến phát hành chính thức vào tháng 11/2025. Admin có thể bật/tắt tính năng trong Teams Admin Center hoặc PowerShell, và khi một tenant bật thì toàn bộ tenant sẽ được áp dụng. Sau khi chính thức ra mắt, tính năng sẽ mặc định bật. Microsoft cũng đang mở rộng khả năng bảo vệ Teams, bao gồm chặn liên lạc từ domain độc hại và xoá tin nhắn từ người dùng bị chặn. Điều này bổ sung cho các tính năng sẵn có như Safe Links và ZAP. Với hơn 320 triệu người dùng hàng tháng trên toàn cầu, Microsoft kỳ vọng tăng cường mạnh mẽ khả năng bảo vệ cho hệ sinh thái Teams.   Đứng trước những cuộc tấn công mạng ngày càng tinh vi và nguy hiểm như hiện nay, FPT Cloud khuyến cáo người dùng nên chủ động cập nhật phần mềm, tiến hành ứng dụng các biện pháp bảo mật dữ liệu tiên tiến giúp sao lưu và khôi phục dữ liệu tức thời, an toàn và toàn vẹn.     Tìm hiểu thêm thông tin chi tiết về dịch vụ sao lưu dữ liệu của FPT Cloud tại đây.   Liên hệ với chúng tôi để được tư vấn về dịch vụ của FPT Cloud Fanpage: https://www.facebook.com/fptsmartcloud/ Email: [email protected] Hotline: 1900 638 399