Singapore ra mắt Khung quản trị kiểu mới cho tác nhân AI
Singapore vừa công bố Khung quản trị AI mới dành cho tác nhân AI tại Diễn đàn Kinh tế Thế giới, nhằm bảo đảm việc triển khai công nghệ này diễn ra an toàn, đáng tin cậy và có trách nhiệm…

Bộ trưởng Phát triển Kỹ thuật số và Thông tin Singapore, bà Josephine Teo, vừa công bố Khung quản trị AI Mô hình (Model AI Governance Framework – MGF) mới dành cho tác nhân AI (Agentic AI) tại Diễn đàn Kinh tế Thế giới (WEF) vào cuối tuần trước, theo Technode Global.
Cơ quan Phát triển Truyền thông Infocomm (IMDA) cho biết trong tuyên bố rằng khung quản trị do cơ quan xây dựng, là khung đầu tiên trên thế giới dành cho triển khai tác nhân AI một cách đáng tin cậy và an toàn. Khung này phát triển dựa trên nền tảng quản trị MGF cho AI, vốn được giới thiệu từ năm 2020.
Khung quản trị mới khuyến nghị cả biện pháp kỹ thuật và phi kỹ thuật nhằm giảm thiểu rủi ro, đồng thời nhấn mạnh con người vẫn là bên chịu trách nhiệm cuối cùng.
Những sáng kiến như MGF cho tác nhân AI giúp tất cả người dân hưởng thụ lợi ích của trí tuệ nhân tạo trong môi trường an toàn và đáng tin cậy.
Điều này phù hợp với cách tiếp cận thực tiễn và cân bằng của Singapore trong quản trị AI, trong đó hàng rào bảo vệ được thiết lập song song với việc tạo không gian cho đổi mới sáng tạo.
Không giống như AI truyền thống hay AI tạo sinh, tác nhân AI có khả năng suy luận và tự thực hiện hành động để hoàn thành nhiệm vụ thay mặt người dùng.
Điều này cho phép doanh nghiệp tự động hóa công việc lặp đi lặp lại, chẳng hạn như một số nhiệm vụ liên quan đến dịch vụ khách hàng, đồng thời thúc đẩy chuyển đổi ngành bằng cách giải phóng thời gian cho nhân viên tập trung vào nhóm công việc có giá trị cao hơn.
AI TÁC NHÂN: TỰ ĐỘNG HÓA MẠNH MẼ NHƯNG ĐI KÈM RỦI RO MỚI

Tuy nhiên, do tác nhân AI có thể truy cập dữ liệu nhạy cảm và có khả năng thay đổi môi trường hoạt động, chẳng hạn như cập nhật cơ sở dữ liệu khách hàng hoặc thực hiện thanh toán, việc sử dụng công cụ này cũng mang lại nhiều rủi ro mới, ví dụ như hành động trái phép hoặc sai sót.
Khả năng và mức độ tự chủ ngày càng cao của tác nhân AI cũng tạo ra thách thức đối với trách nhiệm giải trình của con người, chẳng hạn như thiên kiến tự động hóa – xu hướng quá tin tưởng vào hệ thống tự động từng hoạt động ổn định trong quá khứ.
Do đó, việc hiểu rõ rủi ro mà tác nhân AI có thể gây ra là vô cùng quan trọng, cũng như việc đảm bảo tổ chức triển khai biện pháp quản trị cần thiết để khai thác AI tác nhân một cách có trách nhiệm, bao gồm duy trì sự kiểm soát và giám sát có ý nghĩa từ con người đối với tác nhân AI.
Khung MGF cung cấp cái nhìn có cấu trúc về rủi ro của tác nhân AI và một số thông lệ tốt mới nổi trong việc quản lý những rủi ro này.
Khung này hướng đến nhóm doanh nghiệp có nhu cầu triển khai rộng rãi tác nhân AI, dù là tự phát triển nội bộ hay sử dụng giải pháp từ bên thứ ba.
BỐN TRỤ CỘT QUẢN TRỊ ĐỂ TRIỂN KHAI TÁC NHÂN AI CÓ TRÁCH NHIỆM
Theo tuyên bố, khung quản trị cung cấp cho doanh nghiệp hướng dẫn về biện pháp kỹ thuật và phi kỹ thuật cần thiết để triển khai tác nhân AI một cách có trách nhiệm, trên bốn khía cạnh.
Thứ nhất, đánh giá và giới hạn rủi ro ngay từ đầu bằng cách lựa chọn trường hợp sử dụng phù hợp cũng như đặt ra giới hạn quyền truy cập vào dữ liệu của tác nhân. Thứ hai, đảm bảo con người chịu trách nhiệm một cách thực chất đối với tác nhân AI bằng cách xác định các điểm kiểm soát quan trọng, tại đó cần có sự phê duyệt của con người.Thứ ba, triển khai biện pháp kiểm soát và quy trình kỹ thuật xuyên suốt vòng đời tác nhân, chẳng hạn như kiểm thử cơ bản và kiểm soát quyền truy cập vào dịch vụ nằm trong danh sách cho phép. Thứ tư, nâng cao trách nhiệm của người dùng cuối thông qua tính minh bạch và hoạt động giáo dục, đào tạo.
“Là nguồn tài liệu có thẩm quyền đầu tiên giải quyết rủi ro đặc thù, khung MGF đã lấp đầy khoảng trống quan trọng trong hướng dẫn chính sách dành cho tác nhân AI. Khung này thiết lập nền tảng cốt lõi cho việc bảo đảm chất lượng và độ tin cậy của tác nhân AI, giúp tổ chức xác định ranh giới của tác nhân, nhận diện rủi ro và triển khai biện pháp giảm thiểu cũng như hàng rào bảo vệ vững chắc”, bà April Chin, đồng Giám đốc Điều hành Resaro, cho biết.
THAM VỌNG XÂY DỰNG HỆ SINH THÁI AI ĐÁNG TIN CẬY TẠI KHU VỰC VÀ TOÀN CẦU

Được biết, Singapore đang hợp tác với một số quốc gia khác thông qua Viện An toàn AI (AI Safety Institute – AISI) và dẫn dắt Nhóm công tác ASEAN về Quản trị AI (WG-AI) nhằm phát triển ngành công nghiệp AI đáng tin cậy trong khu vực ASEAN, đồng thời thúc đẩy hợp tác giữa các quốc gia Đông Nam Á.
Ở phạm vi trong nước, các sáng kiến như khung MGF, bộ công cụ AI Verify và Bộ công cụ khởi đầu cho kiểm thử các ứng dụng dựa trên mô hình ngôn ngữ lớn về an toàn và độ tin cậy (Starter Kit for Testing of LLM-Based Applications for Safety and Reliability) đã trở thành bước đệm quan trọng hướng tới mục tiêu xây dựng hệ sinh thái AI an toàn trên phạm vi quốc tế.