ĐỀ XUẤT ĐẠO LUẬT AI
Ngày 14/3/2023, hai báo cáo viên của Nghị viện châu Âu là Dragos Tudorache và Brando Benifei, đã chia sẻ bản dự thảo đầu tiên của Đạo luật AI, đề xuất một số nghĩa vụ của các nhà cung cấp ứng dụng AI và trách nhiệm đối với các chủ thể khác nhau có liên quan. Đạo luật AI dự kiến sẽ là một bộ luật đóng vai trò then chốt của EU trong quá trình điều chỉnh việc sử dụng trí tuệ nhân tạo ở châu Âu.
Ủy ban châu Âu đã đề xuất các quy tắc dự thảo đạo luật được thực hiện từ hơn hai năm trước nhằm bảo vệ công dân trước những nguy cơ của công nghệ mới nổi. Nhưng dự thảo đạo luật này cần phải được đưa ra giữa các nước EU và các nhà lập pháp EU, trước khi các quy tắc có thể trở thành luật áp dụng chính thức.
Các nhà lập pháp đã đề xuất phân loại các công cụ AI khác nhau theo mức độ rủi ro nhận thức được. Chính phủ và các công ty sử dụng các công cụ này sẽ có các nghĩa vụ khác nhau, tùy thuộc vào mức độ rủi ro. Một vấn đề đặt ra trong các cuộc đàm phán về đề xuất pháp lý là làm thế nào để áp dụng với các hệ thống AI mục đích chung (GPAI), các mô hình ngôn ngữ lớn có thể được điều chỉnh cho các nhiệm vụ khác nhau. GPAI là một hệ thống AI được đào tạo trên dữ liệu rộng ở quy mô lớn, được thiết kế cho tính tổng quát của đầu ra và có thể thích ứng với nhiều loại nhiệm vụ khác nhau. Hiện tại, các hệ thống AI chỉ được phát triển cho một nhóm ứng dụng hạn chế không thể điều chỉnh cho nhiều tác vụ khác nhau, module hoặc hệ thống AI đa mục đích đơn giản không nên được coi là hệ thống GPAI.
NGHĨA VỤ ĐỐI VỚI NHÀ CUNG CẤP GPAI
Các nhà cung cấp GPAI được khuyến nghị tuân thủ một số yêu cầu ban đầu đối với các giải pháp AI, bất kể kênh phân phối là gì và hệ thống được cung cấp dưới
dạng độc lập hay được nhúng trong một hệ thống lớn hơn. Việc thiết kế, thử nghiệm và phân tích các giải pháp GPAI phải phù hợp với các yêu cầu quản lý rủi ro của quy định để bảo vệ sự an toàn của người dùng, các quyền cơ bản và các giá trị theo quy định của EU, bao gồm cả việc lập hồ sơ tối giản về các rủi ro an toàn thông tin.
Các bộ dữ liệu cung cấp cho mô hình ngôn ngữ lớn này phải tuân theo các biện pháp quản trị dữ liệu phù hợp như đánh giá mức độ liên quan, tính phù hợp, các sai lệch tiềm ẩn của chúng, xác định những thiếu sót có thể xảy ra và các biện pháp giảm thiểu tương đối. Hơn nữa, ChatGPT và các công cụ tương tự sẽ phải trải qua các cuộc đánh giá bên ngoài để kiểm tra hiệu suất, khả năng dự đoán, diễn giải, khả năng sửa chữa, an toàn và an ninh mạng theo các yêu cầu nghiêm ngặt nhất của Đạo luật AI.
Về vấn đề này, các nhà lập pháp giới thiệu một điều khoản mới yêu cầu các cơ quan chức năng châu Âu và Văn phòng Sáng kiến AI phải cùng các đối tác quốc tế phát triển các chỉ dẫn, tính toán hiệu quả về chi phí để đo lường và đánh giá các khía cạnh tuân thủ của các hệ thống AI, đặc biệt là GPAI.
Các mô hình AI tạo văn bản dựa trên nội dung trên mạng có thể bị nhầm lẫn với nội dung xác thực do con người tạo ra phải tuân theo nghĩa vụ quản lý dữ liệu và minh bạch giống như các hệ thống có rủi ro cao, trừ khi ai đó chịu trách nhiệm pháp lý về văn bản.
Ngoài ra, các nhà cung cấp mô hình GPAI sẽ phải đăng ký mô hình đó trên cơ sở dữ liệu của EU. Tương tự, họ sẽ phải tuân thủ các yêu cầu về tài liệu kỹ thuật và quản lý chất lượng với tư cách là nhà cung cấp AI có rủi ro cao và tuân theo quy trình đánh giá sự phù hợp tương tự.
TRÁCH NHIỆM TRONG CHUỖI GIÁ TRỊ
Các nhà lập pháp EU đã chỉnh sửa lại một đoạn trong phần mở đầu của văn bản về trách nhiệm của các chủ thể kinh tế bên cạnh chuỗi giá trị AI và đưa các quy định về trách nhiệm này vào phần bắt buộc của văn bản.
Cụ thể, quy định nêu rõ rằng bất kỳ bên thứ ba nào, chẳng hạn như nhà phân phối hoặc nhà triển khai AI, sẽ được coi là nhà cung cấp hệ thống có rủi ro cao (với các nghĩa vụ liên quan) nếu họ sửa đổi đáng kể hệ thống AI, bao gồm cả GPAI. Trong những trường hợp này, nhà cung cấp hệ thống GPAI ban đầu sẽ phải hỗ trợ nhà cung cấp mới, đặc biệt là bằng cách cung cấp tài liệu kỹ thuật cần thiết, khả năng liên quan và quyền truy cập kỹ thuật để tuân thủ quy định AI mà không ảnh hưởng đến thông tin nhạy cảm về mặt thương mại.
Một phụ lục mới đã được giới thiệu liệt kê các ví dụ về thông tin mà các nhà cung cấp GPAI cần phải cấp cho các nhà khai thác đầu cuối liên quan đến các nghĩa vụ cụ thể của Đạo luật AI như quản lý rủi ro, quản trị dữ liệu, tính minh bạch, giám sát của con người, quản lý chất lượng, độ chính xác và an ninh mạng.
Chẳng hạn, để giúp nhà điều hành hệ thống đầu cuối tuân thủ các yêu cầu quản lý rủi ro của sách quy tắc AI, phụ lục yêu cầu nhà cung cấp GPAI chia sẻ thông tin về các khả năng và giới hạn của hệ thống, hướng dẫn sử dụng, kết quả kiểm tra hiệu suất và các biện pháp giảm thiểu rủi ro.
PHÁT TRIỂN NHANH CHÓNG
Các nhà lập pháp EU đang làm việc thông qua hơn 3.000 sửa đổi được lập bảng hệ thống, từ việc tạo ra một Văn phòng Sáng kiến AI mới đến phạm vi các quy tắc của Đạo luật AI dự kiến. Ngoài ra, các nhà lập pháp hiện đã và đang tìm cách đạt được sự cân bằng giữa khuyến khích đổi mới trong khi phải bảo vệ được các quyền cơ bản của công dân.
Điều này dẫn đến việc các công cụ AI khác nhau được phân loại theo mức độ rủi ro, từ tối thiểu đến hạn chế, cao và không thể chấp nhận được. Các công cụ có rủi ro cao sẽ không bị cấm, nhưng sẽ yêu cầu các công ty phải minh bạch cao trong hoạt động của họ.
Tài liệu tham khảo [1]. https://www.reuters.com/technology/ai-booms-eulawmakers-wrangle-over-new-rules-2023-03-22/. [2]. https://www.euractiv.com/section/artificialintelligence/news/leading-eu-lawmakers-proposeobligations-for-general-purpose-ai/. [3]. http://federal.governmentcareer.com.au/archived-news/ eu-wrangling-runaway-tech. |