EU AI Act: Đạo luật tiên phong trong cuộc đua kiểm soát AI

Một dự thảo luật do Nghị viện châu Âu công bố đã trở thành nỗ lực toàn diện nhất trên thế giới nhằm giải quyết các mối nguy hại tiềm tàng của trí tuệ nhân tạo.

Upload image

Trí tuệ nhân tạo (AI) đã và đang là nhân tố thay đổi cuộc chơi trong các ngành công nghiệp. Tuy nhiên, những lo ngại về tiềm năng khó lường trước của AI đã thúc đẩy Liên minh Châu Âu (EU) hành động. Trong cuộc chạy đua toàn cầu để kiểm soát AI, bước quyết định của EU đối với việc thực hiện Đạo luật AI tạo tiền đề cho việc xác định lại vai trò của AI trong xã hội và nền kinh tế. Đạo luật mang tính bước ngoặt này không chỉ là một nỗ lực toàn diện nhằm giải quyết các thách thức do AI đặt ra mà còn là một kế hoạch tiềm năng để định hình các tiêu chuẩn AI toàn cầu.

1. Bối cảnh toàn cầu và sự cấp bách

Khi ảnh hưởng của AI nhân rộng trên toàn cầu, các nhà hoạch định chính sách phải vật lộn với việc cân bằng giữa sự đổi mới và quy định. Từ Washington đến Bắc Kinh cho đến Bỉ, chính phủ các nước đang nỗ lực tạo ra tiêu chuẩn cho cách họ quản lý hệ thống AI đang phát triển. Liên minh châu Âu bắt đầu nổi lên như một nhà tiên phong trong lĩnh vực này này, thiết lập những quy định để định rõ và đối mặt với những cạm bẫy tiềm tàng của AI. Điều này được thể hiện rõ khi dự thảo luật của Nghị viện Châu Âu được công bố với tên gọi AI Act (Đạo luật Trí tuệ Nhân tạo).

2. Những yếu tố quan trọng của EU AI Act

Dự thảo EU AI Act đã đánh dấu một bước ngoặt quan trọng trong việc hạn chế các ứng dụng AI có nguy cơ rủi ro cao đối với xã hội. Bộ luật hoàn chỉnh dự kiến sẽ được thông qua vào cuối năm 2023, phản ánh sự tiếp cận tỉ mỉ của EU trong việc xây dựng một khung pháp lý toàn diện.

Phạm vi áp dụng

Đạo luật AI vượt ra ngoài biên giới EU, bao gồm các nhà phát triển và người dùng trên toàn cầu. Tham vọng của nó nằm ở việc thúc đẩy sự đổi mới trong khi giảm thiểu rủi ro tiềm ẩn. Trong bối cảnh công nghệ phát triển nhanh hơn thiết lập quy định, cách tiếp cận linh hoạt của Đạo luật phù hợp với cả bối cảnh AI ngày nay và các biến chuyển không lường trước được trong tương lai.

Tiếp Cận Dựa Trên Rủi Ro

Trung tâm của chiến lược Đạo luật là phân loại rủi ro theo cấp độ, chia các hệ thống AI thành bốn cấp độ rủi ro: rủi ro không chấp nhận được, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu. Phương pháp sáng tạo này tùy chỉnh yêu cầu quy định cho mỗi cấp độ rủi ro, đảm bảo tính cân đối trong việc thực thi và giảm thiểu việc quy định nặng nề khi không cần thiết.

Nền tảng của các nguyên tắc của Đạo luật AI của EU được thiết lập trên bốn cấp độ rủi ro. Thay vì áp đặt các hạn chế chung, phương pháp tiếp cận theo cấp độ này nhằm mục đích phù hợp với tính minh bạch, quy tắc, nghĩa vụ và giám sát đối với nhà cung cấp và người dùng tùy thuộc vào các tác động bất lợi mà hệ thống có thể gây ra, đảm bảo tính cân đối trong việc thực thi và giảm thiểu việc quy định nặng nề khi không cần thiết. Trong đó bao gồm:

- Minimal risk (Rủi ro tối thiểu): Được cho phép sử dụng tự do. 

Ví dụ: Điều khiển chuyển động của nhân vật trong trò chơi video có hỗ trợ mô hình hoặc kết xuất 3D.

- Limited Risk (Rủi ro hạn chế): Nhà cung cấp có nghĩa vụ thông báo hệ thống AI đang được tương tác, sau đó người dùng có thể quyết định hành động tiếp theo hoặc rời khỏi nền tảng nếu họ muốn. 

Ví dụ: Các chương trình chỉnh sửa hình ảnh, video, âm thanh.

- High risk (Rủi ro cao): Các hệ thống AI có rủi ro cao được cho phép, nhưng các nhà phát triển và người dùng phải tuân thủ các quy định yêu cầu kiểm tra nghiêm ngặt, tài liệu phù hợp về chất lượng dữ liệu và khung trách nhiệm giải trình chi tiết về sự giám sát của con người. Loại hình này gồm những hệ thống có thể gây thiệt hại cho cộng đồng, sức khỏe, an toàn hoặc có thể gây ra các tác động tiêu cực đến môi trường. Mô hình AI được coi là rủi ro cao bao gồm xe tự hành, các thiết bị y tế và máy móc cơ sở hạ tầng quan trọng, v.v.

- Unacceptable risk (Rủi ro không được chấp nhận): Các hệ thống loại này sẽ bị cấm. Để một hệ thống hỗ trợ AI bị phân loại unacceptable risk, hệ thống đó phải khai thác dữ liệu sinh trắc học vật lý, cảm xúc, giới tính, chủng tộc, dân tộc, tình trạng công dân, tôn giáo và khuynh hướng chính trị. Tuy nhiên, việc xử lý dữ liệu sinh trắc học sau sự cố (không theo thời gian thực) để nhận dạng tội phạm nghiêm trọng (sau khi được tòa án phê duyệt) được miễn ở cấp độ này.

Các nền tảng high riskunacceptable risk là hai điểm quan trọng trong khuôn khổ EU AI Act. Trong đó, trạng thái high risk được đặc biệt chú trọng do việc triển khai phổ biến các mạng học sâu không thể giải thích (uninterpretable deep network). Vì chúng bao phủ các phân khúc thương mại lớn hơn nên có thể tham khảo các tài liệu chính thức để biết thêm về các ví dụ thuộc danh mục này (ví dụ: Các sản phẩm được liệt kê theo luật an toàn sản phẩm của EU). Vì lý do đó, các quy trình đánh giá, quy định và giám sát chặt chẽ hơn được đề xuất như sau:

- Các sản phẩm phải được đăng ký trong EU Database.

- Các nền tảng phải tiết lộ mọi nội dung được tạo bởi một sản phẩm AI.

- Các nền tảng phải đảm bảo ngăn chặn việc tạo ra nội dung bất hợp pháp.

- Các nền tảng phải cung cấp các bản tóm tắt về dữ liệu có bản quyền được sử dụng trong quá trình đào tạo.

Chịu ảnh hưởng của đạo luật này, các nền tảng như ChatGPT phải cung cấp thông tin về nội dung được tạo bởi AI kèm theo các biện pháp ngăn chặn việc tạo ra nội dung bất hợp pháp. Bằng cách giải quyết sự mập mờ của các hệ thống AI tạo sinh như ChatGPT, Đạo luật thúc đẩy tính minh bạch, bảo vệ người dùng khỏi nội dung sai lệch hoặc có thể gây nhầm lẫn được tạo ra bởi AI. Biện pháp tiếp cận kỹ càng này nhằm hướng đến việc bảo đảm độ tin cậy của AI bên cạnh thúc đẩy sự tiến bộ công nghệ.

Hình Phạt và Thực Thi

Các khoản phạt nghiêm ngặt trong EU AI Act phản ánh sức nặng của Đạo luật này. Vi phạm các quy định của Đạo luật có thể dẫn đến các mức phạt nặng nề, vượt xa các khoản phạt của General Data Protection Regulation/GDPR (Quy định bảo vệ dữ liệu chung). Thái độ nghiêm khắc này thể hiện sự cam kết của EU trong việc khuyến khích sự phát triển trách nhiệm của AI.

Theo Racheal Muldoon, một luật sư tại công ty luật Maitland Chambers ở London, hầu hết các hệ thống AI có thể sẽ rơi vào danh mục rủi ro cao hoặc bị cấm, khiến chủ sở hữu của chúng có khả năng bị phạt rất nặng nếu vi phạm các quy định.

Việc tham gia vào các hoạt động AI bị cấm có thể bị phạt tới 40 triệu euro hoặc số tiền tương đương với 7% doanh thu toàn cầu hàng năm của một công ty, tùy theo mức nào cao hơn.

Mức phạt này nặng hơn nhiều so với General Data Protection Regulation, theo đó Meta đã bị phạt 1,2 tỷ euro vào tháng trước. GDPR quy định mức phạt lên tới 10 triệu euro hoặc tối đa 2% doanh thu toàn cầu của một công ty.

Các khoản tiền phạt theo Đạo luật AI đóng vai trò thông điệp từ các nhà lập pháp để nói rằng, hãy thực hiện điều này một cách nghiêm túc.

Phản hồi của ngành công nghiệp và lo ngại

Các công ty châu Âu đã thể hiện sự lo ngại, cảnh báo rằng Đạo luật có thể làm giảm tính cạnh tranh và làm suy yếu chủ quyền công nghệ của châu Âu. Mặc dù có những lo ngại này, Đạo luật phản ánh quyết tâm của EU trong việc cân bằng lợi ích của ngành công nghiệp với sự phát triển của xã hội.

Microsoft - gã khổng lồ công nghệ đi đầu trong lĩnh vực phát triển AI trên toàn cầu, bên cạnh Google - hoan nghênh những tiến bộ trong đạo luật nhưng họ mong chờ nó sẽ “được hoàn thiện thêm”. Trong một tuyên bố, người phát ngôn của Microsoft cho biết: “Chúng tôi tin rằng lĩnh vực AI cần có các rào cản pháp lý, nỗ lực liên kết ở cấp độ quốc tế và các hành động tự nguyện có ý nghĩa từ các công ty phát triển và triển khai AI”.

Bên cạnh đó, Sam Altman - giám đốc điều hành của OpenAI, nhà sản xuất ChatGPT - trong những tháng gần đây đã đến thăm ít nhất 100 nhà lập pháp Mỹ và các nhà hoạch định chính sách toàn cầu khác ở Nam Mỹ, Châu Âu, Châu Phi và Châu Á, bao gồm cả Ursula von der Leyen - chủ tịch Ủy ban châu Âu. Ông Altman đã kêu gọi thiết lập quy định để kiểm soát AI nhưng cũng cho biết đề xuất của Liên minh Châu Âu có thể rất khó tuân thủ.

Trong khi đó, IBM kêu gọi các nhà hoạch định chính sách của EU thực hiện cách tiếp cận dựa trên rủi ro và đề xuất bốn cải tiến chính đối với dự thảo Đạo luật, bao gồm sự rõ ràng hơn về AI nhóm rủi ro cao “để chỉ có những trường hợp thực sự có rủi ro cao sẽ phải chịu hình thức hạn chế.”

Đạo luật có thể sẽ chưa được áp dụng cho đến năm 2026 và có khả năng sẽ còn sửa đổi chiếu theo chiều hướng phát triển nhanh chóng của AI. Đạo luật đã trải qua một số lần cập nhật kể từ khi quá trình soạn thảo bắt đầu vào năm 2021.

3. Tương lai và Thách Thức

Đạo luật AI của EU đại diện cho sự chuyển đổi quan trọng để xây dựng một hệ thống AI hòa hợp, ưu tiên sự đổi mới, trách nhiệm và tuân thủ các quy chuẩn đạo đức. Bằng cách xây dựng một khung pháp lý hoàn thiện, EU không chỉ đảm bảo sự phát triển có trách nhiệm của ngành công nghiệp AI mà còn muốn dẫn đầu toàn cầu về AI. Đạo luật này không chỉ là luật pháp, đó là một hành trình biến đổi, thể hiện sự cam kết của EU trong việc định hình hướng đi của AI, thúc đẩy tính minh bạch, trách nhiệm và đổi mới trong khi bảo vệ những quyền và giá trị của con người.

Dự thảo luật cũng đề xuất thành lập European Artificial Intelligence Board (Hội đồng Trí tuệ nhân tạo châu Âu). Cơ quan này sẽ giám sát việc thực hiện quy định và đảm bảo áp dụng thống nhất trên toàn EU. Đồng thời, được giao nhiệm vụ đưa ra các ý kiến và khuyến nghị về các vấn đề phát sinh cũng như cung cấp hướng dẫn cho các cơ quan có thẩm quyền quốc gia.

AI Act ban đầu được Ủy ban châu Âu đề xuất vào tháng 04/2021. Phần phương pháp tiếp cận chung của đạo luật đã được Hội đồng châu Âu thông qua vào cuối năm 2022. Các sửa đổi đã được thông qua vào ngày 14/06/2023 và hiện tại, văn bản dự thảo của đạo luật đóng vai trò là tâm điểm đàm phán giữa các quốc gia thành viên và Ủy ban Châu Âu. Đây có thể là một quá trình dài để đi đến thống nhất cuối cùng.

Atekco - Home for Authentic Technical Consultants