Đây là một động thái táo bạo mà Nghị viện hy vọng sẽ mở đường cho các tiêu chuẩn trên toàn cầu áp dụng cho mọi công nghệ AI hiện có, từ chatbot như ChatGPT của OpenAI đến hệ thống phát hiện gian lận tại các ngân hàng, theo CNN Business.
"Chúng tôi đã làm nên lịch sử", ông Brando Benifei, thành viên Nghị viện châu Âu nghiên cứu Đạo luật AI, tuyên bố với phóng viên. Các nhà lập pháp đã đồng ý một phiên bản dự thảo của luật, hiện đang được Hội đồng Liên minh châu Âu và các quốc gia thành viên EU xem xét trước khi trở thành luật chính thức.
"Trong khi các Big Tech liên tiếp hé lộ về những công nghệ hiện đại, châu Âu đã đi trước một bước và đề xuất hành động cụ thể đối với rủi ro mà AI có thể tạo ra", ông Benifei nói thêm.
Vào tháng trước, hàng trăm nhà khoa học và nhà nghiên cứu AI hàng đầu đã cảnh báo rằng công nghệ này có nguy cơ gây ra thảm họa tuyệt chủng đối với nhân loại. Một số nhân vật nổi bật như Chủ tịch Microsoft Brad Smith và Giám đốc điều hành OpenAI Sam Altman đều cho rằng cần có quy định chặt chẽ hơn để kiểm soát AI.
Tại Hội nghị Thượng đỉnh CEO Yale tuần qua, hơn 40% các nhà lãnh đạo doanh nghiệp, bao gồm giám đốc Walmart Doug McMillion và Giám đốc điều hành Coca-Cola James Quincy cho biết AI có khả năng hủy diệt nhân loại từ 5 đến 10 năm nữa.
Trong bối cảnh đó, Đạo luật AI của EU hướng đến "thúc đẩy sự phát triển của trí tuệ nhân tạo lấy con người làm trung tâm, đồng thời đảm bảo an toàn sức khỏe con người, quyền cơ bản, dân chủ, pháp quyền và môi trường khỏi các tác động có hại".
Phân loại nguy cơ
Sau khi được phê duyệt, đạo luật sẽ áp dụng cho toàn bộ nhà phát triển và triển khai hệ thống AI ở EU, bao gồm cả các công ty nằm ngoài khối. Mức độ quy định phụ thuộc vào rủi ro được tạo ra bởi một ứng dụng cụ thể, từ tối thiểu đến "không thể chấp nhận được".
Các ứng dụng gây ra rủi ro cao nhất sẽ bị cấm hoàn toàn. Một số ví dụ bao gồm hệ thống nhận dạng khuôn mặt theo thời gian thực trong không gian công cộng, các công cụ kiểm soát dự đoán và hệ thống tính điểm xã hội, chẳng hạn như ở Trung Quốc, AI có thể cho "điểm sức khỏe" dựa trên hành vi của người dùng.
Luật cũng đặt ra những hạn chế chặt chẽ đối với các ứng dụng AI "có nguy cơ cao", đó là những ứng dụng đe dọa "đáng kể đến sức khỏe, sự an toàn, các quyền cơ bản và môi trường".
Một số ứng dụng được nêu bao gồm các hệ thống được sử dụng để tác động đến cử tri trong khi bầu cử, cũng như nền tảng truyền thông xã hội đề xuất nội dung cho người dùng dựa trên theo dõi dữ liệu bao gồm Facebook, Twitter và Instagram.
Tính minh bạch đối với các hệ thống AI
Chẳng hạn, các hệ thống như ChatGPT sẽ phải tiết lộ rõ ràng rằng đâu là nội dung được tạo ra bởi AI, phân biệt giả thuyết với thông tin đã được xác thực và cung cấp các biện pháp chống lại việc tạo ra nội dung bất hợp pháp. Tóm tắt chi tiết về dữ liệu có bản quyền được sử dụng để đào tạo các hệ thống AI này cũng cần phải được công bố.
Hình phạt nặng
Theo ông Racheal Muldoon, luật sư công ty luật Maitland Chambers, cho biết hầu hết các hệ thống AI có thể sẽ rơi vào loại rủi ro cao hoặc bị cấm, khiến chủ sở hữu phải chịu mức phạt khổng lồ nếu vi phạm quy định.
Tham gia vào các hoạt động AI bị cấm có thể dẫn đến khoản tiền phạt lên tới 40 triệu Euro (khoảng 43 triệu USD), hoặc số tiền tương đương 7% doanh thu hàng năm trên toàn thế giới của công ty, tùy theo mức độ vi phạm.
"Tiền phạt từ Đạo luật AI đóng vai trò như một lời kêu gọi các nhà lập pháp xung trận và cảnh cáo công ty hãy thực hiện quy định một cách nghiêm túc", ông Muldoon nói.
Bảo vệ sự đổi mới
Đồng thời, sẽ có những hình phạt "tương xứng" và phù hợp với thị trường của nhà cung cấp quy mô nhỏ, như vậy các công ty khởi nghiệp có thể nhận được một chút “nương tay”.
Đạo luật cũng yêu cầu các quốc gia thành viên EU thiết lập ít nhất một trung tâm kiểm tra các hệ thống AI trước khi triển khai ra ngoài thị trường.
"Một mục tiêu mà chúng tôi muốn đạt được khi đưa ra bộ quy định này là sự cân bằng", ông Dragoș Tudorache, thành viên Nghị viện châu Âu nhấn mạnh với các nhà báo. Đạo luật này bảo vệ công dân nhưng đồng thời phải "thúc đẩy đổi mới, không cản trở sự sáng tạo, triển khai và phát triển AI ở châu Âu", ông nói thêm.
Đạo luật cũng cho phép công dân có quyền nộp đơn khiếu nại chống lại các nhà cung cấp hệ thống AI và đề xuất điều khoản cho Văn phòng AI của EU để giám sát việc thực thi pháp luật. Tương tự, luật cũng yêu cầu các quốc gia thành viên chỉ định cơ quan giám sát quốc gia về AI.
Phản hồi từ các ông lớn
Microsoft cùng với Google là hai công ty đi đầu trong phát triển AI trên toàn cầu vui vẻ hoan nghênh đạo luật nhưng mong muốn các quy định được "hoàn thiện hơn nữa".
"Chúng tôi tin rằng AI cần có các hành lang pháp lý, được liên kết ở cấp độ quốc tế và các hành động tự nguyện có ý nghĩa từ những công ty phát triển AI", phát ngôn viên của Microsoft cho biết trong một tuyên bố.
Trong khi đó, IBM kêu gọi các nhà hoạch định chính sách EU thực hiện "cách tiếp cận dựa trên rủi ro" và đề xuất bốn "cải tiến chính" cho dự thảo luật, bao gồm sự rõ ràng hơn về AI có rủi ro cao "để chỉ những trường hợp sử dụng thực sự có rủi ro cao được kiểm soát".
Đạo luật có thể chưa có hiệu lực cho đến năm 2026, theo ông Muldoon, một phần cần sửa đổi do AI đang phát triển quá nhanh chóng. Bộ luật đã được cập nhật một vài lần kể từ khi soạn thảo bắt đầu vào năm 2021 và “sẽ không ngừng mở rộng phạm vi khi công nghệ phát triển".