Theo CNBC, Cơ quan giám sát bảo vệ dữ liệu Italy (Garante) đã yêu cầu OpenAI - startup Mỹ đứng sau ChatGPT - tạm thời dừng xử lý dữ liệu của người dùng tại Italy giữa lúc đang có cuộc điều tra hành vi vi phạm quy định về quyền riêng tư của nền tảng này.
Garante cho rằng ChatGPT vi phạm quy định về dữ liệu khi cho phép người dùng xem tiêu đề các cuộc hội thoại của những người dùng khác trong chatbot.
“Dường như không có cơ sở pháp lý nào cho việc thu thập và xử lý một lượng dữ liệu cá nhân khổng lồ để 'đào tạo' các thuật toán của nền tảng ChatGPT”, Garante nói trong một thông cáo vào cuối tuần trước.
Cơ quan này cũng bày tỏ mối quan ngại về việc thiếu giới hạn độ tuổi trên ChatGPT và cách chatbot này cung cấp những thông tin thiếu chính xác trong câu trả lời của mình với câu hỏi của người dùng.
Được tập đoàn Microsoft đầu tư, OpenAI có nguy cơ đối mặt một khoản phạt 20 triệu Euro (khoảng 21,8 triệu USD), tương đương 4% doanh thu toàn cầu của công ty, nếu không có biện pháp khắc phục tình trạng trên trong vòng 20 ngày.
Italy không phải quốc gia duy nhất đang “đau đầu” với tốc độ phát triển chóng mặt của trí tuệ nhân tạo (AI) và những tác động của nó với xã hội. Tại nhiều quốc gia, các chính phủ cũng đang xây dựng các quy định riêng cho AI, bao gồm cả AI tạo sinh (Generative AI). AI tạo sinh là một tập hợp các công nghệ AI có khả năng tạo ra nội dung mới dựa trên các yêu cầu của người dùng. AI tạo sinh là phiên bản tiên tiến hơn so với công nghệ AI trước đây nhờ mô hình ngôn ngữ mới được đào tạo từ một lượng dữ liệu khổng lồ.
Từ lâu, nhiều người đã kêu gọi đưa ra các khuôn khổ pháp lý để điều chỉnh AI. Tuy nhiên, tốc độ phát triển của công nghệ này đang khiến các Chính phủ khó theo kịp. Công nghệ AI giờ đây có thể sáng tạo nghệ thuật, viết cả một bài luận hay thậm chí viết mã máy tính chỉ trong vài giây.
“Chúng ta phải thật cẩn thận để không tạo ra một thế giới mà ở đó con người phụ thuộc vào máy móc”, bà Sophie Hackford, một nhà tương lai học kiêm cố vấn về đổi mới sáng tạo công nghệ toàn cầu cho công ty thiết bị nông nghiệp John Deere, nói với CNBC. “Công nghệ ở đây để phục vụ chúng ta, để giúp chúng ta chẩn đoán bệnh ung thư nhanh hơn hoặc giúp con người không phải làm những công việc mà chúng ta không muốn làm”.
Theo bà, thế giới cần phải xem xét kỹ lưỡng và phải có hành động ngay dưới góc nhìn pháp lý.
Các cơ quan quản lý trên thế giới cũng tỏ ra lo ngại về những thách thức mà AI đặt ra đối với an ninh việc làm, quyền riêng tư và sự bình đẳng. Cũng có những quan ngại về việc AI tiên tiến đang thao túng chính trị thông qua việc tạo ra thông tin sai lệch. Nhiều chính phủ đã bắt đầu xem xét cách thức ứng phó với các hệ thống như ChatGPT, một số thậm chí cân nhắc cấm công nghệ này.
Anh
Tuần trước, Anh công bố kế hoạch đưa ra các quy định pháp lý đối với AI. Thay vì xây dựng các quy định mới, Chính phủ nước này đã yêu cầu các cơ quan quản lý trong nhiều lĩnh vực áp dụng các quy định hiện có đối với AI.
Không đề cập cụ thể tới ChatGPT, các nhà chức trách của nước này sẽ phác thảo một số quy định chính để các công ty tuân theo khi sử dụng AI trong sản phẩm của họ, bao gồm tính an toàn, sự minh bạch, công bằng, trách nhiệm giải trình và khả năng cạnh tranh.
Ở thời điểm này, Anh chưa cân nhắc hạn chế ChatGPT hay bất kỳ ứng dụng AI nào. Thay vào đó, nước này muốn đảm bảo rằng các công ty phát triển và sử dụng công cụ AI một cách có trách nhiệm và cung cấp cho người dùng đầy đủ thông tin về cách thức và lý do một quyết định được đưa ra.
Trong một bài phát biểu trước Quốc hội hôm thứ Tư tuần trước, Bộ trưởng Bộ Kỹ thuật số Anh, bà Michelle Donelan, cho rằng AI tạo sinh bất ngờ trở nên phổ biến cho thấy những rủi ro cũng như cơ hội của công nghệ đang “nổi lên với tốc độ đáng kinh ngạc” này.
Với cách tiếp cận như trên, Chính phủ Anh có thể “phản ứng nhanh chóng với những phát triển của AI và can thiệp sâu hơn nếu cần thiết - bà Donelan nói.
Liên minh Châu Âu (EU)
So với Anh, Liên minh châu Âu (EU) giữ quan điểm hạn chế AI. Thường đi tiên phong với các quy định đối với công nghệ, EU đã đề xuất một bộ luật đột phá dành cho AI, có tên Đạo luật AI châu Âu.
Các quy định trong đạo luật này sẽ hạn chế nghiêm nghặt việc sử dụng AI trong các cơ sở hạ tầng quan trọng, giáo dục, thực thi pháp luật và hệ thống tư pháp. Đạo luật AI châu Âu có hiệu lực song hành với Quy định bảo vệ dữ liệu chung (GDPR) của EU - quy định cách thức xử lý và lưu trữ dữ liệu của các công ty hoạt động trong khối.
Khi Đạo luật AI châu Âu được xây dựng lần đầu, các quan chức EU đã không lường trước được tốc độ phát triển chóng mặt của các hệ thống AI trong việc tạo ra các tác phẩm nghệ thuật, câu chuyện, bài thơ hay bài hát.
Theo Reuters, bản thảo các quy định của EU xem ChatGDP là một hình thức AI có mục đích chung được dùng trong các ứng dụng rủi ro cao. Các hệ thống AI rủi ro cao được cơ quan soạn thảo định nghĩa là những hệ thống có thể ảnh hưởng đến các quyền hoặc sự an toàn cơ bản của mọi người. Do đó, các hệ thống này sẽ đối mặt với các quy định kiểm soát bao gồm đánh giá về mức độ rủi ro nghiêm ngặt và yêu cầu loại bỏ sự phân biệt đối xử phát sinh từ các thuật toán.
Tuy nhiên, trong khi các quan chức EU đang xây dựng luật, một số quốc gia trong khối đã xem xét động thái cấm ChatGPT của Italy và tranh luận về việc có nên làm theo hay không.
“Về nguyên tắc, động thái tương tự cũng có thể xảy ra ở Đức”, ông Ulrich Kelber, Ủy viên về Bảo vệ dữ liệu liên bang của Đức, nói với tờ Handelsblatt.
Theo Reuters, các cơ quan giám sát quyền riêng tư của Pháp và Ireland đã liên hệ với cơ quan đồng cấp của Italy để tìm hiểu về các phát hiện của nước bạn.
Mỹ
Mỹ hiện vẫn chưa đề xuất bất kỳ quy định chính thức nào để giám sát công nghệ AI. Viện Khoa học và Công nghệ Quốc gia Mỹ (NIST) đã đưa ra một khuôn khổ pháp lý trên toàn quốc để hướng dẫn cách quản lý rủi ro và tác hại tiềm ẩn cho các công ty sử dụng, thiết kế hoặc triển khai công nghệ AI. Tuy nhiên, các quy định này được tuân thủ trên cơ sở tự nguyện, đồng nghĩa các công ty không phải đối mặt hậu quả gì nếu không tuân theo.
Đến nay, chưa có bất kỳ thảo luận nào về những hành động đang được thực hiện để hạn chế ChatGPT tại Mỹ.
Tháng trước, Ủy ban Thương mại Liên bang Mỹ (FTC) đã nhận được đơn khiếu nại từ một nhóm nghiên cứu phi lợi nhuận, trong đó cáo buộc GPT-4 - phiên bản chatbot tiên tiến hơn ChatGPT của OpenAI - “định kiến, lừa đảo và gây rủi ro với quyền riêng tư cũng như an toàn của công chúng”. Nhóm này cũng cáo buộc GPT-4 vi phạm các quy định về AI của FTC.
Khiếu nại này có thể dẫn đến một cuộc điều tra đối với OpenAI và đình chỉ việc triển khai thương mại các ứng dụng Ai của công ty này. Hiện FTC chưa đưa ra bình luận về khiếu nại này.
Trung Quốc
ChatGPT hiện không hoạt động tại Trung Quốc và nhiều quốc gia có chế độ kiểm duyệt internet nghiêm ngặt như Triều Tiên, Iran và Nga. Dù ứng dụng này không bị cấm một cách chính thức, nhưng OpenAI không cho phép người dùng ở Trung Quốc đăng ký tài khoản.
Một số công ty công nghệ lớn của Trung Quốc như Baidu, Alibaba và JD.com đang phát triển các phần mềm tương tự như ChatGPT.
Chính phủ Trung Quốc từ lâu luôn kiểm soát để đảm bảo các công ty công nghệ lớn trong nước phát triển những sản phẩm phù hợp với quy định nghiêm ngặt của mình. Tháng trước, Bắc Kinh đưa ra những quy định đầu tiên về deepfake - kỹ thuật tổng hợp hình ảnh, video và văn bản về con người dựa trên AI.
Trước đây, các nhà quản lý Trung Quốc cũng đưa ra quy định để điều chỉnh cách vận hành thuật toán đề xuất của các công ty. Một trong những quy định là doanh nghiệp phải gửi chi tiết về thuật toán của họ cho cơ quan quản lý không gian mạng. Về lý thuyết, các quy định này có thể sẽ áp dụng cho bất kỳ công nghệ nào tương tự như của ChatGPT ở Trung Quốc.