Chính sách mới của Google khuyên người dùng không nên viết bất kỳ điều gì vào Gemini mà bạn cho rằng có thể khiến ai đó gặp rắc rối, hoặc chuyện bạn không muốn người khác biết.
Tài liệu mới của Google tiết lộ các cách mà công ty này thu thập dữ liệu người dùng từ ứng dụng chatbot Gemini, theo TechCrunch ngày 8/2. Theo đó, Google lưu ý rằng những người thật làm công việc chuyển giọng nói thành text sẽ định kỳ đọc, "dán nhãn" và xử lý các hội thoại giữa người dùng với Gemini để nâng cao chất lượng dịch vụ, chỉ trừ những hội thoại "không được kết nối" đến các account Google của người dùng.
TechCrunch lưu ý rằng Google không tiết lộ những người làm công việc trên là nhân viên Google hay được thuê ngoài, việc có thể gây ra nguy cơ an ninh.
Những hội thoại của người dùng được giữ lại đến 3 năm, cùng với "các dữ liệu liên quan" nhưng ngôn ngữ và thiết bị người dùng đã dùng, cùng với địa điểm của họ.
Người dùng có một số lựa chọn để điều chỉnh các thông tin Gemini giữ lại. Tắt đi chức năng Gemini Apps Activity trên màn hình My Activity sẽ ngăn việc hội thoại bị lưu lại với account Google. Các dòng lệnh và hội thoại với Gemini có thể được xoá khỏi màn hình Gemini Apps Activity. Dù vậy, Google nói rằng dù cho tính năng Gemini Apps Activity bị tắt, các cuộc hội thoại vẫn được lưu trong tài khoản Google thêm 72 giờ với lý do an ninh và cải thiện chất lượng.
"Đừng nhập vào bất kỳ thông tin mật nào trong các hội thoại, hoặc dữ liệu bạn không muốn reviewer nhìn thấy hay Google sử dụng để cải thiện sản phẩm, dịch vụ, công nghệ máy học của chúng tôi", Google cảnh báo.
Ngày 8/2, Google đổi tên chatbot Bard thành Gemini, phát hành ứng dụng Gemini cho Android và đưa tính năng trợ lý AI dành cho các ứng dụng văn phòng của Google về dưới brand Gemini.
Chính sách thu thập dữ liệu của Google AI không khác nhiều với các đối thủ. Ví dụ, OpenAI lưu các đoạn chat 30 ngày, bất kể người dùng có tắt tính năng lịch sử chat hay không, trừ khi người dùng mua gói doanh nghiệp với chính sách dữ liệu riêng.
Dù vậy, chính sách của Google là ví dụ cho các thách thức trong việc cân bằng quyền riêng tư và việc phát triển mô hình generative AI dựa trên việc sử dụng thông tin người dùng để tự học. Các công ty công nghệ không ít lần xung đột với giới chức quản lý về việc này.
Hồi năm ngoái, FTC yêu cầu OpenAI cung cấp thông tin chi tiết về việc họ thu thập dữ liệu để dạy cho các mô hình AI như thế nào, bao gồm thông tin người dùng, cũng như việc làm sao bảo vệ thông tin đó với bên thứ ba. Tại Italy, Cơ quan Bảo vệ Dữ liệu Italy nó rằng OpenAI thiếu "nền tảng pháp lý" cho việc thu thập và lưu trữ dữ liệu quy mô lớn nhằm huấn luyện AI.
Khi các công cụ AI ngày càng phổ biến, các nhà quản lý lại lo ngại hơn về nguy cơ quyền riêng tư. Một thăm dò gần đây từ Cisco cho thấy 63% công ty đã đặt ra giới hạn cho nhân viên về việc thông tin nào có thể nhập vào các công cụ generative AI, trong khi 27% cấm hoàn toàn. Thăm dò cũng cho thấy 45% nhân viên từ nhập các thông tin "gây rắc rối" vào các công cụ generative AI, trong đó có thông tin nhân viên và các tài liệu không được công bố về công ty họ.
OpenAI, Microsoft, Amazon và Google đều cung cấp các sản phẩm nhắm đến doanh nghiệp bao gồm việc không giữ lại dữ liệu, dù để huấn luyện mô hình hay bất kỳ lý do khác. Những người dùng khác thì ít được lựa chọn.