Từ khi được giới thiệu, ChatGPT được ứng dụng để giảm bớt khối lượng công việc của nhiều người, từ viết luận, code hay phân tích dữ liệu. Và công cụ này cũng được khai thác bởi tội phạm mạng.
Ông Sergey Shykevich, nhà nghiên cứu ChatGPT tại Checkpoint Security cho biết kẻ gian đang tận dụng sức mạnh của AI để viết mã lập trình cuộc tấn công ransomeware (mã độc tống tiền). Nhóm của Shykevich bắt đầu nghiên cứu khả năng AI có thể tiếp tay cho tội phạm từ tháng 12/2021. Bằng cách khai thác mô hình ngôn ngữ lớn của trí tuệ nhân tạo, tội phạm dễ dàng tạo ra các email lừa đảo và mã độc.
Lạm dụng ChatGPT cho mục đích xấu
Việc lạm dụng ChatGPT đang khiến các chuyên gia an ninh mạng lo lắng. Họ cho rằng có những nguy cơ rõ ràng về việc chatbot được sử dụng trong các cuộc tấn công lừa đảo trực tuyến, viết phần mềm độc hại và hack.
Justin Fier, Giám đốc công ty an ninh mạng Cyber Intelligence & Analytics nói với Insider rằng ChatGPT có thể giúp kẻ xấu tạo ra hàng chục nội dung email lừa đảo, nhắm chính xác mục tiêu dễ dàng, với điều kiện đơn giản.
Đầu tháng 2, công ty an ninh mạng Blackberry đã công bố khảo sát từ 1.500 chuyên gia IT. Trong đó, 74% cho biết họ cảm thấy lo lắng về việc ChatGPT tiếp tay cho tội phạm. Đồng thời, 71% trên tổng số người tham gia cho rằng ứng dụng của OpenAI đã được sử dụng để hack và lừa đảo.
“Đã có bằng chứng rõ ràng rằng kẻ xấu đang thử nghiệm công cụ này. Chúng tôi hi vọng sớm tìm thấy ví dụ cụ thể hơn về cách tin tặc sử dụng ChatGPT cho mục đích bất chính”, ông Shishir Singh, Giám đốc Công nghệ của Blackberry nêu quan điểm trong một thông cáo.
Ông Singh ví những thay đổi của công nghệ AI mô phỏng văn phong con người như bước tiến trong phim khoa học viễn tưởng. Nó bao gồm cả việc được ứng dụng cho những mục đích xấu.
OpenAI phải chịu trách nhiệm
Nhà chức trách dần quan tâm hơn đến trách nhiệm pháp lý của các công ty AI khi công cụ của họ tạo ra có thể được sử dụng bởi tội phạm. Tuy nhiên, doanh nghiệp công nghệ thường viện dẫn Mục 230 của Đạo luật về Khuôn phép giao tiếp năm 1996 của Mỹ để đối phó khi người dùng tận dụng giải pháp công ty đưa ra cho mục đích xấu.
Đạo luật quy định rằng các nhà cung cấp cho phép mọi người đăng nội dung (như Facebook hoặc Twitter) không phải chịu trách nhiệm về phát ngôn trên nền tảng. Tuy nhiên, Cựu công tố viên Edward McAndrew cho rằng Mục 230 không thể bảo vệ OpenAI vì các nội dung được đưa ra bởi chính chatbot.
Ngoài ra, phạm vi bảo vệ pháp lý cho các công ty công nghệ theo Mục 230 cũng đang bị thách thức. Gia đình một phụ nữ bị những kẻ khủng bố ISIS giết vào năm 2015 đang khởi kiện Google lên Tòa án Tối cao của Mỹ. Họ lập luận rằng Google phải chịu trách nhiệm vì thuật toán của họ quảng cáo những video cực đoan.
“Như chúng ta đã thấy từ thuở bình minh của Internet, bọn tội phạm là nhóm đối tượng chấp nhận công nghệ sớm nhất. Điều tương tự đang đến với công cụ AI”, ông McAndrew nói.
AI chưa hoàn hảo để phạm tội
Trước nhiều lo ngại, các chuyên gia bảo mật cho rằng AI cần hoàn thiện thêm trước khi được khai thác hiệu quả bởi tội phạm. Ví dụ, đoạn email ChatGPT viết ra cần được chỉnh sửa để thật sự có thể dùng cho mục đích lừa đảo. Trong phần code mà Shykevich và đồng nghiệp thu được từ darkweb, nhiều lỗi phải được khắc phục trước khi nó được dùng để dựng mã độc tống tiền.
Ngoài ra, OpenAI đang thêm nhiều biện pháp bảo vệ, ngăn chặn hoạt động bất hợp pháp trên ChatGPT. Tuy nhiên, hiện chúng vẫn dễ dàng bị vượt qua với các câu lệnh trùng khớp. Shykevich chỉ ra rằng tội phạm đang tận dụng API của ChatGPT. Đây là phiên bản mã nguồn mở của ứng dụng, không bị giới hạn như công cụ trên web, mà đa số người dùng trải nghiệm.
Ngoài ra tại thời điểm này, ChatGPT chưa thể hỗ trợ tạo ra một phần mềm độc hại tinh vi hoặc trang web giả mạo ngân hàng chính xác. Tuy nhiên, một ngày nào đó những điều trên sẽ thành hiện thực khi các gã khổng lồ công nghệ tham gia vào cuộc đua này, thúc đẩy sự phát triển nhanh của chatbot AI.