“Mặc dù chúng tôi nỗ lực làm cho máy móc trở nên thông minh, nhưng chúng tôi muốn giữ con người ở trung tâm của mọi việc", Demis Hassabis nói với TIME khi đứng ở lưng chừng cầu thang xoắn ốc, với một tác phẩn điêu khắc DNA dài ba tầng chạy dọc giếng trời, tại trụ sở mới của Deepmind ở London.
CEO Deepmind giải thích tòa nhà mới là “thánh đường của tri thức.” Mỗi phòng họp được đặt theo tên của một nhà khoa học hoặc triết gia nổi tiếng. “Tôi luôn coi DeepMind là biểu tượng của trí thông minh, và AI là con đường nhanh nhất để trả lời những câu hỏi", Hassabis nói.
DeepMind, công ty con của Google, Alphabet, là một trong những phòng thí nghiệm trí tuệ nhân tạo hàng đầu thế giới. Mùa hè năm 2022, một trong những AI của họ, AlphaFold, đã xác định cấu trúc 3D của gần như tất cả các protein mà nhân loại biết đến, yếu tố xác định chức năng của protein.
Mối nguy từ AI
Khả năng giải cấu trúc protein của AlphaFold đã trở thành động lực cho nhiều ngành khoa học như phát triển thuốc, vaccine, chống kháng kháng sinh. Và DeepMind đang áp dụng các kỹ thuật máy học tương tự để giải quyết các vấn đề về phản ứng tổng hợp hạt nhân, nhằm tạo ra một nguồn năng lượng rẻ, dồi dào và không phát thải.
Hassabis nói rằng những nỗ lực này mới chỉ là bước đầu. Ông và các đồng nghiệp của mình đang nỗ lực hướng tới một tham vọng lớn hơn, tạo ra trí thông minh nhân tạo tổng quát, hay AGI, những cỗ máy có thể suy nghĩ, học hỏi và sẵn sàng giải quyết những vấn đề khó khăn nhất của nhân loại. CEO Deepmind tin rằng AGI là công nghệ sẽ mở ra một kỷ nguyên mới, giống như việc phát minh ra điện trước đây.
Nhưng tiềm năng của AI cũng đi kèm ẩn họa. Trong những tháng gần đây, các nhà nghiên cứu xây dựng hệ thống AI thiết kế các loại thuốc mới đã tiết lộ rằng công cụ này cũng có thể được dùng để tạo ra các hóa chất mới gây chết người.
Không ít mô hình AI giao tiếp phát ngôn thù ghét hoặc định kiến đã lan truyền nhanh chóng trên mạng xã hội. Nhiều câu hỏi đang được đặt ra, chẳng hạn như phải làm gì khi AI bị các tổ chức lừa đảo dụng để tuyên truyền tin giả, tấn công mạng trên diện rộng hoặc tìm ra các bí mật quốc gia.
Ngay bây giờ, ChatGPT, một chatbot do OpenAI, đối thủ của DeepMind, thiết kế, đang gây sốt vì khả năng viết gần giống con người, và cũng đang bị chỉ trích vì dễ bị phân biệt chủng tộc và đưa thông tin sai lệch. Thậm chí, một nghiên cứu mới đây phát hiện thông tin về y khoa mà ChatGPT tạo ra có thể lừa được cả các chuyên gia trong ngành, gây lo ngại về an toàn đối với con người.
Công ty nhỏ hơn, Prisma Labs, vấp phải chỉ trích tương tự. Những bức chân dung do Lensa AI tạo ra tình dục hóa hình ảnh người dùng nữ, xuất phát từ những sai lệch trong dữ liệu đào tạo.
Trong tay kẻ xấu, các công cụ tạo ngôn ngữ như ChatGPT và tiền thân của nó là GPT-3 có thể làm tăng tốc độ lan truyền thông tin sai lệch, tạo điều kiện cho sự kiểm duyệt hoặc giám sát của chính phủ và duy trì các định kiến có hại, một bài báo nghiên cứu của DeepMind năm 2021 cảnh báo.
Không dễ phát triển AI an toàn
OpenAI thừa nhận AI của họ có những hạn chế, bao gồm cả những thành kiến, nhưng nói rằng họ đang tìm cách giảm thiểu và xây dựng AGI an toàn và mang lại lợi ích cho nhân loại. Nói về cách Lensa AI tình dục hóa người dùng, một quản lý cấp cao tại Prism Labs cho biết nguyên nhân xuất phát từ định kiến của con người ngày nay thể hiện qua dữ liệu Internet, thay vì là lỗi của AI.
Hassabis cho biết muốn các bên liên quan, các công ty và chính phủ, phát triển AI một cách an toàn và có đạo đức, thay vì chỉ tập trung vào tốc độ. DeepMind đã công bố “ranh giới đỏ” chống lại việc sử dụng AI làm công nghệ giám sát và vũ khí.
Tuy nhiên, cả DeepMind và Alphabet đều không chia sẻ công khai liệu phòng thí nghiệm AI có bất kỳ quyền lực nào để ngăn chặn công ty mẹ, một đế chế giám sát kỹ thuật số hàng đầu có nhiều hợp đồng với Lầu Năm Góc, theo đuổi các mục tiêu đó bằng các AI do Deepmind phát triển.
Vào năm 2021, Alphabet đã kết thúc các cuộc đàm phán kéo dài nhiều năm với DeepMind về việc công ty con này được thiết lập một cơ cấu pháp lý độc lập để ngăn AI của họ bị kiểm soát bởi công ty mẹ, theo Wall Street Journal.
Tuy Hassabis cho biết cả DeepMind và Alphabet đều cam kết tuân thủ các khuôn khổ đạo đức và đảm bảo tính an toàn cho các công cụ AI của họ ngay từ đầu, nhưng khi được hỏi điều gì sẽ xảy ra nếu nhóm lãnh đạo của DeepMind không đồng ý với Alphabet, hoặc nếu công ty mẹ bất chấp các ranh giới mà phòng thí nghiệm đặt ra, CEO chỉ nói: “Chúng tôi chưa gặp vấn đề đó”.