Mới đây nhất, Cơ quan bảo vệ dữ liệu của Italia đã yêu cầu người tạo ra chatbot OpenAI phải hành động nếu không sẽ bị phạt nặng do vi phạm quyền riêng tư.
Khi vấn đề an toàn chưa thể kiểm soát được, ChatGPT tiếp tục vấp phải nhiều sự phản đối của các quốc gia và giới chuyên gia công nghệ. Ảnh: Getty Images
Cơ quan giám sát bảo vệ dữ liệu cá nhân của Italia đã ra quyết định cấm truy cập vào chatbot ChatGPT của OpenAI, do cáo buộc vi phạm quyền riêng tư. Quyết định được đưa ra sau một vụ vi phạm dữ liệu vào ngày 20 tháng 3 làm lộ thông tin thanh toán và hội thoại của người dùng.
ChatGPT, được ra mắt vào tháng 11 năm 2022, đã trở nên phổ biến nhờ khả năng viết theo các phong cách và ngôn ngữ khác nhau, làm thơ và thậm chí viết mã máy tính.
Tuy nhiên, Cơ quan bảo vệ dữ liệu cá nhân của Italia đã chỉ trích chatbot không cung cấp thông báo thông tin cho người dùng có dữ liệu được OpenAI thu thập. Cơ quan này cũng đặt vấn đề với việc “thiếu cơ sở pháp lý” có thể biện minh cho việc thu thập và lưu trữ hàng loạt dữ liệu cá nhân nhằm mục đích “đào tạo” cũng như hỗ trợ cho các thuật toán chạy trên nền tảng này.
Mặc dù chatbot dành cho những người trên 13 tuổi, nhưng chính quyền Italia cũng chỉ trích OpenAI vì không cài đặt bất kỳ bộ lọc nào để xác minh tuổi người dùng, điều mà họ cho rằng có thể dẫn đến việc trẻ vị thành niên nhận được phản hồi “hoàn toàn không phù hợp với trình độ phát triển của chúng".
Hiện Cơ quan giám sát của Italia đang yêu cầu OpenAI “thông báo trong vòng 20 ngày về các biện pháp đã thực hiện” để khắc phục tình trạng này nếu không sẽ bị phạt tới 4% doanh thu hàng năm trên toàn thế giới. Quyết định chặn chatbot và tạm thời hạn chế xử lý dữ liệu của người dùng Italia thông qua OpenAI đã có “hiệu lực ngay lập tức”, tổ chức cho biết thêm.
Trong khi đó, hơn 1.100 nhà nghiên cứu AI và các nhà lãnh đạo công nghệ nổi tiếng, bao gồm Giám đốc điều hành Tesla Elon Musk và đồng sáng lập Apple Steve Wozniak, đã ký một bức thư ngỏ yêu cầu lệnh cấm sáu tháng đối với “các thí nghiệm AI khổng lồ”.
Các bên ký kết tuyên bố rằng “các hệ thống AI có trí thông minh cạnh tranh với con người có thể gây ra những rủi ro sâu sắc cho xã hội và nhân loại” và rằng công nghệ tiến bộ nhanh chóng nên được “lên kế hoạch và quản lý với sự quan tâm cũng như dành nguồn lực tương xứng”. Nhóm này đã cảnh báo mạnh mẽ về việc cho phép “một cuộc chạy đua phát triển ngoài tầm kiểm soát và triển khai những bộ óc kỹ thuật số thậm chí còn mạnh mẽ hơn mà không ai, kể cả những người tạo ra chúng có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy”.
Bức thư nêu rõ, rằng nếu các nhà phát triển AI không thể tự quản lý thì các chính phủ phải can thiệp, tạo ra các cơ quan quản lý có khả năng quản lý các hệ thống, đồng thời tài trợ cho nghiên cứu an toàn và giảm nhẹ tác động đến kinh tế khi các hệ thống siêu thông minh bắt đầu chiếm lấy công việc của con người.
Thái Đạt