Nội dung chat GPT bị rò rỉ trên Google

Hàng nghìn đoạn hội thoại tưởng chừng riêng tư giữa người dùng và ChatGPT bất ngờ xuất hiện công khai trên kết quả tìm kiếm của Google, làm dấy lên lo ngại nghiêm trọng về quyền riêng tư dữ liệu trong thời đại trí tuệ nhân tạo.

Một sự cố nghiêm trọng đang làm dấy lên lo ngại trong cộng đồng công nghệ khi hàng loạt cuộc trò chuyện riêng tư với ChatGPT bất ngờ xuất hiện công khai trên kết quả tìm kiếm của Google. Vụ việc không chỉ đặt ra dấu hỏi lớn về quyền riêng tư mà còn phơi bày những lỗ hổng trong cách thức quản lý dữ liệu người dùng của các nền tảng AI.

noi-dung-chat-gpt-bi-ro-ri-tren-google-1754401183.webp
Hàng nghìn cuộc trò chuyện ChatGPT bị rò rỉ công khai trên Google.

Theo thông tin từ Fast Company, Google đã lập chỉ mục hàng nghìn đoạn hội thoại từng được cho là riêng tư giữa người dùng và ChatGPT. Đây có thể chỉ là phần nổi của tảng băng chìm, bởi nhiều chuyên gia lo ngại còn hàng triệu đoạn hội thoại khác có nguy cơ bị rò rỉ nếu không được xử lý triệt để.

Dù không chứa các thông tin nhận diện trực tiếp, những đoạn hội thoại này vẫn bao gồm các chi tiết cá nhân, những trải nghiệm nhạy cảm, thậm chí là tâm sự riêng tư trong công việc hoặc cuộc sống, từ đó có thể dẫn đến việc xác định danh tính người dùng một cách gián tiếp.

Nguyên nhân của sự cố được xác định bắt nguồn từ tính năng “Share chat” do OpenAI triển khai, cho phép người dùng chia sẻ các đoạn hội thoại thông qua đường link. Tuy nhiên, khi lựa chọn tùy chọn “Make this chat discoverable”, nội dung trò chuyện sẽ tự động trở thành trang công khai và có thể bị các công cụ tìm kiếm như Google lập chỉ mục.

Phát hiện này xuất phát từ một số chuyên gia bảo mật, khi họ chỉ cần thực hiện các truy vấn đơn giản trên Google là đã tiếp cận được nhiều đoạn hội thoại tưởng như riêng tư. Các nội dung bị lộ không chỉ dừng ở những câu hỏi kỹ thuật hay đoạn văn mẫu mà còn bao gồm thông tin y tế, email công việc, những chia sẻ nhạy cảm về đời sống cá nhân, cho thấy người dùng đang đặt nhiều niềm tin vào không gian trò chuyện này mà không nhận thức được rủi ro tiềm ẩn.

Ngay sau khi sự việc bị phát hiện, OpenAI đã tạm ngưng tính năng chia sẻ công khai và phối hợp với Google để gỡ bỏ hơn 4.500 liên kết liên quan. Tuy nhiên, thiệt hại về uy tín và sự lo ngại về bảo mật vẫn còn đó, đặc biệt trong bối cảnh ChatGPT đang có hàng trăm triệu người dùng toàn cầu.

Vụ việc đã gióng lên một hồi chuông cảnh báo về quyền riêng tư trong thời đại AI. Liệu các công ty như OpenAI đã cung cấp đầy đủ thông tin để người dùng hiểu rõ cách dữ liệu của họ được xử lý và chia sẻ? Mức độ bảo vệ hiện tại liệu có tương xứng với sự nhạy cảm của thông tin mà người dùng gửi vào hệ thống?

Trước đó, ông Sam Altman - Giám đốc điều hành OpenAI đã từng khuyến cáo người dùng không nên chia sẻ thông tin cá nhân nhạy cảm với ChatGPT, đồng thời thừa nhận dữ liệu có thể bị tiết lộ trong trường hợp có yêu cầu pháp lý. Tuy nhiên, ông không đề cập đến khả năng các đoạn hội thoại do người dùng chủ động chia sẻ có thể hiển thị công khai trên công cụ tìm kiếm - một rủi ro mà ít ai lường trước.

Đáng lưu ý, đây không phải là lần đầu tiên ChatGPT vướng vào những lo ngại về rò rỉ dữ liệu. Các nhà nghiên cứu đã chỉ ra rằng các mô hình ngôn ngữ như GPT có thể vô tình tái hiện lại dữ liệu người dùng nếu bị "dẫn dắt" đúng cách, làm dấy lên nhiều nghi vấn về việc lưu trữ và sử dụng dữ liệu huấn luyện.

Không thể phủ nhận vai trò to lớn của AI trong việc nâng cao hiệu suất công việc, sáng tạo nội dung và hỗ trợ người dùng tra cứu thông tin. Tuy nhiên, trong thế giới kỹ thuật số nơi mọi hành động đều để lại dấu vết, quyền riêng tư cần được đặt lên hàng đầu, và sự minh bạch từ các nhà phát triển là điều không thể thiếu để người dùng có thể yên tâm đồng hành cùng công nghệ.

Đăng ký đặt báo