Nhịp sống số

Sự cố nghiêm trọng của ChatGPT

Thu Thủy 04/08/2025 17:03

Một lỗ hổng trong tính năng chia sẻ khiến hàng nghìn đoạn chat riêng tư trên ChatGPT bị hiển thị công khai trên Google, làm dấy lên lo ngại về bảo mật AI.

Hàng nghìn cuộc trò chuyện trên ChatGPT bị rò rỉ và công khai trên Google

Một sự cố bảo mật nghiêm trọng vừa xảy ra với ChatGPT, chatbot AI nổi tiếng do OpenAI phát triển, khi hàng nghìn cuộc trò chuyện riêng tư của người dùng bị lập chỉ mục công khai trên Google. Vấn đề phát sinh từ tính năng “Share chat” (Chia sẻ cuộc trò chuyện) được tích hợp trên nền tảng, cho phép người dùng tạo liên kết chia sẻ với người khác. Tuy nhiên, tuỳ chọn “Make this chat discoverable” (Làm cho cuộc trò chuyện này có thể được tìm thấy) lại là nguồn cơn của sự cố.

chatgpt.jpg
Sự cố nghiêm trọng khiến hơn 4000 cuộc trò chuyện bị công khai

Trong nhiều trường hợp, người dùng chỉ nghĩ rằng họ đang tạo một liên kết để gửi cho bạn bè hoặc đồng nghiệp mà không biết rằng nội dung trò chuyện có thể bị công cụ tìm kiếm như Google lập chỉ mục. Giao diện không đủ trực quan và lời cảnh báo không rõ ràng đã dẫn đến việc người dùng vô tình công khai những đoạn hội thoại tưởng như riêng tư, từ các tâm sự cá nhân đến thông tin công việc, ý tưởng kinh doanh hay dữ liệu nhạy cảm khác.

Theo ghi nhận từ Fast Company, hơn 4.500 liên kết cuộc trò chuyện đã bị hiển thị trên kết quả tìm kiếm của Google, một con số gây sốc trong bối cảnh ChatGPT đang phục vụ hàng triệu người dùng toàn cầu. Sự việc đã làm dấy lên làn sóng lo ngại sâu rộng, nhất là khi AI ngày càng len lỏi vào nhiều mặt đời sống như y tế, giáo dục, tài chính, và công việc hằng ngày.

Ngay sau khi bị phát hiện, OpenAI đã nhanh chóng vô hiệu hóa chức năng chia sẻ “có thể tìm kiếm” và làm việc với Google để gỡ bỏ các liên kết bị rò rỉ.

Cảnh báo về quyền riêng tư

Sự cố của ChatGPT lần này không chỉ là lỗi kỹ thuật nhỏ mà còn là hồi chuông cảnh báo lớn về quyền riêng tư trong kỷ nguyên trí tuệ nhân tạo. Trong khi nhiều người vẫn tin rằng những cuộc trò chuyện với chatbot là riêng tư, thì thực tế, các mô hình ngôn ngữ như GPT có thể lưu trữ, học hỏi và đôi khi vô tình tái tạo lại dữ liệu từ những lần tương tác trước đó. Kỹ thuật "reconstruction" (tái tạo) được các nhà nghiên cứu bảo mật chỉ ra cho thấy AI không hoàn toàn là “trang giấy trắng” mỗi khi bạn bắt đầu một cuộc hội thoại mới.

chatGPT google
Các nhà phát triển AI phải đặt bảo mật và minh bạch lên hàng đầu

Đáng chú ý, CEO OpenAI Sam Altman từng công khai thừa nhận rằng các cuộc trò chuyện trên ChatGPT không được bảo vệ bởi các chuẩn mực pháp lý nghiêm ngặt về bảo mật dữ liệu như những nền tảng nhắn tin truyền thống. Điều này càng làm gia tăng mối lo ngại khi người dùng ngày càng sử dụng AI cho những mục đích nhạy cảm như tư vấn sức khỏe, soạn thảo chiến lược tài chính hay giải quyết khủng hoảng cá nhân.

Việc các công cụ AI được tích hợp tính năng chia sẻ là điều dễ hiểu trong xu hướng cộng tác trực tuyến. Tuy nhiên, nếu thiếu hướng dẫn rõ ràng và mặc định an toàn cho người dùng, các tính năng tưởng như tiện ích lại trở thành “cửa ngõ” rò rỉ dữ liệu. Trong vụ việc lần này, chỉ một cú nhấp chuột vào ô "Make this chat discoverable" có thể khiến cả cuộc trò chuyện bị Google đưa ra ánh sáng.

Sự việc cũng nhấn mạnh vai trò của các công cụ tìm kiếm, vốn chỉ đơn thuần lập chỉ mục nội dung công khai trên Internet. Khi liên kết đã ở chế độ công khai, các bot của Google hoàn toàn có thể truy cập, thu thập và đưa vào kết quả tìm kiếm. Và một khi đã hiển thị, việc “xóa dấu vết” trở nên vô cùng khó khăn.

Trong bối cảnh AI đang trở thành một phần không thể thiếu trong đời sống hiện đại, sự cố lần này là lời nhắc nhở mạnh mẽ, rằng người dùng cần nâng cao hiểu biết về quyền riêng tư và các nhà phát triển AI phải đặt bảo mật và minh bạch lên hàng đầu. Bởi chỉ khi sự tin cậy được xây dựng từ nền tảng, công nghệ mới có thể thực sự phục vụ con người.

      Nổi bật
          Mới nhất
          Sự cố nghiêm trọng của ChatGPT
          • Mặc định

          POWERED BY ONECMS - A PRODUCT OF NEKO