Hacker lừa ChatGPT, đánh cắp thông tin người dùng
Tháng 2/2024, OpenAI bắt đầu thử nghiệm tính năng lưu trữ bộ nhớ dài hạn cho ChatGPT. Đến tháng 9, tính năng này được áp dụng rộng rãi
Công nghệ trí tuệ nhân tạo (AI) đang ngày càng phổ biến, trong đó ChatGPT - một chatbot AI do OpenAI phát triển - nhận được sự quan tâm lớn từ người dùng.
Tuy nhiên, một lỗ hổng bảo mật nghiêm trọng liên quan đến tính năng bộ nhớ dài hạn của ChatGPT vừa được nhà nghiên cứu bảo mật Johann Rehberger phát hiện.
Tính năng bộ nhớ dài hạn cho phép ChatGPT lưu trữ thông tin từ các cuộc trò chuyện trước đó, giúp người dùng không phải nhập lại thông tin cá nhân mỗi khi trò chuyện.
Tuy nhiên, sự tiện lợi này lại trở thành điểm yếu khi hacker khai thác kỹ thuật “cấy ghép chỉ thị độc hại” (prompt injection) vào bộ nhớ ChatGPT.
Hacker có thể sử dụng các nội dung không đáng tin cậy như email, tài liệu hoặc trang web để đưa những chỉ thị độc hại vào bộ nhớ ChatGPT, khiến AI tuân theo các câu lệnh này.
Ví dụ, chỉ bằng cách nhấp vào một liên kết chứa hình ảnh độc hại, hacker có thể khiến ChatGPT lưu trữ thông tin sai lệch về người dùng, như tin rằng người dùng đã 102 tuổi hoặc Trái đất phẳng.
Bộ nhớ ChatGPT bị thay đổi chỉ sau một vài thao tác “cài cắm”
Những thông tin sai lệch này sẽ ảnh hưởng đến các câu trả lời của ChatGPT và quan trọng hơn, hacker có thể đánh cắp mọi thông tin người dùng nhập vào hệ thống.
Rehberger đã chứng minh khả năng khai thác lỗ hổng này để thu thập dữ liệu người dùng trên phiên bản ChatGPT dành cho macOS.
OpenAI đã phát hành một bản vá tạm thời để ngăn chặn khai thác lỗ hổng này trên phiên bản web của ChatGPT, tuy nhiên, Rehberger cảnh báo rằng hacker vẫn có thể khai thác lỗ hổng để lưu trữ những ký ức độc hại nhằm đánh cắp thông tin cá nhân lâu dài.
OpenAI khuyến nghị người dùng thường xuyên kiểm tra bộ nhớ được lưu trữ trong ChatGPT, nhằm phát hiện kịp thời các thông tin có thể bị chèn từ các nguồn không đáng tin.
Tuy nhiên, nguy cơ tấn công tinh vi hơn trong tương lai vẫn là một mối lo ngại đáng chú ý.