Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta dần nhận ra những khả năng thú vị mà chúng mang lại, dù là tích cực hay tiêu cực. Một ví dụ điển hình thuộc nhóm sau là mối đe dọa tấn công lý thuyết, cho phép ChatGPT thực hiện tấn công DDoS vào một trang web được chọn, mặc dù hiện tại đây chưa phải là mối nguy hiểm thực sự.
ChatGPT có thể tạo hàng ngàn kết nối siêu liên kết trong một yêu cầu
Theo báo cáo từ Silicon Angle, một nhà nghiên cứu tên Benjamin Flesch đã phát hiện ra rằng ChatGPT không có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Hơn nữa, dịch vụ này cũng không kiểm tra xem các URL mà nó truy cập có phải là bản sao của các trang web đã được kiểm tra trước đó hay không. Kết quả là một cuộc tấn công lý thuyết, nơi kẻ xấu có thể khiến ChatGPT kết nối đến cùng một trang web hàng ngàn lần chỉ trong một truy vấn.
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng ngàn siêu liên kết vào một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ của OpenAI tạo ra một lượng lớn yêu cầu HTTP đến trang web nạn nhân. Các kết nối đồng thời này có thể gây căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công DDoS hiệu quả.
Biểu tượng chatbot AI trên màn hình điện thoại, tượng trưng cho sự tương tác giữa người dùng và trí tuệ nhân tạo.
Benjamin Flesch tin rằng lỗ hổng này xuất phát từ “thực hành lập trình kém” và nếu OpenAI bổ sung một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không còn tiềm năng thực hiện một cuộc tấn công DDoS “ngẫu nhiên” vào máy chủ. Elad Schulman, người sáng lập và CEO của công ty bảo mật AI tạo sinh Lasso Security Inc., đồng ý với kết luận của Benjamin Flesch và bổ sung thêm một kịch bản khai thác tiềm năng khác. Elad tin rằng nếu một hacker chiếm được tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày”, gây thiệt hại tài chính nếu không có biện pháp bảo vệ chống lại các hành vi như vậy.
Hy vọng rằng, khi AI ngày càng phát triển, các công ty sẽ bổ sung các hạn chế để ngăn chặn kẻ xấu lạm dụng dịch vụ của họ. Đã có rất nhiều cách mà tin tặc sử dụng AI tạo sinh trong các cuộc tấn công của chúng, và số lượng các cuộc gọi lừa đảo bằng video AI cũng đã tăng lên đáng kể khi công nghệ này cải thiện chất lượng.
Với những rủi ro bảo mật AI tiềm ẩn này, việc tăng cường các biện pháp phòng ngừa là vô cùng cần thiết. Hãy tiếp tục theo dõi thuthuathot.com để cập nhật những tin tức và phân tích chuyên sâu về bảo mật AI và các vấn đề công nghệ khác.