Các chiến dịch lừa đảo (phishing) được hỗ trợ bởi AI ngày càng trở nên khó nhận biết một cách đáng kinh ngạc. Với khả năng cải thiện chính tả, ngữ pháp và cấu trúc câu, những kẻ lừa đảo đang sử dụng trí tuệ nhân tạo để làm cho các chiêu trò trở nên hợp pháp hơn bao giờ hết. May mắn thay, bạn hoàn toàn có thể tìm hiểu cách phát hiện các chiến dịch lừa đảo AI và đảm bảo mình không trở thành nạn nhân.
1. Phân tích kỹ lưỡng ngôn ngữ trong email
Trước đây, chỉ cần lướt qua một email cũng đủ để nhận ra điều gì đó bất thường, thường là do ngữ pháp sai và lỗi chính tả ngớ ngẩn. Tuy nhiên, vì những kẻ lừa đảo giờ đây sử dụng các mô hình ngôn ngữ AI tạo sinh, hầu hết các tin nhắn lừa đảo đều có ngữ pháp hoàn hảo.
Nhưng không phải tất cả đều vô vọng. Mặc dù ChatGPT và các mô hình tương tự đang dần trở nên khó phân biệt với ngôn ngữ tự nhiên của con người, việc phát hiện văn bản do AI tạo ra vẫn tương đối dễ dàng. Luồng câu văn thường không tự nhiên – có thể nói, manh mối lớn nhất là mọi thứ trông quá hoàn hảo.
Dưới đây là một ví dụ. Tôi đã sử dụng Gemini của Google để tạo một “email” từ một nhân viên hỗ trợ khách hàng giả mạo, cảnh báo người dùng về một vụ rò rỉ dữ liệu. Một email lừa đảo không thể thiếu liên kết bên ngoài ngẫu nhiên, vì vậy tôi cũng yêu cầu AI đưa vào lời kêu gọi người dùng khẩn cấp đổi mật khẩu bằng cách nhấp vào một liên kết. Đây là email lừa đảo do AI tạo ra của tôi:
Minh họa email lừa đảo do AI tạo ra với ngôn ngữ giả tạo, trang trọng nhưng thiếu tự nhiên
Thoạt nhìn, nó có vẻ hợp pháp, nhưng vẫn có một vài dấu hiệu đáng ngờ. Ví dụ, cụm từ “Kính gửi Khách hàng thân mến” là nỗ lực của mô hình để nghe có vẻ cá nhân hơn và khiến bạn bỏ qua thực tế rằng một dịch vụ hợp pháp sẽ biết thông tin cá nhân của bạn. Không cần phải nói, đó là một nỗ lực thất bại.
Vấn đề lớn nhất là giọng điệu quá trang trọng, với những nét chấm phá giả tạo của sự “nhân văn” được thêm vào để thuyết phục bạn rằng đây là một nhân viên thực sự đang viết email. Ngoài ra, hãy nhớ những gì chúng ta đã đề cập về ngôn ngữ có vẻ không tự nhiên? Câu “Sự cố này có thể đã làm tổn hại đến bảo mật của một số tài khoản, bao gồm cả tài khoản của quý vị” thực sự nổi bật.
Mặc dù không đến mức “Hoàng tử Nigeria” khét tiếng, nếu bạn cẩn thận đọc qua các email không mong muốn, bạn sẽ sớm nhận ra các dấu hiệu đặc trưng.
2. Cảnh giác với những dấu hiệu lừa đảo email truyền thống
Mặc dù các công cụ AI đã khiến các vụ lừa đảo qua email khó phát hiện hơn, chúng vẫn giữ một số đặc điểm cổ điển. Do đó, các mẹo thông thường để phát hiện email lừa đảo vẫn áp dụng.
Những kẻ lừa đảo thường mạo danh các doanh nghiệp và tin rằng bạn sẽ không để ý. Ví dụ, thay vì địa chỉ email chính thức như [email protected]
, bạn có thể thấy một địa chỉ như [email protected]
. Bạn cũng có thể nhận được các liên kết hoặc tệp đính kèm không mong muốn, đây thường là dấu hiệu cảnh báo lớn. Các URL không khớp chứa lỗi chính tả khó nhận ra hoặc các từ thừa thãi khó phát hiện hơn nhưng lại là manh mối lớn cho thấy bạn không ở trên một trang web hợp pháp hoặc đang không phản hồi một doanh nghiệp thực sự.
Lời khuyên lớn nhất của tôi không chỉ dừng lại ở các chi tiết kỹ thuật. Đơn giản hãy tự hỏi: Tại sao một công ty hợp pháp lại gửi cho tôi loại email này và cố gắng khiến tôi hành động nhanh chóng đến vậy? Tại sao ngân hàng của tôi lại yêu cầu tôi tải phần mềm hoặc thúc giục tôi nhấp vào một liên kết kỳ lạ? Tại sao ngân hàng của tôi lại gọi tôi là “Kính gửi Khách hàng thân mến” trong khi họ đã biết thông tin của tôi?
3. Cách nhận diện các vụ lừa đảo video deepfake
Cho con người bất cứ thứ gì, và họ sẽ tìm ra cách sử dụng nó để lừa đảo người khác (đây là lý do tại sao chúng ta không thể có những thứ tốt đẹp). Các vụ lừa đảo video deepfake AI cũng đang trở nên khó phân biệt.
Những kẻ lừa đảo tạo ra các đoạn clip trông chân thực bằng cách sử dụng hình ảnh và video đầu vào, sau đó dùng cuộc gọi FaceTime hoặc Zoom để thuyết phục các nạn nhân tiềm năng (người lớn tuổi là mục tiêu chính) cung cấp thông tin nhạy cảm.
Mặc dù dễ dàng cho rằng chỉ những người lớn tuổi mới mắc lừa, nhưng các deepfake AI này tinh vi đến mức ngay cả các chuyên gia nghiêm túc cũng bị lừa. Điển hình là trường hợp ở Hồng Kông, nơi theo The Guardian, những kẻ lừa đảo đã giả mạo giám đốc tài chính (CFO) của một công ty và đánh cắp 200 triệu đô la Hồng Kông (khoảng 25 triệu đô la Mỹ).
Để tránh trở thành nạn nhân, hãy luôn cố gắng kiểm tra xem nguồn giao tiếp có hợp lệ hay không. Vì chúng ta đang nói về lừa đảo, ngay cả khi họ sử dụng công nghệ AI tiên tiến, một kẻ lừa đảo sẽ cố gắng tạo ra sự khẩn cấp để bạn hành động trước khi có thời gian suy nghĩ kỹ. Nếu yêu cầu nghe có vẻ phi thực tế, rất có thể là vậy.
Xác định một video deepfake không hề dễ dàng. Tuy nhiên, bất chấp sự tinh vi liên quan, kết quả cuối cùng có thể có những vấn đề nhỏ, chẳng hạn như chuyển động giật cục và ánh sáng không tự nhiên, mà bạn có thể nhận thấy nếu xem video vài lần. Đôi khi, khớp môi có thể bị trục trặc và lệch nhịp, điều này sẽ gây khó chịu. Đặc biệt chú ý đến các vấn đề xung quanh miệng, vì nó có thể gặp khó khăn trong việc khớp với kịch bản đang thực hiện.
4. Phát hiện lừa đảo giả giọng nói AI (Vishing)
Lừa đảo qua giọng nói, hay còn gọi là vishing, cũng đang có một bước ngoặt đáng sợ khi giờ đây có thể sao chép giọng nói bằng cách sử dụng các thuật toán học sâu. Kết quả chính xác một cách kỳ lạ. Những vụ lừa đảo này đang gia tăng, và tội phạm mạng thường giả vờ là người thân yêu cầu tiền mặt nhanh chóng.
Tuy nhiên, việc phân biệt giữa một nỗ lực lừa đảo hay một trường hợp khẩn cấp là tương đối đơn giản. Bất cứ khi nào bạn nhận được cuộc gọi như vậy, và ai đó đang cố gắng khiến bạn làm điều gì đó ngay lập tức, hãy hít thở sâu và trước tiên hãy xác minh danh tính của người đó. Vì bạn đang giao tiếp với người kia trong thời gian thực, hãy cố gắng phát hiện bất kỳ sự không nhất quán nào trong câu chuyện của họ. Bạn có thể nhận thấy những điểm không khớp nhỏ trong kịch bản của họ.
Cũng cần lưu ý rằng công nghệ sao chép giọng nói chưa hoàn hảo, và một số vấn đề có thể làm lộ tẩy nó. Âm thanh kỹ thuật số đôi khi có thể nghe hơi giống robot (một chút giống autotune). Bất kỳ khoảng dừng kỳ lạ hoặc kiểu nói chuyện bất thường nào cũng cho thấy điều gì đó không ổn với cuộc gọi. AI đang phát triển nhanh chóng, và thật đáng sợ khi nghĩ về mức độ giống con người mà nó sẽ đạt được trong tương lai. Bạn có thể tránh các nỗ lực lừa đảo AI nếu bạn luôn cảnh giác, ít nhất là cho đến bây giờ.