(vfo.vn) Một xu hướng đáng báo động hiện nay là việc kẻ tấn công sử dụng AI (trí tuệ nhân tạo) để tinh chỉnh, nâng cấp chiêu trò lừa đảo, nhắm vào cá nhân cụ thể, từ đó gây khó khăn cho việc xác định các cuộc tấn công.
Theo nghiên cứu mới đây của Kaspersky, số vụ tấn công an ninh mạng mà các tổ chức phải đối mặt đã tăng gần một nửa trong 12 tháng qua, ghi nhận bởi 49% người tham gia khảo sát. Mối đe dọa phổ biến nhất đến từ các vụ lừa đảo phishing, khi có tới 49% người được hỏi tiết lộ họ từng gặp phải sự cố này. Một nửa số người tham gia khảo sát (50%) dự đoán số lượng các vụ tấn công lừa đảo sẽ tăng đáng kể, trong bối cảnh tội phạm mạng ngày càng lợi dụng AI nhiều hơn. Kaspersky phân tích cách tội phạm lợi dụng AI trong các vụ lừa đảo theo phương thức phishing, cũng như lý do vì sao ngay cả những người giàu kinh nghiệm cũng có thể “mắc bẫy”, trở thành nạn nhân của các vụ tấn công lừa đảo được hỗ trợ bởi AI.
Trước đây, các vụ tấn công lừa đảo chủ yếu dựa vào việc phát tán những tin nhắn rập khuôn đến hàng ngàn người, nhằm dụ dỗ một số người sa vào bẫy. AI đã thay đổi điều này bằng cách tạo ra những email lừa đảo được cá nhân hóa một cách tinh vi trên quy mô lớn. Các công cụ tích hợp AI có thể sử dụng thông tin công khai của cá nhân trên mạng xã hội, trang tuyển dụng hoặc website của các công ty, từ đó tạo ra những email được thiết kế riêng, đúng vai trò, sở thích và phong cách giao tiếp của từng cá nhân. Ví dụ, một CFO có thể nhận được email lừa đảo sao chép giọng điệu và phong cách tin nhắn từ CEO, thậm chí email còn đề cập đến các sự kiện gần đây của công ty một cách chính xác. Mức độ tùy chỉnh tinh vi này khiến nhân viên rất khó phân biệt giữa tin nhắn thực với tin nhắn lừa đảo.
Công nghệ deepfake trong AI cũng trở thành vũ khí lợi hại, được tội phạm mạng sử dụng trong các chiêu trò lừa đảo. Kẻ tấn công lợi dụng công nghệ này để tạo ra các đoạn âm thanh và video giả mạo, , mô phỏng giọng nói, ngoại hình của các nhà lãnh đạo, quản lý với mức độ chính xác đến kinh ngạc. Ví dụ, trong một trường hợp được ghi nhận, kẻ tấn công đã sử dụng deepfake để giả mạo nhiều nhân viên trong một cuộc họp trực tuyến, qua đó thuyết phục một nhân viên chuyển khoản số tiền lên tới khoảng 25,6 triệu USD. Trong bối cảnh công nghệ deepfake ngày càng phát triển, các cuộc tấn công dưới hình thức này được dự đoán sẽ ngày một tràn lan và tinh vi hơn.
Tội phạm mạng có thể lợi dụng AI để đánh lừa các hệ thống lọc email truyền thống. Bằng cách phân tích và mô phỏng các mẫu email hợp pháp, email lừa đảo tạo bằng AI có thể vượt qua vòng kiểm tra của phần mềm bảo mật. Cùng với đó, các thuật toán học máy còn có thể kiểm tra và tinh chỉnh lừa đảo trong thời gian thực, nâng cao tỷ lệ “trót lọt” và biến chiêu thức lừa đảo ngày càng trở nên tinh vi.
Ngay cả những nhân viên an ninh mạng giàu kinh nghiệm cũng trở thành nạn nhân trong các vụ tấn công lừa đảo tinh vi. Mức độ chân thực và cá nhân hóa của các nội dung do AI tạo ra đôi khi lấn át sự hoài nghi, vốn là yếu tố giúp các chuyên gia giàu kinh nghiệm luôn thận trọng. Hơn nữa, các vụ tấn công này thường đánh vào yếu tố tâm lý con người, chẳng hạn như sự khẩn cấp, sợ hãi hoặc quyền lực, tạo áp lực buộc nhân viên hành động mà không kiểm tra kỹ tính xác thực của yêu cầu.
Để đối phó với các vụ tấn công lừa đảo sử dụng AI, tổ chức, doanh nghiệp cần có cách tiếp cận chủ động và đa lớp, tập trung vào hệ thống an ninh mạng toàn diện. Việc thường xuyên cập nhật, đào tạo để nhân viên nâng cao nhận thức về an ninh mạng chú trọng yếu tố AI đóng vai trò vô cùng quan trọng, giúp đội ngũ nhân viên nhận diện các dấu hiệu lừa đảo tinh vi và các chiến thuật tấn công độc hại khác. Song song, doanh nghiệp nên triển khai các công cụ bảo mật mạnh mẽ có khả năng phát hiện bất thường trong email, chẳng hạn như mẫu câu hay siêu dữ liệu đáng ngờ.
Nguồn: Kaspersky
Sửa lần cuối bởi điều hành viên: