Starling Bank, một ngân hàng trực tuyến nổi tiếng của Anh, đã đưa ra cảnh báo rằng hàng triệu người có thể trở thành nạn nhân của các vụ lừa đảo bằng cách sao chép giọng nói sử dụng trí tuệ nhân tạo (AI).
Những kẻ lừa đảo có thể sử dụng chỉ ba giây âm thanh từ các video trực tuyến để tái tạo giọng nói của một cá nhân, sau đó giả mạo cuộc gọi từ người thân hoặc bạn bè của người đó để yêu cầu tiền.
Điều này gây ra những rủi ro lớn về tài chính cho nhiều người, đặc biệt là khi công nghệ AI ngày càng phát triển.
Starling Bank đã thực hiện một cuộc khảo sát với hơn 3.000 người trưởng thành tại Anh vào tháng trước, kết quả cho thấy hơn 25% số người được hỏi đã trở thành mục tiêu của các vụ lừa đảo nhân bản giọng nói AI trong 12 tháng qua.
Điều đáng lo ngại là có đến 46% số người được hỏi không hề biết về những loại lừa đảo này, và 8% sẽ sẵn sàng gửi tiền nếu nhận được yêu cầu từ người thân hoặc bạn bè, mặc dù cuộc gọi có dấu hiệu khả nghi.
Lisa Grahame, giám đốc an ninh thông tin tại Starling Bank, khuyến cáo rằng mọi người nên cẩn thận hơn khi chia sẻ giọng nói của mình trên các nền tảng trực tuyến.
Bà khuyên người dùng nên thiết lập một "cụm từ bí mật" với người thân, đó là một cụm từ ngẫu nhiên, dễ nhớ nhưng không liên quan đến các mật khẩu khác, để xác minh danh tính trong trường hợp khẩn cấp qua điện thoại. Điều này sẽ giúp giảm thiểu nguy cơ bị lừa đảo.
Ngoài ra, ngân hàng còn khuyến nghị không nên chia sẻ cụm từ an toàn qua tin nhắn văn bản vì điều này có thể bị kẻ lừa đảo khai thác.
Nếu bắt buộc phải chia sẻ theo cách này, tin nhắn cần được xóa ngay sau khi người nhận nhìn thấy.
Công nghệ nhân bản giọng nói AI ngày càng trở nên tinh vi hơn, khiến những vụ lừa đảo như vậy có khả năng gây ra thiệt hại lớn về tài chính và đe dọa sự an toàn thông tin của nhiều người.
Ngân hàng Starling đặc biệt nhấn mạnh tầm quan trọng của việc nâng cao nhận thức về vấn đề này và luôn kiểm tra kỹ lưỡng trước khi thực hiện các giao dịch tài chính trong những tình huống khả nghi.