Phải thừa nhận rằng, sử dụng internet chưa bao giờ dễ dàng với những người cao tuổi. Việc tìm kiếm thư mục có thể khó khăn, các dòng trạng thái trên Facebook gần như không khác gì tìm kiếm trên Google, và con chuột thì quá nhỏ bé.
Tình hình ngày càng không hề có dấu hiệu khả quan hơn. Các hồ sơ giả mạo từ lâu đã được dùng để lừa gạt những người dùng internet thiếu cảnh giác, nhưng một xu hướng mới đáng lo ngại hơn đang nổi lên: những video giả được làm bởi Trí tuệ Nhân tạo (AI), nhắm vào cả người trẻ lẫn người già.
Khi công nghệ trở thành vũ khí lừa đảo
Người ta gọi đó là “deepfake thời gian thực” – những hình ảnh, video được AI tạo ra ngày càng khó phân biệt với thực tế. Giờ đây, những kẻ lừa đảo có thể thay đổi ngoại hình và giọng nói của mình ngay trong các cuộc gọi video trực tiếp. Tất cả đều nhờ vào AI tạo sinh, thứ công nghệ cũng đang làm ngập tràn internet với hàng đống nội dung rác do máy tính tạo ra.
Một cuộc điều tra của 404 Media đã phơi bày cách những kẻ gian manh sử dụng công nghệ này để đánh lừa người dùng. Một video thu được cho thấy một thanh niên da màu xuất hiện dưới hình dạng một người đàn ông da trắng với bộ râu bạc khi nói chuyện qua Facetime với một phụ nữ. Một trường hợp khác, một người đàn ông lại giả dạng thành một phụ nữ trẻ. Liệu chúng ta có đủ tỉnh táo để nhận ra những màn kịch tinh vi này không?
Khi kẻ lừa đảo đã chiếm được lòng tin của mục tiêu qua giọng nói và ngoại hình giả mạo, hành vi gian lận thực sự mới bắt đầu. 404 Media ghi nhận rằng những kẻ sử dụng công nghệ này thường thực hiện các vụ lừa đảo tình cảm, gian lận chương trình bảo hiểm y tế Medicare, hoặc các mánh khóe liên quan đến xác minh hình ảnh. Ai có thể ngờ rằng, một khuôn mặt thân quen, một giọng nói trìu mến trên màn hình lại có thể là một cái bẫy?
Nỗi đau không của riêng ai
Một ví dụ kinh hoàng khác là “trò lừa đảo ông bà”. Trong đó, tội phạm giả giọng người thân để ép buộc nạn nhân chuyển tiền hoặc moi móc thông tin nhạy cảm, rồi dùng những thông tin đó để truy cập các tài khoản bảo mật. “Tôi đã rất lo lắng để lấy tiền ra; tôi sẽ làm bất cứ điều gì cho các cháu mình,” một người bà ở Canada, nạn nhân của một vụ lừa đảo 9.000 đô la Canada, chua xót kể lại. Nghe những lời này, làm sao chúng ta không khỏi xót xa và tự hỏi, làm thế nào để bảo vệ những người thân yêu của mình?
Nạn nhân của những vụ lừa đảo này đa số là người cao tuổi, nhưng sự tinh vi ngày càng tăng của những công cụ này có nghĩa là cả người trẻ tuổi cũng rất dễ bị tổn thương. Chẳng hạn, một nghiên cứu vào năm 2021 cho thấy các thế hệ trẻ như Gen Z, Millennials và Gen X có khả năng mất tiền vì lừa đảo cao hơn 34% so với những người trên 60 tuổi, mặc dù họ thường bị lừa bởi các sản phẩm giả và mánh khóe tiền điện tử hơn là lừa đảo tình cảm. Điều này cho thấy rằng không ai hoàn toàn miễn nhiễm trước mối đe dọa này.
Khi Deepfake lan rộng
Cuộc bầu cử tổng thống năm 2024 cũng chứng kiến hàng núi nội dung deepfake rác đổ xuống mạng xã hội. Được sử dụng để lan truyền cả meme lẫn thông tin sai lệch, các công cụ deepfake cho phép những người như Elon Musk giả mạo các nhân vật, ví dụ như Phó Tổng thống Kamala Harris đang tự hạ thấp mình. Ranh giới với sự nhại lại, châm biếm đôi khi rất mờ nhạt; một ví dụ lan truyền là video song ca nổi tiếng giữa Trump và Biden, trong đó hai đối thủ chính trị cùng nhau hát một bản tình ca tiếng Quan Thoại.
Nhiều ví dụ khác cũng không kém phần đáng lo ngại, như một bản deepfake âm thanh được cho là của một hiệu trưởng khu vực Baltimore đưa ra những bình luận miệt thị và phân biệt chủng tộc, hay một nhân viên tài chính đã chi ra 25 triệu đô la sau khi những kẻ lừa đảo giả mạo một cuộc gọi Zoom với nhiều người, bao gồm cả một bản deepfake của giám đốc tài chính công ty.
Nếu những người nổi tiếng, nhân viên tài chính, và cả cộng đồng đều có thể phó mặc cho những kẻ tạo deepfake vô lương tâm, thì những người cao tuổi của chúng ta, những người có thể ít am hiểu công nghệ hơn, liệu có cơ hội nào để chống lại những trò lừa đảo bằng deepfake? Đây là một câu hỏi lớn, đòi hỏi sự quan tâm và những giải pháp cấp thiết từ toàn xã hội.