Sự gia tăng của lừa đảo chatbot AI đang khiến người dùng đối mặt với nguy cơ bị chiếm đoạt tài sản và khai thác dữ liệu cá nhân chỉ qua những cuộc trò chuyện được tự động hóa, tinh vi và không cần sự can thiệp của con người
- Việt Nam – Mỹ tiếp tục đàm phán Hiệp định Thương mại đối ứng
- Bối cảnh xã hội biến đổi nhưng giá trị Ngày Nhà giáo Việt Nam vẫn tròn ý nghĩa
- Mất 1 tỷ đồng vì tham gia trò chơi có thưởng ‘nộp 1 tỷ trúng 10 tỷ’ trên mạng
Chatbot AI trở thành công cụ thao túng tâm lý quy mô lớn
Tại tọa đàm “Bảo vệ cá nhân, tổ chức trước các cuộc tấn công mạng”, các chuyên gia an ninh mạng cảnh báo rằng tội phạm công nghệ cao đang chuyển sang sử dụng chatbot AI để thực hiện lừa đảo với tốc độ và quy mô chưa từng có. Những chatbot này được huấn luyện bằng kịch bản lừa đảo chi tiết, có khả năng phân tích phản hồi của nạn nhân để điều chỉnh cách nói chuyện theo thời gian thực.
Nhờ khả năng mô phỏng hành vi con người, chatbot có thể tạo cảm giác thân mật, tin cậy, từ đó dễ dàng dẫn dắt nạn nhân làm theo yêu cầu, như cung cấp thông tin cá nhân hoặc chuyển tiền.
Lừa đảo tự động hóa: Giá rẻ, lan nhanh, khó kiểm soát
Các biến thể chatbot phục vụ lừa đảo đang được rao bán công khai trên “chợ đen”, chỉ khoảng 20 USD/tháng. Công cụ này cho phép tội phạm mở rộng hoạt động lừa đảo với tốc độ gấp 20 lần so với cách làm truyền thống. Một số gói còn tích hợp khả năng tạo mã độc, vượt qua phần mềm diệt virus kém hiệu quả.
Theo thống kê quý 2/2025, số vụ tấn công bằng AI tăng đến 62%, gây thiệt hại toàn cầu khoảng 18 tỉ USD. Điều này cho thấy chatbot đang biến hoạt động lừa đảo thành dây chuyền tự động hóa nguy hiểm.
Chuyên gia an ninh cho biết dữ liệu người dùng, từ lịch sử cuộc gọi đến vị trí định vị, có thể bị bán với giá 500 USD/tháng trên thị trường ngầm. Khi kết hợp dữ liệu này với chatbot AI, tội phạm có thể tạo ra kịch bản lừa đảo “may đo” cho từng nạn nhân, làm tăng tỷ lệ thành công.
TS. Đào Trung Sơn nhận định yếu tố cốt lõi khiến các vụ lừa đảo AI thành công là thao túng tâm lý — điều mà chatbot làm tốt hơn con người vì có khả năng phân tích cảm xúc liên tục và không mệt mỏi.
Pháp lý siết chặt nhưng người dùng vẫn cần nâng cao cảnh giác
Nhiều quốc gia châu Âu đã xây dựng khung pháp lý chặt chẽ về bảo vệ dữ liệu cá nhân. Tại Việt Nam, Luật Bảo vệ Dữ liệu Cá Nhân sẽ có hiệu lực từ ngày 1-1-2026, nhằm tạo hành lang pháp lý quan trọng để kiểm soát việc thu thập và khai thác dữ liệu.
Tuy vậy, theo các chuyên gia, chỉ siết luật là chưa đủ. Người dùng cần được trang bị kỹ năng nhận diện thao túng tâm lý, hiểu cách thức hoạt động của lừa đảo chatbot AI và chủ động bảo vệ tài khoản cá nhân.
- Không cung cấp thông tin cá nhân khi trò chuyện với người lạ qua mạng.
- Cảnh giác khi nhận được yêu cầu chuyển tiền, chia sẻ mã OTP, hoặc tải tệp đính kèm.
- Cập nhật phần mềm bảo mật và kích hoạt xác thực đa lớp.
- Cơ quan quản lý cần đẩy mạnh tuyên truyền về các hình thức lừa đảo mới, đồng thời phát triển công cụ phát hiện chatbot độc hại.
Theo: Tuổi Trẻ

