Các trò lừa đảo tiền điện tử được hỗ trợ bởi AI đang thay đổi bối cảnh bảo mật Blockchain như thế nào

Là một nhà nghiên cứu dày dạn kinh nghiệm với hơn hai thập kỷ trong bối cảnh kỹ thuật số đang phát triển nhanh chóng, tôi đã chứng kiến ​​​​sự phát triển và chuyển đổi vượt bậc của công nghệ, đặc biệt là trí tuệ nhân tạo (AI). Mặc dù không thể phủ nhận AI đã mang lại những tiến bộ chưa từng có, nhưng sự cố gần đây liên quan đến việc khai thác ví Solana đóng vai trò như một lời nhắc nhở rõ ràng rằng mỗi bước tiến đều có mức độ rủi ro tương đương.

Một trường hợp gần đây về việc giả mạo AI nhắm vào thị trường tiền điện tử đã xuất hiện: ví Solana được cho là đã bị nhiễm độc, dẫn đến tổn thất ước tính khoảng 2.500 USD. Sự kiện này nhấn mạnh rằng các công cụ như ChatGPT có thể cung cấp thông tin chi tiết có lợi cho các dự án Web3, nhưng việc sử dụng chúng có thể góp phần lan truyền các tài nguyên bị xâm phạm.

Sự cố: Khai thác ví Solana

Vào ngày 21 tháng 11 năm 2024, một người dùng đã cố chạy bot bắn tỉa mã thông báo meme được thiết kế cho Pump.fun của nền tảng Solana bằng cách sử dụng ChatGPT. Thật không may, bot đã nhận được một liên kết lừa đảo được cho là API cho các dịch vụ Solana. API này đã được các nhà phát triển của nó tạo ra để rút SOL, USDC và nhiều loại tiền meme khác nhau khỏi ví của người dùng. Cửa sau trong bot đã tiết lộ khóa riêng của ví ở nước ngoài trước khi đánh cắp tiền.

Tài sản bị đánh cắp nhanh chóng được chuyển đến một ví có liên quan đến các hoạt động lừa đảo trước đó, vốn cũng có liên quan đến 281 giao dịch bổ sung bắt nguồn từ các ví bị xâm nhập khác. Người ta nghi ngờ về một API độc hại có thể có nguồn gốc từ kho GitHub, vì những kẻ lừa đảo được cho là đã chèn trojan vào tệp Python, lợi dụng sự thiếu kinh nghiệm của nhà phát triển.

Hiểu về ngộ độc AI

Ngộ độc AI liên quan đến việc cung cấp cho các mô hình AI dữ liệu không chính xác hoặc có hại trong quá trình đào tạo của chúng. Trong trường hợp này, có vẻ như cơ sở dữ liệu độc hại đã làm hỏng phản hồi của ChatGPT vốn được thiết kế cho các API an toàn. Mặc dù OpenAI không xác nhận rõ ràng về việc tích hợp có chủ ý, nhưng vụ việc nhấn mạnh những rủi ro tiềm ẩn mà hệ thống AI có thể gây ra trong các lĩnh vực chuyên biệt như blockchain, đồng thời nêu bật sự cần thiết phải cảnh giác và các biện pháp bảo mật.

Các chuyên gia trong lĩnh vực bảo mật như người sáng lập SlowMist Yu Xian đang sử dụng các thuật ngữ như “lời cảnh tỉnh” để nêu bật tầm quan trọng của vấn đề này. Xian giải thích rằng khi dữ liệu đào tạo AI mở rộng, nó sẽ dễ bị lây nhiễm, khi những kẻ lừa đảo khai thác các nền tảng như ChatGPT để khuếch đại các hoạt động bất hợp pháp của chúng.

Các biện pháp bảo vệ dành cho nhà phát triển và người dùng

Để ngăn chặn những sự cố tương tự, các nhà phát triển và người dùng tiền điện tử nên:  

  • Xác minh tất cả mã và API: Không chỉ dựa vào kết quả đầu ra do AI tạo ra và thực hiện kiểm tra theo cách tương tự.  
  • Ví riêng biệt: Nên sử dụng cùng một ví để thử nghiệm, trong khi các tài sản đáng kể sẽ không phải liên kết với các bot thử nghiệm hoặc các công cụ chưa được xác minh.  
  • Giám sát hoạt động blockchain: Thuê các công ty đáng tin cậy xử lý bảo mật blockchain như SlowMist để theo dõi các mối đe dọa mới nhất.  
  • Cũng đọc:
  •   Upbit hoàn lại 6,07 triệu USD cho 380 nạn nhân bị lừa đảo tiền điện tử
  •   ,

Kết luận

Trường hợp ban đầu về thao túng AI trong lĩnh vực tiền điện tử nhấn mạnh tầm quan trọng của việc tập trung cao độ vào lĩnh vực này. Mặc dù AI mang lại tiềm năng vượt trội nhưng việc chỉ dựa vào lời khuyên do AI tạo ra sẽ gây ra những rủi ro mới đáng kể cho người dùng. Khi ngành công nghiệp blockchain tiến bộ, điều quan trọng là phải duy trì cảnh giác và bảo vệ cả nhà phát triển và nhà đầu tư khỏi những trò gian lận phức tạp có thể phát sinh do những tiến bộ này.

2024-11-22 17:07