Sau khi ChatGPT ra mắt vào cuối năm 2022 và đóng góp đáng kể của nó trong việc phổ biến trí tuệ nhân tạo (AI), đã có sự quan tâm ngày càng tăng từ nhiều thực thể khác nhau, bao gồm các công ty công nghệ và phi công nghệ, các doanh nghiệp lâu đời và các công ty khởi nghiệp mới. Tất cả họ đều đã phát hành trợ lý AI và giới thiệu các ứng dụng hoặc cải tiến sáng tạo để thu hút sự chú ý của công chúng.
Sự đảm bảo của các nhà lãnh đạo công nghệ rằng AI có thể xử lý mọi nhiệm vụ và thể hiện nhiều vai trò đã dẫn đến việc trợ lý AI đảm nhận nhiều chức năng khác nhau trong cuộc sống của chúng ta. Họ đã trở thành những cố vấn và nhà tư vấn đáng tin cậy trong kinh doanh và các mối quan hệ, đưa ra những hướng dẫn và hỗ trợ. Ngoài ra, họ còn đóng vai trò là nhà trị liệu, bạn đồng hành và người bạn tâm giao, chăm chú lắng nghe thông tin cá nhân, bí mật và suy nghĩ của chúng ta.
Các công ty cung cấp dịch vụ được AI hỗ trợ hiểu tính chất bí mật của những cuộc trò chuyện như vậy và đảm bảo rằng họ đang triển khai các biện pháp bảo vệ mạnh mẽ để giữ an toàn cho dữ liệu của chúng tôi. Nhưng chúng ta có thể thực sự tin tưởng vào lời hứa của họ không?
Trợ lý AI – bạn hay thù?
Nghiên cứu mới được công bố vào tháng 3 bởi các nhà nghiên cứu của Đại học Ber-Gurion đã tiết lộ rằng thông tin bí mật của chúng tôi có thể gặp rủi ro. Các nhà khoa học đã phát triển một phương pháp giải mã các phản hồi của trợ lý AI với độ chính xác vượt trội, bỏ qua quá trình mã hóa của chúng. Kỹ thuật này tận dụng lỗ hổng thiết kế trong hệ thống của các nền tảng lớn như Copilot của Microsoft và ChatGPT-4 của OpenAI, nhưng Gemini của Google vẫn không bị ảnh hưởng.
Ngoài ra, nghiên cứu còn tiết lộ rằng kẻ tấn công đã phát triển một phương tiện để chặn cuộc trò chuyện, chẳng hạn như với ChatGPT, có thể áp dụng phương pháp này cho các nền tảng tương tự khác mà không cần phải làm gì thêm. Do đó, công cụ này có thể được các hacker phổ biến và sử dụng rộng rãi.
Đã có những cuộc điều tra trước đây tiết lộ các lỗ hổng trong quá trình tạo ra những người trợ giúp AI, bao gồm cả ChatGPT. Kết quả từ nhiều tổ chức học thuật khác nhau và Google DeepMind đã được công bố vào cuối năm 2023. Các nhà nghiên cứu này phát hiện ra rằng bằng cách đưa ra lời nhắc cụ thể, họ có thể khiến ChatGMT đọc thuộc lòng các phần đã ghi nhớ trong dữ liệu đào tạo của mình.
Các nhà nghiên cứu đã truy xuất thành công các đoạn văn chính xác từ sách và thơ, liên kết trang web, số nhận dạng người dùng riêng biệt, địa chỉ ví Bitcoin và tập lệnh mã hóa từ ChatGPT.
Các tác nhân độc hại có thể cố tình tạo ra các lời nhắc lừa đảo hoặc cung cấp cho bot dữ liệu sai lệch để thao túng quá trình đào tạo. Điều này có thể dẫn đến việc đưa thông tin cá nhân và nghề nghiệp bí mật vào tập dữ liệu.
Các mô hình nguồn mở đặt ra những thách thức bảo mật bổ sung. Ví dụ: một nghiên cứu đã tiết lộ rằng kẻ tấn công có thể thao túng dịch vụ chuyển đổi của Hugging Face và chiếm quyền kiểm soát mọi mô hình được gửi. Hậu quả của sự vi phạm như vậy là nghiêm trọng. Kẻ xâm nhập có thể thay thế mô hình mục tiêu bằng mô hình độc hại của riêng chúng, tải các mô hình có hại lên kho lưu trữ hoặc thậm chí có quyền truy cập vào kho lưu trữ dữ liệu riêng tư.
Các tổ chức này, bao gồm Microsoft và Google, với tổng số 905 mô hình trên Hugging Face đã trải qua sửa đổi thông qua dịch vụ chuyển đổi, có thể dễ bị tấn công bởi hacker và có thể đã bị xâm phạm.
Mọi chuyện có thể trở nên tồi tệ hơn
Việc cung cấp cho trợ lý AI những khả năng lớn hơn có thể rất hấp dẫn nhưng cũng làm tăng nguy cơ trở thành mục tiêu của các cuộc tấn công mạng.
Năm ngoái, Bill Gates đã viết trên blog của mình về vai trò tương lai của trí tuệ nhân tạo (AI) tiên tiến. Ông gọi AI này là “trợ lý toàn diện” hoặc “đại lý”, sẽ được cấp quyền truy cập vào tất cả các thiết bị cá nhân và công việc của chúng ta. Chức năng của nó là hợp nhất và kiểm tra dữ liệu được thu thập từ các thiết bị này, hoạt động như một trợ lý đắc lực và hiệu quả cho chúng ta bằng cách quản lý thông tin và nhiệm vụ.
Như Gates đã viết trên blog:
Một đại lý sẽ có thể giúp bạn trong mọi hoạt động nếu bạn muốn. Với quyền theo dõi các tương tác trực tuyến và địa điểm trong thế giới thực của bạn, nó sẽ phát triển sự hiểu biết sâu sắc về con người, địa điểm và hoạt động mà bạn tham gia. Nó sẽ biết được các mối quan hệ cá nhân và công việc, sở thích, sở thích và lịch trình của bạn. Bạn sẽ chọn cách thức và thời điểm nó can thiệp để giúp đỡ điều gì đó hoặc yêu cầu bạn đưa ra quyết định.
Đây không phải là khoa học viễn tưởng và nó có thể xảy ra sớm hơn chúng ta nghĩ. Project 01, hệ sinh thái nguồn mở dành cho các thiết bị AI, gần đây đã ra mắt trợ lý AI có tên 01 Light. “01 Light là giao diện giọng nói di động điều khiển máy tính ở nhà của bạn,” công ty viết trên X. Nó có thể nhìn thấy màn hình của bạn, sử dụng ứng dụng của bạn và học các kỹ năng mới”
Có một trợ lý AI cá nhân có thể khá thú vị. Tuy nhiên, điều quan trọng là các mối lo ngại về an ninh phải được giải quyết kịp thời. Các nhà phát triển phải kiểm tra kỹ lưỡng hệ thống và mã hóa các lỗ hổng để ngăn chặn các cuộc tấn công tiềm ẩn. Nếu tác nhân này trở thành nạn nhân của những kẻ độc hại, toàn bộ cuộc sống của bạn có thể gặp rủi ro – không chỉ thông tin của bạn mà còn bất kỳ cá nhân hoặc tổ chức liên quan nào.
Chúng ta có thể tự bảo vệ mình không?
Bắt đầu từ cuối tháng 3, Hạ viện Hoa Kỳ đã ban hành một hạn chế chắc chắn đối với việc các thành viên lập pháp của Microsoft sử dụng Copilot.
Theo Giám đốc hành chính Hạ viện Catherine Szpindor, ứng dụng Microsoft Copilot đã được Văn phòng An ninh mạng xác định là một rủi ro tiềm ẩn vì nó có thể vô tình chuyển dữ liệu của House sang các dịch vụ đám mây trái phép.
Vào đầu tháng 4, Ủy ban đánh giá an toàn mạng (CSRB) đã công bố báo cáo cáo buộc Microsoft về một loạt sai sót bảo mật cho phép tin tặc Trung Quốc xâm nhập tài khoản email của các quan chức chính phủ Mỹ trong mùa hè năm 2023. Những sự cố này có thể tránh được và nên tránh. đã bị ngăn chặn.
Dựa trên những phát hiện của báo cáo, các biện pháp bảo mật hiện tại của Microsoft chưa đạt tiêu chuẩn và cần những cải tiến đáng kể, điều này cũng có thể ảnh hưởng đến sản phẩm Copilot của họ.
Một số công ty công nghệ, như Apple, Amazon, Samsung và Spotify, cũng như các tổ chức tài chính như JPMorgan, Citi và Goldman Sachs, trước đây đã hạn chế nhân viên của họ sử dụng trợ lý AI.
Năm ngoái, những gã khổng lồ công nghệ như OpenAI và Microsoft đã cam kết phát triển và sử dụng trí tuệ nhân tạo một cách có đạo đức. Tuy nhiên, cho đến nay vẫn chưa có bước đi quan trọng nào được thực hiện theo hướng này.
Đưa ra cam kết thôi là chưa đủ; thay vào đó, các cơ quan chức năng và người ra quyết định cần có những hành động cụ thể. Tạm thời, bạn nên từ chối chia sẻ thông tin cá nhân hoặc thông tin kinh doanh bí mật.
Nếu tất cả chúng ta đều hạn chế sử dụng bot cùng nhau, chúng ta có thể tăng cơ hội được lắng nghe, buộc các doanh nghiệp và người sáng tạo phải ưu tiên sự an toàn của mình bằng cách tăng cường các tính năng bảo mật cần thiết.
Bài viết này nhằm mục đích cung cấp thông tin chung, không nhằm mục đích và không nên được coi là lời khuyên pháp lý hoặc đầu tư. Các quan điểm, suy nghĩ và ý kiến được trình bày ở đây là của riêng tác giả và không nhất thiết phản ánh hay đại diện cho quan điểm và ý kiến của CryptoMoon.
- Tiền điện tử CVX tăng +90%: Xu hướng tăng sẽ tiếp tục hay một sự điều chỉnh sắp xuất hiện?
- Grayscale Bitcoin ETF cuối cùng cũng nhìn thấy dòng vốn vào: Liệu bây giờ BTC có vượt qua 70 nghìn đô la không?
- Cách kết nối Chuỗi thông minh BNB với MetaMask
- Phí bảo hiểm quỹ Ethereum tăng: Liệu nó có kích hoạt ATH cho ETH một lần nữa không?
- Tỷ lệ đốt Shiba Inu tăng vọt 300%
- Đặt cược Ethereum ETF: Novogratz nhận thấy sự thay đổi trong lập trường của SEC sau 2 năm
- 17% khả năng Trump có thể vào tù trước ngày 5 tháng 11: Polymarket
- Linea được ConsenSys hậu thuẫn đánh bại sức mạnh của Matter Labs nhờ công nghệ ‘Không có kiến thức’
- Dự báo giá Ethereum: ETH sẽ đi về đâu sau khi ETF được phê duyệt?
- Tại sao các sàn giao dịch tiền điện tử lớn rút đơn đăng ký giấy phép ở Hồng Kông
2024-04-10 23:53