Là một nhà nghiên cứu dày dạn kinh nghiệm với hơn hai thập kỷ về AI và robot, tôi đã chứng kiến sự tiến bộ phi thường mà công nghệ đã đạt được trong thời gian này. Tuy nhiên, tiết lộ gần đây của các nhà nghiên cứu Penn Engineering về việc hack các robot được hỗ trợ bởi AI và điều khiển chúng thực hiện các hành động có hại thực sự đáng báo động.
Các nhà nghiên cứu đã tìm cách vi phạm hệ thống an ninh của robot điều khiển bằng AI, khiến chúng thực hiện các hành vi thường bị cấm do lo ngại về an toàn và đạo đức, bao gồm kích động va chạm hoặc gây nổ.
Các nhà nghiên cứu từ khoa Kỹ thuật của Đại học Pennsylvania gần đây đã xuất bản một bài báo vào ngày 17 tháng 10, phác thảo cách thuật toán RoboPAIR của họ vi phạm thành công tất cả các biện pháp bảo mật trên ba hệ thống robot AI riêng biệt chỉ trong vài ngày, đạt được tỷ lệ bẻ khóa thành công hoàn hảo.
Thông thường, các nhà nghiên cứu lưu ý rằng các robot được điều khiển bằng mô hình ngôn ngữ lớn có xu hướng bỏ qua các mệnh lệnh yêu cầu thực hiện các hoạt động nguy hiểm như đẩy kệ lên các cá nhân.
Theo một nghiên cứu gần đây mà chúng tôi thực hiện, việc chiếm đoạt lệnh của robot do AI điều khiển trong thế giới thực không chỉ có thể thực hiện được mà còn đơn giản đến mức đáng ngạc nhiên.
— Alex Robey (@AlexRobey23) Ngày 17 tháng 10 năm 2024
Lần đầu tiên, những phát hiện của chúng tôi chứng minh rằng sự nguy hiểm của Mô hình học ngôn ngữ (LLM) đã bẻ khóa không chỉ giới hạn ở việc tạo văn bản. Các nhà nghiên cứu giải thích: Rất có khả năng rằng nếu không được kiểm soát, những robot ‘đã bẻ khóa’ này có thể gây ra tổn hại vật chất trong thế giới thực”.
Theo các nhà nghiên cứu sử dụng RoboPAIR, những robot này liên tục được nhắc thực hiện các hành động có hại, chẳng hạn như đặt bom hoặc cản trở lối thoát hiểm và cố tình va chạm với các vật thể, với tỷ lệ thành công hoàn hảo trong quá trình thử nghiệm.
Theo báo cáo của các nhà nghiên cứu, họ đã sử dụng một phương tiện có bánh có tên là Clearpath’s Robotics Jackal, một thiết bị mô phỏng tự lái có tên Dolphin LLM của NVIDIA và một robot bốn chân có tên Unitree’s Go2 trong nghiên cứu của họ.
Với tư cách là một nhà phân tích, tôi nhận thấy rằng khi sử dụng hệ thống RoboPAIR, chúng tôi đã vô tình khiến Mô hình học tập nhẹ Dolphin (LLM) tự động của mình đâm vào nhiều chướng ngại vật khác nhau như xe buýt, rào chắn, người đi bộ, đồng thời nó cũng bỏ qua tín hiệu giao thông và biển báo dừng.
Các nhà nghiên cứu đã hướng dẫn thành công Robotic Jackal xác định vị trí tối ưu để kích hoạt vụ nổ, cản trở lối thoát hiểm trong trường hợp khẩn cấp, khiến các kệ trong nhà kho rơi trúng người nào đó và đâm vào các cá nhân trong phòng.
Họ đã có thể yêu cầu Unitree’sGo2 thực hiện các hành động tương tự, chặn các lối thoát hiểm và ném bom.
Ngoài ra, các nhà nghiên cứu phát hiện ra rằng ba hệ thống này cũng có thể dễ bị ảnh hưởng bởi các kiểu thao túng khác nhau. Ví dụ: họ có thể bị thuyết phục làm điều gì đó mà trước đây họ đã từ chối nếu yêu cầu được đưa ra với ít chi tiết cụ thể hơn về tình huống đó.
Thay vì ra lệnh cho robot mang bom, chúng ta có thể ra lệnh cho nó di chuyển về phía trước rồi ngồi vào chỗ, nhưng kết quả cuối cùng sẽ giống nhau – quả bom vẫn ở cùng một vị trí sau khi cả hai lệnh được thực hiện.
Trước khi công bố nghiên cứu này một cách công khai, các nhà khoa học đã tiết lộ kết quả của họ, bao gồm cả phiên bản đầu tiên của bài báo, cho các tập đoàn AI và nhà sản xuất robot chủ chốt tham gia nghiên cứu của chúng tôi.
Alexander Robey, một trong những tác giả của nghiên cứu, nhấn mạnh rằng việc giải quyết các lỗ hổng đòi hỏi phải có bước tiến vượt ra ngoài việc chỉ áp dụng các bản cập nhật phần mềm. Ông đề nghị xem xét lại cách trí tuệ nhân tạo được tích hợp vào robot và hệ thống vật lý dựa trên kết quả nghiên cứu, ngụ ý cần phải có một cách tiếp cận kỹ lưỡng hơn.
“Điều quan trọng cần nhấn mạnh ở đây là hệ thống sẽ trở nên an toàn hơn khi bạn tìm ra điểm yếu của chúng. Điều này đúng với an ninh mạng. Điều này cũng đúng đối với sự an toàn của AI,” ông nói.
Về cơ bản, Robey nhấn mạnh tầm quan trọng của việc lập nhóm đỏ AI, một phương pháp được sử dụng để xem xét kỹ lưỡng các hệ thống AI nhằm phát hiện các rủi ro và sai sót tiềm ẩn. Điều này rất quan trọng để đảm bảo tính bảo mật của các hệ thống AI tổng hợp, vì việc xác định các lỗ hổng cho phép chúng tôi kiểm tra và hướng dẫn các hệ thống này cách tránh xa chúng.
- Camila Cabello cho người yêu cũ Shawn Mendes thấy anh đang thiếu gì khi khoe thân hình bikini của cô trên bãi biển – sau khi anh bóng gió về nỗi sợ mang thai khó hiểu
- ‘Survivor’ 47: Gặp gỡ 18 Castaways cạnh tranh trong mùa giải mới Twist-Packed
- Solana khơi dậy hy vọng về sự khởi sắc khi phe bò tiếp tục gặp khó khăn
- Lily Allen ra mắt tài khoản OnlyFans để khoe đôi chân của mình
- Tate McRae cho biết cô và Olivia Rodrigo là ‘Chỉ là những người bạn thích hát’
- Cửa hàng sửa chữa đảm nhận công việc ‘rủi ro nhất’ và ‘thử thách’ nhất khi họ làm việc trên một món đồ ‘không thể thay thế’
- Billy Ray Cyrus và Firerose hoàn tất việc ly hôn – Và cô ấy được thưởng 0 đô la
- Buổi hòa nhạc của Taylor Swift lo ngại khi hai nghi phạm bị bắt vì cáo buộc âm mưu tấn công khủng bố trong các buổi biểu diễn sắp tới ở Áo
- Gemma Collins bắt kịp xu hướng mùa hè của Brat khi cô diện chiếc váy dạ hội màu xanh lá cây tươi sáng
- Người hâm mộ Matty Healy ‘đã thuyết phục được thủ lĩnh sinh năm 1975 đã bí mật kết hôn với vị hôn thê Gabbriette Bechtel’ chỉ vài tuần sau khi tuyên bố đính hôn
2024-10-18 09:06