Các nhà nghiên cứu an toàn AI rời OpenAI vì lo ngại về ưu tiên

Là một nhà phân tích có nền tảng về đạo đức và an toàn AI, tôi quan ngại sâu sắc về những phát triển gần đây tại OpenAI. Sự từ chức của các thành viên chủ chốt trong nhóm tập trung vào an toàn AI, bao gồm Ilya Sutskever và Jan Leike, là một dấu hiệu đáng lo ngại.


Tất cả các thành viên trong nhóm OpenAI chuyên giải quyết các rủi ro tiềm ẩn do trí tuệ nhân tạo gây ra đều đã rời tổ chức hoặc dường như đã gia nhập các nhóm nghiên cứu khác.

Sau khi Ilya Sutskever, nhà khoa học trưởng của OpenAI và là người đồng sáng lập công ty, đưa ra thông báo rời đi, tôi, với tư cách là thành viên của nhóm siêu liên kết của OpenAI và người đồng lãnh đạo khác của nó, Jan Leike, đã chia sẻ trên X rằng tôi đã nộp đơn từ chức.

Dựa trên tuyên bố của Leike, ông rời công ty vì lo ngại về việc công ty ưu tiên phát triển sản phẩm mà không đảm bảo an toàn cho AI.

Các nhà nghiên cứu an toàn AI rời OpenAI vì lo ngại về ưu tiên

Với tư cách là một nhà phân tích, tôi sẽ diễn giải quan điểm của Leike như sau: Trong một loạt các ấn phẩm, tôi đã lập luận rằng trọng tâm hiện tại của OpenAI vào các ưu tiên cụ thể do lãnh đạo của họ đặt ra có thể không phải là cách tiếp cận hiệu quả nhất khi chúng ta tiến tới phát triển Trí tuệ nhân tạo tổng hợp (AGI) . Thay vào đó, tôi ủng hộ mạnh mẽ việc ưu tiên an toàn và chuẩn bị sẵn sàng trong nỗ lực phát triển AGI của chúng tôi.

AGI đề cập đến một dạng lý thuyết của trí tuệ nhân tạo có khả năng phù hợp hoặc vượt qua khả năng của con người trong nhiều nhiệm vụ khác nhau.

Tại OpenAI, nơi Leike đã làm việc trong ba năm, anh bày tỏ lo ngại về việc công ty tập trung vào việc tạo ra các sản phẩm bắt mắt mà gây tổn hại đến việc xây dựng các quy trình và văn hóa an toàn AI mạnh mẽ. Ông nhấn mạnh tầm quan trọng của việc phân bổ nguồn lực, đặc biệt là về sức mạnh tính toán, để củng cố những nỗ lực nghiên cứu an toàn thiết yếu của nhóm ông vốn đang bị bỏ quên.

“…Tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá lâu cho đến khi cuối cùng chúng tôi đạt đến điểm đột phá. Trong vài tháng qua, đội của tôi đã đi ngược gió…”

Mùa hè năm ngoái, OpenAI đã thành lập một đơn vị nghiên cứu mới với mục tiêu dự đoán sự trỗi dậy của các thực thể trí tuệ nhân tạo có thể vượt qua trí thông minh của con người và có khả năng gây ra mối đe dọa cho những người tạo ra chúng. Ilya Sutskever, nhà khoa học trưởng và đồng sáng lập của OpenAI, được chỉ định là một trong những trưởng nhóm giám sát dự án này, dự án được cấp quyền truy cập vào 20% khả năng tính toán của OpenAI.

Sau khi một số thành viên trong nhóm từ chức, OpenAI đã quyết định giải tán đơn vị “Siêu liên kết” và dồn trách nhiệm của mình vào các nỗ lực nghiên cứu đang diễn ra khác trong công ty. Hành động này được cho là xuất phát từ quá trình tái cơ cấu toàn tổ chức được bắt đầu sau tình trạng khó khăn về quản trị vào tháng 11 năm 2023.

Với tư cách là một nhà nghiên cứu theo sát sự phát triển của OpenAI, tôi có thể chia sẻ rằng đã có nỗ lực do Sutskever và những người khác trong hội đồng quản trị OpenAI dẫn đầu nhằm thay thế Altman làm Giám đốc điều hành vào tháng 11 năm trước. Tuy nhiên, quyết định này vấp phải sự phản đối mạnh mẽ từ nhân viên của OpenAI, dẫn đến việc Altman được phục hồi chức vụ.

Dựa trên báo cáo của The Information, Sutskever đã thông báo với các nhân viên rằng hành động sa thải Sam Altman của hội đồng quản trị thể hiện nghĩa vụ của họ nhằm đảm bảo rằng OpenAI tạo ra trí tuệ nhân tạo chung (AGI) phục vụ lợi ích tốt nhất của nhân loại nói chung. Với tư cách là một trong sáu thành viên, Sutskever nhấn mạnh sự cống hiến của hội đồng trong việc điều chỉnh các mục tiêu của OpenAI vì lợi ích lớn hơn.

2024-05-18 14:45