OpenAI, vốn được biết đến rộng rãi với chatbot ChatGPT nổi tiếng toàn cầu, gần đây đã đưa ra một kế hoạch chi tiết nhằm ngăn chặn những mối nguy hiểm tiềm ẩn có liên quan đến công nghệ trí tuệ nhân tạo (AI) tiên tiến của họ.
Khi công nghệ trí tuệ nhân tạo AI ngày càng thông minh hơn, đặc biệt là với tiềm năng phát triển lên cấp độ Trí tuệ nhân tạo tổng hợp (Artificial General Intelligence – AGI) – giống như trí thông minh ở cấp độ của con người, việc đảm bảo AI an toàn, không gây ra bất cứ nguy hiềm tiềm ẩn nào là hết sức quan trọng.
Và đây là lý do tại sao vừa mới đây, tổ chức OpenAI đã chia sẻ một tài liệu dài 27 trang có tên “Preparedness Framework” (Khung Chuẩn Bị). Preparedness Framework, được mô tả như một “tài liệu sống”, nêu chi tiết kế hoạch của OpenAI nhằm theo dõi, đánh giá và đề phòng trước những rủi ro nghiêm trọng có thể đến từ các mô hình trí tuệ nhân tạo AI tiên tiến của họ.
Rủi Ro và Hành Động Phản Ứng
Tài liệu vừa được công bố đề cập đến một loạt rủi ro, gồm việc lạm dụng trí tuệ nhân tạo AI cho các cuộc tấn công mạng lớn, và vai trò có thể có của AI trong việc phát triển ra các vũ khí nguy hiểm như vũ khí sinh học, hóa học hoặc hạt nhân.
Cụ thể sáu yếu tố trọng tâm chính của tài liệu này là:
- Kiểm Tra Rủi Ro Thường Xuyên: Nhóm phát triển của OpenAI thường xuyên theo dõi chặt chẽ các rủi ro đi kèm với các trí tuệ nhân tạo AI tiên tiến. Họ thực hiện các nghiên cứu và đánh giá liên tục để phát hiện bất kỳ mối nguy hiểm tiềm ẩn mới nào có thể xuất hiện.
- Đi Trước Các Mối Đe Dọa: Trọng tâm là xác định những rủi ro chưa được tính tới, đảm bảo luôn có phương án để chuẩn bị cho mọi rủi ro bất ngờ từ công nghệ AI.
- Các Loại Rủi Ro Khác Nhau: Các rủi ro được sắp xếp, chia thành các loại như an ninh mạng, các mối đe dọa hóa học và sinh học… Mỗi cái đều được theo dõi chặt chẽ để xem liệu mức độ rủi ro có tăng lên hay không, từ đó sẽ kích hoạt các hành động cụ thể để giảm thiểu những rủi ro đó.
- Quy Tắc An Toàn Nghiêm Ngặt Và Các Bảo Mật Bổ Sung: OpenAI đã đặt ra các tiêu chuẩn an toàn cho các mô hình trí tuệ nhân tạo AI của mình. Các mô hình phải đáp ứng các tiêu chuẩn này để được sử dụng hoặc được phát triển thêm. Nếu một mô hình AI gặp rủi ro trước khi họ tiến hành kiểm tra an toàn, thì mô hình đó sẽ được thêm các lớp bảo mật bổ sung để đảm bảo an toàn hơn.
- Làm Việc Theo Nhóm Để Đưa Ra Các Quyết Sách Bảo Đảm An Toàn: Kế hoạch bảo đảm an toàn sẽ có sự tham gia của nhiều nhóm khác nhau trong OpenAI. Tất cả mọi người sẽ cùng đưa ra các quan điểm xử lý, các giải pháp và kỹ năng khác nhau, đặc biệt là trong các tình huống khẩn cấp, sau đó có thể chọn ra giải pháp tối ưu nhất.
- Cập Nhật Liên Tục Và Đánh Giá Độc Lập: Kế hoạch sẽ được cập nhật thường xuyên với những thông tin và các phát hiện mới nhất trong ngành. OpenAI cũng đảm bảo các công việc của họ sẽ được các chuyên gia bên ngoài kiểm tra để duy trì tính minh bạch và trách nhiệm giải trình.
Khung an toàn này về nguyên tắc không cố định mà được xây dựng một các linh hoạt, có nghĩa là nó có thể thay đổi và thích ứng khi có các thông tin và nghiên cứu mới. Nó có một hệ thống gọi là “Scorecard” (Thẻ Điểm), phản ánh những phát hiện mới nhất về vấn để an toàn của AI, sẽ được OpenAI thường xuyên cập nhật.
Hệ Thống Thẻ Điểm Của Open AI
Preparedness Framework có cả một hệ thống gọi là “Scorecard” (Thẻ Điểm) để giám sát sự an toàn của các mô hình trí tuệ nhân tạo AI của OpenAI. Các yếu tố chính của hệ thống Thẻ Điểm này gồm có:
- Danh Mục Rủi Ro: Hệ thống đánh giá các mô hình trí tuệ nhân tạo AI trong một số lĩnh vực, gồm an ninh mạng, hóa học, sinh học, phóng xạ, các mối đe dọa hạt nhân, sức thuyết phục và quyền tự chủ.
- Mức Độ An Toàn: Mỗi mẫu sẽ được đánh giá và được xếp hạng an toàn. Có bốn mức độ rủi ro an toàn, cho biết mức độ an toàn của mô hình AI sau khi áp dụng kiểm tra an toàn (giảm thiểu sau).
- Sử Dụng Mô Hình: Dựa trên điểm số của chúng, chỉ những mô hình trí tuệ nhân tạo được xếp hạng rủi ro ở mức “trung bình” hoặc thấp hơn sau khi kiểm tra an toàn mới có thể được sử dụng một cách công khai. Các mô hình được xếp hạng rủi ro “cao” hoặc thấp hơn vẫn có thể được tiếp tục phát triển và cải tiến trước khi được đưa vào sử dụng thực tế.
- Các Biện Pháp Bảo Mật Phù Hợp: Các mô hình có rủi ro cao hoặc nghiêm trọng trước các biện pháp an toàn (giảm thiểu trước) phải tuân theo tất cả các biện pháp bảo mật bổ sung. Cơ chế này đảm bảo rằng ngay cả những mô hình AI có rủi ro cao hơn cũng được gia tăng mức độ đảm bảo an toàn hơn, trước khi chúng được phát triển hoặc sử dụng thêm.
Hệ thống thẻ điểm này là một phần quan trọng trong nỗ lực của OpenAI nhằm đảm bảo cam kết các mô hình AI của họ được quản lý an toàn trong suốt quá trình phát triển và sử dụng.
Ổn Định Ban Lãnh Dạo và Tác Động Của Nó Đối Với Các Sáng Kiến An Toàn AI
Đồng thời với việc công bố kế hoạch an toàn trí tuệ nhân tạo AI mới của mình, công ty OpenAI cũng đã vượt qua một cuộc khủng hoảng lãnh đạo lớn gần đây. Sam Altman, người đồng sáng lập, bất ngờ bị sa thải, dẫn đến phản ứng dữ dội từ phía nhân viên công ty OpenAI. Gần như tất cả nhân viên công ty đều đe dọa sẽ nghỉ việc, trừ khi Altman được bổ nhiệm quay lại vị trí cũ.
May mắn thay, cuộc khủng hoảng trong hệ thống lãnh đạo của công ty đã được giải quyết nhanh chóng. Chỉ mười hai ngày sau khi Altman bị sa thải, anh đã được tái bổ nhiệm làm Giám đốc điều hành. OpenAI cũng đã công bố một ban giám đốc được cải tổ, trong đó có cả sự tham gia của Microsoft với tư cách là quan sát viên không bỏ phiếu. Động thái này được đưa ra sau khi các bên liên quan và hội đồng quản trị của OpenAI đồng ý đưa Altman trở lại để ổn định tình hình của công ty.
Bất chấp tình trạng hỗn loạn, OpenAI vẫn bình yên, duy trì được đội ngũ nhân viên và hệ thống lãnh đạo của mình. Trọng tâm của công ty trí tuệ nhân tạo hàng đầu thế giới này hiện nay là xây dựng niềm tin, nâng cao tính minh bạch và ngăn ngừa các tranh chấp nội bộ trong tương lai.
Những thách thức gần đây trong nội bộ công ty OpenAI và cách giải quyết chúng thực sự quan trọng đối với sự tập trung của công ty vào vấn để bảo mật, an toàn AI. Có được những nhà lãnh đạo kiên định và có tư duy cầu tiến chính là chìa khóa để đảm bảo các quy tắc về an toàn AI, chẳng hạn như “Preparedness Framework” (Khung Chuẩn Bị) được thực thi. Các nhà lãnh đạo của Open AI cần đưa ra những quyết định dứt khoát và có trách nhiệm, đặc biệt khi nói đến các mô hình AI tiên tiến như AGI.