OpenAI đạt thỏa thuận với Bộ Chiến tranh Mỹ để triển khai các mô hình trên mạng lưới mật, kèm điều khoản cấm dùng cho giám sát hàng loạt trong nước và yêu cầu mọi sử dụng vũ lực phải tuân thủ nguyên tắc trách nhiệm của con người.
Thông tin do Sam Altman đăng trên X ngày 28/02. OpenAI cho biết sẽ bổ sung lớp bảo mật kỹ thuật, chỉ vận hành mô hình trên mạng đám mây của mình và cử FDEs tham gia công tác an ninh mô hình trong triển khai.
OpenAI xác nhận đã đạt thỏa thuận với Bộ Chiến tranh Mỹ để đưa mô hình vào mạng lưới mật, đồng thời cấm sử dụng cho giám sát hàng loạt trong nước và ràng buộc nguyên tắc trách nhiệm của con người đối với mọi dùng vũ lực.
Theo nội dung được nêu, thỏa thuận nhấn mạnh rằng mọi hoạt động liên quan đến sử dụng vũ lực, bao gồm khả năng ứng dụng trong các hệ thống vũ khí tự động, phải tuân thủ nguyên tắc human responsibility. Điều khoản này đặt trọng tâm vào vai trò và trách nhiệm của con người trong quyết định và vận hành.
Thỏa thuận cũng nêu rõ phạm vi hạn chế: không được dùng các mô hình cho domestic mass surveillance. Đây là điều khoản nhằm ngăn việc triển khai công nghệ AI vào giám sát diện rộng trong lãnh thổ Mỹ, dù mô hình được vận hành trong bối cảnh an ninh/quốc phòng.
OpenAI cho biết sẽ xây dựng các biện pháp bảo mật kỹ thuật, chỉ vận hành mô hình trên mạng đám mây của OpenAI và triển khai FDEs để tham gia công việc bảo mật mô hình trong quá trình triển khai.
Việc chỉ chạy mô hình trên cloud của OpenAI được mô tả như một cơ chế kiểm soát môi trường vận hành, gắn với các lớp safeguards mà công ty cam kết xây dựng. OpenAI cũng nêu việc đưa FDEs tham gia trực tiếp vào công tác an ninh mô hình, tập trung vào triển khai trên mạng lưới mật.
Ngoài thỏa thuận riêng, OpenAI cho biết đã kêu gọi Bộ Chiến tranh Mỹ đưa ra các điều khoản tương tự cho những công ty AI khác, với mục tiêu thay thế xung đột pháp lý và quy định bằng các thỏa thuận. Sam Altman công bố thông tin này trên X ngày 28/02.

