(ĐTTCO) - Công ty trí tuệ nhân tạo Anthropic cho biết sẽ không tuân thủ yêu cầu của Bộ Quốc phòng Mỹ về việc nới lỏng các biện pháp bảo vệ đối với mô hình AI của mình.

Trong tuyên bố ngày 26-2, Giám đốc điều hành Dario Amodei nhấn mạnh Anthropic phản đối việc để Claude phục vụ “giám sát nội địa diện rộng” hoặc “vũ khí hoàn toàn tự động”.

Theo ông, các hệ thống AI hiện nay chưa đủ độ tin cậy để vận hành vũ khí nếu không có sự kiểm soát trực tiếp của con người, trong khi các cơ chế bảo đảm an toàn cần thiết vẫn chưa được thiết lập đầy đủ.

Ông Amodei cho rằng AI có thể hỗ trợ an ninh quốc gia, nhưng cảnh báo việc triển khai giám sát dựa trên AI ở quy mô lớn có thể gây rủi ro đối với các quyền tự do dân sự.

Truyền thông Mỹ cho biết Lầu Năm Góc đã đàm phán với Anthropic trong nhiều tuần và đang xem xét khả năng xếp công ty này vào diện “rủi ro chuỗi cung ứng”, động thái có thể khiến các nhà thầu quốc phòng như Boeing và Lockheed Martin không được sử dụng phần mềm của hãng.

Phía Lầu Năm Góc khẳng định chỉ tìm cách sử dụng AI cho các mục đích hợp pháp và không triển khai giám sát trái luật hay vũ khí hoàn toàn tự động.

Ánh Vân (trtworld)