Tác giả: Melissa Parke
Đỗ Kim Thêm dịch
14/11/2023
" Chúng ta biết rằng, các hệ thống tự động có thể hạ thấp ngưỡng tham gia vào cuộc xung đột có vũ trang. Khi áp dụng cho vũ khí hạt nhân, thông minh nhân tạo đang gây thêm một lớp rủi ro khác vào mức độ nguy hiểm mà vốn dĩ nó đã không thể chấp nhận được. Điều đáng chỉ trích là, các nhà hoạch định chính sách và công chúng nhận ra điều này và đấu tranh không chỉ để tránh áp dụng thông minh nhân tạo cho vũ khí hạt nhân, mà còn loại bỏ hoàn toàn những vũ khí như vậy".
Ảnh minh họa. Nguồn: IG_Royal/ Getty Images
Lịch sử hạt nhân đầy rẫy những lần suýt gây ra tai nạn, mà thảm họa được ngăn chặn bởi con người. Họ tin tưởng vào phán đoán của chính mình, thay vì mù quáng theo dõi thông tin do máy móc cung cấp. Áp dụng thông minh nhân tạo vào vũ khí hạt nhân, làm tăng cơ hội mà trong thời gian sắp tới không ai có thể ngăn chặn được vụ phóng bom hạt nhân.
Không còn là chuyện khoa học viễn tưởng nữa: Cuộc chạy đua trong việc ứng dụng thông minh nhân tạo vào các hệ thống vũ khí hạt nhân đang diễn ra, một sự phát triển có thể khiến chiến tranh hạt nhân dễ xảy ra hơn. Với việc các chính phủ trên toàn thế giới đang hành động để bảo đảm sự phát triển an toàn và ứng dụng của thông minh nhân tạo, nên có cơ hội giảm thiểu nguy cơ này. Nhưng nếu các nhà lãnh đạo trên thế giới muốn nắm bắt được nó, trước tiên họ phải nhận ra mối đe dọa nghiêm trọng như thế nào.
Trong những tuần gần đây, khối G7 đã đồng thuận về Quy tắc Ứng xử quốc tế của Quy trình Hiroshima dành cho các tổ chức đang phát triển hệ thống thông minh nhân tạo tiên tiến, nhằm “thúc đẩy cho thông minh nhân tạo trên toàn thế giới được an toàn, bảo mật và đáng tin cậy” và Tổng thống Mỹ Joe Biden đã ban hành sắc lệnh hành pháp để thiết lập các tiêu chuẩn mới về “an toàn và bảo mật” cho thông minh nhân tạo.Vương quốc Anh cũng đã tổ chức lần đầu tiên một cuộc họp thượng đỉnh trong toàn cầu về an toàn cho thông minh nhân tạo với mục tiêu bảo đảm rằng công nghệ được phát triển theo một phương cách “an toàn và có trách nhiệm”.
Nhưng không có một sáng kiến nào trong số này giải quyết phù hợp về các rủi ro mà việc áp dụng thông minh nhân tạo vào vũ khí hạt nhân gây ra. Cả bộ quy tắc ứng xử của khối G7 và sắc lệnh hành pháp của Biden chỉ đề cập đến việc thông qua nhu cầu bảo vệ dân chúng khỏi các mối đe dọa hóa học, sinh học và hạt nhân do thông minh nhân tạo tạo ra. Thủ tướng Anh Riski Sunak không đề cập đến mối đe dọa cấp thời do việc áp dụng thông minh nhân tạo liên quan đến vũ khí hạt nhân gây ra, ngay cả khi ông tuyên bố rằng, một sự hiểu biết chung về những rủi ro do thông minh nhân tạo gây ra đã đạt được tại Hội nghị Thượng đỉnh về an toàn cho thông minh nhân tạo.
Không ai nghi ngờ về những nguy cơ sinh tồn do việc sử dụng vũ khí hạt nhân gây ra mà nó sẽ tàn phá không kể xiết cho nhân loại và hành tinh. Ngay cả một cuộc chiến tranh hạt nhân khu vực cũng sẽ trực tiếp giết chết hàng trăm ngàn người, đồng thời dẫn đến đau khổ và tử vong gián tiếp đáng kể. Chỉ riêng những biến đổi khí hậu đã đe dọa hàng tỷ người chết đói.
Lịch sử hạt nhân đầy rẫy những lần suýt gây ra tai nạn. Thông thường là cuộc chiến tận thế đã bị ngăn chặn bởi con người, họ tin tưởng vào sự phán đoán của chính họ, thay vì mù quáng theo dõi thông tin được cung cấp bởi máy móc. Năm 1983, sĩ quan Liên Xô Stanislav Petrov nhận được báo động từ hệ thống tiên báo của vệ tinh mà ông đang theo dõi: Tên lửa hạt nhân của Mỹ đã được phát hiện hướng về phía Liên Xô. Nhưng thay vì cảnh báo ngay cho thượng cấp, chắc chắn sẽ kích hoạt “sự trả đũa” bằng hạt nhân, Petrov xác định đúng rằng, đó là một cuộc báo động giả.
Liệu Petrov có thực hiện cuộc báo tin tương tự, hoặc thậm chí có cơ hội làm như vậy không, nếu có sự tham gia của trí thông minh nhân tạo? Thật ra, việc áp dụng máy móc đã được học vào vũ khí hạt nhân sẽ làm giảm sự kiểm soát của con người đối với các quyết định triển khai chúng.
Tất nhiên, khối lượng công việc về việc chỉ huy, kiểm soát và liên lạc ngày càng tăng lên, nay đã được tự động hóa kể từ khi vũ khí hạt nhân được phát minh. Nhưng với sự tiến bộ của máy móc, tiến trình mà chúng đưa ra quyết định ngày càng trở nên mơ hồ, thứ được gọi là “vấn đề hộp đen” của thông minh nhân tạo. Điều này gây khó khăn cho con người trong việc giám sát hoạt động của máy, chưa nói đến việc xác định xem nó có gây nguy hiểm, trục trặc hay được lập trình theo cách có thể dẫn đến các kết quả bất hợp pháp hoặc vô ý hay không.
Bảo đảm một cách đơn giản rằng con người đưa ra quyết định phóng [vũ khí hạt nhân] cuối cùng sẽ không đủ để giảm thiểu những rủi ro này. Như nhà tâm lý học John Hawley kết luận trong một nghiên cứu năm 2017 là, “Con người rất kém trong việc đáp ứng các yêu cầu giám sát và can thiệp do giám sát đặt ra“.
Hơn nữa, như Chương trình Khoa học và An ninh Toàn cầu của Đại học Princeton cho thấy năm 2020 là, tiến trình ra quyết định của các nhà lãnh đạo trong một cuộc khủng hoảng hạt nhân rất vội vàng. Ngay cả khi thông minh nhân tạo chỉ được sử dụng trong các cảm biến và nhắm mục tiêu, thay vì đưa ra quyết định phóng vũ khí hạt nhân, nó sẽ rút ngắn thời gian vốn dĩ đã eo hẹp để quyết định có nên tấn công hay không. Áp lực gia tăng đối với các nhà lãnh đạo sẽ làm tăng nguy cơ của việc tính toán sai lầm hoặc lựa chọn không hợp lý.
Tuy nhiên, một rủi ro khác phát sinh từ việc sử dụng thông minh nhân tạo trong vệ tinh và các hệ thống tình báo khác phát hiện: Điều này sẽ khiến việc che giấu vũ khí hạt nhân trở nên khó khăn hơn, chẳng hạn như tàu ngầm tên lửa đạn đạo từ trong lịch sử vốn nó đã được che giấu. Điều này có thể thúc đẩy các quốc gia có trang bị vũ khí hạt nhân phối trí tất cả vũ khí hạt nhân của họ sớm hơn trong một cuộc xung đột, trước khi đối thủ có cơ hội làm tê liệt các hệ thống hạt nhân đã được biết đến.
Cho đến nay, không có sáng kiến nào, từ sắc lệnh hành pháp của tổng thống Biden đến bộ quy tắc ứng xử của khối G7, vượt ra ngoài cam kết tự nguyện để bảo đảm con người giữ quyền kiểm soát việc ra quyết định về vũ khí hạt nhân. Tuy nhiên, như Tổng thư ký Liên Hiệp Quốc Antonio Guterres ghi nhận, một hiệp ước có ràng buộc về mặt pháp lý cấm “các hệ thống vũ khí tự động gây sát thương” là quan trọng.
Mặc dù một hiệp ước như vậy là bước đầu tiên cần thiết, tuy nhiên, nhiều nhu cầu khác cần phải thực hiện. Khi nói đến vũ khí hạt nhân, cố gắng dự đoán, giảm thiểu hoặc điều chỉnh các rủi ro mới được tạo ra bởi công nghệ mới nảy sinh, sẽ không bao giờ là đủ. Chúng ta phải loại bỏ hoàn toàn những vũ khí này ra khỏi phương trình.
Điều này có nghĩa là tất cả các chính phủ phải cam kết phân loại, cấm đoán và loại bỏ vũ khí hạt nhân bằng cách tham gia Hiệp ước Cấm Vũ khí Hạt nhân, mà nó đưa ra một lộ trình rõ ràng để hướng tới một thế giới không có loại vũ khí như vậy. Điều đó cũng có nghĩa là các quốc gia có trang bị vũ khí hạt nhân phải ngay lập tức ngừng đầu tư vào việc hiện đại hóa và mở rộng kho vũ khí hạt nhân của họ, gồm cả việc nhân danh làm cho chúng “an toàn” hoặc “bảo mật” từ các cuộc tấn công trên mạng. Đứng trước những rủi ro không thể vượt qua được gây ra bởi sự tồn tại đơn thuần của vũ khí hạt nhân, những nỗ lực như vậy về cơ bản là vô ích.
Chúng ta biết rằng, các hệ thống tự động có thể hạ thấp ngưỡng tham gia vào cuộc xung đột có vũ trang. Khi áp dụng cho vũ khí hạt nhân, thông minh nhân tạo đang gây thêm một lớp rủi ro khác vào mức độ nguy hiểm mà vốn dĩ nó đã không thể chấp nhận được. Điều đáng chỉ trích là, các nhà hoạch định chính sách và công chúng nhận ra điều này và đấu tranh không chỉ để tránh áp dụng thông minh nhân tạo cho vũ khí hạt nhân, mà còn loại bỏ hoàn toàn những vũ khí như vậy.
***
Tác giả: Melissa Parke, cựu Bộ trưởng Phát triển Quốc tế Úc, là Giám đốc điều hành của Chiến dịch Quốc tế Xóa bỏ Vũ khí Hạt nhân, tổ chức đã nhận giải Nobel Hòa bình năm 2017.
https://baotiengdan.com/2023/11/14
Không có nhận xét nào