Theo một chuyên gia, sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo (AI) đặt ra một thách thức đối với an ninh quốc tế và có thể được các bên thứ ba lợi dụng để đẩy các địch thủ hạt nhân vào một cuộc xung đột thảm khốc.

Ông James Johnson, một giảng viên về nghiên cứu chiến lược tại Đại học Aberdeen cho biết, “Công nghệ có sự hỗ trợ của AI đang nhanh chóng trở thành một năng lực khác trong bộ dụng cụ của các tác nhân thuộc bên thứ ba để thực hiện các chiến dịch thông tin sai lệch và lừa dối, mà cả hai bên trong một cuộc đối đầu cạnh tranh, [chẳng hạn như] Hoa Kỳ và Trung Quốc, có thể đã sử dụng để chống lại các tác nhân này.” 

Các nhóm tận dụng AI, cho dù họ có phải là các quốc gia hay không, cũng sẽ có một “hiệu quả chiến lược vượt trội” trong những năm tới, ông Johnson cho biết trong một hội thảo trên web về cạnh tranh AI giữa Trung Quốc và Hoa Kỳ do Viện Nghiên cứu Chiến lược Quốc tế tổ chức.

Ông bày tỏ lo ngại rằng các tác nhân phi nhà nước hoặc các tác nhân thuộc bên thứ ba khác có thể tận dụng các công nghệ quan trọng mới nổi để chống lại các cường quốc hạt nhân, cản trở khả năng tiến hành các hoạt động quân sự của họ hoặc lôi kéo họ vào một cuộc xung đột hạt nhân không chủ đích.

Ông Johnson nói, “Về lý thuyết, một tác nhân phi nhà nước có thể nhắm mục tiêu vào các hệ thống chỉ huy và điều khiển hạt nhân, vệ tinh cảnh báo sớm, và radar, bằng vũ khí mạng được tăng cường bởi AI mà không cần bất kỳ cuộc tấn công động học hay vật lý nào, chứ chưa kể đến việc sở hữu vũ khí hạt nhân.” 

Ông Johnson nói rằng AI sẽ giảm đáng kể ngưỡng năng lực cần có cho cái gọi là các cuộc tấn công cờ giả (tức mạo danh để tấn công nhằm kích phát mâu thuẫn), cho phép một cách hiệu quả các nhóm nhỏ với nguồn lực hạn chế tham gia vào các cuộc tấn công được mưu toan nhằm đánh lạc hướng các quốc gia.

Ví dụ, một nhóm tin tặc có thể đánh lừa các nhà lãnh đạo và/hoặc hệ thống của Hoa Kỳ hoặc Trung Quốc để họ tin rằng họ đang bị tấn công, từ đó kích hoạt một cuộc phản công, lừa cho quốc gia này tấn công quốc gia kia một cách hiệu quả.

Ông Johnson cho biết, “sự gia tăng ồ ạt” trong tốc độ ra quyết định của máy móc vượt quá sự hiểu biết của con người, cũng như trong việc áp dụng rộng rãi các hệ thống AI, có thể dẫn đến mất khả năng kiểm soát hoặc ngăn chặn các sự kiện như vậy.

“Hãy tưởng tượng, thí dụ, nếu Cuộc khủng hoảng Hỏa tiễn Cuba bị cắt ngắn từ 13 ngày xuống còn vài giờ, vài phút, hoặc thậm chí vài nano giây,” ông Johnson nói.

Ông Johnson cho rằng, góp phần vào mối đe dọa này là thực tế rằng Trung Quốc, Nga và Hoa Kỳ đều giữ một phần lực lượng hạt nhân của họ ở tư thế được gọi là “phóng khi có cảnh báo”. Điều này có nghĩa là các quốc gia sẽ tiến hành các cuộc tấn công hạt nhân trả đũa khi nhận được cảnh báo rằng họ đang bị tấn công hạt nhân, thay vì chờ một vụ nổ để biết chắc rằng có một cuộc tấn công như vậy đã thực sự xảy ra.

Do đó, nếu một nhóm tin tặc kích hoạt một trong những hệ thống cảnh báo hạt nhân của các quốc gia này, thì rất có khả năng họ sẽ kích hoạt một cuộc tấn công hạt nhân thực sự.

Ông Johnson nói rằng các bên thứ ba sử dụng các chiến thuật như vậy “có thể đưa hai hoặc nhiều địch thủ có vũ khí hạt nhân đến bờ vực” và sẽ là một lực lượng gây bất ổn trong những năm tới.

Ông Johnson cho hay, “Viễn cảnh này đang nhanh chóng trở thành một kịch bản hợp lý.”

Ông Johnson cũng giải thích rằng các hoạt động dường như không liên quan gì đến hệ thống cảnh báo hạt nhân vẫn có thể tàn phá các hoạt động và sự lãnh đạo quân sự và dân sự. Ông nói, các video hoán đổi khuôn mặt (deepfake) và các hoạt động thông tin sai lệch khác được thiết kế để thúc đẩy việc tính toán sai lầm và quan niệm sai lầm trong giới lãnh đạo quốc gia có khả năng sẽ gia tăng và có thể dẫn đến hậu quả tương tự.

Sự can thiệp như vậy đối với bối cảnh thông tin trong một cuộc khủng hoảng giữa hai cường quốc hạt nhân, trong đó thông tin liên lạc đã bị xâm phạm và việc ra quyết định bị dồn trong một thời gian ngắn, có thể dẫn đến tình huống xấu nhất.

Ông Johnson nói: “Hậu quả của những hoạt động thông tin kiểu này có thể rất thảm khốc.”

Vì vậy, ông Johnson nói rằng lỗi do con người và lỗi do máy móc có thể sẽ kết hợp lại để tạo thành những kết quả khó lường và không mong muốn, khi các công nghệ mới xuất hiện và được khai triển.

“Nói tóm lại, khả năng phán đoán và kiểm soát tuyệt đối của con người cùng với tính chất dễ đổ vỡ vốn có hay là việc thiếu bối cảnh hoặc thiếu suy nghĩ thường thức của các thuật toán máy hiện có, nguy cơ xảy ra các sự cố gây mất ổn định và cảnh báo sai sẽ tăng lên,” ông Johnson nói.

Để ngăn chặn một thảm họa không thể tiết giảm, ông Johnson nói rằng các quốc gia nên hành động ngay bây giờ và thực hiện các bước chủ động để phòng vệ trước các cuộc tấn công và tính toán sai lầm như vậy. Ông đề nghị cần thực hiện các cải tiến đối với chỉ huy và kiểm soát, thực hiện các mạng lưới dự phòng đối với các giao thức hạt nhân, và các chuẩn tắc mới sẽ được phát triển giữa các đồng minh và đối thủ liên quan đến việc sử dụng và khai triển AI.

Ông Johnson khẳng định: “Giờ là lúc chủ động can thiệp trước khi quá muộn.”

Ông Andrew Thornebrooke là một phóng viên của The Epoch Times, chuyên đưa tin về các vấn đề liên quan đến Trung Quốc với trọng tâm là quốc phòng, các vấn đề quân sự, và an ninh quốc gia. Ông có bằng Thạc sĩ lịch sử quân sự tại Đại học Norwich.

Minh Ngọc biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times

Xem thêm: