Năm 2018, trí tuệ nhân tạo sẽ giả mạo được người

Trí tuệ nhân tạo sẽ học được cách thích nghi và đột nhập vào các hệ thống phòng thủ, chiếm quyền kiểm soát các trợ lý giọng nói và thậm chí giả mạo là người - Ảnh: EAST NEWS
Theo Wired UK, trí tuệ nhân tạo sẽ tiến hóa nhanh hơn và năm 2018 sẽ trở thành một vũ khí nguy hiểm trong tay của tin tặc. Trí tuệ nhân tạo sẽ học được cách thích nghi và đột nhập vào các hệ thống phòng thủ, chiếm quyền kiểm soát các trợ lý giọng nói và thậm chí giả mạo là người.

Còn nhớ vào mùa hè năm 2016, bảy nhóm hacker đã đến Las Vegas để tham gia vào giải đấu Cyber ​​Grand Challenge, một sự kiện trong đó một số hệ thống tự động cạnh tranh bằng cách tấn công các hệ thống tự động khác. Kẻ chiến thắng là một cỗ máy có tên Mayhem, hiện đang được trưng bày tại Bảo tàng lịch sử quốc gia Mỹ ở Washington như là "chủ thể" không phải người đầu tiên giành vị trí đầu tiên trong cuộc thi hacker có uy tín.

Đến năm sau, năm 2017, Mayem không thể lặp lại thành tích của mình và thua đội của người. Rõ ràng, máy đã không có đủ cách tiếp cận sáng tạo, trực giác và nguồn thúc đẩy. Nhưng năm 2018, theo dự báo, tất cả mọi thứ sẽ thay đổi. Tiến bộ trong lý thuyết và thực tiễn của trí tuệ nhân tạo, cũng như đột phá về an ninh mạng, cho thấy các thuật toán học máy sẽ trở thành các yếu tố chính trong việc phòng chống hacker và phản công trên mạng.

Theo Wired UK , hầu hết các chuyên gia về an ninh thông tin (theo một cuộc thăm dò của Cylance là 62% tổng số chuyên gia) đều tin rằng tin tặc sẽ sử dụng trí tuệ nhân tạo như một vũ khí không gian mạng vào năm 2018. Một nhà nghiên cứu dữ liệu của Endgame (nhà phân phối các hệ thống an ninh) đã trình bày hoạt động của một chương trình tự động nghiên cứu môi trường OpenAI Gym và chương trình này đã học được cách ẩn một tệp tin độc hại để phần mềm chống virus không thể phát hiện ra. Không khó để hình dung ra viễn cảnh nhờ một vài công cụ tương tự và những sáng tạo khác, trí tuệ nhân tạo sẽ bước lên một bậc thang tiến hóa cao hơn và tạo ra các hệ thống có thể tự thích ứng, tìm ra lỗ hổng máy tính và sử dụng chúng để gây hại cho con người.

Trí tuệ nhân tạo như vậy sẽ có thể mạo nhận một hệ thống thân thiện với người, ví dụ như một trợ lý giọng nói soạn lịch biểu cho con người chúng ta, kiểm tra thư tín của chúng ta và quản lý ngôi nhà thông minh của chúng ta. Nhưng sẽ ra sao nếu đó là một trí tuệ nhân tạo độc hại? Và sẽ ra sao nếu trí tuệ nhân tạo phát triển đến mức có thể mạo nhận người mà bạn tin cậy, ví dụ bằng cách giả mạo tiếng nói của người đó qua điện thoại, cách trình bày suy nghĩ của người đó trong một bài viết dưới dạng văn bản hoặc chữ ký số trên tài liệu?

Có lẽ đó chính là lý do tại sao Cơ quan các dự án phòng thủ tiên tiến DARPA của Lầu Năm góc đã chi 3,6 triệu USD để phát triển một máy tính Morpheus không thể bị đột nhập. Các nhà khoa học tạo ra một “ổ cứng an toàn” di chuyển dữ liệu một cách ngẫu nhiên bên trong máy tính đồng thời xóa các phiên bản trước đó để kẻ tấn công không thể truy cập thông tin có giá trị ngay cả khi tìm thấy chúng.

Vũ Trung Hương


Loading...

BÌNH LUẬN BÀI VIẾT


Bình luận0

Cảm ơn bạn đã gửi ý kiến.

Bạn đã gửi ý kiến cho bài viết này.