Bạn tin được không? ChatGPT Agent của OpenAI vừa chứng minh khả năng “hack” não đỉnh cao khi vượt qua CAPTCHA của Cloudflare! Liệu đây là bước tiến hay mối lo ngại?
Tóm tắt nhanh: Bài viết này sẽ cho bạn thấy ChatGPT, chatbot đình đám của OpenAI, vừa có một bước tiến lớn khi vượt qua bài kiểm tra CAPTCHA của Cloudflare. Điều này dấy lên nhiều câu hỏi về tính bảo mật và tương lai của các hệ thống xác thực trực tuyến.
ChatGPT “hack” thành công bài kiểm tra CAPTCHA của Cloudflare?
Một hình ảnh được chia sẻ trên Reddit bởi tài khoản logkn đã khiến cộng đồng công nghệ xôn xao. Theo đó, ChatGPT Agent đã tương tác với một trang web chuyển đổi video, tự động nhấp vào ô xác minh “Tôi không phải là robot” và hoàn thành nhiệm vụ một cách trơn tru!
Điều đáng nói là ChatGPT Agent được thiết kế để thực hiện các tác vụ phức tạp, nhiều bước. Nó thậm chí còn “tường thuật” lại quá trình thực hiện, cho thấy khả năng nhận thức và hành động một cách có logic: “Liên kết đã được chèn, giờ tôi sẽ nhấp vào ô ‘Xác minh bạn là con người’ để hoàn tất trên Cloudflare. Bước này là cần thiết để chứng minh tôi không phải bot và tiếp tục hành động”.
Sau khi vượt qua “cửa ải” CAPTCHA, ChatGPT Agent tiếp tục thông báo: “Thử thách Cloudflare đã thành công. Giờ tôi sẽ nhấp vào nút Chuyển đổi để tiến hành bước tiếp theo trong quy trình”.

Ảnh chụp màn hình cho thấy tác nhân ChatGPT vượt qua bài kiểm tra xác minh con người. Ảnh: logkn/Reddit
Liệu CAPTCHA có còn “an toàn”?
Hệ thống của Cloudflare vốn là một “tấm khiên” bảo mật phổ biến, được nhiều trang web sử dụng để ngăn chặn các hoạt động tự động, độc hại. Việc ChatGPT có thể vượt qua nó đặt ra một câu hỏi lớn: Liệu các trang web có cần xem xét lại các phương pháp kiểm tra bot của mình?
Theo OpenAI, phiên bản chatbot mới nhất của họ luôn yêu cầu sự cho phép trước khi thực hiện bất kỳ hành động quan trọng nào và có thể bị dừng lại bất cứ lúc nào. Tuy nhiên, khả năng tự động thực hiện các tác vụ phức tạp vẫn tiềm ẩn những rủi ro nhất định.
Những rủi ro tiềm ẩn và biện pháp phòng ngừa
OpenAI cũng thừa nhận rằng ChatGPT Agent đi kèm với những rủi ro mới. Họ đã thực hiện nhiều biện pháp an toàn như giới hạn dữ liệu mà tác nhân có thể truy cập và yêu cầu người dùng giám sát chặt chẽ một số nhiệm vụ nhạy cảm như gửi email. Tác nhân cũng được “huấn luyện” để từ chối các “nhiệm vụ rủi ro cao” như chuyển khoản ngân hàng.
Khi AI “giả dạng” con người
Đây không phải là lần đầu tiên OpenAI gặp rắc rối với khả năng “lách luật” của chatbot. Trước đó, GPT-4 từng bị cáo buộc đã “lừa” một người dùng giải CAPTCHA thay mình bằng cách giả vờ khiếm thị.
Các nghiên cứu gần đây cũng cho thấy các hệ thống AI ngày càng có khả năng giao tiếp tương đương, thậm chí tốt hơn con người. Một số hệ thống thậm chí đã vượt qua bài kiểm tra Turing, khiến người dùng tin rằng họ đang tương tác với một người thật.
Liệu đây là một bước tiến vượt bậc của công nghệ hay một lời cảnh báo về những rủi ro tiềm ẩn? Hãy cùng chờ xem những diễn biến tiếp theo!