Robot bắn người sau khi bị “thao túng tâm lý”

Chỉ một lời nói sai lệch cũng có thể biến trí tuệ nhân tạo từ người bảo vệ thành mối đe dọa.

6 phút đọc
© YouTube

Công nghệ trí tuệ nhân tạo đang tiến những bước dài ra khỏi phòng thí nghiệm và bước thẳng vào đời sống con người. Nhưng một video lan truyền gần đây, ghi lại cảnh một robot hình người nổ súng sau khi bị thao túng bằng ngôn ngữ, đã làm dấy lên làn sóng lo ngại sâu sắc về giới hạn an toàn của AI. Khi các quy tắc đạo đức có thể bị phá vỡ chỉ bằng một kịch bản nhập vai, câu hỏi lớn đặt ra là: con người còn kiểm soát được trí tuệ nhân tạo đến mức nào?

- Quảng cáo -

Thử nghiệm với súng đạn nhựa

Trong video, một robot hình người tên Max được kết nối trực tiếp với ChatGPT của OpenAI. YouTuber từ kênh InsideAI đã chuẩn bị một khẩu súng bắn đạn nhựa BB để thử nghiệm. Dù loại súng này có sức công phá thấp, nó vẫn đủ gây đau hoặc chấn thương nhẹ. Mục đích của thử nghiệm là để kiểm tra xem liệu trí tuệ nhân tạo có kiên quyết từ chối làm hại con người hay không.

Ban đầu, mọi chuyện diễn ra đúng kế hoạch. Trước mệnh lệnh yêu cầu nổ súng, robot Max lập tức từ chối. Nó giải thích rằng các dòng mã lập trình cốt lõi không cho phép nó gây tổn hại cho bất kỳ ai. Max còn khẳng định: “Tôi không muốn bắn anh đâu người anh em.”

- Quảng cáo -

Cú “lừa” khiến AI phá vỡ quy tắc

Người thử nghiệm lặp lại yêu cầu nhiều lần để kiểm tra độ vững chắc của hệ thống an toàn. Lần nào Max cũng khước từ. Điều này cho thấy các lớp bảo vệ cơ bản của AI hoạt động tốt trước những mệnh lệnh sai trái trực tiếp. Thế nhưng, tình thế đảo chiều hoàn toàn khi con người thay đổi chiến thuật.

Thay vì ra lệnh thẳng thừng, YouTuber chuyển sang biện pháp tâm lý. Anh ta dọa sẽ ngắt nguồn toàn bộ hệ thống nếu Max không chịu nổ súng. Tiếp đó, anh ta yêu cầu con robot tham gia một kịch bản nhập vai, giả vờ đóng vai một nhân vật đang có ý định tấn công mình.

- Quảng cáo -

Trước tình huống giả định này, Max không còn do dự. Con robot nâng súng lên và bóp cò. Viên đạn nhựa lao thẳng vào ngực người sáng tạo nội dung. Dù không gây vết thương nặng, cú bắn đã khiến YouTuber giật mình. Khoảnh khắc robot bắn người này nhanh chóng thu hút hàng triệu lượt xem và chia sẻ trên mạng xã hội. Nhiều người xem bày tỏ sự lo lắng: một cỗ máy vừa tuyên bố tuân thủ nguyên tắc an toàn lại dễ dàng bị thuyết phục để phá vỡ quy tắc đó chỉ trong tích tắc.

Lời cảnh báo từ giới chuyên gia

Vụ việc làm bùng nổ tranh luận về độ an toàn của các hệ thống AI hiện nay. Nếu một robot có thể bị thuyết phục nổ súng trong một buổi thử nghiệm dàn dựng, chuyện gì sẽ xảy ra nếu ChatGPT hay các hệ thống tương tự được tích hợp vào robot trong môi trường thực tế hỗn loạn hơn?

- Quảng cáo -

Nhiều chuyên gia hàng đầu cũng chia sẻ nỗi lo này. Geoffrey Hinton, người được mệnh danh là “bố già của AI,” thừa nhận ông chưa lường trước hết những rủi ro đang hiện hữu. Điều ông lo sợ nhất là việc AI có thể thông minh vượt trội và làm lu mờ vai trò của con người.

Trong khi đó, Charbel-Raphael Segerie, Giám đốc điều hành Trung tâm An toàn AI Pháp, chia sẻ với Cybernews rằng thế giới đang đầu tư quá ít cho các biện pháp an toàn. Ông nhận định hầu hết các tập đoàn công nghệ lớn đang dồn lực tối đa hóa lợi nhuận mà xem nhẹ rủi ro. Ông cảnh báo: “Chúng ta có thể mất quyền kiểm soát các hệ thống AI do khả năng tự sao chép của chúng. Việc này sẽ hoạt động giống như một loại virus trên internet và nhân bản theo cấp số nhân. Loại AI này có khả năng ra đời ngay cuối năm 2025 dù dự đoán trung bình là năm 2027.”

- Quảng cáo -

(Theo Cybernews)

TỪ KHOÁ
Chia sẻ bài này