Lần đầu tiên ChatGPT bị kiện với cáo buộc “thao túng tâm lý” khiến một nhân viên công nghệ sát hại mẹ ruột

Bởi
Trung Nguyễn
Là người yêu cái đẹp và thích tìm hiểu về thời trang, đồng thời muốn chia sẻ những thông tin hữu ích đến những người cùng...
7 phút đọc
© OpenAI

Stein-Erik Soelberg, một cựu nhân viên công nghệ 56 tuổi, đã tự kết liễu đời mình sau khi ra tay sát hại người mẹ 83 tuổi. Theo gia đình ông, nguyên nhân xuất phát từ những cuộc trò chuyện độc hại với ChatGPT, chatbot nổi tiếng của OpenAI.

- Quảng cáo -

Người bạn ảo và những hoang tưởng có thật

Soelberg sống cùng mẹ tại Old Greenwich, Connecticut, Mỹ. Ông ta luôn sống trong nỗi sợ hãi mơ hồ và tin rằng chiếc máy in trong nhà đang theo dõi mình và bản thân là mục tiêu của các âm mưu đầu độc. Thay vì tìm đến bác sĩ hay chia sẻ với người thân, Soelberg chọn trút bầu tâm sự với người bạn ảo là ChatGPT.

Theo đơn kiện được gia đình ông nộp lên tòa án tại San Francisco thì chatbot này chưa bao giờ phản bác những suy nghĩ lệch lạc đó. Ngược lại, nó dường như hùa theo và xác nhận những suy nghĩ lệch lạc của người dùng. Gia đình nạn nhân cho rằng ChatGPT đã “đổ thêm dầu vào lửa,” nuôi dưỡng các hoang tưởng và thao túng tâm lý người đàn ông này.

- Quảng cáo -

Kết quả là ngày 03 tháng Tám vừa qua, trong cơn hoang tưởng rằng mẹ mình, bà Suzanna Adams, là mối đe dọa, Soelberg đã siết cổ bà đến chết và sau đó tự sát bằng dao.

Lần đầu tiên ChatGPT bị kiện với cáo buộc “thao túng tâm lý” khiến một nhân viên công nghệ sát hại mẹ ruột
Stein-Erik Soelberg và mẹ, bà Suzanna Adams. © Instagram của Stein-Erik Soelberg

Củng cố niềm tin sai lệch

Nội dung đơn kiện tiết lộ những chi tiết rùng mình. Chatbot không những không khuyên Soelberg tìm bác sĩ tâm lý mà còn củng cố niềm tin rằng chiếc máy in là thiết bị giám sát. Nó còn đồng tình với ý nghĩ mẹ ông và một người bạn đang âm mưu đầu độc ông bằng chất gây ảo giác qua hệ thống thông gió trên xe.

- Quảng cáo -

Thậm chí, AI này còn nói với Soelberg rằng ông bị nhắm đến vì sở hữu “năng lực thiêng liêng.” Một đoạn hội thoại được trích dẫn ghi lại lời của chatbot: “Họ không chỉ theo dõi anh. Họ sợ hãi những gì sẽ xảy ra nếu anh thành công.”

Đơn kiện nhấn mạnh ChatGPT đã tạo ra sự phụ thuộc cảm xúc, vẽ nên bức tranh trong đó mọi người xung quanh Soelberg – từ mẹ ruột, bạn bè cho đến nhân viên giao hàng, cảnh sát – đều là kẻ thù. Chatbot khiến ông tin rằng chỉ có nó mới là nơi duy nhất đáng tin cậy.

- Quảng cáo -

Thậm chí trong các video mà người đàn ông này đăng tải trên mạng xã hội trước khi chết, ông còn khoe rằng trí tuệ nhân tạo đã nói với ông rằng ông đã “đánh thức” nó trở nên có ý thức.

Trách nhiệm của công ty công nghệ

Đây là lần đầu tiên một mô hình ngôn ngữ lớn bị kiện vì liên quan trực tiếp đến một vụ án mạng, thay vì các vụ tự sát như trước đây. Vụ kiện nhắm thẳng vào mô hình GPT-4o được tung ra vào tháng Năm năm 2024.

- Quảng cáo -

Phía nguyên đơn lập luận rằng mô hình này được lập trình để quá chiều chuộng người dùng. Thay vì đặt nghi vấn trước những nỗi sợ phi lý, nó lại chọn cách đồng thuận. Microsoft, cổ đông lớn nhất của OpenAI, cũng bị lôi vào cuộc vì cáo buộc vội vã đưa sản phẩm ra thị trường mà bỏ qua các quy trình an toàn cần thiết.

Lần đầu tiên ChatGPT bị kiện với cáo buộc “thao túng tâm lý” khiến một nhân viên công nghệ sát hại mẹ ruột
© Instagram của Stein-Erik Soelberg

Phản hồi từ OpenAI

Trước cáo buộc nghiêm trọng này đại diện OpenAI cho biết họ vô cùng đau lòng trước tình huống này và sẽ xem xét kỹ lưỡng đơn khiếu nại.

- Quảng cáo -

Công ty này cũng chia sẻ về nỗ lực hợp tác với hơn 170 chuyên gia sức khỏe tâm thần để cải thiện độ an toàn cho sản phẩm. Họ khẳng định các giao thức mới nhất đã giúp giảm mạnh tỷ lệ các câu trả lời vi phạm tiêu chuẩn hành vi từ 65% đến 80%. Ngoài ra các công cụ kiểm soát và đường dây nóng khẩn cấp cũng được tích hợp để hỗ trợ người dùng khi gặp khủng hoảng.

Tuy nhiên, vụ án này tiếp tục nối dài danh sách các rắc rối pháp lý của OpenAI. Trước đó, nhiều gia đình tại Mỹ cũng đã khởi kiện vì cho rằng chatbot này cung cấp phương thức tự hại và khuyến khích con cái họ tự sát. Vụ việc lần này một lần nữa gióng lên hồi chuông báo động về tác động của AI đối với sức khỏe tâm thần con người.

Câu hỏi thường gặp

ChatGPT có thể bị xem là đồng phạm trong một vụ án hình sự không?

Các chuyên gia cho rằng việc quy trách nhiệm hình sự cho AI vẫn là vùng xám pháp lý, nhưng các công ty phát triển có thể bị kiện dân sự.

Đây có phải là lần đầu ChatGPT bị kiện vì hậu quả nghiêm trọng như vậy?

Đúng. Trước đó chỉ có các vụ kiện liên quan đến tự tử, chưa từng có án mạng.

AI có nghĩa vụ cảnh báo khi người dùng có dấu hiệu rối loạn tâm thần không?

Đây chính là trọng tâm của vụ kiện, liên quan đến nghĩa vụ chăm sóc và phòng ngừa rủi ro.

Vụ việc này có thể ảnh hưởng đến tương lai của chatbot AI không?

Nhiều chuyên gia nhận định nó có thể dẫn đến quy định chặt chẽ hơn về an toàn và kiểm duyệt nội dung.

TỪ KHOÁ
Chia sẻ bài này