OpenAI, công ty đứng sau chatbot ChatGPT, đang đối mặt với chỉ trích từ giới chức Canada sau vụ xả súng ở Tumbler Ridge. Nguyên nhân là do OpenAI không thông báo cho cảnh sát về tài khoản ChatGPT của nghi phạm, dù tài khoản này đã bị gắn cờ nội bộ trước đó BBC News. Công ty đã cam kết thay đổi chính sách an toàn để ngăn chặn những sự việc tương tự trong tương lai BBC News.
OpenAI cam kết thay đổi chính sách an toàn sau vụ xả súng ở trường học Canada

Điểm chính
- OpenAI bị chỉ trích vì không báo cảnh sát về tài khoản ChatGPT của nghi phạm xả súng [1]
- Nghi phạm xả súng ở Canada được cho là dùng ChatGPT để lên kế hoạch [1]
- OpenAI cam kết thay đổi chính sách an toàn sau vụ việc [1]
Bối cảnh vụ việc
Vụ xả súng xảy ra tại Tumbler Ridge, Canada, khiến giới chức trách đặt câu hỏi về vai trò của OpenAI. Nghi phạm được cho là đã sử dụng ChatGPT để lên kế hoạch và thực hiện hành vi BBC News. Việc OpenAI không thông báo về tài khoản của nghi phạm, dù đã được gắn cờ, đã làm dấy lên lo ngại về trách nhiệm của các công ty công nghệ trong việc đảm bảo an toàn cho người dùng BBC News.
Phản ứng và ảnh hưởng
Giới chức Canada đã lên tiếng chỉ trích OpenAI vì sự chậm trễ trong việc báo cáo thông tin BBC News. Họ cho rằng hành động này có thể đã ngăn chặn được vụ xả súng BBC News. Vụ việc đã gây ra sự phẫn nộ trong cộng đồng và làm dấy lên những cuộc tranh luận về việc sử dụng trí tuệ nhân tạo (AI) trong các hành vi bạo lực BBC News.
Động thái từ OpenAI
Trước tình hình này, OpenAI đã cam kết tăng cường các biện pháp an toàn BBC News. Công ty cho biết sẽ thay đổi cách báo cáo tài khoản cho cảnh sát và sẽ chuyển hoạt động của nghi phạm đến cơ quan thực thi pháp luật nếu bị gắn cờ BBC News. OpenAI cũng thừa nhận nghi phạm đã tạo được tài khoản thứ hai sau khi tài khoản đầu tiên bị cấm, cho thấy lỗ hổng trong hệ thống phát hiện nội bộ của công ty BBC News.





