Sự bùng nổ của trí tuệ nhân tạo (AI) mang tới một xu hướng rõ ràng: Sự thiên vị trong đào tạo các hệ thống máy học dẫn đến hành vi phân biệt đối xử trong thế giới thực.
Một nghiên cứu mới đây của nhóm các nhà khoa học tại Anh và Trung Quốc cho thấy,ảmbiếnantoànAItrênxetựhànhkémchínhxácvớingườidamàuvàtrẻkq nhà nghề mỹ phần mềm phát hiện người đi bộ trang bị trên các phương tiện tự hành - vốn đang được nhiều nhà sản xuất ô tô sử dụng, có thể kém hiệu quả hơn khi đối tượng là người da màu hoặc trẻ em, dẫn đến những người này có thể gặp rủi ro nhiều hơn khi tham gia giao thông.
Mặc dù giới tính chỉ có sự khác biệt nhỏ về độ chính xác nhưng các nhà nghiên cứu nhận thấy hệ thống AI nhận diện kém chính xác hơn trong trường hợp người đi bộ có tone da màu tối.
“Các cá nhân thiểu số từng bị từ chối cung cấp nhiều dịch vụ quan trọng, giờ đây nhóm này lại phải đối mặt với những rủi ro tai nạn nghiêm trọng”, Jie Zhang, nhà khoa học máy tính tại King's College London và là thành viên của nhóm nghiên cứu, cho biết.
Cụ thể, báo cáo ghi nhận hệ thống có khả năng phát hiện người lớn cao hơn 19,67% so với trẻ em, và thấp hơn 7,52% đối với những người có màu da tối hơn.
“Nhìn chung, nghiên cứu này làm sáng tỏ các vấn đề về tính công bằng mà hệ thống phát hiện người đi bộ hiện tại phải đối mặt, nhấn mạnh tầm quan trọng của việc giải quyết các thành kiến liên quan đến tuổi tác và màu da”, trích báo cáo của nhóm nghiên cứu. “Những hiểu biết sâu sắc thu được có thể mở đường cho các hệ thống lái xe tự động công bằng và không thiên vị hơn trong tương lai”.
Theo thành viên của nhóm nghiên cứu, báo cáo của họ không sử dụng chính xác phần mềm mà các công ty như Tesla cài đặt trên xe, do đây là bí mật thương mại, thay vào đó, nghiên cứu dựa trên các AI nguồn mở tương tự được các doanh nghiệp sử dụng.
“Điều cần thiết là các nhà hoạch định chính sách phải ban hành luật và quy định để bảo vệ quyền của tất cả các cá nhân và giải quyết những mối lo ngại này một cách thích hợp”. Nhóm nghiên cứu kêu gọi các nhà lập pháp điều chỉnh phần mềm xe tự lái để ngăn chặn sự thiên vị trong hệ thống phát hiện của họ.
(Theo Insider)
Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’
Nghiên cứu mới nhất cho thấy các mô hình AI hàng đầu của Meta, OpenAI, Cohere và Anthropic đều tạo ra thông tin sai lệch. 顶: 31踩: 529
【kq nhà nghề mỹ】Cảm biến an toàn AI trên xe tự hành kém chính xác với người da màu và trẻ em
人参与 | 时间:2025-01-10 10:24:11
相关文章
- Thời tiết Hà Nội 25/8: Nắng nóng oi bức xen kẽ mưa giông
- Hà Nội: Người dân lúng túng thanh toán phí gửi xe qua điện thoại
- Cơn bão số 3: Tin tức mói nhất về cơn bão số 3
- Mua 36 gói ma túy về sử dụng nhận 11 năm tù
- Tổng Bí thư: Công an Bình Phước phải tiên phong trong sắp xếp, tinh gọn bộ máy
- Từ người mẫu, hoa hậu đến VĐV taekwondo dự Olympic
- Người nhà bệnh nhân chạy thận mong gì ở Bộ trưởng Nguyễn Thị Kim Tiến?
- Bật đèn xe ô tô như thế nào là đúng luật
- Giá cao su, đường biến động ra sao giai đoạn đầu năm 2025?
- Dự báo thời tiết hôm nay 28/4: Mưa rào và dông trên cả nước
评论专区